【國際編譯】未來人工智能中的顯學:道德哲學

ex machina AI

《人造意識》(Ex Machina, 2015) 電影劇照

今年六月,日本電訊巨頭 SoftBank 推出一款機器人 Pepper,生產商聲稱它的應用將會十分多元,包括護理、育兒,甚至是充當派對的嘉賓角色。Pepper 配備有鏡頭、感應器及重力加速度感測器,讓它能與人進行交流、追蹤人類情感並產生屬於自己的「情感」。

人工智能可能構成人類最大的存在威脅

機器人 Pepper 的訪談影片
雖然 Pepper 這類具有人工智能的機器人還處於初步階段,但經已引起學界及業界對人工智能發展的關注。科學界過去對人工智能發展上的一些憂慮鮮有理會,往往認為是很遙遠的事;不過這種情況正逐步改變。部份科學家已發聲指出人工智能有可能危害人類,著名的理論物理學家霍金早前就向《英國廣播公司》 (BBC) 表示全面的人工智能發展將可能導致人類的滅亡。1

今年初,霍金及數以百名人工智能的研究員簽署公開信,表示若業界再不為人工智能建立保護措施,它將招致人類的滅亡。另一位簽署公開信的電動車公司 Tesla 的行政總裁 Elon Musk 甚至撥出一千萬美金給此項目,並表示人工智能可能構成人類最大的存在威脅。2

道德哲學將成為一項重要的產業板塊

而在本月初的 "Big Think" 節目3加州柏克萊分校的電腦科學教授、也是蜚聲國際的人工智能專家 Stuart Russell,就探討了這一火熱議題,並認為道德哲學將成為這行的一項重要產業板塊。4

喬治亞機器人與智能系統 (GRITS) 實驗室所開發的 Nao 人形機器人,主打友伴功能,也曾參加過 RoboCup 機器人足球聯賽。
他認為人類重視價值的天性及人類作出道德考量的過程將會成為「價值觀公司」 ( values company ) 一項重大的商機,因為機器人日後除了做一般家庭事務,如煮飯、清潔及洗衣外,還會處理更多「人」的項目——他甚至已能想像有朝一日機器人能照料小孩。假設機器人公司會從一個價值觀公司取得機器人的程式預設值,再裝到機器人身上;果真這樣的話,價值觀公司將化身科技界一個不可或缺的環節。

Russell 看好價值觀公司的前景在於,沒有人希望發生機器人在廚房缺乏食物的情況下,誤將家貓烹煮給餓透了的幼童吃的不幸事件。故此,他認為機器人生產商無可避免將會運用大量的價值觀數據,來預設一個理想家居的機器人。

Russell 同樣簽署了公開信。他表示直至目前為止,人工智能的發展都全都集中讓機器人作出「高品質」決策的能力。然而我們仍不知道如何讓機器人具有人類的價值觀。但 Russell 對此事頗為樂觀,並認為在某種意義上說,機器人存在的目的是要幫助我們明白自身的價值,這可能讓人類變得更好。

當前發展 AI 機器人的困難

《機器人倫理學:機器人帶來的倫理與社會衝擊》
Patrick Lin 是加州州立理工大學哲學副教授兼史丹福大學法律學院「網路與社會中心」合聘學者,他參與政府和業界對科技倫理的研究工作,曾於2014 年出版《機器人倫理學》5一書。

他本月初於《華盛頓郵報》撰文6,指出目前「機器人的行動應該像人類一樣」的假設有著兩個問題。第一個問題是,人類對自身該如行動都不是很清楚了,那幫機器人編寫道德程式根本就是在給一個我們不知道正確答案的答案。其次是,如若人工智能最終比我們更有能力的話,這將意味著它會有不同的道德責任,那也就不能按照我們的道德標準去編寫機器人的行為程式了。

當我們討論如何將道德倫理注入人工智能,目前至少面對這兩個問題。首先,要怎麼替機器人編寫程式?假設機器人現在要替我們的家人開車,它應該以遵循法律為先?還是保障乘客安全為先?要盡量減低意外所造成的傷亡?還是僅是在出問題時剎停車輛就好?這些設定都是合理的,但有時候它們之間存在衝突。

舉例說,一輛自動駕駛汽車有時候或許需要違法、又或以乘客的安全去換取路上其他行人的安全。而正確的決定,不論它是怎樣的一個決定,都必然是建基於人類價值上的一種道德原則,而這不是單靠科學家與工程師的聰明才智就能解決的議題。

這個問題會導致另外一個兩難問題。自動車配備持續感應器及網絡連結性的知覺能力,它能作出比我們更快的覺察及反應。此外它的行為是預先設定好的,也就是說連允許撞車的決策都是預先編寫好的,這便陷入一個讓人進退兩難的困境。因為如果是由人駕駛車輛發生事故司機在反應不及的瞬間作出糟糕的決定,那整個事件會被認定成是一個可以被原諒的意外。若換成人工智能,情況卻完全不同——因它所作出的不是反應而已,而是一種預謀 (premeditated)。7

第一台用 3D 列印製造出來的機器人 InMoov
Lin 認為這絕非只是一個哲學問題,而對我們有著真正的影響:一個由人「意外地」造成的意外和由電腦系統「有預謀的」造成的意外,兩者將會有完全不同的法律責任。正如《蜘蛛人》漫畫中所說的「能力越強、責任越大」,科技創造出來的超級英雄會有什麼樣不同的道德與法律責任?這將是在發展人工智能時需要去處理的一個重要議題。

我們對人工智能的恐懼只是反映出我們對人類自身的恐懼:我們了解人類是什麼樣的物種,我們會擔心人工智慧可能會犯了同樣錯誤。但 Lin 認為既然我們能夠教導下一代去做正確的事,我們同樣可以透過在設計中加入倫理考量的方式,避免我們所憂慮的人工智能悲劇。文章最後指出,倫理學 ( Ethics ) 可以創造(價值與行動的)透通性 (transparency),而透通性能帶來信任。我們會需要信任,才能與我們創造出來拯救全人類的科技超人們彼此共存。

相關內容