今年六月,日本電訊巨頭 SoftBank 推出一款機器人 Pepper,生產商聲稱它的應用將會十分多元,包括護理、育兒,甚至是充當派對的嘉賓角色。Pepper 配備有鏡頭、感應器及重力加速度感測器,讓它能與人進行交流、追蹤人類情感並產生屬於自己的「情感」。
人工智能可能構成人類最大的存在威脅
今年初,霍金及數以百名人工智能的研究員簽署公開信,表示若業界再不為人工智能建立保護措施,它將招致人類的滅亡。另一位簽署公開信的電動車公司 Tesla 的行政總裁 Elon Musk 甚至撥出一千萬美金給此項目,並表示人工智能可能構成人類最大的存在威脅。
道德哲學將成為一項重要的產業板塊
而在本月初的 "Big Think" 節目加州柏克萊分校的電腦科學教授、也是蜚聲國際的人工智能專家 Stuart Russell,就探討了這一火熱議題,並認為道德哲學將成為這行的一項重要產業板塊。
Russell 看好價值觀公司的前景在於,沒有人希望發生機器人在廚房缺乏食物的情況下,誤將家貓烹煮給餓透了的幼童吃的不幸事件。故此,他認為機器人生產商無可避免將會運用大量的價值觀數據,來預設一個理想家居的機器人。
Russell 同樣簽署了公開信。他表示直至目前為止,人工智能的發展都全都集中讓機器人作出「高品質」決策的能力。然而我們仍不知道如何讓機器人具有人類的價值觀。但 Russell 對此事頗為樂觀,並認為在某種意義上說,機器人存在的目的是要幫助我們明白自身的價值,這可能讓人類變得更好。
當前發展 AI 機器人的困難
他本月初於《華盛頓郵報》撰文,指出目前「機器人的行動應該像人類一樣」的假設有著兩個問題。第一個問題是,人類對自身該如行動都不是很清楚了,那幫機器人編寫道德程式根本就是在給一個我們不知道正確答案的答案。其次是,如若人工智能最終比我們更有能力的話,這將意味著它會有不同的道德責任,那也就不能按照我們的道德標準去編寫機器人的行為程式了。
當我們討論如何將道德倫理注入人工智能,目前至少面對這兩個問題。首先,要怎麼替機器人編寫程式?假設機器人現在要替我們的家人開車,它應該以遵循法律為先?還是保障乘客安全為先?要盡量減低意外所造成的傷亡?還是僅是在出問題時剎停車輛就好?這些設定都是合理的,但有時候它們之間存在衝突。
舉例說,一輛自動駕駛汽車有時候或許需要違法、又或以乘客的安全去換取路上其他行人的安全。而正確的決定,不論它是怎樣的一個決定,都必然是建基於人類價值上的一種道德原則,而這不是單靠科學家與工程師的聰明才智就能解決的議題。
這個問題會導致另外一個兩難問題。自動車配備持續感應器及網絡連結性的知覺能力,它能作出比我們更快的覺察及反應。此外它的行為是預先設定好的,也就是說連允許撞車的決策都是預先編寫好的,這便陷入一個讓人進退兩難的困境。因為如果是由人駕駛車輛發生事故,司機在反應不及的瞬間作出糟糕的決定,那整個事件會被認定成是一個可以被原諒的意外。若換成人工智能,情況卻完全不同——因它所作出的不是反應而已,而是一種預謀 (premeditated)。
我們對人工智能的恐懼只是反映出我們對人類自身的恐懼:我們了解人類是什麼樣的物種,我們會擔心人工智慧可能會犯了同樣錯誤。但 Lin 認為既然我們能夠教導下一代去做正確的事,我們同樣可以透過在設計中加入倫理考量的方式,避免我們所憂慮的人工智能悲劇。文章最後指出,倫理學 ( Ethics ) 可以創造(價值與行動的)透通性 (transparency),而透通性能帶來信任。我們會需要信任,才能與我們創造出來拯救全人類的科技超人們彼此共存。