【來稿】艾西莫夫的機器人三大法則 | 哲學新媒體
來稿

艾西莫夫的機器人三大法則

以「機器人三大法則」聞名的作家艾西莫夫於一九七七年在他的科幻雜誌封面上亮相。他在 這本雜誌中寫了〈思考!〉(“Think!”)這篇故事,進一步發展了人工智慧的概念。機器人如果有思考的話,思考會如何進行?又會想些什麼?而且該怎麼讓製造出來的機器人具有常識、直覺、意識和情感?就此而言,大腦又是如何產生這些的?

您在這裡

難度:
1
以「機器人三大法則」聞名的作家艾西莫夫於一九七七年在他的科幻雜誌封面上亮相。他在 這本雜誌中寫了〈思考!〉(“Think!”)這篇故事,進一步發展了人工智慧的概念。(圖片由時報出版提供。)

隨著人工智慧和機器人技術在未來幾十年的發展,應制定哪些約束條件或法規來確保此類實體不會做出危害人類的行動?一九四二年,作家兼教育工作者以撒. 艾西莫夫(Isaac Asimov,1920-1992)在一篇描述智能機器人與人類互動的短篇小說〈轉圈圈〉中,介紹了著名的「機器人三大法則」。此三大法則為:

一、機器人不得傷害人類,或坐視人類受到傷害;

二、除非違背第一法則,否則機器人必須服從人類命令;

三、除非違背第一或第二法則,否則機器人必須保護自己。

艾西莫夫後來又寫了許多故事,闡述這些簡單的法則可能會帶來的意想不到後果。後來,他擴充了三大法則,補上了另一條:「機器人不可傷害整體人類,也不可知道全人類將受害而袖手旁觀。」這些法則不僅對科幻小說寫作具有重要性,也影響了人工智慧研究。人工智慧專家馬文.明斯基(Marvin Minsky,1927-2016)表示,得知艾西莫夫提的法則之後,他便「不停地思考人的頭腦是如何運作的。無疑地,總有一天我們會造出能夠思考的機器人。但是它們的思考會如何進行?又會想些什麼?對於某些目的,邏輯推演當然適用,但不見得其他情況也管用。而且該怎麼讓製造出來的機器人具有常識、直覺、意識和情感?就此而言,大腦又是如何產生這些的?」

這些法則之所以值得注意且實際有用,在於它們導出了無數可討論的議題。除了艾西莫夫所提的,我們還可以增補其他法則嗎?機器人不應該假裝自己是人類嗎?機器人有必要「知道」自己是機器人嗎?它們是否應該總能為自己的行動解釋理由?萬一恐怖分子不讓每部機器人都了解全盤計畫,因此許多機器人在不違反第一法則的情況下遭到利用而傷害人們,該怎麼辦?

我們還可以設想在某些情境中,這些法則對機器人行為的作用有多麼巨大,例如無法同時照料大量傷兵的機器人軍醫不得不執行檢傷分類,或是自動行駛的無人車必須決定要撞向玩耍的孩童,還是墜入懸崖導致乘客死亡。最後得問,若考慮到機器人的交互作用可能要等到許多年後的未來才看得到後果,它能否真正判定何謂「傷害全人類」?

另可參考

1942 年 奪命軍武機器人 P.75

1976 年 人工智慧倫理 P.135

1982 年 《銀翼殺手》 P.141

1984 年 自動駕駛汽車 P.143

※ 本文為出版社提供書摘,摘自皮寇弗, 柯利弗德. (2020).  AI之書:圖解人工智慧發展史. pp.72-73.

時報文化出版公司成立於一九七五年,並於一九九九年股票上櫃公開發行,於二○○八年脫離中時集團非屬旺中,以「尊重智慧與創意的文化事業」為信念。  
訂閱會員推薦
推薦
0 人投票。
訂閱哲學新媒體,支持作者持續創作、打造長長久久的哲普推廣與哲學教育平台。