隨著人工智慧和機器人技術在未來幾十年的發展,應制定哪些約束條件或法規來確保此類實體不會做出危害人類的行動?一九四二年,作家兼教育工作者以撒. 艾西莫夫(Isaac Asimov,1920-1992)在一篇描述智能機器人與人類互動的短篇小說〈轉圈圈〉中,介紹了著名的「機器人三大法則」。此三大法則為:
一、機器人不得傷害人類,或坐視人類受到傷害;
二、除非違背第一法則,否則機器人必須服從人類命令;
三、除非違背第一或第二法則,否則機器人必須保護自己。
艾西莫夫後來又寫了許多故事,闡述這些簡單的法則可能會帶來的意想不到後果。後來,他擴充了三大法則,補上了另一條:「機器人不可傷害整體人類,也不可知道全人類將受害而袖手旁觀。」這些法則不僅對科幻小說寫作具有重要性,也影響了人工智慧研究。人工智慧專家馬文.明斯基(Marvin Minsky,1927-2016)表示,得知艾西莫夫提的法則之後,他便「不停地思考人的頭腦是如何運作的。無疑地,總有一天我們會造出能夠思考的機器人。但是它們的思考會如何進行?又會想些什麼?對於某些目的,邏輯推演當然適用,但不見得其他情況也管用。而且該怎麼讓製造出來的機器人具有常識、直覺、意識和情感?就此而言,大腦又是如何產生這些的?」
我們還可以設想在某些情境中,這些法則對機器人行為的作用有多麼巨大,例如無法同時照料大量傷兵的機器人軍醫不得不執行檢傷分類,或是自動行駛的無人車必須決定要撞向玩耍的孩童,還是墜入懸崖導致乘客死亡。最後得問,若考慮到機器人的交互作用可能要等到許多年後的未來才看得到後果,它能否真正判定何謂「傷害全人類」?
另可參考
1942 年 奪命軍武機器人 P.75
1976 年 人工智慧倫理 P.135
1982 年 《銀翼殺手》 P.141
1984 年 自動駕駛汽車 P.143
※ 本文為出版社提供書摘,摘自皮寇弗, 柯利弗德.
(2020). AI之書:圖解人工智慧發展史.
pp.72-73.