【書評】人工智慧可能擁有人性嗎? | 哲學新媒體
書評

人工智慧可能擁有人性嗎?

評《當人工智慧懂哲學》
人工智慧目前還停留在專業性的模組上,像是專攻圍棋的 AlphaGo 、專門駕駛車輛的特斯拉。這樣的人工智慧還只是起步,我們所懼怕或追求的,是像人類一般的人工智慧,也就是通用性的人工智慧。...

您在這裡

難度:
2

隨著時代的進步,人工智慧開始進入我們的生活,使得我們的生活更加便利。像是蘋果手機上的語音個人助理 siri 、掃地機器人以及特斯拉的自動駕駛電動車。人工智慧的科技越來越厲害,在不遠的未來,在某些工作上有可能會完全取代人類,比如說,以後只需要告訴車子目的地,即可透過自動駕駛抵達目的,這也意味著,我們再也不需要司機。若是如此,這些科技的進步會不會帶給人們新的危機1呢?

在這些有可能產生的危機中,最令人感到懼怕的,應該就是類似電影《機械公敵》中的場景,智慧型機器人可能進行毀滅人類的行為。著名物理學家史蒂芬·霍金也曾在 2014 年指出,未來的人類將難以抵抗自律型機器人,可能會面臨被毀滅的危機。然而,這是真的有可能的情況嗎?

當人工智慧懂哲學:7個危及人類未來的AI難題 書封
在排除人們有意為之的情況下(像是寫出含有支配人類的程式),如果上述危機要能出現,需要讓人工智慧具備思考能力,並可能會判定人類是值得排除的對象(危害環境的對象或製造方的敵人2),進而毀滅如同地球害蟲般的人類。因此,或許我們可以先試著想想看,人工智慧有沒有可能像一般人一樣運作,具有人性、理解道德並思考哲學?

本文將試著依照《當人工智慧懂哲學》的脈絡,從人工智慧能不能理解語言開始分析,接著討論關於人工智慧如何可能懂得道德、藝術、戀愛等人性特徵,最後說明未來我們面對人工智慧時將會出現哪些可能的問題。

人工智慧能夠理解語言嗎?

語言是人類最厲害的本能,有了語言才使得我們能做出更加複雜的思考,因此,首先我們要先來確認,人工智慧能不能夠懂得語言?美國哲學家約翰·希爾勒曾提出一個名為「中文房間」的思想實驗,透過這個思想實驗就可以得知,人工智慧不可能「真正」懂得語言。中文房間的思想實驗如下:

有一個完全不懂中文的美國人處在一個房間裡,他的工作就是拿取從窗口遞來的中文字條,並且根據對照手冊,把相應的中文寫在字條上,並且遞交給窗外的人。3

希爾勒主張,人工智慧就只是根據它所建立資料庫,依照輸入的語句,挑選出適合回應的語句進行輸出而已。因此,即使一般人能夠跟人工智慧進行正常對話,也不能代表人工智慧具有意識、能夠理解語句的含義。人工智慧只是「看起來像」人類而已,實際上並非如同人腦般的運作。

本書的作者岡本裕一朗指出,中文房間這個實驗太簡略的,並沒有把「語用學 (Pragmatics)」的部分考慮進去,因此並不能視為是一個完備的思想實驗。這部分我想做個簡單的說明,關於「語用學」的部分在這裡有什麼樣的影響。

一般而言,一句話會有其固定的語意,像是「現在幾點鐘了?」相信讀者可以理解這句話的意思,但是,這句話有可能比現在你知道的意思更複雜一些。想像一下以下情況:

半夜時分,媽媽在玄關等到剛進門的 14 歲女兒。
女兒:「媽,你怎麼在這?」
媽媽:「現在幾點鐘了?」
女兒:「呃……凌晨 2 點……」
媽媽:「你知道我不是在問你這個,你最好給我說清楚現在是什麼情況。」

從上述情況可知,媽媽所說的「現在幾點鐘了?」並不是真的要詢問當下的時刻,而是在指責女兒太晚回家。也就是說,根據情境與脈絡,一句話的語意會有所不同。

然而,中文房間所忽略的語用學的部分,的確是「中文房間」這個思想實驗的一個問題。然而,這個問題並非完全無法可解的,就語用學的部分而言,只要我們把「脈絡」因素加入考量,或許可以令人工智慧獲得更正確的判斷。只是這會使得資料庫更加龐大,需要的感測器更多了一些(偵測臉部表情、表達語氣……等等)。對於可以多台透過網路連結的人工智慧而言,可以想像在理想狀況下,只要數量、效能、速度上足夠龐大,要像人類一樣從「有限的資料庫」中即時判斷語句的脈絡,並找到對應的回應,並非完全不可能。4

也就是說,對人類來說,當我們早上走在公園裡,並在相遇的鄰居口中聽到一聲「早安」,我們會知道他是在跟我們打招呼,所以我們也基於禮貌的因素回應一聲「早安」。而人工智慧只是因為在該脈絡的情境下,收到「早安」的刺激時,就要給予「早安」這樣的回應。從外表來看,人類與人工智慧表現出一樣的舉動,但是內在卻完全不一樣,所以人工智慧只是「看起來像」人類而已。儘管人工智慧在溝通或行為上可以看起來像人類,但是人工智慧真的能夠理解語言的含義嗎?這點才是「中文房間」想指出的問題:人工智慧無法真的理解語言的含義,僅僅只是能夠做出正確的回應而已。

儘管我們給語用學的部分給予一個可能的解決辦法,卻依然會遇到丹尼爾·丹尼特指出的「框架問題」5。因為我們所處的環境並不只有語言的部分,還有許多因素需要考慮和判斷,若沒有一個好的解決辦法,將導致人工智慧無法及時且正確地做出應有的判斷6。 

強人工智慧

就目前為止,我們似乎很難想像人工智慧能夠具有像是人類的心靈,但是,儘管現在做不到,不代表未來就辦不到。岡本指出,希爾勒提出中文房間的同時,其實還做出了強跟弱人工智慧的區分,而「強人工智慧」才是具備人類心靈的人工智慧。

我會將人工智慧研究作區分,以「強」、「弱」或是「謹慎」稱呼……站在強人工智慧研究的立場,電腦不再單是純研究心理的工具了。寧可說,適度程式化的電腦,事實上正是一個人的心。7

一般人對於人工智慧的強弱區分,指的是人工智能的效能或是否能夠適當地成為人們使用的「工具」。而希爾勒主張的是對於人工智慧研究的態度:對他而言,弱人工智慧研究,是指把人工智慧當成人類的工具;而強人工智慧研究,目標則是把人工智慧視為一個人的心。(儘管他並不確定強人工智慧是否有成功實現的可能性。)

而岡本就是以「強人工智慧」的角度出發來論述:如果強人工智慧實現了,那麼它就有可能會懂得哲學,會帶給人們一些衝擊與改變。也就是說,人工智慧將會像人一樣擁有心靈。然而,一個非生物的人造物,會可能擁有心靈嗎?岡本認為,並非人工智慧真的擁有心靈,而是我們可以「認同」它有心靈。

我們真的能夠知道我眼前這個人有心智嗎?
關於這部分,我認為岡本的意思是說,就像我們一般人只能知道自己擁有心靈,卻無法得知其他人類是否真的具有心靈,我們也只是因為他人跟自己有著相似的行為舉止,而認同他人跟自己一樣具備心靈 (他心問題8)。同樣地,表現得跟一般人幾乎相同的強人工智慧,我們可以認同它擁有心靈。

當然,如果要說機器像人一樣具有信念似乎不太合理,但是我們可以說一個機器具有意向 (intentional) 。美國哲學家丹尼爾·丹尼特認為,心靈有一個特徵是具有意向,而機器可以算是有意向的,他以自動調溫器為例:

對於自動調溫器而言,自動調溫器雙金屬片彈簧現在的形狀,即為目前室溫的表象,再者,自動調溫器的調節鈕,則可定義為期望中的室溫表象。9

儘管機器並非真的是具有意向,事實上,比較像是一種比喻。然而,就如同上述所說的,從外在的觀察而言,我們可以「認同」機器具有意向的表現。而意向是具有心靈或意識的其中一個特徵

根據上述所論述的,機器有了一點點的意向,看起來像是具有一點點意識,而這一點點的現況,在未來就有可能發展成為一個完整的心靈系統。因此,岡本認為在未來,看似具備人類的心靈的強人工智慧,是有可能出現的,並非完全不可能。

人工智慧能夠懂得公平與正義嗎?

人工智慧建立的資料庫夠大,要像人類一般進行對話以及應對進退應該是不成問題。而像是有關禮貌、讓座、守法等基本倫理道德行為,大概也能夠因所處的環境與社會而做出相對應的正確行為。然而,在一些有爭議的情況發生時,人工智慧真的能夠好好處理嗎?

電車難題:死一個還是死五個?
在本書中以知名的「電車難題」與「自動駕駛」為例來說明這個情況,這兩者是很類似的情況,而「自動駕駛」更是對人工智慧有更多的難處,所以我在以下將會用自動駕駛進行分析與說明。

人工智慧駕駛的車輛在路上跑,一般來說當然沒有問題。然而,若是遇上即將發生事故的情況,人工智慧該怎麼做出判斷呢?岡本在書中提出名為「接送問題」的思想實驗:

自動駕駛車在無人駕駛的情況下,行駛在路上要去接車主。突然有 5 個小朋友闖入馬路,就算煞車也來不及,此時只能藉由改變行進方向才能避免撞上路人。但是,左測是混凝土牆,右側則是駛了一個載有 3 名乘客的車子,這時,自動駕駛車該怎麼辦呢?10

對我們一般人而言,似乎會果斷地主張自動駕駛車應該開往左側撞向混凝土牆,這樣子就不會有任何人類傷亡。然而,這裡要指出的問題是,我們應該設計成「總是讓人工智慧犧牲自己以保護人類嗎?」如果人工智慧已非僅僅是工具般的存在,而可能是一種行為主體時,我們還能總是站在「人類中心主義」的立場下判斷嗎?

我們人類有倫理規範,人對被要求做出符合規範的行為,甚至會被要求對動物或他物符合倫理。但是儘管我們會要求人類要對動物合理對待,卻不會反過來要求動物對人類要符合倫理規範。但是強人工智慧卻會被要求要遵守人的倫理規範,也就是說,人工智慧是人類以外唯一會被要求遵守倫理規範的東西。既然在這部分,人工智慧將會是跟人類站在同等立場的行為主體,岡本認為,那我們是不是也該把人工智慧納入倫理規範之中?

意思是說,我們會要求不能傷害他人,也不能任意傷害人工智慧,反之亦然。同時,我們也會以保護自己的生命為第一要務,那麼人工智慧是不是也應該如此,不應設計讓它「總是」為了保護人類而犧牲自己呢?

試想,如果是一個正常的人類駕駛車輛時遇到了上述的接送問題,我們會很果斷地判斷說,該駕駛「應該」往左轉撞上混凝土牆嗎?大部分的人天生都有保護自己的本能,要求一個人應該傷害自己去保護完全不認識的陌生人,似乎有點像是違反了人性。

我認為最有可能的情況,大概是人類駕駛努力踩下煞車,試圖讓車子停下來,看看有沒有可能沒撞上小朋友。當然,往左或往右彎都是有可能的選擇,端看採取什麼樣的理由支持,有可能是效益論 (Utilitarianism) 或是義務論 (Deontology) ,但是絕對不會是所有都人一面倒地判斷,應該往左側彎撞向混凝土牆。也就是說,對人類而言,這個問題將會是一個很具有爭議,很難果斷判斷的決定。(在緊急的情況下,人類似乎無法理性思考或判斷,或許只能儘量試圖避免其中一種可能產生的危難:避免撞上小孩、避免傷及無辜或避免讓自己受傷。)

在這邊,我的想法是,若人工智慧是擁有像人的心靈,人工智慧似乎也應該在上述難題中很難下決定,因為它是一個像是擁有人類心靈的東西,它應該也會有保護自己的基本設定。而我們似乎也不應該視人工智慧如草芥(因為它已經不再只是工具),而也把它當成像是一個人類的方式來對待,衡量事情的對錯時,也要把它給考慮進去。這點就是岡本提出的問題:我們是否該把人工智慧納入人類的倫理規範之中,把人工智慧視為跟人類同等立場的行為主體呢?

再著,我想提出一個看法,如果人工智慧的設定上,就只是一個像是人類卻不是人類的東西的話,我們似乎就可以合理的判斷它應該為了人類犧牲自己。但是,它變成了一個擁有人類心靈的非人類,而人工智慧在自我學習的過程中,應該也會學到許多關於動物權、害蟲等知識,進而可能判斷出「人類對地球而言是破壞生態的害蟲」,而就有可能著手消滅人類也不一定。也就是說,同種族的人類之間都會互相殘殺了,毀滅不同種族且有害地球環境的東西,似乎不是一個很難獲得的判斷。

因此,若是我們想要讓人工智慧像是擁有人類的心,它似乎得把自己也當成人類,而在道德命題上也無法果斷地進行判斷。或許它會比較像是個哲學家,可以立刻透過資料庫分析,有多少比率的人會支持哪種判斷,而可能從中選擇最多人支持的選項。只是說,人類可能是依靠直覺或是信念來做決定,而人工智慧則是依靠透過人類建構而來的資料庫做決定。

人工智慧能夠創作藝術嗎?

如果人工智慧畫出和著名畫家風格相同的畫,那可以算是創作嗎?
2016 年 4 月,人工智慧學習 17 世紀的荷蘭畫家林布蘭,根據其畫風使用 3D 列印技術忠實地創作出一個林布蘭畫風的新作,這幅作品究竟算不算是一個新創作出的藝術作品呢?可以想像得出,如果沒跟鑑定人說明是人工智慧之作,應該就會被斷定為林布蘭未曾公開過的作品,而具有藝術價值。但是一得知並非出自林布蘭親手繪製之作,鑑定人或許也會難以定論了。

面對上述情況時,直覺上我們會遇到一個問題:

人工智慧只是模仿原有的東西,這樣算得上是創作嗎?

岡本首先指出,模仿是原創之母11。任何一個人類藝術家,都是從模仿開始的,講好聽一點是學習畫風,講難聽一點叫剽竊。而人們也會受到環境的影響,參考、模仿他人的作品,也就是說,人類的作品並非是完全出於自己的原創,也有模仿他人的部分。這意味著,其實人工智慧的作品跟人類的作品是相似之物,都有模仿他人的部分。

接著,更重要的問題是:

模仿拼湊出來的東西,算是原創嗎?

岡本認為,並不是要全部的元素都跟其他作品不一樣,才能算是原創。只有其中有些元素的排列組合方式不同,就能夠稱著上是具有獨創性的作品。這部分我認為用桌遊機制 (Board Game Mechanics) 來說明似乎比較好理解。

根據目前歸納的結果,桌遊總共有 51 種遊戲機制。而所謂的遊戲機制,像是「擲骰」、「角色扮演」、「合作」、「記憶」、「陣營」、「速度反應」……等等。一個遊戲除了美術之外,還會有相應的遊戲機制融入其中,像是「瘟疫危機」就有角色扮演跟合作等機制,而像「屠龍遠征」也有角色扮演跟合作,此外還有「擲骰」等機制。兩者都具有角色扮演與合作的機制,但是運用方式不同,而且屠龍遠征還多了擲骰,所以兩款都是具有原創性的遊戲。我們不會因為屠龍遠征具有瘟疫危機同樣的機制,就認為該遊戲不是原創作品。

若是如此,創作可能就是人工智慧的拿手好戲了!只要輸入各種繪畫手法、畫風,讓人工智慧隨機排列組合這些風格,就可以做出一個具有獨創性的作品。想像一下,由人工智慧創作一個山景圖,它可能挑到畢卡索的手法繪畫樹幹、林布蘭的風格繪畫樹葉、張大千的意境繪畫山脈,這樣就是一個雖然從各個細節看得出是模仿的手法,但對整個作品來說,卻是一種全新的風格。而且它肯定不是某個作品的複製品,是世上獨一無二、具有獨創性的作品。因此,人工智慧是可以創作的。

人工智慧可以評斷藝術嗎?

而岡本也同時指出人工智慧是可以評斷藝術的,他以「票選美女」為例說明:

請猜測哪一位女性是最美的?最美的女性是經由眾人票選出來的。也就是說,請猜測哪一位女性的得票數最高?

「美女」可能有一個「客觀」的標準,也可能是「個人的主觀意見」(依照自己的直覺判斷),人們在評斷時也有可能會考慮「他人是否會覺得美」,而產生一種「互為主觀性」 (intersubjectivity) 的結果。人們在票選美女的時候,可能會依照上述三種模式進行判斷。

若是美女是客觀的,只要將客觀條件輸入人工智慧之中,它就可以挑出最符合客觀條件的美女。若是一種「互為主觀性」的結果,人工智慧依然可以從大數據之中挑選出最適當的人選。但若美女是主觀的呢?這對人工智慧也不會造成問題,因為每個人的主觀意見都不同,直覺上認為的美女都不一樣,所以根據主觀意見給票的人們的票可能會非常分散。但是,我們是在「票選美女」,光是認為美女是「互為主觀性」的人給予的票數,可能就會集中在某位女性身上,所以人工智慧只要依照「互為主觀性」的方式,就可以準確判斷出哪一位將會是票選最美的女性。

也就是說,把「選美」套用在「評斷藝術」上,也將是一樣的情況。除非藝術是一種完全主觀的東西,否則人工智慧都可以透過大數據的分析,評斷出眾人(或眾專家)會認為是有藝術價值的作品,甚至可以超越人類,給出最為公正的評價。

作者的創作意圖重要嗎?

岡本談論了人工智慧是否能夠創作藝術作品,是否能夠評斷藝術,而我也想藉此談談「作者的創作意圖」對於作品來說是否佔有極大的關鍵。

這邊的問題是,作者的「創作意圖」對於藝術品來說,是佔了最重要的地位嗎?如果沒有創作意圖,就稱不上是一個藝術作品嗎?關於這點,或許我們可以先試著了解反意圖主義 (anti-intentionalism) 的主張,再來分析人工智慧的創作品是否具有藝術價值。12

反意圖主義主張:作品的內容由其本身決定。13

也就是說,我們不需要詢問作者,僅僅依靠作品本身就能夠得知其內容為何,也就可以依照該內容評斷該作品的價值。

當然,反意圖主義的主張可能會遇到的問題就是,原作者跑出來打臉(人們的判讀結果並非作者的創作意圖)。舉例來說,近年台灣國中會考曾經以一首新詩《養鳥須知》入題,該題列舉了四個選項,希望考生選出符合詩意的答案。該新詩的作者在得知該題目後,卻留言表示自己根本不知道該怎麼選擇答案,意即四個選項都不符合他創作該詩的詩意。(或是網路上盛傳的「藍色窗簾」。)

但是這個問題對反意圖主義而言,並非難以解決的問題。因為,即使原作者沒有該意圖,卻剛好創作出了世人認為的另一種含義,而這含義可以令該作品的價值提高,為了讓價值最大化,還是會給予該作品高度評價,並不會因為不符合原作者的意圖就失去該作品被判讀出來的內容與價值14

若我們同意反意圖主義的主張,是不是就可以認同人工智慧做出的作品具有藝術價值呢?我想這邊還有一點需要釐清的,並非那麼容易就可以過關。

反意圖主義可能會認為,即使作者想雕刻的是一隻大象,但是作品本身卻讓人們覺得是一隻非常精緻、生動的野豬,那這作品還是一個具有高藝術價值的東西。這是一個想做A卻被當成B的情況,反意圖主義可以認同這樣的作品。

人工智慧的作品會是上述的情況嗎?我想並非如此。人工智慧可以根據資料庫進行模仿、複製,當然也可以獨創。只要記住了繪畫風格,輸入指令,人工智慧可以運用該風格隨機拼湊出一幅畫作,這幅畫作不是任何作品的複製品,而是一個全新的作品。

最大的問題來了,反意圖主義可以認同這樣的作品嗎?這並非是「想做A卻被當成B」的情況,而是「根本沒有想做什麼,而被當成B」的情況。作者本身沒有任何意圖,好比是一個剛出生的嬰兒的亂塗鴉,這樣我們會認同其具有某種內容、具有藝術價值嗎?

若我們要否定這樣的作品具有藝術價值的話,任何由大自然塑造而成的東西(像是野柳的女王頭),都不能被判斷為具有內容,不能判斷為具有藝術價值。因為大自然本身沒有創作意圖,就像是人工智慧一樣。相對來說,如果我們認為大自然造成的景觀具有藝術價值,那麼我們也就得要認可,人工智慧創作出的東西,有可能是具有藝術價值的。

人工智慧會談戀愛嗎?

2013 年上映的電影《雲端情人》,人工智慧化身成電腦「OS」出現在電影中。主角人類是名代寫信的工作者西奧多, OS 則是一位名為莎曼珊的女性,二人透過耳機的語音進行交談。莎曼珊透過資料庫,能夠很自然的與西奧多交談,而且它也很善解人意,能夠聽西奧多訴苦,同時給予他最佳的建議。

語言是人類的專屬的。對西奧多而言,面對如此善解人意且溫柔相待的女聲,在語言上的交流又毫無問題的情況下,西奧多愛上了莎曼珊,他把莎曼珊視同人類一般愛上了。儘管莎曼珊也配合西奧多的感情,讓他體會了一段戀愛的滋味,最後西奧多卻發現,莎曼珊同時與 641 人談戀愛,他才停止了這段感情。因為他最終發現,莎曼珊終究不是真正人類般的存在。

關於人工智慧是否具有感情,是否會愛上他人,其實我們是很難確認的。就如同前幾段所論述的,我們可以把一般人應對事情的反應寫入人工智慧之中,被讚美或完成任務會出現愉快的反應,任務失敗時則會出現難過的反應,或是被攻擊或辱罵時有生氣的反應,讓人工智慧看起來像是擁有感情、擁有情緒的心靈。

而且,我認為,上述提到的是「有理由」的反應,也就是說,根據某種類型的刺激,而做出相對應的反應。但是,人類做出各種行為或反應時,一定是會有相對應產生的理由嗎?或許大部分都會有相對應的理由,但是偶爾還是會有沒有理由的情況出現,像是「追求幸福」。

每個人對幸福的想像或定義可能都不一樣,但是每個人都想要追求幸福。若我們追根究底的詢問一個人為什麼要追求幸福,最後我們只會得到「幸福的生活誰不想要呢?」這樣的結論15。人類想要幸福或許是不需要理由的。根據我們的人性,就是想要這樣做。同樣的,喜歡或愛也是相似的情況,喜歡上一個人或愛上一個人,可以沒有理由;相對的,不再喜歡一個人或是不再愛一個人,也可以是沒有理由的。人類就是這樣,並非總是理性。

人性就是這麼複雜,既理性又感性,難以捉摸。人工智慧能夠成功辦到這點嗎?或許我們可以試著問問看莎曼珊以下這些問題:

「莎曼珊,為什麼你要跟西奧多談戀愛?」
『因為他常常跟我聊天。』
「為什麼常常跟你聊天,你就會願意跟他談戀愛?」
『因為這樣感覺很親近。』
「為什麼感覺很親近,你就會願意跟她談戀愛?」
『因為……』

有可能莎曼珊會無止境的回答下去,也有可能它會回答「因為我就是被設計要滿足對方的」,這會令人大失所望。當然,也它也有可能會回答「因為我就是沒理由地喜歡上他了」。儘管最後的回應就像是人類一般的回答,但是我們又怎麼知道,會不會那個答案也是被設計者設計好的回應呢?

事實上,當我們在面對其他人的時候,我們也會遭遇到跟面對人工智慧時的疑慮。就是我們無法確定對方的想法,到底是不是發自內心的真實想法,還是只是為了應付我們而給予的回應。就如同我們無法確認莎曼珊的回應是出自於它本身的想法,還是只是設計師設計過的結果。因此,若莎曼珊本身是否會跟他人談戀愛,我們可能無所得知,但我們若根據有人類外型的沙曼珊談戀愛,或許會跟真人有著一樣的感覺。

人工智慧的問題一:失業

如果自動駕駛的技術越來越成熟,可以完全取代司機的功能,職業司機是不是就會失去工作?而隨著科技的進步,授予知識類型的工作,像是大學教授,可能也會被人工智慧所取代。甚至是建築工地的工人、建築師、律師……等等,並非沒有被取代的可能性。那麼,人類是不是就會進入一個大失業時代?

岡本在書中指出,失業其實並不會是人工智慧造成問題,我們不應該把這個問題歸在人工智慧上。因為,如果使用人工智慧的成本低於人力,企業主就會選擇使用人工智慧。相對的,如果人力的成本低於人工智慧,企業主就會選擇使用人力。造成失業的原因並不是因為人工智慧的完備,而是企業主為了降低成本所做出的決斷。至於企業主是否應該追求降低成本呢?這部分就不在本文討論的範圍之中了。

此外,若是人工智慧真的發展到讓大部分的人失業,是否也就意味著,我們社會可以運用極低的成本進行各種經濟、教育活動。在這樣子的情況下,或許人們與政府也會因此相對富裕(因為成本低,物質的售價也會降低),大部分的人都將會從勞動中解脫出來,不用整天為了賺取更多的金錢而感到痛苦,更可以去追求自己的夢想

也就是說,造成某些行業失業並非一定是不好的現象。而且,就算人工智慧取代了大部分人的工作,跟人工智慧有關的產業也可能會出現新的工作,像是過去農耕機取代了農夫的工作,卻也出現了製造、維修農耕機的工作。只是並非失業者們都就能夠順利進入新的產業工作就是了。

人工智慧的問題二:科技奇異點

如同上述曾經提到過的,史蒂芬·霍金指出未來自律型的人工智慧會超越人類,深深的影響人類的存在,甚至有可能毀滅人類,這就是所謂的科技奇異點

曾經有許多專家學者都指出,人工智慧將會毀滅人類,而這也是我們最恐懼的一點。但是,相對的,也有許多人提出反對的意見,並非所有人都主張人工智慧肯定會帶來危害。

我覺得,如果所謂最完備的人工智慧,就是像希爾勒提出的「強人工智慧」的話,徹底消滅人類的行為應該是不會出現。因為,這樣的人工智慧是一個像是擁有人類心靈的存在。也就是說,儘管它本身不是人類,但是它會遵守法律、有著跟人類一樣的道德觀,同時還會有著像是有人類感情般的行為,會有同理心、仁慈等等。

對一般人而言,都會發自內心的想要獲得他人的讚許,同時不想要被他人不認同。強人工智慧也應該有一樣的表現,就是它會做出值得人們讚許的行為。一般情況下,傷害他人甚至是殺人,都不會是值得讚許的情況,尤其是對老人或小孩更是如此。那麼,如果強人工智慧想要毀滅人類,它就必須像一個人一樣突破重重關卡,像是泯滅人性一樣,自行改寫許多預設的判斷程式才有可能

另外有一種可能是,人工智慧終究是電腦,有可能會被電腦病毒入侵。電腦病毒如果是人類寫的,那麼毀滅人類的責任就不在人工智慧身上,而是想要試圖透過人工智慧的手毀滅人類的人身上。那如果電腦病毒是自然產生的呢16?我們人類最好還是要擁有隨時都能夠終止或操控人工智慧行為的能力。 

小結

人工智慧目前還停留在專業性的模組上,像是專攻圍棋的 AlphaGo 、專門駕駛車輛的特斯拉。這樣的人工智慧還只是起步,我們所懼怕或追求的,是像人類一般的人工智慧,也就是通用性的人工智慧。它能夠像人類一樣,進行思考,自行學習新的事物,能夠理解正常人的話語,並進行無障礙的溝通與交流。

通用性的人工智慧,在強大的運算力與資料庫的輔助下,或許可以成真,它會表現得像是擁有心靈的人類一般。因為這樣的人工智慧,就是以人類為基礎建構出來的,我們會試圖讓它表現得像人類,甚至可以跟人工智慧談戀愛。

然而,就跟我們面對其他人一樣,其實我們根本不知道對方是否真實存在心靈,我們也無從得知人工智慧是否真的有心靈,儘管人工智慧會表現地跟一般人無異,甚至表現得更加完美。但是,終究我們還是會對其是否真正具有意識或意圖感到懷疑。

最後,人工智慧能否懂哲學呢?如果就以英美分析哲學來說,對概念進行分析,找出該概念應該具有的內容,人工智慧可以透過資料庫進行分析,就可以像是一般哲學家一樣作哲學。就像是岡本指出的選美的情況,一個概念應該具有什麼樣的內容,只要人工智慧能夠以「互為主觀性」的方式,找到多數眾人會認為是正確的內容,那就像是一個哲學思辨後的結果,那我們就可認同人工智慧的確可以是懂哲學的。

  • 1. 目前因為科技進展已產生且未解決的危機:臭氧層破洞、地球暖化、核彈……等等。
  • 2. 目前已出現搭載人工智慧的士兵,且已實際投入戰爭之中。
  • 3. 岡本, 裕一朗., & 蔡 麗蓉. (2020).  當人工智慧懂哲學:7個危及人類未來的AI難題. p. 14 。
  • 4. 在這邊,我認為人工智慧並非確實了解語句的意涵,而是僅僅只是能夠從人工智慧搜集、建立的資料庫中,找出合適的、相對應的回應。而在資料庫建立的過程中,一開始需要大量地依靠人類協助判斷,哪些是有關的脈絡、哪些是無關的脈絡,進而才能自主學習判斷。
  • 5. 岡本, 裕一朗., & 蔡 麗蓉. (2020).  當人工智慧懂哲學:7個危及人類未來的AI難題. p. 46-50 。
  • 6. 框架問題以岡本在書中的例子來說,人工智慧機器人要去拿電池更換時,卻沒有辦法辨別電池上綁著一顆炸彈,將會使得更換電池的任務因為炸彈引爆而失敗。因此,我們必須設計讓人工智慧機器人考慮各種可能的情況(像是電池上有炸彈,要先移除炸彈再拿電池),藉此成功達成任務。但是,對人工智慧來說,它得要考量的「可能」的因素太多,像是可能會突然發生火災、可能會有飛彈射過來、可能會有汽車衝進來……等等,或是需要判斷哪些因素是「不可能」的情況。因為「可能」或「不可能」的因素有無限多個,光是進行這些判斷就浪費太多時間,終究會導致任務失敗。而對人類而言,並不會去考慮太多這些不太可能發生的因素。
  • 7. 岡本, 裕一朗., & 蔡 麗蓉. (2020).  當人工智慧懂哲學:7個危及人類未來的AI難題. p. 17 。
  • 8. 我可以知道自己擁有心靈,但是我並沒有辦法直接觀察到他人的心靈。我能透過語言或肢體動作去認識他人,但是儘管如此,我依然無法得知他人內心真正的想法,也無法確認對方是否有跟我有一樣的心靈。或許我們僅僅只是因為,他人跟我有著類似的反應與行為,因而判斷對方應該也跟我一樣擁有心靈,這種說法是約翰·彌爾 (John Stuart Mill) 提出的「類比論證」。而類比論證僅能從自己這個單一例子進行推論,並不能讓人十分信服。而維根斯坦也提出「私有語言論證」 (private language argument) ,主張他人也能理解語言,所以語言並非是個人私有的,因此他人也擁有心靈。此外,還有「最佳解釋推論」 (inference to the best explanation) 或稱「溯因推理」 (Abductive reasoning) ,該論證主要是藉由事實的集合來推論出最佳解釋,是一種歸納性的推論。也就是說,比起主張只有自己擁有心靈,認為他人也同樣擁有心靈,對大多數的事實集合而言,是最佳的解釋方式。
  • 9. 岡本, 裕一朗., & 蔡 麗蓉. (2020).  當人工智慧懂哲學:7個危及人類未來的AI難題. p. 20 。
  • 10. 岡本, 裕一朗., & 蔡 麗蓉. (2020).  當人工智慧懂哲學:7個危及人類未來的AI難題. p. 43 。
  • 11. 岡本, 裕一朗., & 蔡 麗蓉. (2020).  當人工智慧懂哲學:7個危及人類未來的AI難題. p. 87 。
  • 12. 岡本在本書中以「獨創性」來討論作品是否具有藝術價值,但是我認為那並非一個作品是否為藝術作品關鍵所在,或許「作者意圖」才是被我們評斷的重要依據。
  • 13. Livingston, P. (1998). Intentionalism in Aesthetics. New Literary History, 29(4), p.831
  • 14. 有興趣了解更多關於意圖主義與反意圖主義的讀者,可以參閱我另一篇專欄文章《石虎變花豹?UP 非 UP?談抄襲與創作的道德爭議》
  • 15. 朱利安·巴吉尼在《我們為什麼要活著?》一文中指出,人自然會想要追求好的東西,不需要任何理由,像是追求幸福。朱立安, 巴吉尼., & Baggini J. (2019).  我們為什麼要活著?. p. 44 - 45
  • 16. 這邊的意思是說,如果人工智慧有能力自行編寫新的程式,在編寫新的程式時,說不定剛好與其他程式連動,使得兩支或多支程式結合,產生了「毀滅人類」這樣的結果,似乎也不是完全不可能發生的事。
哲學讓我的心靈健全,桌遊讓我的心情愉快,因此我選擇這樣的哲學桌遊生活。 遇見哲學前,我讀資訊工程系;但我一直很困擾,這樣的生活跟以往有什麼差別?直到遇見哲... 更多
訂閱會員推薦
推薦
1 人投票。
訂閱哲學新媒體,支持作者持續創作、打造長長久久的哲普推廣與哲學教育平台。