【國際編譯】哲學人的新職缺:AI 倫理學家 | 哲學新媒體
國際編譯

哲學人的新職缺:AI 倫理學家

人工智能倫理學家就是針對 AI 相關科技發展將會帶來哪些風險或可能的危害進行倫理評估的專業者,通常會在一家企業的 AI 開發團隊或是企業責任部門任職,確保企業能以負責任的方式開發、使用人工智能,避免利害關係人的權益受損。譬如以下將介紹的這兩位女士所擔任的工作。

您在這裡

加入書籤,請先登入網站

當臺灣民眾還在戰人文與理科誰比較有用、誰最先被 AI 淘汰的時候,哲學家與資訊科學家早已開始合作,共同培養 AI 科技產業所急須的人才:AI 倫理學家 (artificial intelligence ethicist)。

AI 科技有什麼風險?

AI 與生成式 AI(Generative artificial intelligence) 已經用明顯可見的速度與方式改變了人類社會,帶來便利與效率的同時,也給人類社會帶來不同面向的問題,像是工作取代所造成的失業問題、生活方式轉變等等,哲學家們已經指出這些風險包含了許多不同面向。1

其中之一是個人隱私(如人臉辨識來分析個人資料)與監控(如追蹤個人的數位足跡)。這些 AI 系統的運作方式,能透過我們在網路上的使用資料,揭露我們自己希望壓抑、甚至是我們自己都不知道的事實。因此,掌握資料的人只要透過網路上的行為觀察,就能比我們自己還要理解我們自己的心理狀態。

此外,有心者會利用資訊以線上和線下方式操縱行為,削弱自主理性選擇。雖然這不是什麼新鮮事,但 AI 技術的介入將使情況更嚴重。透過使用者與數據系統的密集互動以及藉此所提供的關於個人的深厚知識,人們更容易受到「輕推」(nudge)、操縱和欺騙,這已逐漸成為網路時代中的核心商業模式。相信在社群媒體上被廣告打中過的諸位讀者,對於廣告商的這類操縱都已知之甚詳。

許多 AI 系統依賴於機器學習技術——透過資料輸入後,系統對應輸出的結果是否「正確」來「訓練」AI 系統形成某種「輸入—輸出」的模式——來形成特定的運作系統,換言之,面對以此方式形成的AI系統,AI 工程師並無法掌握生成 AI 的「模式」細節為何,這會造成不透明性的相關問題。這就好像,老師告訴小朋友打人是不對的,但卻沒有解釋相關理由來確保小朋友掌握「對/錯」的正確思路,小朋友很可能誤以為任何情況都不該阻礙別人的行動,因而有可能在特定情境做出錯誤的判斷。由於 AI 工程師無法掌握生成式 AI 產生資料的具體運作模式,也就無法確認該 AI 系統是否會輸出錯誤資料,因為不知道 AI 系統之運作模式的情況下,根本就無從檢查起。

這個問題將關聯到決策偏見的問題,就像人們會有判斷偏誤一樣,AI 系統也可能因為輸入資料的統計偏誤,而產生有問題的輸出結果,而假若我們完全依賴 AI 系統來幫我們做出判斷,這不但會侵蝕公共自由,還會讓我們因為 AI 系統的錯誤,而做出錯誤判斷,就像電影《關鍵報告》所預視的情況那樣。

此外,人機互動密切——譬如照護機器人、性愛機器人、AI 聊天情人——帶來虛假關係的欺騙之相關問題,自動系統——如自駕車——帶來的道德與責任問題,都已是我們現在需要面對的問題了。2這些 AI 科技所帶來的隱憂與風險,突顯了「AI 倫理學家」對我們即將迎向的 AI 時代的重要性,特別是當法律規範還無法應變的這個時刻。

AI 倫理學家的工作是什麼?

人工智能倫理學家就是針對 AI 相關科技發展將會帶來哪些風險或可能的危害進行倫理評估的專業者,通常會在一家企業的 AI 開發團隊或是企業責任部門任職,確保企業能以負責任的方式開發、使用人工智能,避免利害關係人的權益受損,就像以下將介紹的這兩位女士所擔任的工作。

英國倫敦東北大學東北環球新聞 (Northeastern Global News) 的一篇校園報導3,訪問了該校兩名畢業自「哲學與 AI 碩士班」(MA Philosophy & Artificial Intelligence) 的女士,詢問她們為何當初會選擇進入哲學與 AI 碩士班就讀。

第一位女主角是 Tess Buckley,她立志要成為 AI 倫理學家,為此遠從加拿大飛往倫敦求學,最後也真的如願成為一名在科技行業協會 techUK 工作的 AI 倫理學家——負責確保 AI 這項尖端技術的使用,具有正確的目的 (is used with the right intentions)。

Buckley 認為,AI 與生成式 AI 在人類社會中該扮演什麼樣的角色,其實並不是什麼新問題,因為這就是在問我們該怎麼做才對。而「這是道德的嗎?」原就是哲學討論中的古老問題。因此,她認為面對 AI,我們會需要哲學來解決這個看似新穎的問題。

她說,讓她選擇這個職業的初心,是為了降低 AI 科技帶來的風險。雖然她相信人是善良的,但她也擔心新科技會讓人走上有害的道路。因此,她希望能降低新興技術的風險,特別是為弱勢群體減少風險。基於這樣的使命感,她選擇成為 AI 倫理學家,而為此她必須要學習相關的知識。

Buckley 獲得學位後直接進入一家新創數據分析公司工作,然後在 2024 年轉到 techUK,擔任數位倫理 (digital ethics) 和 AI 安全的專案經理。

另一位女主角 Tracy Woods,在踏入這個行業前是在 Cognizant(一家在全球擁有 36 萬名員工的美國公司)為歐洲客戶服務的人工智能和分析諮詢主管。在歐盟制定了《一般資料保護規則》(GDPR: General Data Protection Regulation) 之後,就為資料的管理和治理方式帶來劇變,這使得具有資訊隱私資格認證的 Woods 變得炙手可熱,因而讓她獲得當時的工作職位。

她看到 AI 興起將和 GDPR 生效時的情況類似,Woods 意識到她會需要額外的技能來了解 AI 可能會給開發人員和企業帶來一些困難問題。因此,她利用了新冠疫情期間的閒暇時間來進修。雖然她的公司 Cognizant 為其員工提供了「所有可以想像的 AI 課程」,但她著眼的卻不僅是 AI 技術層面的認識而已,而是 AI 科技所帶來的「社會影響」(social impact)。

在進入「哲學與 AI 碩士班」就讀後,她發現像是「知識論」 (epistemology ) 很難發音,更不用說掌握了。在經過兩年艱困的在職進修後終於獲得該學位。在修習課程期間,她調任為生命科學諮詢主管職,因為她認為 AI 在幫助加速新藥和健康治療方面將有超乎尋常的影響。

Woods 承認,有一些 AI 應用讓她「有點不舒服」,她認為她的工作有點像投石者 (pebble thrower),就像把石頭丟到水中會產生漣漪那樣,她將可能的問題指出來後,讓涉及問題的其他專業人士接手處理。在她的「投石」努力下,公司內部成立了 AI 責任委員會,確保公司以合乎道德的方式,負責任地使用這些科技前沿技術。

這兩位 AI 倫理學家,都在她們所在的職位,致力於確保大型科技公司,能以負責任的方式使用人工智慧,以真正造福人類。

如何成為 AI 倫理學家?

AI 科技正在以尚未明朗的方式改變人類的生活模式,融合 AI 科技與倫理兩種專長的 AI 倫理學家,其角色的重要性不言而喻。要成為 AI 倫理學家需要同時擁有理科和文科的專長,除了需要熟知電腦科學、AI 技術等相關的知識外,還需要熟稔道德與倫理學等相關的人文知識。

目前已有多所大學開設著眼在道德哲學與倫理學的 AI 學位課程,譬如前述提及的英國東北大學所開設的「哲學與 AI 碩士班」、還有像是香港嶺南大學哲學系開設的「AI 與未來文學碩士班」(Master of Arts in Artificial Intelligence and the Future)、英國約克大學 (University of York) 哲學系設立的「AI 哲學碩士班」(MA Philosophy of Artificial Intelligence),都有提供 AI 倫理學家的養成訓練。

許多人在這個人工智能掀起的時代浪潮中擔心自己的工作被 AI 取代,然而為何不多了解 AI 科技的侷限、多思考如何才能適當地運用 AI、以及試著與熟悉 AI 科技的理工人合作呢?AI 倫理學家或許是哲學人的職涯選項之一。

訂閱會員推薦
推薦
0 人投票。
訂閱哲學新媒體,支持作者持續創作、打造長長久久的哲普推廣與哲學教育平台。