(周嘉慧 攝)
兩廳院櫥窗 Hot at NTCH

人工智能非萬能 找出我們與AI的距離 「好哲凳」系列講座:AI值得我們擔心嗎?

歷經疫情的震盪與回緩,兩廳院之前中斷的「好哲凳」系列講座終於重新啟動,於10月8日造訪了台北市的麗山高中,由張智皓、朱家安兩位講師與同學分享「AI值得我們擔心嗎?」面對從網路社群媒體到現實生活處處可接觸到的AI,講師們透過生活中的範例讓同學領會AI的構成方式與運作邏輯,並指出其背後的倫理課題,以開放式的提問,引導同學重新思考人類的本質是什麼,從而找到自己在科技社會自處的生活方式。

文字 邱宥銓
第342期 / 2021年11月號

歷經疫情的震盪與回緩,兩廳院之前中斷的「好哲凳」系列講座終於重新啟動,於10月8日造訪了台北市的麗山高中,由張智皓、朱家安兩位講師與同學分享「AI值得我們擔心嗎?」面對從網路社群媒體到現實生活處處可接觸到的AI,講師們透過生活中的範例讓同學領會AI的構成方式與運作邏輯,並指出其背後的倫理課題,以開放式的提問,引導同學重新思考人類的本質是什麼,從而找到自己在科技社會自處的生活方式。

兩位講師透過生活中的範例讓同學領會AI的構成方式與運作邏輯,並指出其背後的倫理課題,引導同學重新思考人類的本質是什麼,從而找到自己在科技社會自處的生活方式。

近15年來,科技快速發展,鑲嵌在當代社會網絡之中的我們已經難以想像沒有科技輔助的生活,AI(Artificial Intelligence)就是其中一個近年來緊密鑲嵌在人們生活中的科技物。如果仔細檢視生活的細節,我們很容易就會發現AI已經幫助我們解決很多問題,甚至反過來引導著我們思考,像是手機裡面內建的輔助使用系統往往能夠記憶使用者的使用習慣,甚至反過來形塑我們的行為和生活模式。本場講座的兩位講師——張智皓、朱家安從生活切入講題,引導高中生從自己的生活找到AI,進而理解AI與自身的關係。

AI,Artificial Intelligence,在台灣通常被譯作人工智能,為什麼是「智能」而不是「智慧」呢?張智皓從描述性與規範性概念來解釋,也就是說,AI是在人類給定的架構下運作的科技物,它的「智能」是在一定的範圍內運作的,並不能夠超出既有的設定範圍。

AI是如何成為AI的?

要探究AI技術的起源,就必須從艾倫.圖靈(Alan Turing)說起。1950年,英國電腦科學家圖靈提出了一個問題:「如何能夠判斷電腦有沒有和人類一樣的思考能力?」,並藉由以下測試來尋求答案:安排一個人分別與電腦與真人聊天,如果受試者無法分辨自己的聊天對象是機器還是人類,就表示機器是有學習能力的。70年後的今天,這項簡單的測試仍然有相當強的解釋力。張智皓解釋,其實這套測試體現了「功能理論」的哲學思維,也就是說如果電腦具有跟人類心智一樣的功能,我們就可以根據功能主義的思考理路,將電腦等同於人類。

理解AI的起源後,張智皓進一步介紹AI的設計邏輯,主要可以從軟體端和硬體著手。以軟體端來說,可以透過規則兩種技術來進行設計——規則基礎與資料基礎,前者指的是只需要建立規則,透過撰寫程式來引導AI達成目標,後者則是以足夠量的資料來餵養AI系統,系統會據此建立一套模型來達成目標。舉例來說,如果要將一個公園僅開放給貓、狗進入,若在公園門口放一個AI系統,依據規則基礎的邏輯,透過程式給定這個系統一些規則,就可讓系統根據這些給定的程式來進行運算。而資料基礎的邏輯是透過大量的照片來強化系統運作,例如讓AI識別各種動物的照片,告訴它只有具有貓跟狗定義特徵的動物能夠進入,讓AI能夠達成預設目標。要架構上述的基礎前,必須先掌握目標與達成目標的途徑之間的關係,以上述例子來說,設計者要清楚貓跟狗以及其他不被允許進入公園的動物的特性,以便架構穩定的基礎,也就是說當我們給AI一個目標,我們也需要鋪排好達成這個目標的途徑,不論是依據規則基礎或資料基礎的邏輯來進行設計。

講師張智皓與學生一起思考AI的構成方式與運作邏輯。(周嘉慧 攝)

AI背後的倫理問題

隨著科技日趨發達,AI系統能夠處理愈來愈多事,許多倫理問題也跟著浮上檯面。日常生活中,社群、影音平台都是透過AI的運算來捕捉使用者的偏好與習慣。在紀錄片《智能社會:進退兩難》中,也揭露了社群平台Facebook透過什麼樣的運作機制來搜集使用者的資訊,進而藉以控制使用者,反過來影響使用者的偏好與習慣,甚至影響其心理運作——我們可能會因為發文沒有人看、比較少人按愛心而感到焦慮,從個人的、微觀層次的心理機制來看,就可理解AI對使用者的制約。

世界上已有許多關於AI倫理問題的事件、研究,像是著名的「劍橋分析公司事件」就是透過Facebook來蒐集使用者資料,並藉由這些資料製作個人模型進行人格剖析與行為預判,操縱選民的政治偏好,影響選舉結果。而史丹佛大學在2017年建立了一套AI系統,宣稱能夠透過照片就能識別出一個人是不是同志,當時引起許多科學家的疑慮,擔心如果這套系統被應用於那些仍然認為同志身分是犯罪行為的國家,就會引起很大的倫理問題。基於這些個資進用的問題,歐盟指定了嚴格的「一般資料保護規則」,這項制度要求使用數據的蒐集必須事先取得使用者的同意。

既然AI技術是依據人們給定的程式、資料來運作,這套系統本身就體現了現實的社會生活中的各種偏誤與價值判斷,像美國刑事資料庫就完全體現了美國社會充滿種族歧視的價值判斷,例如白人與黑人如果犯了同樣的罪,白人或可以逃過一劫,黑人則可能會被判刑,使得弱勢族群更容易陷入更加弱勢的處境,而這樣的例子在全世界比比皆是。

那麼,我們如何面對這些AI技術帶來的倫理問題?譬如,當自動駕駛系統導致事故發生時,應該如何歸責?講師們透過「人工智慧倫理學」網站的測驗來幫助同學思考,當事故不可避免,自駕車的AI系統要如何選擇?不論選擇保護乘客或是保護路人,都在在體現了地方社會的道德範疇,以及根據道德範疇形成的個人的價值判斷。更仔細地說,AI系統根據這些判斷所架構的程式、資料,去形成它可以判斷與不可判斷的界線,因此AI系統在現實社會中運作時往往會發生問題,因為並非所有現實世界的事物都貼合系統背後預設的規則與資料基礎。例如2014年的「塔利案」,警察根據人臉辨識系統找尋歹徒,但卻因為系統辨識錯誤而錯傷無辜;2005年的「伊布拉馨案」,美國機場的AI系統發現一位馬來西亞裔的女性工程師與恐怖組織有連結而將其攔下,她的護照因此被作廢。

學生與講師一起討論AI的使用目標與規範。(周嘉慧 攝)

從人類本質思考如何與AI共處

兩位講師透過上述這些AI技術運用所導致的衝突案例,不論是自駕車或是人臉辨識所引發的道德判斷和倫理上的問題,或是這些問題所引發的責任歸屬,來引導同學進行思考,這些思考並非要導出所謂的正確答案,而是釐清AI技術背後的運作邏輯,也就是技術所依據的道德與倫理基礎。

既然身處於當代社會的人們已經無法逃脫AI技術的網絡,就必須學會與它相處。前面提到的AI之於人們的社會生活都是作為工作的客體存在,但隨著科技的演進,AI技術已能利用既有的架構基礎去進行具有創意性的行為,可部分取代過去只能由人類智能來完成的工作,幾乎能夠將之視為主體,面對這種情況,必須時時思考的問題是:應該如何不被這項科技物取代?或是如何避免自己愈來愈像AI?講師透過這樣的開放式問題,引導同學重新思考人類的本質是什麼,從而找到自己在科技社會自處的生活方式。

「AI值得我們擔心嗎?」講師們沒有給出答案,而是透過一層一層的開放式問題,誘發同學們進行思考,重新爬梳這些生活中的AI技術背後所包藏的價值預設與邏輯;而當AI技術發生倫理問題時,我們應該深入問題的裡層,箇中其實呈現了現實社會的道德規範的矛盾。透過這些思考,我們才真正具有能動性去重新架構自己與AI技術的互動方式。

從AI衍生的犯罪案例中,一起思考「我們如何面對這些AI技術帶來的倫理問題?」(周嘉慧 攝)
歡迎加入 PAR付費會員 或 兩廳院會員
閱讀完整精彩內容!
歡迎加入付費會員閱讀此篇內容
立即加入PAR雜誌付費會員立即加入PAR雜誌付費會員立即加入PAR雜誌付費會員