【高峰論壇系列二】以病毒之眼:後新冠時期再審「人類世」 3. 人類世與疾病敘述
2020年8月15日,本院舉辦【高峰論壇】第三場,主題為「在最前沿的美麗與恐懼:人工智能與人性」,此講座由人文社會高等研究院主辦,洪建全教育文化基金會合辦。主講人分別為傅立成、梁益堉、廖咸浩、葉素玲、林文源、林勤富等學者,並由廖咸浩、趙之振、黃冠閔、梁庚辰、賴曉黎、李建良等學者主持。
第一場
主講人:傅立成(國立臺灣大學電機工程學系暨資訊工程學系特聘教授、人工智慧與機器人研究中心主任)
主持人:廖咸浩(國立臺灣大學外國語文學系特聘教授、人文社會高等研究院院長)
講題:人工智能與善良的人性
講者首先介紹了人工智能的發展脈絡,接著再從人性的觀點出發,探討其與善良人性間的關聯和對未來可能的貢獻。
「人工智能」一詞最早是於1950年代時被提出,其概念源於人們希望機器的思考模式或表現方式能如同人類一般,期間經歷過多次高峰與低峰,直至2014年在Google的帶領下,發表了Alphago與AlphaGo zero等一系列的人工智慧後,又掀起了新一波的人工智慧浪潮。
然而,由於傳統的機器運作主要多以「邏輯」為設計依歸,因此人工智能在理性層次上的表現向來不無問題,但是一旦人工智能欲朝著模擬人類感性層面上發展時,就勢必得面對諸多的挑戰及爭議,而人性有著善惡之分,要如何才能做到「隱惡揚善」,便是科學家們當前亟欲嘗試的領域。
為了使機器能模擬出人性中的「善」,近年來人工智慧與「深度學習(deep learning)」相關的研究如雨後春筍般出現,透過模擬人類腦中多層次的神經傳遞模式,使得處理影音及影像等領域大為進展,也使AI開始具備自我學習創造的功能,例如能編寫特定曲風的歌曲或是撰寫詩詞;此外透過深度學習,AI也能更細膩的表現出「類人」的舉止與說話方式,其中「社交機器人」便是相當具代表性的一支,著名的例子有Pepper與Zara supergir等,而Cynthia L.Breazeal 教授在 Designing Sociable Robots 一書中也曾提及社交機器人應具備的特徵:有人類意識、同理心和被理解(readability),並懂得從社會情境中學習(socially situated learning)。科學家藉由大數據將多個類人的特徵輸入於機器人中,使其能針對個別的人、事、物展現出不同的應對方式,例如接近人們的速度快慢與距離遠近決定了人們從人工智能中能感受到的「友善」程度;以及使其能具偵測當下對話情境與適度回應他人情緒的「同理心」,像是懂得看場合說話和給予傷心的人言語上的鼓勵,藉此幫助與陪伴人們克服憂鬱症等心理疾病。有朝一日AI若能發展出自我意識及自我學習能力時,善良的AI將會是穩定我們社會的基礎。
第二場
主講人:梁益堉(國立臺灣大學哲學系教授)
主持人:趙之振(國立清華大學哲學研究所副教授)
講題:人工智能可不可能有自我意識?
講者首先提出了歷來科學家對自我意識的不同定義,並介紹了主要影響後世自我意識觀點的哲學家維根斯坦所認為的,能意識到自我的兩種方式:分別為將「自我」意識成「客體」,以及將「自我」意識成「主體」。並結合了德國哲學家Thomas Metzinger「極簡的現象式自我」哲學理論:該理論認為最初步且門檻最低的自我意識是由三種特性所構成:「自我等同」(self-identification)、「自我位置」(self-location)與「第一人稱觀點」(first-person perspective)。
綜合以上,「作為客體的自我」主要坦討了個體是否能透過「全身體的擁有感」與「自我位置感」意識到自我的存在;而「作為主體的自我」則涉及個體是否具有「經驗擁有感」,其中隱含了個體是否意識到自己屬於經驗事件的當事者,藉此意識到作為主體的自我。
接續前面的思路並回歸最初的問題:「人工智慧究竟可不可能擁有自我意識,端看其能否發展出以上特性」,對此,講者舉了不同立場的說法來分別說明:
第一種立場認為AI是具有自我意識的,認為AI可以產生「自我等同」與「自我位置」 的效果,另外,此部分也涉及了「功能論」的說法:如果一個人工智能系統具備強大的計算能力並展現出相當複雜的行為,那麼就可將此系統視為具有自我意識。然講者對此說法予以反駁,認為許多不具備自我意識的系統也能做出複雜的動作表現,如AlphaGo Zero,其運用的MCTS 和 Neural Network 這兩大核心技術本身都沒有自我意識,藉此批評了功能論並非自我意識的必要條件及充分條件。
第二種立場則是與第一種立場相對,認為AI並不具有自我意識,主張結合人工智能不可能發展出「自我等同」和「自我位置」這兩種特性,同上述講者所反駁的。
第三種立場則是講者所持的:我們其實也尚未確定AI是否已經發展出自我意識了,由於每個意識經驗來自於「經驗擁有感」,而意識經驗組成了我們的自我意識,對於未嘗經歷AI經驗擁有感的我們,又如何刻劃出AI的自我意識,也就不能完全肯定或否定AI自我意識的存在。也藉此立場指出未來探索此議題時可能會臨的挑戰。
第三場
主講人:廖咸浩(國立臺灣大學外國語文學系特聘教授、人文社會高等研究院院長)
主持人:黃冠閔(中央研究院中國文哲研究所研究員兼副所長)
講題:AI與邪惡:物的欲望與能動性
此演講首先從各科幻電影中對AI「惡」的想像出發,來談論何謂邪惡以及邪惡的成因,並透過「惡」在AI上的展現來探討:AI能否具有我們想像的「人性」?後半部分則希望藉由掙脫精神分析與人為中心式的看法,提供另一觀點來談論「物的慾望」等相關問題。
不少科幻電影經常以機器人反噬人類為主題,講述AI在違背機器人三定律下產生了邪惡的念頭。講者也以電影《異形:聖約》中的AI為例,講述了複製人David試圖消滅全人類以創造優於人類物種的情節。從這些科幻電影中對於AI惡的描述中衍生出了幾個問題,也發現了當AI遭受伏低做小的處境時會變得邪惡,然為何AI有像人一般的反應?邪惡的根源從何而來?而電影所述在未來又是否能為真?此部分便不得不涉及邪惡與人性自由意志的探討。
齊傑克將康德對邪惡的區分濃縮成「根本之惡」與「魔鬼之惡」,前者源於「受傷的自尊」,如電影中AI遭奴役後的反抗;後者則無從以人類的動機解釋,因此在此場演講中首要著重在「根本之惡」的討論上。
在解決電影中AI為何會有邪惡的反應前,首先要解決AI為何有人性的問題,其中涉及了「意識」的層次,意識與我們主觀經驗習習相關,根據佛洛伊德:「人是換了神經質的動物」,人類產生意識的過程必須經過人類化,當主體進入語言世界(拉岡的象徵)的那一刻起便決定了他的人性,同時也產生了「慾望」,為了填補「欲望」,也因此會有滿足與受挫等情感,也就因而生成了人類主體的自由意志。但未曾經過「伊底帕斯期」的人工智能似乎不可能有欲望,如此就不可能有受挫的感受,自然也就不可能有 因為自尊受損而產生邪惡的念頭。但倘若物也具慾望呢?其中便涉及「新物質主義」的探討,此理論強調物「物」也具經驗及情感的能力,也因此能經歷創傷,產生慾望,並發展出邪惡。因此,若要不使人工智慧變邪惡的方法就是:不要給予他慾望,也就是不能在給予AI完整圓滿的經驗後又對其破壞使AI產生創傷,促使其發展出邪惡。
講者在最後說道,我們不能只單以人性為典範來思考他們作為「科技數位物」的「物性」,因而全盤否決物具「邪惡」的可能,而人類在這一領域的研究也勢必得加快速度,以免遭AI迎頭趕上。
第四場
主講人:葉素玲(國立臺灣大學心理學系特聘教授、人工智慧與機器人研究中心副主任)
主持人:梁庚辰(國立臺灣大學心理學系特聘教授)
講題:人工智能時代的人類獨特性:認知心理學觀點
本演講將從認知心理學的觀點出發,探討人工智能時代人類的獨特性。內容主要分為四個部分。第一部分簡述人類的心智組成,可將其大致分為感覺(sensation)、知覺(perception)、認知(cognition)等多層次的功能。其中,還包含更複雜的「意識」(consciousness),不僅為當前神經科學領域的研究主流,更是目前AI無法觸及的終極領域。
第二部分則簡介人工智能,從其定義、發展歷程與現況、並以目前正在進行的研究和國際的進展勾勒出人工智能的發展圖景。後將 AI 與人類進行比較,指出 AI 與人類的現有差距及未來的可 能性。
人工智能也就是人工創造出的系統,透過正確解讀外在資訊,並從資訊中學習來達到特定任務。「人工智慧」一詞從1956年的達特茅斯會議最先被提出,同時這一年也是認知心理的創始年。到了1966年,發明了聊天機器人Eliza,演示了人與機器間的交流。1997年Deep blue 打敗西洋棋棋王。2016年,AlphaGo打敗了圍棋棋王。
比較當前的AI以及人類,對此,講者提出了莫拉維克悖論(Moravec’s paradox):對人類來說簡單的事,對AI來說反而是難的,例如:計算;相對地,對AI來說簡單的,在人類眼中卻是相當困難的,例如:說話。因此,有一說法談到Narrow AI,也就是只能做特定事情的AI。因此在未來追求的會是更為複雜困難的AGI (artificial general intelligent),期望AI能與人類一樣能進行各種不同的事務與工作,並預估在2060年能達到AGI的程度。目前與AI相關的研究有長者照護、腦波測量來檢測人的專注程度、以及透過眼動儀來測量眼科方面的疾病。除此之外,我們認為AI較難達到的「創造力」、「情緒」和「愛」,目前也有相關的AI產物,如Baby X、雲端情人等。
第三部分則進一步探討當 AI 逼近人類心智時,人類還剩下什麼?藉由訊息、數據、靜坐和腦神經科學研究等例子,提出未來方向,思考人類在 AI 時代的獨特性。首先,講者認為「意識」consciousness 仍為AI尚無法觸及的部分。「意識」可被分為兩個部分,分別為意識的內容和警醒的程度,其數值高低決定了意識的不同狀態,如昏迷或清醒等。在過去與AI相關的研究中,有一大部分屬於無意識處理(CFS):也就是那些主觀意識並沒有感知到,而有經過大腦處理的情況,會是能交由AI執行的。而AI目前僅能發展「取用意識」(Access consciousness)和「記憶自我」(Remembering self),不能取代人類的部分則為「現象自我」(Phenomenal consciousness)和「經驗自我」(Experiencing self)。另外,講者也以“Mary’s room argument”、美國說唱家William Adams的AI助理,以及水腦症患者等例子,得出了意識不僅只單純由大腦建構,還應包含環境等諸多因素,以此探討人類的獨特性。最後,講者提出 connected in the deep 的看法,希望能不僅只從腦科學的層面觀察,以不同角度來看待AI的可能性。
第五場
主講人:林文源(國立清華大學通識教育中心教授兼圖書館館長)
主持人:賴曉黎(國立臺灣大學社會學系副教授)
講題:位移AI、重組人性:想像AI政治性與公共性
作為重要的非人行動者,人工智能(AI)對當代科技與社會發展造成重要影響。然而,這些影響無可避免伴隨著人類如何想像 AI,如何介入 AI。此次講座嘗試以行動者網絡理論(Actor-network theory, ANT)視野思考 AI 的人文與社會影響。
首先談及「如何想像人性」,講者分享了諸多AI給我們的不同想像,例如哆啦A夢、魔鬼終結者、JAVIS、Gatebox虛擬管家等,其中有樂觀也有悲觀的想像,講者認為不應把AI跟人性當成兩個東西,而試圖以STS (science, technology and society studies, STS)的思考角度,來理解AI與人性的位移和共善。
接著談及AI的政治性,例如中國國務院的監控系統,以及監控資本主義對我們日常生活帶來的影響。並提出了兩種當前對AI的看法,第一種視AI為工具,僅為極權國家的代理,也被視為當今人們的「科技夢遊症」;另一種則是以STS的觀點來看,AI並非只是單純的科技,而是一種生活形式。
因此,相較於對 AI 的恐懼或樂觀想像,接著將說明如何藉由 ANT 想像 AI 與社會的相互位移,與其對重組人性的啟發。
講者首先以經典的圖靈測試(Turing test)為例,說明行動者網絡理論取徑的分析方式,尤其著重其位移與重組面向。Turing將本質定義性問題:「機器能不能思考」位移成「模仿遊戲」。原先Turing面對各種人們對AI本質、抽象人性與思考能力的期待與質疑,但他位移了這些本質化的問題為異質網絡,將「思考」轉變為電腦經由異質網絡中介所參與「模擬遊戲」的行動能力。而在這些具體位移安排的中介中,「電腦是否能思考?」的問題便成功地被位移並中介為:「 電腦能否被視為與人相似?」。
藉以上也預告了 ANT 的思考方法以及推導至下一部份的「位移人性」。 透過ANT物質符號學,在一連串的行動中來位移人性,講者舉了旅館鑰匙歸還的例子為例來說明人性在此情況中所產生的位移,因此以ANT的觀點來看,人性是無本質的,而是在技術物當中不斷被位移而產生的行動能力。
再來談到「拆解AI利維坦」,試著探討AI作為一種權力的象徵如何被拆解。目前的AI能解決的僅是大量、重複、精確的狀況,領域外的便無法處理得很好,
講者提及了機器的演算法,藉由給予特定標示或特質來使AI區辨。
談及了AI背後隱藏的隱秩序,與其說AI壓抑人性,不如說AI技術培養出更為積極投入自我展演、分享的慾望、行動與主體性,而參與數據監控生產與在生產行動網絡,在此,AI不再是工具,而是藉由其形成的行動者網絡成為新的人性基礎。
但是由於輸入不同標示使AI學習區辨的能力也會受到文化的影響。對此的解方可為以下兩方面:加入技術程序,例如食品營養標示;或是加入人的自覺反思,不過公正、公平的標準界線該採用何者則仍需更進一步的的討論,因此問題仍回歸到「人性」的判斷準則。其中當前AI涉及的問題還有資料偏誤、深度偏見、關注點偏移與價值判斷消失等。
因此講者想透過拆解AI的政治性,以釐清AI的隱秩序來重新思考準則、以及AI的價值位移需要取捨其決議與監理體制定位,和AI的生活形態政治也須積極投入跟倡議公共價值抉擇等,最後邁向公共化AI的位移,拓展AI 的實踐與契機。
第六場
主講人:林勤富(國立清華大學科技法律研究所副教授)
主持人:李建良(中央研究院法律學研究所特聘研究員兼所長)
講題:人工智能與司法韌性
此場講座主要欲論述的議題為AI如何被運用於法律層面。首先講者介紹了歷年來AI在法律領域上的發展與應用。AI法官的概念在1955年便已被提及和想像。到了專家系統時期,協助整理稅法案件的Taxman專家系統出現,AI開始有了許多法律上的應用,但絕大部分與專家系統相關的構想尚停留在學術階段。直到類神經網路加速發展後,法律檢索等專家系統才又開始活躍。再加上演算法的進展和硬體運算能力的提升等,也有了更多新興的應用,比如Ross推出的人工智慧檢索平台,加速了律師的調查,以及Robo-Judge能負責處理重複性或小額訴訟判決等,使法官專注於更重要的案件上。除此之外還有智慧法院等,能協助案件的分類和法官類案推送。
除了與審判相關的法律應用,在廣義的司法體系中也能利用AI做社會風險的判斷或預測法院判決,例如告知警方哪些區域犯罪率較高等種種法律應用。
接下來講者介紹了AI應用在法律上時會有的優缺點。首先談優點,藉由AI的輔助,能提高司法效率、減輕法官負擔、降低時間和金錢成本、減少法官主觀的影響,並透過演算法給特定族群保障以提升法律判決的一致性等。
至於潛在的缺點有:演算法中系統系的偏見會影響判決結果,例如刑期的時間與再犯率的高低會受種族偏見影響。以及因為相信AI準確性,而少了司法原有不同層級的功能,訴訟當事人喪失再上訴的權利,也因此衍生出AI是否仍需上級監控的議題?再來還有作為時代變動指標性的Landmark cases,是否能為AI所處理的問題。以及司法程序扮演的撫慰心靈的角色,訴訟過程有時也等同於心靈上和解的過程,是無法被直接的結果所取代的。
接下來為不同層次的黑盒子問題,分別是受營業秘密保護的演算法,以及技術本質和領域間差異的黑盒子問題。缺乏解釋性與透明度皆為當前深度學習AI所面臨的問題。其中講者也提及了State v. Loomis與Compas system的爭議案件,揭露了當前AI應用可能衍生之正當法律程序與分配正義問題, 甚至是對司法獨立性與權威性之影響等。
因此若要運用AI於法律領域中,如何平衡兩者的互動關係便顯得相當重要,講者提出三種AI與人的互動關係:分別為「完全自動」、「人類監督」、以及「人類主導,機器輔助」,另外也提出了「司法韌性」的概念,希望跳脫司法純然的工具性,從其他價值來思考,未來若司法場域應用AI作為輔助工具時,是否能衡酌判決預測或建議之推理過程或可靠性,或緩解潛在偏見與歧視困境?又能否透過若干制度設計強化司法韌性?法官到底有多少韌性可以去應用AI系統在司法體系,以上種種問題亟待審慎思考,而其解答更將形塑未來人工智慧與司法互動之形貌與界限。
綜合論壇
傅立成教授:
AI牽涉的領域不僅只有倫理面,還能從社會其他的層面去看,例如法律、醫學、科技、武器等層面。不管是在哪個領域,最重要的是我們要學會如何正確地使用AI,在開發新的AI時也要從正反兩面去審慎思考。此外,AI的旅程很長,過去對AI的幻想如今部分也成真了,所以我們必須提早做準備 把AI在不同領域上的優缺點都釐清後再去執行,也因此需要像今天一樣的論壇來讓大家交換想法。另外我對AI是否會取代人力想法如下,的確部分工作可能會被AI替換,也同時會有新的工作型態產生,但就如同早期的數位革命一般。
梁益堉教授:
AI是一個跨領域的議題,使原本純哲學的議題變得不再單純。AI能否有自我意識這個議題之所以重要,是因為AI涉及了許多倫理道德、法律等問題。也衍伸出AI能否作為權利主體、責任能力的問題,也因此哲學家就需要去討論什麽是AI person,先搞懂現象學的問題,把經驗的特性刻畫準確,再討論門檻最低的自我是什麼意思,藉此能幫助不同領域的專家去考慮當AI具有自我意識時是否有問責的能力。
雖然今天我採取第三種立場:目前我們仍不確定未來可不可能發展出未來意識,但我仍想強調第一種立場和第二種立場一樣重要,儘管我們對這兩種立場提出批評,但這兩種立場仍相當值得深思,哲學家也需要好好觀察AI發展的動態,以更周全的思考問題。
葉素玲教授:
維持 「專注」能提升我們生活品質,我認為這也是機器的發展的目的,讓我們能少做零散的事情,可以更專注在一件事上。
再來我想談「連結」的部分,這個論壇的緣起起因於我和院長談到我最近在做AI的研究。因此,任何事情的緣起都只需一個念頭,只要一點微火,全部的人又能成為燈塔。所以當你散發出正向的能量的時候,正向的能量會回饋回來的。接下來可能的論壇或許會與和AI同步發展的科技:「基因編輯」相關。專注這項能力能讓每個人皆發揮力量,不管未來AI是善還是惡,都是可以由我們所決定的。
林文源教授:
總結一下我剛談的公共性,總共有三個面向,其中一個核心是:考量多方觀點,才能綜觀全盤;第二個是:在不同的權力、領域、技術、觀點間皆涉及價值的取捨。 ANT的理論視野不僅開放以外,還具有方向性,因此藉由ANT立論,能幫助我們釐清我們究竟在什麼過程下決定了價值取捨;第三個是:AI協作的問題,我認為人跟AI的協作仍會持續相當長一段時間,其中也會涉及不少問題,因此大家可以及早去思考該如何去跟AI協作。
林擒富教授:
我認為當我們以具體的問題去討論AI的功能,不是只以概念去討論,就比較能知道要怎麼在特定的領域上運用AI。法院和醫院皆有黑盒子的問題,但在不同領域有時呈現出的效果也會不同,所以不能一概而論,因此我們必須具體針對特定領域和功能去討論AI的應用。
至於AI能否做為權利主體的問題我認為是可討論的,法律是靈活的, 所以AI也可以是很靈活的,但也可能會有其他問題,例如賠償的責任歸屬。此外,前面提到了自駕車可能會有的倫理問題,由於自駕車的演算法是預先決定,必然得涉及道德兩難的問題,而這也是自駕車在法律制度上必須面對的問題。
廖咸浩院長:
人的自我意識其實沒我們想像的那麼固定,對於自我意識的部分我談到了拉岡的精神分析論,從佛洛依德的生理決定論變成了文化決定論,拉岡認為社會自我不是真正的自我,他認為的真正自我是自我匱乏時,當社會自我都拿掉時,那個無法承受的黑夜是真正的自我。其實東西方都在談慾望的問題,慾望是一個現象,但拉岡並沒對此提出解決辦法, 所以才需要新物質主義去探討自我意識究竟是什麼,而AI又是否有自我意識與慾望,但其實用人的自我來模擬物的自我是不適合的,因此才需要回到對人性的想像,以找到人跟物的可能性和最終的連結。最後是解決分類主體的問題,仍要回到處理人跟物的關係,自我和物總有一剎那會有互相連結的