人本AI(林從一)
一、前言
本文從三個方向刻劃人本AI(Human-centered AI),希望呈現出人本AI 的重要挑戰與與核心任務。第一個面向是「AI 是人類世界顯微鏡」,AI 本就內建入人類的優缺點,AI 更可以揭露並放大人類的好與壞,特別是那些幽微不可名狀的好與壞,而這也是AI 可以與人類一起合作改善人性和人類社會的契機。第二個面向關心的是AI 所涉及的「集體偏好效益主義」(collective preference utilitarianism),對於人性的開放性、差異性以及差異性所要求的同情共感(可理解性)的威脅,本文也以一個人本AI 的想像案例――光合菌的成長故事,來說明消解這些威脅的方向。最後,本文認透過討論X.A.I.(Explainable AI, 可理解的人工智慧),提出一個關於人本AI 的終極主張:X.A.I 才是一個徹底人本的AI。一個內建人類觀點的AI,才是一個可理解的AI,一個能夠以人類語言說明自己並與人類溝通的AI,才是一個可理解的AI,而屆時,AI 也將有機會獲得人類社會中的主體身分,成為「我們人類」的一分子此時,AI 慢慢的從人類工具演變成人類社群的成員, 從他者變成我們, 徹底以人為本的AI 方是獲得人格(personhood)的AI。
二、一開始就是人本――AI是人類世界顯微鏡
你常會聽到這樣的說法:在2010之後發展出來的AI是完全無涉「專家判斷」的,無論是專業領域專家或是生活領域專家(也就是一般人),而讓AI知道專家的判斷,反而會汙染AI,會讓AI變笨。但這樣的說法言過其實,讓人忽略重要AI事實:AI所需的巨量數據一開始就涉及專家判斷。AI、機器學習、深度學習的最基本模式與成果是這樣的
•針對一個問題,例如這是視網膜病變嗎?這人適合這工作嗎?這人或公司具有這項貸款的信用嗎?這人犯罪的再發率?
•關於這個問題的巨量的案例,專家給出「是」或者「不是」或者「或然性的」的答案,然後將這些帶著專家基本判斷的巨量案例餵給機器。除此之外,專家不給機器其他判斷,特別是不給基本判斷的理由。
•經過大量的學習後,機器的演算法會產出比專家正確率更高的判斷。
既然巨量數據一開始就要專家給出「是」或「不是」的判斷,AI無可避免涉及「人類的判斷」,AI的產出也就無可避免帶有「人類的錯誤」;AI無法擺脫統計學上「餵給它垃圾,它就會生出垃圾來」(Garbage in, garbage out.)的問題。
科技再怎麼進展,科技本身還是無法解決嵌卡在AI心臟地帶的一個根本問題:無論你再怎麼精心設計演算法,其所需的數據都必須來自有缺陷的、不完美的、不可預測的、充滿偏見與主觀看法的真實世界,換句話說,AI 做決策所需的數據必須來自人類世界。
演算法如果正確的反映出我們人類世界,人類世界充滿偏見,那麼演算法就會反映出我們人類世界的偏見。事實上,許多演算法不僅忠實的反映人類世界的偏見,有時還會擴大這些偏見。2014 年時,Amazon 公司發展出一套能替Amazon 找到適合的軟體工程師的聘僱軟體,但是在很短的時間內,這AI 聘僱系統就開始歧視女性,比一般人還歧視,迫使Amazon 在2017 年放棄了該系統。另外Northpointe公司從一個商業系統中發展出能預測罪犯再犯率的司法協助系統COMPAS,Northpointe 希望COMPAS 能協助法官做出更佳量刑判決,但是,許多研究很快就指出該系統歧視黑人,而且比一般人類還歧視黑人。
AI 是個人類世界顯微鏡,人有多好,它就能揭露並放大那些好,人有多壞,它就能揭露並放大那些壞,特別是那些幽微不可名狀的好與壞。
由於AI 增強、放大了人類的能力與優缺點,在AI 的布局上,人類更應該扮演關鍵角色。關於如何使用AI,人類不能僅僅需要在輸出端做價值檢查,在輸入端人類就必須決定AI 可運用領域的範圍,因為,由於AI 的強大,無論開放哪個領域讓AI 參與,一旦開放,我們都沒有把握AI 最終不會奪取了該領域的人類選擇權。比較明智的做法是先將各類價值的優先次序整理出來,瞭解哪些是核心價值、哪些則位在價值網的邊緣,然後,先讓AI參與相對不重要的,越重要、對人類影響越大的決定則越晚讓AI參與。
「AI是個人類世界顯微鏡」指向一個更根本的AI人本議題。在AI輸入面的「人類世界數據」有些是顯題式的(explicit),更常是隱題式的(implicit)。AI的強項就是從大量數據裡揭露出人類行為或價值觀隱而不見的模式,無論所揭露出的結果是人類所尊崇的或是不樂見的。如果希望AI的決策不但是「準確的」而且是「適當的」,人類就必須盡可能活出人類自己認為理想的世界,人必須活出理想的自己,而所活出的理想世界、理想的自我,就不僅包括人們可以意識到的或語言可以描述出的世界與自我,還要包括那些語言不可描述、甚至無法意識到的角落。
然而,再怎麼努力,人類似乎永遠不完美,人類世界也持續會有著錯誤、矛盾與衝突,人類也不能完全瞭解人類世界到底是怎麼一回事,這永恆的無知使得人類縱然有進步但仍是永不完美。所幸,人類世界很大一部分畢竟是人類活出來的,人性不全是給定的、不變的,更重要的是,人性也是待決定、待發展、對未來開放的,人類雖然不能完全瞭解人類世界到底是怎麼一回事,人類社會也的確充滿錯誤、矛盾與衝突,但人類還是有一定的自我認識、自我改變、自我改善能力,而人類越瞭解自己就越能修正自己的世界。
「人類的永遠不完美」聽起來悲觀,但它或許是一件好事,因為它加上「人類可以持續認識、改變自己、改善自己」,可能顯示出AI最正向的人本意義。這條思路大約是這樣的:人類把不完美世界的海量數據餵給AI,AI 這個人性放大鏡幫助人類更了解自己,幫助人類做出比以前更好的決策,人類修正自己,產生品質更好的海量數據餵給AI,AI 幫助人類更深入瞭解自己、更完善自己,活出更好的人類世界,形成更高品質的人類數據再餵給AI,從此以往,形成人類/AI相互合作、接續輪替做決策的永續向善循環。「人類的永遠不完美」與「人類可以持續認識、改善自己」使得「人類/AI 相互合作、輪替決策的永續向善循環」變得合理,錯開人類與AI 的決策時間,讓兩者之間的決策從競爭轉向合作,朝向一個動態的人性完善過程。
三、AI 與集體偏好效益主義
AI 固然一開始就是人本的,AI 與人類各依所長搭配合作也有助於人性的完善,但是AI 本身卻不是價值中立的,AI 對於人性仍具相當的威脅,本文透過討論AI 與集體偏好效益主義兩者之間的關係,界定及回應一些AI 所涉及的重要人性威脅。
從AI、機器學習、深度學習的最基本模式與成果可以看出,我們使用AI 是因為AI 可以給出正確率更高的判斷,不是因為AI 給出很好的理由、解釋或理論,評價AI 純是就結果論結果,因此,當我們將AI 的判斷作為一般行動根據,我們所操持的就是效益主義(utilitarianism),選擇的好壞端端看選擇造成多少好的(適當的、正確的)後果。更具體而言,AI涉及的效益主義是「偏好效益主義」(preference utilitarianism),而且,既然涉及來自不同行動者、不同脈絡的巨量資料,這種效益主義是一種我稱之為「集體偏好效益主義」(collective preference utilitarianism)的立場。
傳統效益主義訴諸「極大化快樂與極小化痛苦」來定義何謂正確行為,偏好效益主義則透趨樂避苦行動的主觀看法或偏好來定義何謂正確行動,也就是說,行動者對於「甚麼樣的行動可以帶來極大化快樂與極小化痛苦」的主觀態度決定了甚麼是正確行動。
偏好效益主義的主要困難是調解不同個體彼此之間相互衝突的偏好,常常偏好效益主義預設了我們可以衡量並決定相互衝突的偏好彼此之間何者勝出,但這預設的爭議非常大的。
不同於單純的偏好效益主義,集體偏好效益主義直接用統計的方式跳過了這個「相衝突偏好彼此之間孰優孰劣」議題,集體偏好效益主義認為,在相同的脈絡下,偏好數量越多者勝出。
單純的偏好效益主義如彼得辛格(Peter Singer)常被批評犯了不當的道德位階差別待遇。能夠來回思索衡量未來偏好及眼前偏好的生物群體,辛格認為他們具有較高的道德地位,至於那些只會關心眼前環境的群體如動物和嬰孩,辛格給於較低的道德位階。單純的偏好效益主義者似乎認為,既然行動的正確性最終是以偏好來定義,那些能夠深思熟慮、理性整合不同偏好的群體,與那些只能對眼前情況產生偏好的群體,兩者之間前者道德位階更高。但這個推論需要獨立於偏好效益主義的證成基礎,因為偏好效益主義只談偏好這個主觀態度,並沒有涉及偏好產生的過程。
AI 所體現的集體偏好效益主義似乎不會產生單純的偏好效益主義上述的誤導,因為AI 是一種黑盒子。
人類的認知、思考模式主要是「以簡馭繁」,發展精簡的理論、原理、法則來理解、說明萬事萬物與溝通彼此,而這些活動都「遵循有限數量的規則」,因為,自然語言就是這些理論、原理、法則的載體,而自然語言即使再複雜也是遵循有限數量規則的活動。簡單的說,人類擅長的認知模式是一種處理命題、信念、知識的線性、遵循規則的符號運算過程。
AI 則是處理數據的次符號(sub-symbolic)模型,它的表徵結構是具多隱藏層(深度)的離散系統,也就是連結主義式(connectionism)的認知模式。AI 的運算功能可以處理海量數據,遠比人類總加可以處理的還多得多,而更關鍵的是,針對我們餵食給AI 系統的海量數據,AI 系統會創造出極為複雜且高度非線性的內部表徵結構。有多複雜?AI 模型可以有3 階或更多階的互動網絡,且現在市場上表現不錯的AI 模型的內部表徵結構都涉及約1 億個參數,換句話說,那些AI 系統所做出任何一個決定,譬如判斷某一張圖片是「這是一隻拉不拉多犬」或「這是一個玩抓娃娃機的老男人」,都涉及1 億個數字的組合。正是那麼巨大的參數,讓AI 可以注意、計算無窮小的訊息,衡量人類無法衡量的訊息,從而發展出人類無從探知的、看待、思考事物的全新方式,而這正是AI 令人驚豔的地方。
簡單的說,海量的數據、非線性的表徵模型讓AI 可以做得比人類更好、更快、更強,而越厲害的AI 系統越是個黑盒子,我們越無法瞭解它們是如何做出決定,無從理解AI 的決策所根據的理由是甚麼,因此也無從探究、無從質疑、無從評估、無從問責。
AI 所體現的集體偏好效益主義讓我們更聚焦在偏好效益主義的核心上,也就是偏好本身,而非產生偏好的過程。
一、前言
本文從三個方向刻劃人本AI(Human-centered AI),希望呈現出人本AI 的重要挑戰與與核心任務。第一個面向是「AI 是人類世界顯微鏡」,AI 本就內建入人類的優缺點,AI 更可以揭露並放大人類的好與壞,特別是那些幽微不可名狀的好與壞,而這也是AI 可以與人類一起合作改善人性和人類社會的契機。第二個面向關心的是AI 所涉及的「集體偏好效益主義」(collective preference utilitarianism),對於人性的開放性、差異性以及差異性所要求的同情共感(可理解性)的威脅,本文也以一個人本AI 的想像案例――光合菌的成長故事,來說明消解這些威脅的方向。最後,本文認透過討論X.A.I.(Explainable AI, 可理解的人工智慧),提出一個關於人本AI 的終極主張:X.A.I 才是一個徹底人本的AI。一個內建人類觀點的AI,才是一個可理解的AI,一個能夠以人類語言說明自己並與人類溝通的AI,才是一個可理解的AI,而屆時,AI 也將有機會獲得人類社會中的主體身分,成為「我們人類」的一分子此時,AI 慢慢的從人類工具演變成人類社群的成員, 從他者變成我們, 徹底以人為本的AI 方是獲得人格(personhood)的AI。
二、一開始就是人本――AI是人類世界顯微鏡
你常會聽到這樣的說法:在2010之後發展出來的AI是完全無涉「專家判斷」的,無論是專業領域專家或是生活領域專家(也就是一般人),而讓AI知道專家的判斷,反而會汙染AI,會讓AI變笨。但這樣的說法言過其實,讓人忽略重要AI事實:AI所需的巨量數據一開始就涉及專家判斷。AI、機器學習、深度學習的最基本模式與成果是這樣的
•針對一個問題,例如這是視網膜病變嗎?這人適合這工作嗎?這人或公司具有這項貸款的信用嗎?這人犯罪的再發率?
•關於這個問題的巨量的案例,專家給出「是」或者「不是」或者「或然性的」的答案,然後將這些帶著專家基本判斷的巨量案例餵給機器。除此之外,專家不給機器其他判斷,特別是不給基本判斷的理由。
•經過大量的學習後,機器的演算法會產出比專家正確率更高的判斷。
既然巨量數據一開始就要專家給出「是」或「不是」的判斷,AI無可避免涉及「人類的判斷」,AI的產出也就無可避免帶有「人類的錯誤」;AI無法擺脫統計學上「餵給它垃圾,它就會生出垃圾來」(Garbage in, garbage out.)的問題。
科技再怎麼進展,科技本身還是無法解決嵌卡在AI心臟地帶的一個根本問題:無論你再怎麼精心設計演算法,其所需的數據都必須來自有缺陷的、不完美的、不可預測的、充滿偏見與主觀看法的真實世界,換句話說,AI 做決策所需的數據必須來自人類世界。
演算法如果正確的反映出我們人類世界,人類世界充滿偏見,那麼演算法就會反映出我們人類世界的偏見。事實上,許多演算法不僅忠實的反映人類世界的偏見,有時還會擴大這些偏見。2014 年時,Amazon 公司發展出一套能替Amazon 找到適合的軟體工程師的聘僱軟體,但是在很短的時間內,這AI 聘僱系統就開始歧視女性,比一般人還歧視,迫使Amazon 在2017 年放棄了該系統。另外Northpointe公司從一個商業系統中發展出能預測罪犯再犯率的司法協助系統COMPAS,Northpointe 希望COMPAS 能協助法官做出更佳量刑判決,但是,許多研究很快就指出該系統歧視黑人,而且比一般人類還歧視黑人。
AI 是個人類世界顯微鏡,人有多好,它就能揭露並放大那些好,人有多壞,它就能揭露並放大那些壞,特別是那些幽微不可名狀的好與壞。
由於AI 增強、放大了人類的能力與優缺點,在AI 的布局上,人類更應該扮演關鍵角色。關於如何使用AI,人類不能僅僅需要在輸出端做價值檢查,在輸入端人類就必須決定AI 可運用領域的範圍,因為,由於AI 的強大,無論開放哪個領域讓AI 參與,一旦開放,我們都沒有把握AI 最終不會奪取了該領域的人類選擇權。比較明智的做法是先將各類價值的優先次序整理出來,瞭解哪些是核心價值、哪些則位在價值網的邊緣,然後,先讓AI參與相對不重要的,越重要、對人類影響越大的決定則越晚讓AI參與。
「AI是個人類世界顯微鏡」指向一個更根本的AI人本議題。在AI輸入面的「人類世界數據」有些是顯題式的(explicit),更常是隱題式的(implicit)。AI的強項就是從大量數據裡揭露出人類行為或價值觀隱而不見的模式,無論所揭露出的結果是人類所尊崇的或是不樂見的。如果希望AI的決策不但是「準確的」而且是「適當的」,人類就必須盡可能活出人類自己認為理想的世界,人必須活出理想的自己,而所活出的理想世界、理想的自我,就不僅包括人們可以意識到的或語言可以描述出的世界與自我,還要包括那些語言不可描述、甚至無法意識到的角落。
然而,再怎麼努力,人類似乎永遠不完美,人類世界也持續會有著錯誤、矛盾與衝突,人類也不能完全瞭解人類世界到底是怎麼一回事,這永恆的無知使得人類縱然有進步但仍是永不完美。所幸,人類世界很大一部分畢竟是人類活出來的,人性不全是給定的、不變的,更重要的是,人性也是待決定、待發展、對未來開放的,人類雖然不能完全瞭解人類世界到底是怎麼一回事,人類社會也的確充滿錯誤、矛盾與衝突,但人類還是有一定的自我認識、自我改變、自我改善能力,而人類越瞭解自己就越能修正自己的世界。
「人類的永遠不完美」聽起來悲觀,但它或許是一件好事,因為它加上「人類可以持續認識、改變自己、改善自己」,可能顯示出AI最正向的人本意義。這條思路大約是這樣的:人類把不完美世界的海量數據餵給AI,AI 這個人性放大鏡幫助人類更了解自己,幫助人類做出比以前更好的決策,人類修正自己,產生品質更好的海量數據餵給AI,AI 幫助人類更深入瞭解自己、更完善自己,活出更好的人類世界,形成更高品質的人類數據再餵給AI,從此以往,形成人類/AI相互合作、接續輪替做決策的永續向善循環。「人類的永遠不完美」與「人類可以持續認識、改善自己」使得「人類/AI 相互合作、輪替決策的永續向善循環」變得合理,錯開人類與AI 的決策時間,讓兩者之間的決策從競爭轉向合作,朝向一個動態的人性完善過程。
三、AI 與集體偏好效益主義
AI 固然一開始就是人本的,AI 與人類各依所長搭配合作也有助於人性的完善,但是AI 本身卻不是價值中立的,AI 對於人性仍具相當的威脅,本文透過討論AI 與集體偏好效益主義兩者之間的關係,界定及回應一些AI 所涉及的重要人性威脅。
從AI、機器學習、深度學習的最基本模式與成果可以看出,我們使用AI 是因為AI 可以給出正確率更高的判斷,不是因為AI 給出很好的理由、解釋或理論,評價AI 純是就結果論結果,因此,當我們將AI 的判斷作為一般行動根據,我們所操持的就是效益主義(utilitarianism),選擇的好壞端端看選擇造成多少好的(適當的、正確的)後果。更具體而言,AI涉及的效益主義是「偏好效益主義」(preference utilitarianism),而且,既然涉及來自不同行動者、不同脈絡的巨量資料,這種效益主義是一種我稱之為「集體偏好效益主義」(collective preference utilitarianism)的立場。
傳統效益主義訴諸「極大化快樂與極小化痛苦」來定義何謂正確行為,偏好效益主義則透趨樂避苦行動的主觀看法或偏好來定義何謂正確行動,也就是說,行動者對於「甚麼樣的行動可以帶來極大化快樂與極小化痛苦」的主觀態度決定了甚麼是正確行動。
偏好效益主義的主要困難是調解不同個體彼此之間相互衝突的偏好,常常偏好效益主義預設了我們可以衡量並決定相互衝突的偏好彼此之間何者勝出,但這預設的爭議非常大的。
不同於單純的偏好效益主義,集體偏好效益主義直接用統計的方式跳過了這個「相衝突偏好彼此之間孰優孰劣」議題,集體偏好效益主義認為,在相同的脈絡下,偏好數量越多者勝出。
單純的偏好效益主義如彼得辛格(Peter Singer)常被批評犯了不當的道德位階差別待遇。能夠來回思索衡量未來偏好及眼前偏好的生物群體,辛格認為他們具有較高的道德地位,至於那些只會關心眼前環境的群體如動物和嬰孩,辛格給於較低的道德位階。單純的偏好效益主義者似乎認為,既然行動的正確性最終是以偏好來定義,那些能夠深思熟慮、理性整合不同偏好的群體,與那些只能對眼前情況產生偏好的群體,兩者之間前者道德位階更高。但這個推論需要獨立於偏好效益主義的證成基礎,因為偏好效益主義只談偏好這個主觀態度,並沒有涉及偏好產生的過程。
AI 所體現的集體偏好效益主義似乎不會產生單純的偏好效益主義上述的誤導,因為AI 是一種黑盒子。
人類的認知、思考模式主要是「以簡馭繁」,發展精簡的理論、原理、法則來理解、說明萬事萬物與溝通彼此,而這些活動都「遵循有限數量的規則」,因為,自然語言就是這些理論、原理、法則的載體,而自然語言即使再複雜也是遵循有限數量規則的活動。簡單的說,人類擅長的認知模式是一種處理命題、信念、知識的線性、遵循規則的符號運算過程。
AI 則是處理數據的次符號(sub-symbolic)模型,它的表徵結構是具多隱藏層(深度)的離散系統,也就是連結主義式(connectionism)的認知模式。AI 的運算功能可以處理海量數據,遠比人類總加可以處理的還多得多,而更關鍵的是,針對我們餵食給AI 系統的海量數據,AI 系統會創造出極為複雜且高度非線性的內部表徵結構。有多複雜?AI 模型可以有3 階或更多階的互動網絡,且現在市場上表現不錯的AI 模型的內部表徵結構都涉及約1 億個參數,換句話說,那些AI 系統所做出任何一個決定,譬如判斷某一張圖片是「這是一隻拉不拉多犬」或「這是一個玩抓娃娃機的老男人」,都涉及1 億個數字的組合。正是那麼巨大的參數,讓AI 可以注意、計算無窮小的訊息,衡量人類無法衡量的訊息,從而發展出人類無從探知的、看待、思考事物的全新方式,而這正是AI 令人驚豔的地方。
簡單的說,海量的數據、非線性的表徵模型讓AI 可以做得比人類更好、更快、更強,而越厲害的AI 系統越是個黑盒子,我們越無法瞭解它們是如何做出決定,無從理解AI 的決策所根據的理由是甚麼,因此也無從探究、無從質疑、無從評估、無從問責。
AI 所體現的集體偏好效益主義讓我們更聚焦在偏好效益主義的核心上,也就是偏好本身,而非產生偏好的過程。