宗教與AI論文集
Religion and AI : selected essays
作  者╱
林恕安、林從一、柯志明、陳文祥、張名揚、陳康芬、張毅民、鄭印君、薛子樂、吳孟翰、熊谷誠慈
出版社別╱
五南
出版日期╱
2025/06/11   (1版 1刷)
  
即日起五南舊官網僅提供書籍查詢,如欲購書,請至五南新官網 https://www.wunan.com.tw/
I  S  B  N ╱
978-626-423-383-5
書  號╱
4B0S
頁  數╱
360
開  數╱
25K
定  價╱
500



  ChatGPT 的出現引發了全球熱烈的討論,這種新型人工智能(AI)不同於以往,迅速地改變了人類與非生命物的互動方式,並賦予人們全新的視角來審視其意涵。教育、文化及宗教作為人類精神生活的重要構成部分,必然需要面對AI 帶來的衝擊與挑戰。例如,傳教、禮儀和祈禱等宗教活動能否與AI 技術協作?AI 技術又如何影響人們對神聖、信仰及宗教實踐的認知與理解?
  針對這些當代議題,來自海內外超過三十位學者及研究生深入探討多元主題,為未來的研究與實踐提供啟示與方向。本書收錄林從一教授的主題演講與10篇經雙重匿名審查的學術論文,涵蓋多元觀點與創新思維。
  期盼本書能成為推動「宗教與AI」對話的重要里程碑,激發更多跨領域目的學術交流與啟示。
※主編簡介
鄭印君、林恕安
鄭印君
輔仁大學比較文學博士,現為天主教輔仁大學宗教學系副教授、教育部人文與社會科學領域「宗教地景、療癒與社會實踐」標竿計畫總計畫主持人、台灣宗教學會理事,曾任輔仁大學宗教學系系主任與社會科學院副院長。
研究領域為宗教學理論、當代視覺文化與生命教育、敘事學理論、基督宗教文學等,近年並將主要研究視點聚焦於「宗教與恐怖類型電影研究」。

林恕安
畢業於國立政治大學宗教研究所,碩士為美國聖地牙哥州立大學統計研究所,現任輔仁大學宗教學系助理教授。
其研究專注於印度佛教哲學,特別是中觀學派,尤其探討清辯論師對於世俗與勝義真理之間關係及界圍的理解,亦從事西藏文獻研究。

(以姓氏筆畫排列)
林恕安
畢業於國立政治大學宗教研究所,碩士為美國聖地牙哥州立大學統計研究所,現任輔仁大學宗教學系助理教授。
其研究專注於印度佛教哲學,特別是中觀學派,尤其探討清辯論師對於世俗與勝義真理之間關係及界圍的理解,亦從事西藏文獻研究。

林從一
畢業於輔仁大學社會工作學系、政治大學哲學研究所以及美國愛荷華大學哲學系,現任國家教育研究院院長,曾任教於政治大學、台北藝術大學、台北醫學大學、成功大學以及華梵大學。
除曾任台灣哲學學會會長致力推動台灣哲學發展外,亦長期致力高等教育發展與創新、協助教育部推動許多重要創新先導計畫,例如通識教育中程綱要計畫、現代公民核心能力培育計畫、大學學習生態系統創新計畫、科學人文跨科際人才培育中程計畫等。

柯志明
靜宜大學生態人文學系哲學教授,亦曾兼任教於臺灣大學、東海大學,以及臺灣神學院、臺南神學院、中華福音神學院、中台神學院。
主要研究領域為存有學、倫理學、詮釋學、當代道德爭議與基督宗教神學。

陳文祥
現任輔仁大學天主教研修學士學位學程副教授、輔仁大學天主教學術研究院學院副研究員,兼任輔仁大學科學與宗教研究中心主任、《哲學與文化月刊》副主編。
主要學術專長包括研究伯納•郎尼根(Bernard Lonergan)的認知理論與形上學、新士林哲學研究,以及科學與宗教關係。

張名揚
比利時天主教魯汶大學神學及宗教研究博士,美國普渡大學電機及電腦工程碩士,現任輔仁大學宗教學系助理教授及香港中文大學崇基學院神學院榮譽副研究員,亦是 Digital Ricoeur 網站創建團隊成員。
研究領域包括神學與哲學詮釋學,處境神學和宗教與數位科技。

陳康芬
國立東華大學中國語文學系博士,現任中原大學通識教育中心副教授暨全球客家與多元文化研究中心主任。
主要研究領域為臺灣現當代文學(含客家文學)、通俗文學、文學社會與文化理論。

張毅民
國立政治大學宗教研究所博士,現任國立臺灣大學共同教育中心助理教授、國立臺灣大學校學士總導師、臺灣宗教學會理事。曾於美國波士頓大學神學院神學研究碩士,並獲明尼蘇達州立聖雲大學傳播碩士、銘傳大學傳播管理碩士、國立政治大學廣播電視學系學士等學位。
專研早期基督宗教、宗徒教父思想、比較宗教等領域,近年更開展AI 與宗教研究,主持多項國科會專題研究計畫,對宗教、科技、人文等跨領域議題有深入研究。

鄭印君
輔仁大學比較文學博士,現為天主教輔仁大學宗教學系副教授、教育部人文與社會科學領域「宗教地景、療癒與社會實踐」標竿計畫總計畫主持人、台灣宗教學會理事,曾任輔仁大學宗教學系系主任與社會科學院副院長。
研究領域為宗教學理論、當代視覺文化與生命教育、敘事學理論、基督宗教文學等,近年並將主要研究視點聚焦於「宗教與恐怖類型電影研究」。

薛子樂
現為香港中文大學崇基學院神學院神道學碩士三年級生,畢業於香港中文大學基督教研究文學碩士,及香港浸會大學歷史系一級榮譽畢業。
近年,除了於香港基督教音樂的創作、填詞、演出外,亦積極進行香港基督教音樂的學術研究。現為自由音樂人及樂器導師,亦為機構處理多媒體及經營社交媒體。

吳孟翰
畢業於美國加州柏克萊大學和聯合神學研究所,並在范德堡大學取得博士學位。
在台灣神學研究學院任教之前,有牧會、開拓教會和宣教經驗。目前教授新約聖經研究、符號學和後殖民研究。

熊谷誠慈(Seiji Kumagai)
Seiji Kumagai is a professor and divisional director (Uehiro Research Division) at the Institute for the Future of Human Society (IFoHS) in Kyoto University.
His field of research is Buddhist Madhyamaka and Abhidharma philosophy in India, Tibet and Bhutan, and also that of Bon religion.

序言
作者介紹
編輯委員名單

人本AI(林從一)
人工智慧與意義整體(陳文祥)
Development of Buddhist AI, AR, and VR: Toward the Establishment of Buddhist Metaverse “Tera-verse”(熊谷誠慈)
AI 虛擬世界與唯識的異同(林恕安)
AI 是這時代的巴別塔嗎?談宗教與科技的創造與超越(張名揚)
科幻電影中的宗教主題引用與AI末世之考察:以《魔鬼終結者》與《駭客任務》系列電影為例(鄭印君)
德日進神學再思:對AI與宗教研究的啟迪(張毅民)
當元宇宙遇見AI的「生命擬像」科技敘事行為與生命倫理 界限探討:以韓國MBC紀錄片〈Meeting You〉個案為例(陳康芬)
人工智能與生命意義:論人不可取代之存在性和宗教性(柯志明)
Matthew 25:31–46 and Undecidability: Ethics of Biblical Interpretation in the Age of AI(吳孟翰)
論基督教如何以通用人工智能作為聖約經濟的實踐(薛子樂)

印度尼西亞─群
島的願景
聖文森的記憶與
傳奇
頓悟修證─威音
那畔的密語
莊子思想的生命
教育與價值實踐
Begonia
of the
Philip
pines
初衷道




人本AI(林從一)

一、前言
  本文從三個方向刻劃人本AI(Human-centered AI),希望呈現出人本AI 的重要挑戰與與核心任務。第一個面向是「AI 是人類世界顯微鏡」,AI 本就內建入人類的優缺點,AI 更可以揭露並放大人類的好與壞,特別是那些幽微不可名狀的好與壞,而這也是AI 可以與人類一起合作改善人性和人類社會的契機。第二個面向關心的是AI 所涉及的「集體偏好效益主義」(collective preference utilitarianism),對於人性的開放性、差異性以及差異性所要求的同情共感(可理解性)的威脅,本文也以一個人本AI 的想像案例――光合菌的成長故事,來說明消解這些威脅的方向。最後,本文認透過討論X.A.I.(Explainable AI, 可理解的人工智慧),提出一個關於人本AI 的終極主張:X.A.I 才是一個徹底人本的AI。一個內建人類觀點的AI,才是一個可理解的AI,一個能夠以人類語言說明自己並與人類溝通的AI,才是一個可理解的AI,而屆時,AI 也將有機會獲得人類社會中的主體身分,成為「我們人類」的一分子此時,AI 慢慢的從人類工具演變成人類社群的成員, 從他者變成我們, 徹底以人為本的AI 方是獲得人格(personhood)的AI。

二、一開始就是人本――AI是人類世界顯微鏡
  你常會聽到這樣的說法:在2010之後發展出來的AI是完全無涉「專家判斷」的,無論是專業領域專家或是生活領域專家(也就是一般人),而讓AI知道專家的判斷,反而會汙染AI,會讓AI變笨。但這樣的說法言過其實,讓人忽略重要AI事實:AI所需的巨量數據一開始就涉及專家判斷。AI、機器學習、深度學習的最基本模式與成果是這樣的
•針對一個問題,例如這是視網膜病變嗎?這人適合這工作嗎?這人或公司具有這項貸款的信用嗎?這人犯罪的再發率?
•關於這個問題的巨量的案例,專家給出「是」或者「不是」或者「或然性的」的答案,然後將這些帶著專家基本判斷的巨量案例餵給機器。除此之外,專家不給機器其他判斷,特別是不給基本判斷的理由。
•經過大量的學習後,機器的演算法會產出比專家正確率更高的判斷。
  既然巨量數據一開始就要專家給出「是」或「不是」的判斷,AI無可避免涉及「人類的判斷」,AI的產出也就無可避免帶有「人類的錯誤」;AI無法擺脫統計學上「餵給它垃圾,它就會生出垃圾來」(Garbage in, garbage out.)的問題。
  科技再怎麼進展,科技本身還是無法解決嵌卡在AI心臟地帶的一個根本問題:無論你再怎麼精心設計演算法,其所需的數據都必須來自有缺陷的、不完美的、不可預測的、充滿偏見與主觀看法的真實世界,換句話說,AI 做決策所需的數據必須來自人類世界。
  演算法如果正確的反映出我們人類世界,人類世界充滿偏見,那麼演算法就會反映出我們人類世界的偏見。事實上,許多演算法不僅忠實的反映人類世界的偏見,有時還會擴大這些偏見。2014 年時,Amazon 公司發展出一套能替Amazon 找到適合的軟體工程師的聘僱軟體,但是在很短的時間內,這AI 聘僱系統就開始歧視女性,比一般人還歧視,迫使Amazon 在2017 年放棄了該系統。另外Northpointe公司從一個商業系統中發展出能預測罪犯再犯率的司法協助系統COMPAS,Northpointe 希望COMPAS 能協助法官做出更佳量刑判決,但是,許多研究很快就指出該系統歧視黑人,而且比一般人類還歧視黑人。
  AI 是個人類世界顯微鏡,人有多好,它就能揭露並放大那些好,人有多壞,它就能揭露並放大那些壞,特別是那些幽微不可名狀的好與壞。
  由於AI 增強、放大了人類的能力與優缺點,在AI 的布局上,人類更應該扮演關鍵角色。關於如何使用AI,人類不能僅僅需要在輸出端做價值檢查,在輸入端人類就必須決定AI 可運用領域的範圍,因為,由於AI 的強大,無論開放哪個領域讓AI 參與,一旦開放,我們都沒有把握AI 最終不會奪取了該領域的人類選擇權。比較明智的做法是先將各類價值的優先次序整理出來,瞭解哪些是核心價值、哪些則位在價值網的邊緣,然後,先讓AI參與相對不重要的,越重要、對人類影響越大的決定則越晚讓AI參與。
  「AI是個人類世界顯微鏡」指向一個更根本的AI人本議題。在AI輸入面的「人類世界數據」有些是顯題式的(explicit),更常是隱題式的(implicit)。AI的強項就是從大量數據裡揭露出人類行為或價值觀隱而不見的模式,無論所揭露出的結果是人類所尊崇的或是不樂見的。如果希望AI的決策不但是「準確的」而且是「適當的」,人類就必須盡可能活出人類自己認為理想的世界,人必須活出理想的自己,而所活出的理想世界、理想的自我,就不僅包括人們可以意識到的或語言可以描述出的世界與自我,還要包括那些語言不可描述、甚至無法意識到的角落。
  然而,再怎麼努力,人類似乎永遠不完美,人類世界也持續會有著錯誤、矛盾與衝突,人類也不能完全瞭解人類世界到底是怎麼一回事,這永恆的無知使得人類縱然有進步但仍是永不完美。所幸,人類世界很大一部分畢竟是人類活出來的,人性不全是給定的、不變的,更重要的是,人性也是待決定、待發展、對未來開放的,人類雖然不能完全瞭解人類世界到底是怎麼一回事,人類社會也的確充滿錯誤、矛盾與衝突,但人類還是有一定的自我認識、自我改變、自我改善能力,而人類越瞭解自己就越能修正自己的世界。
  「人類的永遠不完美」聽起來悲觀,但它或許是一件好事,因為它加上「人類可以持續認識、改變自己、改善自己」,可能顯示出AI最正向的人本意義。這條思路大約是這樣的:人類把不完美世界的海量數據餵給AI,AI 這個人性放大鏡幫助人類更了解自己,幫助人類做出比以前更好的決策,人類修正自己,產生品質更好的海量數據餵給AI,AI 幫助人類更深入瞭解自己、更完善自己,活出更好的人類世界,形成更高品質的人類數據再餵給AI,從此以往,形成人類/AI相互合作、接續輪替做決策的永續向善循環。「人類的永遠不完美」與「人類可以持續認識、改善自己」使得「人類/AI 相互合作、輪替決策的永續向善循環」變得合理,錯開人類與AI 的決策時間,讓兩者之間的決策從競爭轉向合作,朝向一個動態的人性完善過程。

三、AI 與集體偏好效益主義
  AI 固然一開始就是人本的,AI 與人類各依所長搭配合作也有助於人性的完善,但是AI 本身卻不是價值中立的,AI 對於人性仍具相當的威脅,本文透過討論AI 與集體偏好效益主義兩者之間的關係,界定及回應一些AI 所涉及的重要人性威脅。
  從AI、機器學習、深度學習的最基本模式與成果可以看出,我們使用AI 是因為AI 可以給出正確率更高的判斷,不是因為AI 給出很好的理由、解釋或理論,評價AI 純是就結果論結果,因此,當我們將AI 的判斷作為一般行動根據,我們所操持的就是效益主義(utilitarianism),選擇的好壞端端看選擇造成多少好的(適當的、正確的)後果。更具體而言,AI涉及的效益主義是「偏好效益主義」(preference utilitarianism),而且,既然涉及來自不同行動者、不同脈絡的巨量資料,這種效益主義是一種我稱之為「集體偏好效益主義」(collective preference utilitarianism)的立場。
  傳統效益主義訴諸「極大化快樂與極小化痛苦」來定義何謂正確行為,偏好效益主義則透趨樂避苦行動的主觀看法或偏好來定義何謂正確行動,也就是說,行動者對於「甚麼樣的行動可以帶來極大化快樂與極小化痛苦」的主觀態度決定了甚麼是正確行動。
  偏好效益主義的主要困難是調解不同個體彼此之間相互衝突的偏好,常常偏好效益主義預設了我們可以衡量並決定相互衝突的偏好彼此之間何者勝出,但這預設的爭議非常大的。
  不同於單純的偏好效益主義,集體偏好效益主義直接用統計的方式跳過了這個「相衝突偏好彼此之間孰優孰劣」議題,集體偏好效益主義認為,在相同的脈絡下,偏好數量越多者勝出。
  單純的偏好效益主義如彼得辛格(Peter Singer)常被批評犯了不當的道德位階差別待遇。能夠來回思索衡量未來偏好及眼前偏好的生物群體,辛格認為他們具有較高的道德地位,至於那些只會關心眼前環境的群體如動物和嬰孩,辛格給於較低的道德位階。單純的偏好效益主義者似乎認為,既然行動的正確性最終是以偏好來定義,那些能夠深思熟慮、理性整合不同偏好的群體,與那些只能對眼前情況產生偏好的群體,兩者之間前者道德位階更高。但這個推論需要獨立於偏好效益主義的證成基礎,因為偏好效益主義只談偏好這個主觀態度,並沒有涉及偏好產生的過程。
  AI 所體現的集體偏好效益主義似乎不會產生單純的偏好效益主義上述的誤導,因為AI 是一種黑盒子。
  人類的認知、思考模式主要是「以簡馭繁」,發展精簡的理論、原理、法則來理解、說明萬事萬物與溝通彼此,而這些活動都「遵循有限數量的規則」,因為,自然語言就是這些理論、原理、法則的載體,而自然語言即使再複雜也是遵循有限數量規則的活動。簡單的說,人類擅長的認知模式是一種處理命題、信念、知識的線性、遵循規則的符號運算過程。
  AI 則是處理數據的次符號(sub-symbolic)模型,它的表徵結構是具多隱藏層(深度)的離散系統,也就是連結主義式(connectionism)的認知模式。AI 的運算功能可以處理海量數據,遠比人類總加可以處理的還多得多,而更關鍵的是,針對我們餵食給AI 系統的海量數據,AI 系統會創造出極為複雜且高度非線性的內部表徵結構。有多複雜?AI 模型可以有3 階或更多階的互動網絡,且現在市場上表現不錯的AI 模型的內部表徵結構都涉及約1 億個參數,換句話說,那些AI 系統所做出任何一個決定,譬如判斷某一張圖片是「這是一隻拉不拉多犬」或「這是一個玩抓娃娃機的老男人」,都涉及1 億個數字的組合。正是那麼巨大的參數,讓AI 可以注意、計算無窮小的訊息,衡量人類無法衡量的訊息,從而發展出人類無從探知的、看待、思考事物的全新方式,而這正是AI 令人驚豔的地方。
  簡單的說,海量的數據、非線性的表徵模型讓AI 可以做得比人類更好、更快、更強,而越厲害的AI 系統越是個黑盒子,我們越無法瞭解它們是如何做出決定,無從理解AI 的決策所根據的理由是甚麼,因此也無從探究、無從質疑、無從評估、無從問責。
  AI 所體現的集體偏好效益主義讓我們更聚焦在偏好效益主義的核心上,也就是偏好本身,而非產生偏好的過程。