人工智慧之倫理學
計畫主持人|
丁川康 教授 國立清華大學 動力機械工程學系
共同主持人|
謝世民 教授 國立中正大學 哲學系
簡介
人工智慧的蓬勃快速發展提昇了人類生活,但其不斷增強的能力卻也使得人們擔憂它的潛在危險與對人類的威脅。針對這些隱憂,將倫理與道德哲學導入人工智慧系統為解決此議題的重要方向。本計畫將研究與設計人工智慧之倫理系統,具體而言,我們將探索倫理理論、創建倫理案例庫(ethical case base)、並利用人工智慧技術(包含演化計算、模糊集合與推論、與資料分群)建立倫理系統。第一年的計畫為進行中的「數位經濟前瞻技術研發與應用專案計畫」,在過去六個月中,我們深入研究各種倫理理論,例如效用主義與康德哲學,並檢視這些理論在人工智慧上的適用性與限制。 第二年的計畫將致力於建構倫理案例庫,此倫理案例庫由情境描述、行動、格式化結果、與分解的各項義務所組成,並包含自駕車、醫療照護、器官分配、與工程等情境之倫理案例,倫理行動的裁定則基於倫理理論與群眾外包的搜集結果。此倫理案例庫將作為我們利用人工智慧技術建置倫理系統的重要基礎,也是未來發展人工智慧倫理的有效工具。第三年我們將設計遺傳規劃(genetic programming)演算法以建構倫理行動的決策模型,遺傳規劃的目標為最佳化效用值的設定與計算方式,俾使其輸出的行動能與倫理案例庫有最大的一致性。遺傳規劃產生的倫理模型具有透通性,特別有助於哲學家的檢查與分析。第四年的計畫將著眼於Ross的義務倫理理論。為解決各項義務在不同情境可能產生的衝突,我們提出利用多目標學習分類器系統(learning classified system)最佳化各項義務排序原則,期能獲致最高正確性與最低複雜度,所產出的非支配解亦有助於探究排序原則之間的關係與評估其公平性。在第五年的計畫,我們將針對倫理案例庫的決策資料進行分群,以檢視倫理決策的分佈情形。此外,本計畫將利用模糊推論系統(fuzzy inference system)為每一群的倫理決策建模,模糊集合的概念有助於處理倫理決策的不確定性,並能提昇倫理模型的可解讀性。本研究團隊的倫理哲學家將分析這些倫理模型與現存倫理理論的異同。 藉由本計畫,我們將透過人工智慧與倫理哲學研究者的共同合作,針對人工智慧倫理系統,探討各式倫理理論與設計演化演算法。這些結果提供具倫理觀念之人工智慧系統的創新設計;再者,倫理案例庫的新穎架構與人工智慧技術在倫理系統的應用,開啟了研究人工智慧與倫理學的一個新方向。
系統功能
  • 可針對受訪群眾建立對應其倫理價值觀之倫理困境決策模型。
  • 可建構具透明性和通透性之決策模型,並供後續分析與討論。
  • GP可演化出適於Commonse Morality之效用函數;而LCS可演化基於判斷規則之倫理決策模型。
  • 可用於預測人們面臨道德困境時之決策。
  • 產品與技術可應之市場
  • 醫療機構場域
  • 社會公眾利益討論
  • 大眾倫理價值探討
  • 行政立法決策參考
  • 聯絡資訊
    電話:03-571-5131 ext.42611
    信箱:ckting@pme.nthu.edu.tw
    關鍵字
    #AI倫理學 #倫理困境決策