全球专业中文经管百科,由121,994位网友共同编写而成,共计436,046个条目

道德機器

用手机看条目

出自 MBA智库百科(https://wiki.mbalib.com/)

道德機器(Moral Machine)、道德機器人,道德機器實驗(Moral Machine experiment)、道德機器測試

目錄

什麼是道德機器

  道德機器是由美國認知科學哲學家科林艾倫(Colin Allen) 和技術倫理專家溫德爾·瓦拉赫( Wendell Wallach)合著的一部機器道德領域的開創性著作,其關註點已經超出了人類如何使用電腦之類的應用倫理學問題,而跨進到該如何建構有道德的機器這一直指實質的問題。[1]

  在《道德機器:如何讓機器人明辨是非》一書中,作者通過強調兩個維度一針對道德相關事實的自主性維度和敏感性維度,給出一個關於日趨複雜的人工道德智能體軌跡的理解框架,以“評估它們面對的選項的倫理可接受性”。他們認為,隨著機器變得更加複雜,一種“功能性道德”在技術上變得可能,它可以使機器自身有能力來接近並響應道德挑戰。

  其後,麻省理工學院開發道德機器實驗,致力於採集人類對於未來機器智能(如自動駕駛)可能會遇見的各種道德難題的意見收集平臺。

道德機器的提出背景

  人類即將全面進入機器人時代,電腦已經可以從事金融交易、控制電力供應和駕駛火車。很快,服務類機器人將能在家照顧老人,軍事機器人可以投入戰鬥。當機器人要承擔越來越多的責任時,為了我們的安全,它們必須通過程式學會道德判斷。設計某種功能性的道德指令,讓人工智慧機器人習得某些基本的道德感是很有必要且可行的。

  麻省理工學院於2016年部署了“道德機器”(Moral Machine)這一線上實驗平臺,旨在探索自動駕駛汽車面臨的道德困境。“道德機器”(Moral Machine)被設計為一款多語言的線上“嚴肅游戲”,用於儘可能地在全世界範圍內收集數據,通過瞭解公民希望自動駕駛汽車在不可避免的事故情況下如何解決道德難題來進行道德偏好的評估。實驗結果於2018年10月發表在《自然》雜誌網站上。

道德機器實驗的內容

  在道德機器的主界面上,用戶可以看到不可避免的事故場景,根據自動駕駛汽車是突然轉向還是繼續行駛,從而導向兩種不同的結果。事故場景是由道德機器產生的,

  測試題中的犧牲對象:

  • 有些是車上乘客,有些是前方行人;
  • 有些是遵守交通規則的,有些則是闖紅燈的;
  • 有男人,也有女人,還有肥胖之分;
  • 有老人,也有小孩,當然也有孕婦;
  • 不僅有人類,還有動物;
  • 不同題目中,人類或動物的數量也不同。

  最後的測試分析結果,MIT 將用於學術研究之用。值得一提的是,測試結果並沒有對錯,只是每個人的道德觀不同。

道德機器實驗的探討[2]

  “機器需要講道德”這是英國皇家標準協會(BSI)最新標準《機器人和機器系統的倫理設計和應用指南》( BS8611 )的硬性規定。

  現代科技的每一次跨越,總會引發人們對社會倫理道德的憂慮。隨著機器人越來越智能和普遍,自動化機器終將在不可預知的情形下做出生死攸關的決定,從而具備一或至少錶面上具備一道德主體資格。

  就像一隻螞蟻永遠無法阻止我們一樣,人類想阻止人工智慧的想法已經不可能了。那麼,如果有一天AI能力超過人類,是否會反過來統治人類呢?包括霍金、馬斯克在內的科技巨人都曾警示,“人類不應低估人工智慧發展可能帶來的嚴重後果。”麻省理工學院情感計算研究組主任羅薩琳德.皮卡德(Rosatlind Picard) 教授認為,“機器越自由, 就越需要道德準則。”

  機器的智能化正在逐步深入到生活領域:客機自動降落,列車無人駕駛,沒有方向盤、剎車和駕駛座位的無人駕駛的汽車正在緊張的測試中。但是,機器人之“人”終究不是人類之“人”,“如果人們不確定機器會做什麼,他們會害怕機器人的…如果我們能分析並證明它們的行為原因,就更可能剋服信任問題。”

  英國利物浦大學電腦科學家邁克爾,費希爾(Michael Fisher) 和英國西部大學艾倫.溫菲爾德(Alan Winfield) 教授共同做的一項政府資助的項目證明“道德機器程式的結果總是可知”的。“在當前的技術水平下,我們不能‘譴責’機器人。機器人尚未達到為自己的決策負責的水平。”

  薩塞克斯大學人工智慧專家布菜·惠特比(Blay Whitby) 認為,即使最低限度的道德機器人也是有用的。來自國際電腦科學家團隊的一項新研究著手開發一種新型的博弈演算法一其可以依靠協作和妥協等特性來進行博弈,而且研究人員已經發現,機器已經可以比人類更好地部署這些特性。

參考文獻

  1. [美]溫德爾·瓦拉赫, 科林·艾倫, 王小紅譯. 道德機器:如何讓機器人明辨是非[J]. 中國哲學年鑒, 2018, 000(001):P.382-382.
  2. 劉英團. 如何重構智能機器時代的社會倫理道德?——讀《道德機器:如何讓機器人明辨是非》[J]. 現代國企研究, 2018, 000(011):P.94-96.
本條目對我有幫助3
MBA智库APP

扫一扫,下载MBA智库APP

分享到:
  如果您認為本條目還有待完善,需要補充新內容或修改錯誤內容,請編輯條目投訴舉報

本条目由以下用户参与贡献

Llyn.

評論(共0條)

提示:評論內容為網友針對條目"道德機器"展開的討論,與本站觀點立場無關。

發表評論請文明上網,理性發言並遵守有關規定。

打开APP

以上内容根据网友推荐自动排序生成

官方社群
下载APP

闽公网安备 35020302032707号