全球专业中文经管百科,由121,994位网友共同编写而成,共计435,880个条目

自動化決策

用手机看条目

出自 MBA智库百科(https://wiki.mbalib.com/)

目錄

什麼是自動化決策

  《個人信息保護法》第73條第2項規定,自動化決策是指 “通過電腦程式自動分析、評估個人的行為習慣、興趣愛好或者經濟、健康、信用狀況等,併進行決策的活動”,包含對演算法的定義。《電子商務法》第48條第1款規定 “電子商務當事人使用自動信息系統訂立或者履行合同的行為對使用該系統的當事人具有法律效力”,這裡的 “自動信息系統”是指按照事先設定的程式指令、演算法、運行參數與條件,在無自然人確認或者干預的情況下,交易雙方為了訂立或者履行合同進行信息互動的電腦信息系統。

  自動化決策以用戶畫像為基礎。個人信息處理者通過對用戶碎片化的個人信息進行分析和處理,刻畫用戶的興趣愛好、行為偏好、經濟狀況、消費記錄、運動軌跡等,進而形成虛擬空間的畫像。基於畫像,機器評估用戶支付意願的區間和對價格的敏感性,在同一時間向不同用戶展示不同的交易價格或交易條件。在技術加持下,個人信息處理者甚至比用戶自身更瞭解其消費意向,能夠做到“一人一價”和動態調整。

自動化決策的問題及治理[1]

  鑒於人工智慧在純技術層面是價值中立的,基於演算法的自動化決策具有相對客觀、公正、高效的優勢。然而,在實際應用上,歷史數據存在偏差、設計者個人偏見嵌入系統,以及技術本身不完善等因素又會導致人工智慧系統不時做出錯誤或歧視性的自動決策。除了擔心“大數據殺熟”等消費者權益被侵害的問題,人們更為憂慮的是透明度缺乏、監管不足的自動化決策可能令社會陷入“演算法暴政”和“數據霸權”的泥沼之中。

  美國海軍研究生院電腦系助理教授約書華·A·克羅爾(Joshua A. Kroll)在美國布魯金斯學會官網發表了研究文章《為何目前的人工智慧還只是自動化應用而已?》(Why AI is just automation?),探討了自動化決策過程中準確性、公平性和透明度不足的問題,並提出了社會與技術深度協同的治理思路。

  約書華·A·克羅爾(Joshua A. Kroll)指出,演算法偏見造成決策謬誤和歧視性結果的主要原因可以從技術和實務兩個層面進行分析。首先,從技術層面來看,現有的人工智慧治理機制大多還不具備應對自動化決策系統的規模、速度和複雜性的足夠能力。當前機器學習的主流技術普遍呈現“黑箱”特征,個人用戶很難充分瞭解數據訓練的過程和自動決策的機理,難免令人們對演算法的公正性產生懷疑。在醫療、金融、司法等重要領域,“黑箱”容易使自主決策的演算法欠缺透明度和可解釋性,進而威脅到人們的基本權利,但現實中法律救濟和糾正錯誤的有效途徑又不足。同時,由於演算法本身就是規則制定者和系統設計者個人意志與偏好的投射,且隨著演算法對數據的不斷學習,又會在人工智慧系統中逐漸固化這些選擇傾向,從而導致決策偏差的形成。

  其次,從實務層面來看,大多數用於公共事務管理自動化決策系統,其運行規則實際是由官僚行政機構負責制定。然而,官僚行政機構在忙於擁抱新技術、部署新系統時,常常會疏忽新的決策產生方式對所有利益相關者的影響,並且對如何將新決策工具有效融合到現實的行政管理功能之中考慮不足。這就容易導致唯技術論,簡單地將“應用人工智慧”或“以數據驅動決策”設定為目標,卻不重視解決實際問題。一但出現自動化決策錯誤,則又會歸咎於系統遵循的規則本身,迴避當中的人為因素。由於人為設定的規則不可能完美適用於每一種情況,服務於公共事業的自動決策系統除了要重視通過預設合理的規則來明確處理具體場景的標準,大幅提升決策的規模和速度之外,還必須認真探索如何實現規則的有效性和規則應用的透明度;規則對優勢群體和弱勢群體影響的相對公平性;規則遭遇例外情況時的協調辦法;當規則出現整體性失敗時的監督和問責機制等目標,以避免人工智慧系統陷入機械依照既定規則行事,忽略識別新問題並及時糾錯的治理困境。

  當前,改善人工智慧自動化決策治理模式的需求已迫在眉睫。約書華·A·克羅爾(Joshua A. Kroll)因此提出了三個治理的關鍵點:首先,要以解決具體問題為導向,重視自動化決策結果的實效,而不是局限於制定技術解決方案本身,將制定決策的責任簡單推給技術專家。只有當系統應用是由問題而不是技術解決方案驅動時,才最有可能取得成功。其次,將事前制定合理、公平的規則和建立事後監管與救濟機制同時並重,使治理體系的功能更加完善、透明。自動決策發生錯誤後必須有能夠升級處理的渠道和酌情處置的補救途徑。相關係統記錄要完整保存,以備審計和監管。第三,為了推動人工智慧自動化決策系統與應用的可持續發展,尤其需要大力創建包括政府企業社會用戶等在內的多方共同開發、協同共治的良性生態,以形成應對人工智慧近期、遠期問題的建設性共識,彌合靈活變動的實際需求和僵化遵循規則的技術工具之間的斷層。在此過程中,人類應作為有遠見的參與者來積極介入系統的運行和治理,而不僅僅是技術的被動接受者。唯有如此,才有可能超越部門職能和學科藩籬,突破現有範式,重塑整個系統,而這還有賴於長期的能力建設和人才培養

參考文獻

  1. 呂娜.《全球數治|人工智慧自動化決策偏見不可避免,該如何應對》.澎湃新聞 ∙ 澎湃研究所.2021-09-15
本條目對我有幫助6
MBA智库APP

扫一扫,下载MBA智库APP

分享到:
  如果您認為本條目還有待完善,需要補充新內容或修改錯誤內容,請編輯條目投訴舉報

本条目由以下用户参与贡献

Tracy.

評論(共0條)

提示:評論內容為網友針對條目"自動化決策"展開的討論,與本站觀點立場無關。

發表評論請文明上網,理性發言並遵守有關規定。

打开APP

以上内容根据网友推荐自动排序生成

下载APP

闽公网安备 35020302032707号