超人工智慧
出自 MBA智库百科(https://wiki.mbalib.com/)
超人工智慧(Super Artificial Intelligence,Super AI,ASI)
目錄 |
超人工智慧(Super Artificial Intelligence,SuperAI,ASI)又稱“超級人工智慧”“超級AI”“超強人工智慧”“人工超級智能”是一種超越人類智能的人工智慧,可以比人類更好地執行任何任務。最早由英國教授尼克(NickBostrom)定義:“一種幾乎在每一個領域都勝過人類大腦的智慧。”並且Nick教授非常前瞻性地認為超級人工智慧可以不再具備任何物質實體形式,而僅僅是演算法本身:“這個定義是開放的:超級智慧的擁有者可以是一臺數字電腦、一個電腦網路集成也可以是人工的神經組織。
ASI 系統不僅能理解人類的情感和經歷,還能喚起他們自己的情感、信念和欲望,類似於人類。 儘管 ASI 的存在仍是假設性的,但此類系統的決策和解決問題的能力預計將遠超人類。通常,ASI 系統可以獨立思考、解決難題、做出判斷和做出決定[1]。
超人工智慧的典型特征[2]
從長遠來看,人工智慧領域的傑出人物仍然對人工智慧的發展和可持續性持懷疑態度。根據最近的一項研究 來自馬克斯·普朗克研究所等頂級研究所的研究人員在2021年1月發表在《人工智慧研究雜誌》上的結論是,人類幾乎不可能包含超人工智慧。
研究人員團隊探索了機器學習、計算能力和自我意識演算法的最新發展,以描繪出超人工智慧人工智慧的真正潛力。然後,他們進行實驗,根據一些已知的定理來測試這個系統,以評估包含它是否可行,如果可能的話。
然而,如果實現了,超人工智慧將開創一個新的技術時代,有可能以令人瞠目結舌的速度引發另一場工業革命。超人工智慧區別於其他技術和智能形式的一些典型特征包括:
超人工智慧將是人類需要的最好的發明之一,也可能是最後的發明,因為它將不斷進化,變得更加智能。
超人工智慧將加速各個領域的技術進步,例如人工智慧編程太空研究,藥物的發現和開發,學術,以及許多其他領域。
超人工智慧可能會進一步成熟和發展高級形式的超人工智慧,甚至可能使人造大腦能夠被覆制。
超人工智慧,在未來,也可能導致技術奇點。
超人工智慧的潛在威脅[2]
雖然超人工智慧擁有眾多追隨者和支持者,但許多理論家和技術研究人員對機器超越人類智能的想法提出了警告。他們認為,如此先進的智能形式可能會導致一場全球性的災難,正如《星際迷航》和《黑客帝國》等幾部好萊塢電影中所展示的那樣。此外,就連比爾·蓋茨和埃隆·馬斯克這樣的技術專家也對超人工智慧感到擔憂,認為它是對人類的威脅。
1.失去控制和理解
超人工智慧的一個潛在危險已經引起了世界各地專家的廣泛關註,那就是超人工智慧系統可能會利用它們的力量和能力來執行不可預見的行動,超越人類的智力,並最終變得不可阻擋。先進的電腦科學、認知科學、納米技術和大腦模擬已經實現了超越人類的機器智能。
如果這些系統中的任何一個出現問題,一旦它們出現,我們將無法控制它們。此外,預測系統對我們請求的響應將非常困難。失去控制和理解會導致整個人類的毀滅。
2.超人工智慧的武器化
今天,認為高度先進的人工智慧系統有可能被用於社會控制或武器化似乎是足夠合乎邏輯的。世界各國政府已經在使用人工智慧來加強他們的軍事行動。然而,武器化和有意識的超人工智慧的加入只會給戰爭帶來負面影響。
此外,如果這些系統不受監管,它們可能會產生可怕的後果。編程、研發、戰略規劃、社會影響力和網路安全方面的超人能力可以自我進化,並採取可能對人類有害的立場。
3.人類和人工智慧目標不一致
超人工智慧可以被編程為對我們有利;然而,超人工智慧開發出一種破壞性方法來實現其目標的可能性並不為零。當我們未能調整我們的人工智慧目標時,這種情況可能會出現。例如,如果你向智能汽車發出命令,讓它儘可能快地把你送到機場,它可能會把你送到目的地,但可能會使用自己的路線來遵守時間限制。
同樣,如果一個超級AI系統被分配了一個關鍵的地球工程項目,它可能會在完成項目的同時擾亂整個生態系統。此外,人類試圖阻止超人工智慧系統的任何嘗試都可能被它視為對實現其目標的威脅,這不是一個理想的情況。
4.危險的超級智慧
AGI和超智能的成功和安全發展可以通過教授它人類道德方面來保證。然而,超人工智慧系統可能會被政府、公司甚至反社會分子出於各種原因利用,例如壓迫某些社會群體。因此,超人工智慧落入壞人之手可能是毀滅性的。
5.核攻擊的危險
有了超人工智慧,自主武器、無人機和機器人可以獲得巨大的力量。核攻擊的危險是超人工智慧的另一個潛在威脅。敵國可以用先進和自主的核武器攻擊在AGI擁有技術優勢或超人工智慧的國家,最終導致毀滅。
6.倫理問題
超人工智慧人工智慧系統是用一套預先設定好的道德考量來編程的。問題是人類從未就一個標準的道德準則達成一致,也缺乏一個包羅萬象的倫理理論。因此,向超人工智慧系統教授人類倫理和價值觀可能相當複雜。
超人工智慧的人工智慧可能會有嚴重的倫理問題,特別是如果人工智慧超出了人類的智力,但沒有按照符合人類社會的道德和倫理價值觀進行編程。
超人工智慧能的潛在優勢[2]
超人工智慧是一種新興技術,它在人工智慧系統中模擬人類的推理、情感和經驗。儘管批評者繼續爭論超人工智慧的存在風險,但這項技術似乎非常有益,因為它可以徹底改變任何專業領域。
1.減少人為錯誤
犯錯是人之常情。電腦或機器,當被適當編程時,可以大大減少這些錯誤的發生。考慮編程和開發領域。編程是一個耗費時間和資源的過程,需要邏輯、批判和創新思維。
人類程式員和開發人員經常會遇到語法、邏輯、算術和資源錯誤。超人工智慧在這裡很有幫助,因為它可以訪問數百萬個程式,根據可用數據自行構建邏輯,編譯和調試程式,同時將編程錯誤降至最低。
2.代替人類完成有風險的任務
超級AI最顯著的優勢之一是,通過部署超人工智慧機器人完成危險任務,可以剋服人類的風險限制。這些可以包括拆除炸彈,探索海洋的最深處,煤炭和石油開采,甚至處理自然或人為災害的後果。
想想1986年發生的切爾諾貝利核災難。當時,人工智慧機器人尚未發明。核電站的輻射非常強烈,任何接近核心的人都會在幾分鐘內死亡。當局被迫使用直升機從高空傾倒沙子和硼。
然而,隨著技術的顯著進步,超人工智慧機器人可以部署在無需任何人工干預即可進行打撈作業的情況下。
3.24×7可用性
雖然大多數人每天工作6到8個小時,但我們需要一些時間來恢復體力,為第二天的工作做好準備。我們還需要每周休假來保持健康的工作生活平衡。然而,使用超人工智慧,我們可以編程機器24×7工作,沒有任何休息。
例如,教育機構有幫助熱線中心,每天接收幾個查詢。使用超人工智慧可以有效地處理這一問題,全天候提供特定於查詢的解決方案。超人工智慧還可以向學術機構提供主觀學生咨詢會議。
4.探索新的科學前沿
超人工智慧可以促進太空探索,因為開發火星上的城市、星際太空旅行甚至星際旅行的技術挑戰可以通過高級人工智慧系統的解決問題能力來解決。
憑藉其自身的思維能力,超人工智慧可以有效地用於測試和估計許多方程、理論、研究、火箭發射和太空任務的成功概率。組織如 NASA、SpaceX、ISRO和其他公司已經在使用人工智慧系統和超級電腦,例如這昴宿星擴大他們的空間研究努力。
5.醫學進步
超人工智慧的發展也可以使醫療保健行業受益匪淺。它可以在藥物發現、疫苗開發和藥物輸送中發揮關鍵作用。A 2020年研究論文經過 自然顯露 用於細胞內藥物遞送的小型化智能納米機器人的設計和使用。
人工智慧在疫苗和藥物輸送醫療保健中的應用今天已經成為現實。此外,隨著有意識的超人工智慧的加入,新品種藥物的發現和提供將變得更加有效。
狹義AI、通用AI和超級AI的區別[1]
無論類型如何,人工智慧通常具有三種基本能力:
- 感知周圍環境在這階段,人工智慧模型收集有關相關主題的周邊數據。
- 檢測環境中的模式 在收集相關數據後,人工智慧模型會尋找常見的數據模式。
- 從這些模式中學習並更新對未來決策的理解 然後,人工智慧模型從數據模式中學習,並隨著時間的推移更新其理解。對於 AGI,這可能包括變得更加自我意識、創造力和提高與人類相媲美的認知能力。同樣,對於 超人工智慧,這個階段可能需要發展自己的情感、信念和經驗,併進一步增強超越人類智力的認知能力。