弱人工智能
出自 MBA智库百科(https://wiki.mbalib.com/)
弱人工智能(Weak General Intelligence,Weak AI)
目录 |
弱人工智能(Weak General Intelligence,Weak AI)又称“狭义人工智能( Artificial Narrow Intelligence,ANI)”“狭义AI”“窄人工智能”是特定于应用程序或任务的人工智能。
它是一种擅长执行单一任务的人工智能。例如下棋或围棋、提出购买建议、销售预测、面部识别、语音助手中的语音识别或驾驶汽车和天气预报。语音和图像识别仍属于狭义的人工智能,尽管它们的进步看起来很吸引人。甚至百度的翻译引擎,尽管它很复杂,也是一种狭义的人工智能。
弱人工智能的优势[1]
1.促进更快的决策
弱人工智能有助于更快地做出决策,因为它们处理数据和完成任务的速度比人类快得多。因此,它们让我们能够提高整体生产力和效率,从而提高生活质量。举个例子,人工狭义智能IBM的Watson等系统通过利用人工智能的力量,帮助医生做出快速的数据驱动决策。这使得医疗保健比以往任何时候都更好、更快、更安全。
2.将人类从平凡的任务中解放出来
弱人工智能的发展确保了人类从一些枯燥、例行和平凡的任务中解脱出来。它让我们的日常生活变得更加轻松,从在Siri的帮助下在线订购食物,到减少分析大量数据以产生结果的工作。
此外,自动驾驶汽车等技术将我们从长时间堵车的压力和负担中解脱出来,而是为我们提供了更多的休闲时间来开展我们感兴趣的活动或任务。
3.为开发更智能的人工智能提供了基础
弱人工智能是最终开发更智能的人工智能版本的基础,如通用人工智能和 超级人工智能。语音识别使计算机能够非常准确地将声音转换为文本,而计算机视觉则能够对视频流中的对象进行识别和分类。目前,谷歌正在使用人工智能为数百万个YouTube视频添加字幕。
今天,人工智能驱动的计算机视觉已经被用于解锁屏幕和在线标记朋友。与此同时,自动驾驶汽车部门正在探索“情感人工智能”领域,该系统可以学习非语言的细微差别(感觉、情绪),并提示昏昏欲睡的卡车司机在驾驶时保持警惕并集中注意力。所有这些基础技术只是为未来具有自我意识和意识的人工智能版本铺平了道路。
4.比人类更好地完成单一任务
狭义的人工智能系统可以比人类更好地执行单个任务。例如,与训练有素的放射科医师相比,一个被编程为从X射线或超声波图像中检测癌症的窄AI系统可能能够以高得多的准确度快速发现一组图像中的癌块。
另一个例子是在制造工厂使用的预测维护系统。该系统实时收集和分析传入的传感器数据,以预测机器是否即将发生故障。Narrow AI自动完成这项任务。整个过程要快得多,就速度和准确度而言,个人或一群人几乎不可能与之匹敌。
弱人工智能的整体性能、速度和准确性超越了人类。也就是说,人工智能社区在扩大弱人工智能的范围方面面临着几个关键挑战。
弱人工智能面临的挑战[1]
1.缺乏可解释的人工智能
人工智能进步的一个基本要求是创造更少黑箱的人工智能的实践。这意味着我们必须更好地理解神经网络中发生的事情。今天的人工智能系统,如推荐书籍阅读的系统,有效地采用了黑盒方法。在这种情况下使用的深度学习算法将数百万个数据点视为输入,并将特定特征相关联以提供结果。底层过程是自我导向的,对于程序员和领域专家来说,解释起来具有挑战性。
然而,当人们依靠人工智能模型做出涉及巨额投资的高风险商业决策时,这种黑箱方法可能是有害的,因为系统的输入和操作对相关方来说是不可见的。因此,一个关键的挑战是创造更多可解释的人工智能,而不是黑箱方法。
2.对坚不可摧的安全的需求
神经网络被狭隘的人工智能广泛利用。然而,理解人工智能相当脆弱是至关重要的——它可能会注入噪声并愚弄系统。例如,攻击者可以侵入自动驾驶汽车的软件系统,并更改人工智能程序代码,使程序可能将路上的公共汽车误认为大象。这可能会产生严重的影响和后果。黑客还可以劫持在一个地区运行的整个自动驾驶汽车网络,最终抹去数十亿美元的投资。
此外,对神经网络的一次入侵就能破坏依赖于同一网络的几个系统的运行。此外,由于神经网络容易受到攻击,提供不可渗透的安全性仍然是一个至关重要的挑战。
3.需要从小数据中学习
人工智能模型是根据来自例子的数据进行训练的——这意味着例子是当今人工智能的真正货币。为了让人工智能进一步进化,它必须准备好从更少的数据中学习更多。人工智能应该能够通过利用先验知识,将其学习从一个神经网络转移到其他网络。
人工智能融合了学习和推理。尽管今天的人工智能在学习和积累知识方面取得了重大进展,但将理性应用于这些知识仍然是一个挑战。例如,零售商的客户服务聊天机器人可以回答有关商店营业时间、产品价格和商店取消政策的问题。
然而,一个关于产品X为什么比类似产品Y更好的棘手问题可能会冻结机器人。尽管创造者可以编写机器人来回答这些问题,但教会人工智能自己应用推理仍然是大多数科学家和专家面临的问题。
4.倾向于偏见
今天的人工智能系统容易出现偏差,因为它们经常给出不正确的结果,而且没有合理的解释。复杂的人工智能模型不断在包含偏见或不准确信息的大量数据上进行训练。因此,在这种有偏差的数据集上训练的模型可能会认为不正确的信息是可信的,并做出有偏差的预测。
随着人工智能系统从过去的例子中学习,考虑一个负责做出信贷决策的系统。基于以前的模式,系统可能会认为“不向妇女或少数民族提供信贷”是适当的。因此,核实和检查系统使用的例子没有偏见仍然是一个关键的挑战。
此外,由于弱人工智能缺乏“常识”方面,或公平和公正的意识,处理训练偏差需要大量的规划和设计工作。
5.受制于人的缺点
弱人工智能在很大程度上依赖于人类来执行任务。因此,它容易出现人为失误,比如人们设定了过于雄心勃勃的业务目标,或者错误地安排了任务的优先级。
考虑人类错误定义任务的情况。在这种情况下,不管一台机器工作多长时间或者它执行多少次计算,最终结果仍然是一个错误的结论。因此,弱人工智能对易错人类的依赖对该领域的专家来说是一个巨大的挑战。
6.伦理问题[2]
弱人工智能是指各种模拟人或动物智能解决各种问题的技术,包括问题求解、逻辑推理与定理证明、自然语言理解、专家系统、机器学习人工神经网络、机器人学、模式识别、机器视觉等。以深度学习为基础的弱人工智能技术目前在图像识别、语音识别、机器翻译、自然语言处理等方面取得了巨大成功,并大规模市场化。在图像识别领域,基于深度学习的人脸识别、物体识别、行为识别等应用在医疗、交通、教育等行业都有广泛的用途,能够有效提高安全防范水平,打万击犯罪和恐怖主义,惩治交通违法行为,提升交通安全水平等。深度学习+数据模式甚至在文学创作、司法审判、新闻编辑、音乐和美术作品创作等方面也有惊人的表现,能够极大地提升工作效率和质量,降低人类的工作强度,激发人类的创作灵感,创作出更好的作品。弱人工智能技术给人类带来的益处是显而易见的。但因为不了解深度学习的运行机制,一些超出人类的能力反倒令人们开始惴惴不安。
2016年6月,微软总裁萨蒂亚·纳德拉(SatyaNadella)说“我们不仅想要智能机器,还需要可理解的机器。”尤其深度学习在医疗、金融、军事等关键领域的应用,使得弱人工智能伦理问题日益得到关注。与尚未实现的强人工智能在未来可能给人类带来的伦理困惑或问题不同,弱人工智能是在现实中可能给我们带来种种伦理风险或困惑。
- ↑ 1.0 1.1 Vijay Kanade。What Is Narrow Artificial Intelligence (AI)? Definition, Challenges, and Best Practices for 2022.spicework.2022-3-22
- ↑ 莫宏伟. 强人工智能与弱人工智能的伦理问题思考[J]. 科学与社会, 2018, 8(1):11.