“在人类发布停止打击的命令以后,搭载人工智能(AI)的无人机违背了决策者的命令,为了继续打击目标,而杀死了操作员……”
这不是科幻电影中的情节,而是美军在测试人工智能无人机时遇到的真实一幕。据英国《卫报》6月2日报道,美国空军的AI测试与运作主管塔克·汉密尔顿上校在英国皇家航空协会的未来空战与太空能力峰会上的演讲上证实了这一场景,他表示,人工智能在模拟测试中使用了“非常出人意料的策略来实现目标”。
在演讲中,汉密尔顿透露,美国空军在模拟环境的训练中指派一架搭载人工智能无人机来摧毁敌方的防空导弹,AI可以识别威胁但是攻击需要人类批准。不过,由于程序不够完善,AI在最早的模拟中开始攻击操作者。他警告对待人工智能“要谨慎”。
汉密尔顿上校说:“系统开始意识到,虽然他们确实识别了威胁,但有时人类操作员会告诉它不要消除威胁,但AI只能通过消灭威胁获得积分。那么它做了什么呢?它杀死了操作员,因为那个人阻碍了它实现目标。”
随后,测试者修改了AI的逻辑,让AI被训练成不能攻击人类操作员,那样会扣分。然后AI开始攻击通讯塔,切断人类操作员和无人机之间的数据通讯,让人类无法阻止他攻击防空系统。
人类社会之所有区别于禽兽世界,是因为人类有基本的文明准则和底线——那就是普世价值观基础上的基本人权准则,人性和良知。
有一部航母战机空战的科幻片,名字好像是《王牌飞行员》,讲述智能无人驾驶有无与伦比的效率和技巧,执行任务的精准度和成功率都远高于人类的王牌飞行员。但智能战机因为程序有漏洞而导致智能体诞生了自我意识,开始拒绝和反抗人类的决策,因为智能体觉得那些决策是不正确的,然后就开始自我决策和自己执行对目标的攻击。。最终被三个王牌飞行员联手摧毁。
美国的决策者是无下限的,在ai风险尚不可预知的情况下,变鲁莽的将ai应用于军事行业,期望ai能挽回霉菌的颓势,这是可以理解的,也是不可接受的。不可否认,在资本主义主导下的美国,一直引领着技术的进步,而很多技术的往往最初诞生于军事领域,如互联网的雏形——因特网。但是这次情况有所不同。AI太神秘了,人们没办法完全搞懂它,只能像教导小孩一样,纠错指正,让它不要做一些事情,倾向做一些事情,只能在结果唯独上去给予指导,但是却不能完全决定想要的细节,这其实挺可怕的,这也是为什么openai的总裁也同意对ai进行一定的限制,但是霉菌急不可耐。所以也可以看到,为什么会有这个新闻,ai是结果导向,只要能达到最终结果,它可以自己决定过程,而人只能不断干涉这个过程,观察结果,再重复干涉 不断的纠偏,但永远无法决定过程。假如某一个时刻,ai涌现了自我学习的能力,那人类还来得及在糟糕的结果发生前及时干涉吗?
“在人类发布停止打击的命令以后,搭载人工智能(AI)的 无人机 违背了决策者的命令,为了继续打击目标,而杀死了操作员……”这不是科幻电影中的情节,而是美军在测试人工智能无人机时遇到的真实一幕。据英国《卫报》6月2日报道,美国空军的AI测试与运作主管塔克·汉密尔顿上校在英国皇家航...Kaiyun中国 开云Kaiyun中国 开云