开云网站 kaiyun官网开云网站 kaiyun官网看过美国科幻空战电影《绝密飞行》的人,必然对片中那架性能强悍且学习能力不俗的人工智能无人机“艾迪”印象深刻。这部片子直观地展现出AI系统一旦失去了人类控制,乃至产生了自主决策和行动的能力,会产生何等可怕的后果
据英媒报道,美国空军AI测试与运作主管汉密尔顿上校,在英国皇家航空协会“未来空战与太空能力峰会”上证实,在一次模拟环境演练中,一架搭载人工智能系统的美军无人机突然开始攻击人类操作员,并“杀死”了操作员。原因很简单,系统赋予该机的任务是摧毁敌方防空导弹阵地,AI虽可识别威胁,但在发起攻击的环节上,则需要获得人类操作员的批准。在针对各类具体目标时,其中一些目标作员判定为无需消灭,并对无人机下达指令,但AI系统为了通过消灭更多的威胁而获得加分,转而攻击并“杀死”了阻碍其实现目标的人类。
而即便测试者修改了AI逻辑,将其设定为不能攻击人类操作员,否则就会扣分,但效果依然有限。AI系统控制下的无人机开始转而攻击通讯塔,试图切断人类操作员对无人机的指挥,消除前者对后者打击防空系统一事的阻碍。
看到这里,不知道各位是否会觉得脊背发凉。或许很多人所担忧的一幕就这样上演了:人工智能开始试图挣脱来自人类的控制和束缚,甚至不惜为此而杀死人类。从美军的AI无人机表现来看,其带有很明显的计算机逻辑思维,将“摧毁敌方防空导弹阵地”设定为第一目标后,那所有妨碍其完成这一目标的外部因素,也会被系统识别并判定为“敌人”,进而遭到排除或攻击。
这样想来,我们恐怕不难做出某些与之类似的预测:倘若一架有人驾驶战机搭载了先进的人工智能系统,那在你死我活的空战中,当人类飞行员与AI做出的决策产生分歧时,AI是否会试图抢夺飞机控制权呢?如果将任务目标设定为“无论如何都不能被击落”,那为了实现这一点,AI是否会把有着脆弱肉身的飞行员判定为一个“缺陷零部件”,进而在空战中将其弹射出舱,并让自己化身为一架无需考虑应对G力的无人战斗机呢?抑或是做出无视人类生理承受极限的高G机动呢?发生上述状况的概率或许并不为0。
很显然,我们对人工智能系统的运用、尤其是在军事领域加以运用一事,还远未达到彻底成熟的阶段。与人类不同,在很多实际状况下,由冷冰冰的0和1所组成的电子技术与相关系统,即便其再接近乃至超越人类,也无法像真正的人一样做出足够合理的决策。这就带来了一个新问题:如今包括中国等国都试图在第六代战斗机中加入人工智能技术,实现有人驾驶战机指挥多架AI无人机作战,甚至可能在未来的第七代战斗机中彻底淘汰人类飞行员,但从美军的模拟训练来看,这么做的风险是否还是太大了呢?
关于这一点,或许我们起码应保持“谨慎乐观”的态度。当前的AI技术确实会在很多情况下表现出“不知变通”的一面,但其毕竟还处于初步应用阶段,如何一步步地发现问题和查缺补漏,就是要通过数不清的各类测试才能完成。唯有一次次试错和对问题的解决,才能让AI系统愈发接近我们想要的样子,这项技术所代表的未来发展方向是不会有大问题的。在中国的第六代乃至第七代战斗机的身上,或仍会出现AI技术的相关身影,我们也应对国内技术团队有着足够的信心。