军用AI技术将开启人类走向毁灭的第一步?

科技云报道
科技云报道
当AI技术扩散至其他领域,被用来提升医学、交通、金融、军事等领域的效率时,跟围棋一样,人类败下阵来的消息只会越来越多。

传说地球上本没有火种,那时人类的生活非常困苦,没有火烧烤食物,也没有火来照明。普罗米修斯造福给人类,冒着生命危险,从太阳神阿波罗那里偷走了一个火种,给人类带来了光明。但他殊不知,火种带给人类的不只是光明,还有更多的麻烦。

最近一段时间,军用AI和主动攻击型武器的问题闹得沸沸扬扬,很多AI研究者联名反对这项技术的军事化。Google近4000名员工签署请愿书,要求公司中止Maven项目,以及一切与战争有关的业务,因为这已经和Google的价值观相去甚远。

当AI技术扩散至其他领域,被用来提升医学、交通、金融、军事等领域的效率时,跟围棋一样,人类败下阵来的消息只会越来越多。

特别是在军用技术上,如果人类跟不上军用机器人的节奏,那它就不仅仅是批评或者抗议人类了,它向拖自己的后腿的人类开火也不是完全不可能。

或将引发新一轮军备升级

AI引领军事形态全面进化

美军去年公开的JADE项目,就计划打造这样一个自动化武器系统:它通过分析社交媒体来进行作战决策,其中包括致命性武器的自动使用,以最小化作战行动中的人为干预。

这就向人类提出了一个疑问:军用AI技术将开启人类走向毁灭的第一步?AI与军事真的不能共存吗?

目前在武器装备和指挥控制方面,AI主要集中在陆地、海洋、太空等各类作战机器人的研发应用和各类智能炸弹的研发领域。

随着数据挖掘技术、大规模并行算法及AI技术的不断完善并广泛应用在军事上,情报、决策与作战一体化将取得快速进展。实际上,能在无人控制的情况下搜索并消除目标的自主武器就是典型应用,也是当前AI军事化的最主要应用。

能够自主运作的军用机器人被归为致命性自主武器系统(LAWS),目前各国发展的无人飞行器、无人地面车辆、无人水面艇等能够自主运作的武器系统在某种程度上都属于LAWS的范畴。这些武器装备体现出了较高的应用价值。

比如研发于2005年的BigDog,由DARPA出资,目的是造出一种能够负重的机械骡,伴随士兵一起在传统机械车辆无法行驶的粗糙地形上作战。

2013年亮相的Atlas是一个类人形机器人,同样是由DARPA出资,设计目的是专门针对各种搜索营救任务。

2016年公布的新版Atlas,可以在户外和建筑物内部操作,能自行开门、抱箱子自动平衡,被推倒也能自己站稳,在雪地上行走毫无压力。

但真正投入实战的,却是声名远播的「掠食者」无人机,其MQ-9 型号是第一种专门设计作为猎杀用途的无人机,其飞行控制与武器使用均需从美军的地面控制中心来操作。

避免滑向“失控”边缘

如何防止技术异化对人类的威胁?

在2017年人工智能国际会议上,Tesla首席执行官马斯克、Apple联合创始人沃兹、研发AlphaGo的DeepMind公司哈萨比斯等人签署公开信,呼吁联合国应像禁止生化武器一样,禁止在战争中使用致命的自主武器和“杀手机器人”。

霍金也曾指出,脱离人类控制之下的机器很难被阻止住。

由于人工智能技术的发展局限,机器人可能将在环境或执行程序复杂的情况中出现失控现象,比如在单独执行作战任务或人机深度交流时。

比如2007年10月,美军第三机步师一部带着3台“利剑”机器人进攻一个反美武装盘踞的据点时,由于没有及时更换软件,其中一台“利剑”竟把枪口瞄准美军操作者,而且无论操作员如何发出“行动取消”的指令,失控的“利剑”就是停不下来,直至用火箭筒把它炸翻才化险为夷。

随着越来越多的国家投入到军用机器人的研究与开发中去,世界已在不知不觉中滑进了一场机器人军备竞赛。毋庸置疑,军事机器人相比于士兵,主要在功能、体能、效能方面具有优势。

军事机器人可以同时承担多项复杂任务,作战可以更加持久,在程序设定完备后能够高效精准达成目标,失误率较低。

如果想要尽可能降低AI的负面影响,首先要坚持人机结合、以人为主的原则,人类应当保证对军事机器人的控制权,制定应对意外事件的应急机制,建立防范机器人失控的后台程序。

另外,应当加强人工智能的技术预测与评估,在充分试验与分析的基础上逐步推进人工智能技术的军事应用。

目前来看,AI在军事领域的应用潮流势不可挡,在可预见的时期内,AI将在情报侦察、后勤保障、无人作战系统等领域发挥重要作用,但如何防止技术异化对人类构成新的威胁则是AI军事化必须要解决的问题。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论