首页 > 智能网

AI成战场新宠,潘多拉的盒子已经打开?

来源:智能网
时间:2021-06-23 12:04:03
热度:112

AI成战场新宠,潘多拉的盒子已经打开?AI武器,只是随着历史的潮流,发展到如今的危险一步。AI会杀人吗?答案是肯定的。本月,俄罗斯媒体卫星通讯社揭露了第一例记录在案的AI无人机杀人

AI武器,只是随着历史的潮流,发展到如今的危险一步。

AI会杀人吗?

答案是肯定的。

本月,俄罗斯媒体卫星通讯社揭露了第一例记录在案的AI无人机杀人案例。

在利比亚首都郊外,一只国民军武装小队正按照计划撤退。

突然,一架无人机出现在小队上空,在一阵机枪扫射过后,一名武装人员倒在血泊中。

事后,联合国安理会利比亚问题专家小组调查发现,这台由土耳其STM公司生产的“卡古-2”(kargu)型无人攻击机并没有后台人员去操控,完全是凭着预先编程好的程序进行跟踪并攻击。

也就是说,当时这架“卡古-2”无人机是在没有人为命令的情况下擅自作主将人杀死。

AI成战场新宠

这一类与“卡古-2“无人机相似、具备自主攻击能力的军用设备都属于致命性自主武器系统(LAWS),俗称“杀人机器人”。

它们可以在自动模式下完成许多操作:按照设定的参数发现和识别目标、跟踪目标、武器引导,在完成军事任务的同时,减少己方人员和平民的伤亡。

作为新型作战力量的代表,致命性自主武器正受到越来越多国家的重视。

早在上世纪80年代,美国军方就成立了人工智能中心,专门从事人工智能军事应用方面的研究,希望在未来用机器人士兵代替传统士兵。

截至目前,美国、法国、俄罗斯、日本、英国、土耳其、伊朗、韩国等国纷纷加大了对致命性自主武器系统的研发和采购力度,已经公开的自治武器和军事机器人系统就多达近400种。

相比于人类士兵,机器人士兵的优点很明显:

随着AI能力的提升,自主武器可以替代人类士兵执行高难度和高风险任务,最大限度地避免己方人员伤亡;

提高目标判断的准确性和打击精度,减少平民伤亡和其他附带损伤;

通过自主识别和智能分析等技术,可以避免由于控制者精神不集中、目标误判等人为失误引起的误伤。

在今年五月初的巴以冲突里,AI技术已经在信息战方面崭露头角。

据报道,以色列国防军利用炼金术士(Alchemist)、福音(Gospel)以及深智(Depth of Wisdom)三大AI系统,共计杀死了150多名哈马斯特工,其中包括高级指挥官和导弹等军事项目研发人员,并且大大降低了平民的误伤率。

对于这一次战斗,以色列定义为“世界上第一场人工智能参与的战争”。

我们看到,以色列依靠着强大的AI实力牢牢占据着信息层面的主导方面,而哈马斯只能任由以色列情报部门收集数据。

一名以色列国防军(IDF)情报部门的高级官员对媒体表示:“这是AI第一次成为与敌人作战的关键组成部分和战力放大器,对于以色列军方来说,这是史无前例的。”

马斯克带头反对

凡是硬币都有两面,AI军用化也不例外。

当致命性自主武器智能化水平发展到一定程度,也会带来相应的风险。

对于AI的军事运用,美国新安全中心技术与国家安全项目某研究员曾认为,AI可能会像核武器、计算机或飞机的发明一样对军事产生重大影响。

多年前,美国新安全中心在一份长达132页的报告里就谈到AI军用化的几点危害,例如:随着无人机成本下降,军队会制造出大量小型、廉价的军用AI机器人;数百万小型人工智能无人机的扩散,将会威胁美国的国家安全。该报告还假设了一个场景,一个航空母舰战斗群将如何应对来自数百万架神风式自杀无人机的攻击?

这个报告并非危言耸听,这类武器极易被恐怖武装或极端分子获得,或被处于战争中的国家大规模装备使用,从而引发新的冲突和军备竞争。

传言包括极端组织“伊斯兰国”在内的多个武装组织已经装备无人机。叙利亚恐怖分子也曾多次使用无人机袭击叙利亚政府军和俄罗斯驻叙军事设施。

这一类AI武器已经扩散到越来越多的国家,并且价格更加低廉,种类更加繁多。

正因如此,科学家和企业家们相比于军方,一直以来都对AI军用化存在着反对意见。

譬如特斯拉创始人马斯克,就特别反对武器AI化,并一直在公开场合发表“人工智能威胁论”。

马斯克曾发推文称,人工智能的大国竞争“最有可能”成为第三次世界大战的原因,甚至会成为冲突的导火索。

潘多拉的盒子已经打开?

“我们没有太长时间来采取行动了。一旦这个潘多拉的盒子打开,将很难关闭。”

在2018年的日内瓦首脑会议上,联合国常规武器公约(CCW)的一个小组就自主武器问题展开正式谈判,希望制定一个禁止自主武器的条约。

然而,参与国只是达成了一系列非约束性建议,对于政策的搭建却避而不谈,毕竟谁都不想在AI武器的建设道路上落后于其他国家。

在会议期间,美国、澳大利亚、俄罗斯、韩国、以色列等国家多次表达了他们继续探索发展杀人机器人的优势和益处的意愿。

许多人表示,自主武器禁令可能会阻碍人工智能的发展。另一些人则担心,若是一些国家允许一些国家禁止,会产生严重的安全隐患。

最终在美俄的坚决反对下,这项全面禁止AI自主武器的谈判无果而终。

不过相比于政府的模棱两可,AI领域的科学家和企业家们的态度倒是坚持得多:决不允许“杀人机器人”出现!

在这次日内瓦首脑会议开幕前,有来自36个国家的多达160家人工智能相关公司、覆盖90个国家的2400名个人联名签署宣言,誓言绝不将他们的技能用于开发“杀人机器人”。

这份协议全称《致命性自主武器宣言》(lethal autonomous weapons pledge),在瑞典斯德哥尔摩举办的2018国际人工智能联合会议上推出,核心内容就是宣誓不参与致命性自主武器系统的开发、研制工作,而且“杀人机器人”的研发及使用应当被严格禁止。

宣誓人中就有我们的老熟人马斯克。

但不得不说的是,虽然很多人都在抵制武器AI化,但武器的人工智能发展从未间断,并且全球人工智能军用物品数量正在成倍增长。

波士顿咨询集团的数据显示,2000年至2015年间,全球军用机器人在无人驾驶工具上的支出增加了两倍,从24亿美元增至75亿美元。预计到2025年将再翻一番,将达到165亿美元。

道德是AI武器最后的屏障

2013年4月起,和平组织PAX创立了国际知名的停止杀手机器人运动,一直在推进禁止自主武器的开发、生产和部署,以及关注其中的法律、道德和安全问题。对于PAX而言,AI武器必须被禁止的最重要原因,就是其中的道德问题。

当技术问题无法阻止AI武器的发展时,道德就成了AI武器最后的屏障。

许多人认为,致命性自主武器难以分辨伤员及战俘,可能会导致“误杀”。如果将决定生与死的权力交给机器,意味着“道义责任的缺失”。

由于战场形势过于复杂或程序出错,致命性自主武器脱离人类控制后,很难完全避免误伤已经丧失战斗力的伤员和准备投降的士兵,遵守相关国际法变得越发困难。

这些问题的出现,以及由之引发的道德和伦理问题,使得越来越多的人开始探讨如何从道德、条约、法律等不同层面规制致命性自主武器的发展和使用。

同样的,任何AI技术在战场上都不能避免误伤,据加沙卫生官员报告称,巴以冲突中,至少有243名巴勒斯坦平民在这场冲突中丧生,其中包括66名儿童,AI技术并没有阻止这些惨案的发生。

结语

时间回到一个世纪之前,化学武器的出现同样给无数生命带来了痛苦。

但我们并不曾因为化学武器的危害性而停滞了化学的发展,只是禁止了使用化学武器。

同样地,AI武器只是随着历史的潮流“走”到如今这一步,它本身没有对错。任何技术都有正反面,既然AI用于军事的趋势是不可阻挡的,那就需要通过法律和政治去限制。

诸如人类士兵拥有日内瓦公约等法律协议来指导他们,AI武器野蛮发展的原因之一就是受到的限制太少,目前仅涉及标准武器的武装冲突法的保护。

从积极的方面来看,随着政策的不断完善,未来国际禁令的势头正在增长。

目前,有超过30个国家明确支持禁止使用完全自主武器。此外,受AI武器威胁的发展中国家也已经组团呼吁禁止,相信在政策不断完善之后,我们会看到AI在保护平民等方面做出更大的努力。

作者:家衡

Baidu
map