近日,美国《华尔街日报(博客,微博)》提出意见,认为人工智能(AI)投入战争符合人道主义,该观点引发轩然大波。而俄罗斯近日由国防部牵头,发布了一份“十点计划”,对未来俄军人工智能的研究工作以及各部门的协调分工作出了指导性概括。人工智能机器人投入战争,目前已经到了怎样的阶段?美俄两家各自又有何特点?
概念界定
长得不像人无需有情感
科幻作品中的机器人,很多外形和真人类似,不但能自主思维,甚至还有情感,这些都源自艺术创作需要。而真实的军用机器人,其实就是智能化的军用机器。相对普通的需要人工全程操作的机器,它们装备有自动化识别和人工智能系统,执行预定的工作指令,减少真人士兵的操纵任务。因此,军用机器人的核心是人工智能。
军用机器人的外形多数长得并不像人,也没有这个必要。他们的外形通常做成最适合完成任务的形状。比如陆战机器人目前都是装备车轮和履带,而不是双腿,这是出于战场行进速度的需要。
同样,机器人具备的人工智能,也无须做到像人的大脑一样复杂,更不会带有情感,因为机器人的智能只需要处理被预设的任务。智能化的巡航导弹也可以被看做是一种机器人,它的人工智能主要是具备目标识别和自控系统。当导弹发射出去后,除了接受来自后方的任务指令,还会根据当前获得的各种参数,如飞行速度、地形地貌等,调整飞行轨迹或发动攻击。这种对信息的处理和反馈,就是人工智能。显然,它一点也不神秘,仅仅是依照程序设定来完成对应的操作。同样,陆战机器人除了接受后方指令,也要根据周遭的地势、敌情等,决定是否攻击、如何攻击。这些和中学生编程的“如果输入1,则输出“世界你好”没有本质区别,只不过更复杂。
至于说很多作品中提到的“情感”,对军用人工智能则是毫无意义的模块。姑且不说实现情感的技术难度,单就需求而言,战争本来就是残酷无情的,就连真人士兵都需要压抑情感,谁还费那么大事儿去给机器人制造麻烦?
因此,现实中的机器人战士,就是一群披着钢铁外衣,在人工智能指挥下,凭指令和程序行事的冷血杀手。相比人类士兵,他们能更快地获取和处理信息并作出反应。他们不但具有更强大的机械力和火力,而且不怕牺牲,不怕恶劣环境,也不会因为情感干扰而犯人类士兵的错误。
参战历史
不能杀人?机器战士早已杀戮多年
二战后计算机诞生,人工智能蓬勃发展,并很快投入到军用。不过,最初的机器人技术落后,只能从事简单的工作,比如在军工企业的流水线上干活。他们仅仅是根据指令指挥躯体工作,谈不上有什么真正的智能。
进入上世纪六十年代,小型计算机快速发展,机器人对外界信息的感知能力大幅提高,可以根据外界获取的信息调整自己的动作。到这一步,人工智能才真正出现,军用机器人也可以从事稍微复杂的工作了。1966年,美国一枚氢弹坠落到700多米的海中,担任打捞工作的就有军用机器人“科沃”。科沃实际上是一艘自动化无人潜艇,装备自动摄像机、声呐、推进器和机械手,在水面人员的协调下成功完成了打捞工作。
在科幻影视中,大家对机器人杀人抱有恐惧。科幻巨匠阿西莫夫很早就提出了机器人三原则,第一条就是机器人不能杀人,而且是最高优先级。但这只是剧情理论而已。实际上,人工智能除了用于拆弹、扫雷、运输、侦查等军事任务,早就开始直接杀人了。
用机器人杀人最多的就是美军。美军的巡航导弹早已装备自动目标识别跟踪系统,数千次的发射,杀人不计其数。而无人机则是另一种机器杀手,具有比巡航导弹更先进的信息获取和分析技术,除了指引导弹和战机攻击,很多无人机已经配上机炮与导弹,可以发动直接攻击。
近来,单是在所谓反恐战争中,由美国中央情报局直接指挥的无人机每年就炸死数百人,其中有很多被殃及的无辜平民。这种无辜杀戮,大部分是推给所谓“情报失误”。这一点也引起大批科学家的诟病,认为深化军用人工智能,将会增加这种屠戮。
美军AI
技术独到 涵盖全面
美国拥有领先全球的综合科技实力,其机器战士千姿百态,涵盖各个领域。早先,在智能导弹和智能无人机方面的研发应用,美国居于领先。此外,各种新型军用智能也层出不穷。例如美军多次测试的X-47系列隐形无人战斗机,已经安装了自动巡航和攻击模块。相比传统无人机接受后方指令再开火,X-47据说可以“无须遥控员判断,直接决定是否杀人”。
成熟的“密集阵”舰艇防御系统也是人工智能控制的自动化武器。“密集阵”现已被多国仿效研发。该系统装备在大型军舰上,可以自动搜索对军舰造成威胁的目标,一旦发现目标迫近,系统自动跟踪并锁定开火,反应速度极快,能赶在导弹命中战舰前将其摧毁。
“粗锯齿”是一款在履带式无人战车上加装AI的机器战士,它重达4吨,时速高达96公里,且配备高清摄像机与高敏感度探测器,能够检测地雷、炸弹及敌方人员。它装备一挺机关枪,目前开火还是由后方人员遥控,如果将其改为人工智能的自控火力,那么“粗锯齿”将成为突入敌阵屠杀的闪电恶魔。如果敌我识别系统稍微出点儿岔子,它同样会屠戮无辜平民甚至是友军。
IRobot公司原本是以民用机器人为主的公司,在2003年伊拉克反恐战争爆发后,大力投入军用机器人的开发,如今该公司的数千台PackBot系列小型机器人正活跃在美国三军。这种小型机器人形如玩具履带车,有一条总长2米的机械臂,最大可举起13.6千克的重物,还具备很强的翻越障碍能力,平地时速14公里,能承担处置简易爆炸装置和搜寻可疑物品等任务。
美军装备的“步行机器人”摆脱了车辆的外形,不再靠轮子和履带行进,而是靠模仿动物的机械足。这样的优势是能够更灵活地通过各种复杂地形,缺点是速度不如车辆。例如四条腿的“大狗机器人”在2010年投入了阿富汗战场,“大狗”的外形像一条真狗,自重75千克,可以运输150千克重的物资,以7公里的时速在高低不平的野地里行动。
“机器蜂”则是一款间谍神器。由哈佛大学研制,尺寸仅为指甲的一半,重量不到0.1克。其身体模拟昆虫的节肢,头部模拟蜂的眼睛,并带有自动传感器和电子控制设备,可以感知并对环境作出反应;两片翅膀每秒振动120次,能够完成垂直起飞和转向。通过静电附着力,它能逼真地模仿昆虫停留在物体表面。
俄军AI
形式粗暴 实战威猛
当前,俄罗斯将军事实力增长点放在AI等尖端科技领域。国防部长绍伊古近来表示,正加紧进行军用机器人的研发、列装工作,预计今年内战斗机器人可投入量产;总参谋长格拉西莫夫则称,俄军正通过人工智能装备“发展非核手段战略威慑力量”;普京也曾多次表达对军用机器人的重视。
据相关专家介绍,俄军目前正使用数十套地面和水下机器人技术系统以及数百架无人机。而这远不是全部,俄军试图以此为契机,作为AI军事化进程的引擎。无人机方面,有担任指挥任务的“石榴-4”近程无人机以及正在研发的“猎户座-Y”远程高速无人机。而“视界-600”等自主式无人潜航器已在海军服役;代号“美女-K”的核动力无人潜航器,航程达到洲际水平,航速超过现役舰艇数倍。陆上机器人包括侦查打击机器人、三防侦察机器人。
值得一提的是,无人机作战方面是美国领先,而在陆地军用机器人实战方面,却是俄罗斯占了先手。七年来,炮火连天的叙利亚战场提供了绝佳的练兵机会,这其中就包括AI作战平台。在2015年,俄罗斯军队向某区域盘踞的200名武装分子发动了一次进攻。这次进攻主力就是由“机器人军团”担负。其中,“仙女座”-D自动化指挥平台和数据链系统进行作战协调,参加战斗的总共不超过10台平台-M地面作战机器人和“阿尔戈”机器人,另有3辆“洋槐”自动火炮和3架无人机。战斗中,俄军先派出无人机升空检测战场情报,由自动火炮进行火力准备。同时,操作员操作战斗机抵近武装分子据点100米处,使用机枪和反坦克导弹进行攻击,遇上硬骨头,则根据无人机和机器人的情报,用重型自行火炮拔除钉子。叙利亚政府军的步兵则在战斗机器人身后的安全距离,对残余的武装分子进行清扫。这种先进战术使得俄叙联军仅仅20分钟就歼灭了70名武装分子,而己方只有三四人受伤。
激烈争论
AI杀人是因为不够智能
VS
自主杀人机器应被禁止
美国媒体的报道认为:“从地毯式轰炸、大威力核弹,进化到精确制导武器,是把杀伤的范围越缩越小。智能化武器只会减少战争中的误伤,不会带来更大的伤亡数字。近年来美军无人机多次发生误伤平民事件,并非是智能化武器的错,而是武器还不够智能。”然而,即使是再先进再精准的人工智能,还是要看使用者。美军的军用人工智能,只能按照美军自己的标准去发动进攻。
关于军用机器人的研发,一向饱受诟病。2013年,联合国人权机构的特别报告员克里斯托夫·海因斯就曾提交报告,呼吁各国冻结“杀人机器人”的试验、生产和使用,以避免“全自动杀人机器人”自主决定人类生死的情况。2017年,116名全球人工智能和机器人领域的专家发表联名公开信,呼吁联合国采取行动,禁止“自主杀人机器”。今年4月,3000多名谷歌员工向CEO上书,反对该公司参与五角大楼军用人工智能项目,最后迫使谷歌不再续签相关合同。
人权组织和科学家对“全自动杀人机器人”的担心,主要是伦理道德层面的。科幻影视作品中的机器人滥杀无辜,或是中央电脑产生邪恶意识屠杀人类;但现实中,机器人滥杀无辜的可能性远不止这些。
有智能的机器也是机器,是机器就有出故障的可能,而且智能化越高,出故障的风险越大。全自动杀人机器导致的滥杀固然是可怕的;半自动杀人机器照样可能获取错误信息,造成对目标的误判;后方遥控信号可能被干扰,接收到错误的攻击指令;攻击系统也可能出错伤及无辜。
更可怕的是操作机器的人。即使软硬件不出故障,也可能因为操作者的疏忽大意甚至主观恶意造成误伤。美军在伊拉克、阿富汗打着反恐名义杀伤的大量平民,很多是不能怪罪到武器系统的。例如2011年美军无人机在巴基斯坦一次杀死4人,因为美军认为他们是武装分子,无人机只是执行命令。事后证明这4人中有3人是妇女和儿童。
杨益