Half the truth is often a great lie.

智能武器是人类的福祉还是灾难?

军事 rock 11907℃ 0评论

20120929125810

当前,信息化战争形态正由“数字化+网络化”的初级阶段,向“智能化+类人化”的高级阶段加速演进,以战斗机器人为典型代表的智能武器将主宰未来战场。我国著名人工智能专家李德毅院士,把智能机器人比作是集汽车、新能源、移动通信、卫星定位导航、移动互联网、云计算、大数据、自动化、人工智能、认知科学,乃至人文艺术等多个学科、多种技术于一身的人造精灵,是人类走向智慧生活的重要伴侣。依此类推,未来的战斗机器人则可视为将军们麾下无惧死亡、勇往直前的人造忠诚战士。

正如聪明的孩子往往更加调皮和不听话一样,武器智能化一旦超过一定程度,“聪明过了头”,就会存在自作主张、失去控制,甚至危及人类自身安全的危险。人类面临着既要利用武器高度智能化带来的可以替人打仗的无比好处,又要回避武器高度智能化带来的巨大失控风险,军事技术和武器发展由此陷入一个两难困境。

智能武器的失控风险

据称“Robot”(机器人)一词,是由捷克作家卡雷尔·恰佩克在1921年的科幻作品《罗萨姆的机器人万能公司》中首创,原意是“农奴式被强迫的劳动者”,用来称呼那些造反的机器仆人。可以说,从一开始,机器人失控对人类的威胁,就成为人类心中挥之不去的心理阴影。

人类对机器人失控的担心,不仅反映在科幻小说和影视作品中,还反映在很多学者严肃认真的学术探讨中。《机器人战争——机器人技术革命与21世纪的战争》的作者彼得·W·辛格就认为,机器人控制世界需要四个基本条件:第一,机器人必须独立,能够不依赖人类而自我补充能量、修复和再造;第二,机器人必须在智力上胜过人类,但不具有人类好的品质(如同情心或道德观念);第三,机器人必须具有生存本能,以及控制其周围环境的某种兴趣和意志;第四,人类必须不能有介入机器人决策的有效控制界面,人类必须没有能力决定、干涉,甚至影响机器人的决策与行动。从发展趋势来看,这四个基本条件在技术上都没有不可逾越的红线。因此,从理论上讲,如果不采取有效措施,智能武器失控是完全有可能的。

与民用机器人相比,军用机器人失控的危害性更大,有人甚至担心,军用机器人会不会成为“人类终结者”。早在1991年,美国学者史蒂文·谢克和艾伦·怀斯合著的《无人战争——未来战场上的机器人》,是一本较早系统介绍和论述军用机器人及其影响的专著,书中最后严肃地提出了这个问题。未来战争中,武器高度智能化后,战场上大多数的战术行动将交由战斗机器人来完成,人退出战术级“观察-判断-决策-行动”循环,人授予智能武器开火权,智能武器按照预编程序自行作战,“人不在回路”了。让一群冷酷无情、不知疲倦的“杀人机器”冲上战场,对方的人类士兵自然会心惊胆战,一旦这些智能武器出现问题失去控制,会不会滥杀无辜,甚至会不会突然掉转枪口对准自己人呢?!这一担心,不是杞人忧天,更不是天方夜谭。人是万物之灵,灵就灵在“有脑子”。人之所以能控制老虎,不是人比老虎强壮,而是人比老虎聪明。机器人的体能、技能超过人类并不可怕,但如果机器人的智能超过人类,人类还能不能控制这种比人类还“聪明”的机器人,那就不好说了。

智能武器失控的可能形式

不同自主程度的智能武器失控的可能形式是不一样的,造成的危害也不尽相同。大致分析,智能武器失控的情况可能主要有以下几种。

智能武器因发生故障而失控。在民用机器人方面,因机器人故障而出人命的事早有发生。1985年,苏联发生了一起家喻户晓的智能机器人棋手杀人事件。全苏国际象棋冠军古德柯夫同机器人棋手下棋连胜3局,机器人棋手突然向金属棋盘释放强大的电流,在众目睽睽之下将这位国际大师击倒,这应该是智能机器人发生故障导致的。

随着机械制造水平和智能化程度的提高,未来智能武器出现机械故障的可能性减小,但出现软件故障的可能性大增。

武器系统因软件故障而导致的事故并不鲜见。20O5年,美国空军几架战斗机在一次编队飞行时,一架战斗机突然自动向地面重要设施发射了一枚导弹,并造成严重事故。经查明,事故原因是飞机的火控系统电脑出了故障。2011年,在美军几次军演和值勤过程中,三军通用战场态势分析系统多次发生软件故障不能正常工作,出现黑屏、无法显示友军信息、无法完成态势合成,甚至出现运行中断、死机等故障,导致战场态势无法及时更新、融合,作战打击方案无法按时生成。

转载请注明:北纬40° » 智能武器是人类的福祉还是灾难?

喜欢 (0)or分享 (0)
发表我的评论
取消评论
表情