未来战争就是 互联网机器人之间的战争

2015-07-23 eNet&Ciweek

  《终结者》被誉为20世纪最值得珍藏的电影之一,其中的主角“终结者”是一个有着人类智能,可以自行做出决定,甚至可以对人类进行屠杀的机器人。尽管这一系列的电影反映了人类对于逐渐强大的人工智能和机器人所带来的未知的深入骨髓的恐惧,但由于当时的技术发展还远未达到电影中所呈现的程度,因此,人们只是将其作为一部十分成功的科幻电影看待。这种能自主搜索、锁定并攻击目标的机器人并没有引起过多的恐慌和关注。   十分有代表性的要数由韩国三星集团所研发的SGR—1哨兵机器人   随着科学技术的逐渐成熟,如同终结者般的自主致命性机器人正在从荧屏中走出,成为现实中的真实存在物。目前以美、英、以色列、俄罗斯为代表的多个国家都在研制自主性致命武器。所谓自主致命性武器是指可以根据自身所部署的环境中不断变化的情况,随时学习或调整运转的武器。再说得简单些就是这类武器无需人类的操作就可自行锁定目标,并可以使用武力攻击包括人类在内的一切目标。
f

  尽管像《终结者》电影中所描绘的那种杀手机器人还并不存在,可如果不对自主致命性武器的研究加以限制,“终结者”在未来的二三十年内出现是非常有可能的。通过研发,现有的自主致命性武器已经实现了自动搜索、跟踪和攻击等多项功能。其中十分有代表性的要数由韩国三星集团所研发的SGR—1哨兵机器人,这个机器人能摆脱人类的控制,自主侦查范围内的威胁,并在侦测到闯入者时发出警报,还可在人类授权的情况下对目标展开进攻。   全球还没有产生一款真正意义上的自主致命性武器,还需要由人在后方进行一定程度的操作,其原因就在于机器还远未达到人类的智能水平。战场上变化莫测,根据现有的人工智能水平,机器人在战场上很有可能产生对环境的错误判断,产生错误的行为,直接对战局产生不利影响。但由远程遥控向由计算机软件、传感器、控制装置转变,从而能够赋予机器人全自动识别、跟踪、判断并攻击的能力将成为未来武器发展的趋势。由于自主致命性武器替代人类士兵出现在战场上,将为战争国减轻在财力、国内政治、道德谴责等多方面的压力,使得越来越多的国家加入到研发的队伍当中,同时伴随着人工智能相关技术的不断成熟,这种武器的发展趋势正变得越发明显。   请注意科幻作家阿西莫夫提出了著名的机器人三原则   自主致命性武器发展的日益成熟,令不少人开始担心,一旦这种武器真正地被研发出来,会不会对人类造成灭顶之灾。   1940年由科幻作家阿西莫夫提出了著名的机器人三原则,即第一条,机器人不得伤害人类,或看到人类受到伤害而袖手旁观;第二条,机器人必须服从人类的命令,除非这条命令与第一条相矛盾;第三条,机器人必须保护自己,除非这种保护与以上两条相矛盾。这三条原则被看做是保护人类免受机器人伤害的基本保障。然而,在机器人的科幻电影中,人类和机器人打起来的比比皆是。在现实中机器人三原则更是被抛到了九霄云外,自主致命性武器无论多么先进,其本质依然是杀人的武器,这显然是违背机器人三原则的。一个完全不受人类控制的机器人到了战场上所造成的破坏可能远大于人类士兵。   根据牛津大学人工智能哲学家尼可·博斯特伦于2013年对数百位人工智能专家所做的一项关于“你认为人类级别的人工智能什么时候会出现”的调查结果显示,大多数专家认为如果没有人为的干预2040年左右的可能性最大,最晚也不会超过2075年。尽管今日距离专家们预言的时间并不遥远,但就目前人工智能发展的程度还远达不到人类的水平。这也就意味着,机器人仍要依靠提前设定好程序来行动,一旦战场上的情况有变,而机器人又不能根据实际情况有所变通就很有可能造成难以预料的后果。已经丧失战斗力的伤员、准备投降的士兵,甚至是平民都有可能成为这些自主致命性武器屠杀的对象。   一个人类士兵,其首先是一个人,然后才是一个兵。只要是人,其就具有人类的情感,有道德和法律的约束,虽然在战场上这些约束存在失效的可能,但仍是阻止士兵肆意屠杀的重要保障。然而,自主致命性武器却真正能做到无情无义、无法无天,并且人们也不能对机器的行为进行责任追究,这就失去了对其行为约束的最后一道防线。对于一个毫无感情、道德和法律意识的机器,最重要的是其已经失去了人类的控制,却拥有着生杀大权,天晓得它们会做出什么。联合国人权理事会特别调查员克里斯多夫·海因斯就警告称“如果这些武器得到推广,就等于是打开了潘多拉魔盒,将会给人类带来难以想象的灾难。”   机器人很可能在短短的几十年内发展到人类的智能水平   达摩克利斯之剑的典故源自于古希腊传说,迪奥尼修斯邀请他的大臣达摩克里斯赴宴,并在他的座位上方用一根马鬃悬挂了一把利剑,谁也无法预测这把利剑会何时会落下,后常用来比喻随时存在的危险。   赋予机器人以自主控制能力和杀人的权限就是一把悬在整个人类头上的达摩克利斯之剑,只要那根马鬃因为什么原因断掉,这把锋利的宝剑就会直接将人类的头颅砍下。即使人类没有因此而灭绝,也将陷入与杀人机器人的争斗当中。   这一担心绝非杞人忧天,美国在试验自主致命性武器时,就曾误击过印度货船,导致一人丧命。这还是在人类控制之下就造成了如此惨剧,一旦这些拥有强大火力的杀人机器失控,其将造成多大的危害是难以估量的。   即使为机器人设计好十分缜密的程序令其不会轻易对人类开火,也难以保障机器人的行为在可控范围之内。且不说再缜密的程序都存在漏洞,况且还是在变化莫测的战场之上,谁也无法预测机器人会做出什么。即使程序真的设计得毫无漏洞,然而程序是可以改变的,一些极端组织份子可以利用黑客技术对机器人的现有程序重新编辑,将机器人改变成为恐怖袭击的武器,届时造成大量的伤亡将不可避免。   以上的设想成为现实,会对人类造成重大损失,但还不会威胁到整个人类的生存。最为可怕的是,随着人工智能的发展,机器人很可能在短短的几十年内发展到人类的智能水平,并在很短的时间内,也许仅需几天的时间就可以将人类远远地甩在身后。在这一过程中,机器人会演化出何种意识谁也无法说清。一旦《黑客帝国》、《终结者》中的想象成为现实,这些武器的高智能与致命性将令人类陷入毫无招架之力的困境当中。   互联网机器人要成为人类发展的助手而不是人类的终结者   克劳塞维茨在其著作《战争论》中对战争有一段对后世影响深刻的论述(虽然现在是互联网时代,战争形态或将演变为网络战争):战争并非一种盲目的冲动,而是受到政治目的的支配,那个目的的价值也就决定所应作牺牲的程度。一旦所需代价太大,则政治目的在价值上也就不再能与之相称,于是这个目的也就必须放弃。   如果说是否发动一场战争是一个理性地权衡利弊的过程的话,那么也就意味着战争的发动应当是有底线的,即战争付出的代价不能大于所获得的回报,否则就只得放弃。   与战争相同的,人类对武器的发明也应当有一条不能触碰的底线,那就是人类发明的武器不能威胁到整个人类的生存。然而,人类却在不断地触碰这个底线,核子武器的出现使这一突破底线的行为达到了一个高峰,广岛和长崎让人们见识了原子弹那足以毁灭整个人类的惊人破坏力,尽管人类为此而惊愕、恐惧和反思,但在利益的驱使下,人类并没有放弃对更加致命武器的研究。   “其他国家武器水平在逐渐提高,我们就要研制更加前沿的武器,以降低来自其他国家的威胁”。站在本国的角度,这是一个非常正确的逻辑,可如果上升到全人类的高度,这样的逻辑就显得十分危险了,当武器过于强大而超出人类驾驭的范围时,人类会被逼向灭绝的边缘。自主致命性武器的出现便是一个关键性的信号,人类不能再对此视而不见了。
d

  用机器人来代替人类士兵上战场由于具有多方面的优势,而成为未来战争不可阻挡的发展趋势。但冲突双方都应将武器系统的最终开火权牢牢地掌握在人类手中,好在自主致命武器的发展已经受到了越来越多人的重视。这类武器的研制、开发未来将逐渐受到严格的限制。只有这样机器人才能成为人类发展的助手而不是人类的终结者。

您对本文或本站有任何意见,请在下方提交,谢谢!

投稿信箱:tougao@ciweek.com