关闭

帖子主题:自主战争机器人将大量涌现 如何避免终结者出现?

共 456 个阅读者 

  • 头像
  • 军衔:陆军中将
  • 军号:5419895
  • 工分:2182869 / 排名:89
  • 本区职务:会员
左箭头-小图标

自主战争机器人将大量涌现 如何避免终结者出现?

才短短十余年时间,“杀人机器人”就变成越来越真实的威胁。无论是正在伊拉克发动空袭的无人机,还是不久前在“环太平洋”演习中负责后勤的“大狗”机器人,或者是日美正在研制的水下无人潜艇,海陆空各个领域的战争机器人已相继出现。让各国军方纠结的是,自主化战争机器人发展的趋势似乎已经不可阻挡,但究竟应该如何控制,它们才不至于变成科幻电影中的“人类终结者”?

海陆空,哪里都不缺机器人

据美国“技术时报”网站10日报道,日本防务省正在与美国联合研制一种利用燃料电池驱动的无人潜艇,它具备自主巡航和侦察能力,水下航行时间长达一个月,相当于准核潜艇。

除水下无人潜艇外,美国《航空周刊与空间技术》网站11日还披露,正在美国航母上测试的X-47B舰载无人机,具备比现有无人机更高的人工智能。“人权观察”组织在一份针对“杀人机器”的报告中,将X-47B视为几种“几乎不需要人类干预的全自动化武器”之一。

翻开各国军队装备清单就能发现,各种战争机器人越来越普遍地开始服役,而且自主能力也越来越强。据《科学美国人》杂志统计,2003年伊拉克战争刚爆发时,美军地面部队还没有使用任何无人系统,现在则超过1.2万台;美军无人机也从区区十余架已猛增至超过7000架。海军则装备“火力侦察兵”无人直升机和“保护者”机器人快艇等。

想要控制杀人机器人?难!

这种战争机器人数量猛增的同时,带来的担忧也越来越多。据称“robot”(机器人)这个词就是捷克作家卡雷尔·恰佩克在 1921年的科幻作品《罗萨姆的机器人万能公司》中首创用来称呼那些造反的机器仆人的。可以说从一开始,机器人失控导致的威胁,就始终是人类心中的阴霾。

这种担忧并非空穴来风。几乎在无人攻击机首次用于实战的同时,误炸就产生了。2001年10月18日,一架在阿富汗上空飞行的“捕食者”无人机用“地狱火”导弹攻击“基地”组织首领奥马尔的专车,但奥马尔侥幸逃脱,其家人却成为替死鬼。随后这种情况越来越严重,美国布鲁金斯学会的统计表明,死于无人机的人中,平民与武装分子的比例高达10比1。

一名中国军事专家告诉《环球时报》记者,包括无人机在内的现役战争机器人大都需要后方控制人员进行遥控,特别是执行发动攻击等任务时,必须得到后方操作人员的特殊命令才能行动。然而从技术层面看,从无人机获得信息,到信号由地球这一端传到另一端,然后操作人员下达的指令再通过卫星传回无人机这个过程,存在信号延迟的问题,通常会花费1/4秒甚至更长的时间。而在瞬息万变的现代战场上,这种延迟可能直接导致反应迟钝,甚至被击毁。这也是目前无人机只能执行普通空对地攻击,而无法涉足情况复杂的空中格斗领域的主要原因。

因此能模仿人类判断过程,根据周围环境及时做出反应的机器人自治系统,是美英等国都在大力发展的下一代智能战争机器人的主要特点。这些武器具备高效率、低伤亡(甚至无人员伤亡)的优点,可以不依赖任何来自人类的输入而自行做出决定,或许会完全改变目前的战争形势。

然而中国专家担忧,要对付这类自治战争机器人,它们的同类显然是最好的选择,这会促使其他国家越来越多地加大对这类机器人的研制与使用。具备自主判断能力的杀人机器人大量出现的情况,未来可能很难避免。

如何控制“自治机器人”

如果自治杀人机器人的出现难以避免,那可以控制吗?《航空周刊与空间技术》网站称,目前的无人系统实际上还是“有人的”,“需要时人就会跳出来解决问题”。但是未来自治系统意味着机器将自己做出决定,而且其行为方式已不是预先设计好或者计划好的程序化的东西。让各国科学家和民众难以放心的是,如果杀人机器人失控怎么办?如果它判断失误又该如何应对?电影《终结者》就代表着对这类自治机器人失控的担忧。因此华盛顿暂时否定了自治系统的计划。

《科学美国人》称,英国国防部发言人表示,在可预见的未来,英国还是会保留经过训练的操作人员直接参与无人机的操作。美国空军也有着类似的看法,实际并非人类一定要直接操控机器人,而是需要有人对整个任务过程进行监控,并在关键时刻保留决定权。

美国海军研究办公室2008年的一份文件认为,在自治机器人问题上有伦理和法律障碍。该文件中称,明智的做法是为自治机器人编入至少与人类士兵相同的伦理程序,这样即使出现意外,至少能将其纳入法律范畴。这份报告还预测,或许某天这些自治机器人也会和未成年儿童一样被指派法定监护人。

      打赏
      收藏文本
      2
      0
      2014/8/12 8:37:04

      网友回复

      左箭头-小图标

      是人就会犯错,机器也是人控制的,

      是软件就会有BUG,因为软件是人编写的,都有局限性,所以win始终打补丁,所以有网络病毒和杀毒软件,

      拿木棍的自主机器人失控可以打的人头破血流,拿枪的机器人失控可以杀死的人直到子弹打光为止,掌控原子弹的机器人失控了呢?

      以前的那个利剑机器人犯神经结果放出去后,自己回来了,然后枪口对着那些美军大兵,吓死了一堆人,事后发现是软件有个BUG引起的,越智能的东东编程越复杂,BUG谁能 保证没有?

      2015/5/11 0:53:08

      我要发帖

      总页数11页 [共有2条记录] 分页:

      1
       对自主战争机器人将大量涌现 如何避免终结者出现?回复