美军计划花巨资研发比人类更道德机器人士兵

SHENYONGQUAN 收藏 2 234
近期热点 换一换


铁血网提醒您:点击查看大图

中新网12月2日电 据香港《大公报》二日援引外电报道,美国军方计划制造无法像人类士兵那样犯战争罪的机器人士兵,五角大楼已经聘请英国科学家协助完成这一任务。


美国陆军和海军聘请了精通制造机器的伦理问题方面的专家,以防止制造出“未来战士”式的不懂是非、不加区别地杀人的机器。


二○一二年前,美国将投资四十亿美元研究“自主系统”,“自主系统”是军方用来称呼机器人的术语。这个自主系统的基础,是机器人不会像前线士兵那样有恐惧和有复仇欲望。


美国海军已聘请一名搞机器人研究的英国专家,为他们提供制造机器人方面的建议,确保机器人不会违犯日内瓦公约。


印第安纳大学科学哲学家科林-艾伦,刚出版了一本书,叫做《道德机器:教导机器人分清是非》。他说:“他们希望得到回答的问题,是我们能否制造遵守战争法律的自动机器。我们能否利用伦理理论来帮助设计这些机器?”


机器可比人类更道德


有关伊拉克战争产生的作战压力研究,使五角大楼首脑们颇伤脑筋。研究显示,比例很高的前线士兵都支持对敌军俘虏施加酷刑和惩罚。


替美国陆军设计软件的佐治亚理工学院计算机科学家罗讷德-阿金写了一份报告,报告认为机器人“在战场可以比人类士兵更遵守道德”。


他说,机器人“不需要保护自己”,以及可以把机器人“设计成没有情绪,从而不会导致它们判断失误,或导致它们对进行中的战斗感到愤怒和沮丧”。


美国已在伊拉克和阿富汗使用无人驾驶飞机,还使用机器人车辆来拆除路边炸弹和其它土制爆炸装置。上月,美国陆军收到一件新货,它是由英国防务公司QinetiQ一个美国附属公司制造的新机器人。该机器人懂得使用各种东西,包括小豆袋、胡椒喷粉、高爆炸力榴弹和七点六二口径机关枪。但这代机器人全都是由人类遥控的。


研究者现正研究“机器人士兵”,它们可以辨认目标、武器,区分敌人部队例如坦克或武装士兵,以及软目标例如救护车和平民。机器人士兵的软件,将含有各种作战规则,这些规则都遵守日内瓦公约,会告诉机器人何时开火。


艾伦博士对当局想尽早解决道德方面的困境表示赞赏。他说:“我们应该开始考虑这些问题了──如何把伦理理论输入软件,确保机器人行为正确,而不是等到已为时太晚才做这类事情。”


1
回复主贴
聚焦 国际 历史 社会 军事 精选
2条评论
点击加载更多

发表评论

更多精彩内容

热门话题

更多

经典聚焦

更多
发帖 向上 向下