当前位置: 云顶娱乐 > 云顶娱乐app > 正文

取缔为时已晚,美军担心军事机器人程序可能发

时间:2019-09-12 12:10来源:云顶娱乐app
这个问题要更为复杂。一方面,这涉及更广泛、也越来越紧迫的机器人道德规范的问题;另一方面,这也关乎现代战争的本质。 警告程序师不要急于求成 自动化军事技术的问题与不断

  这个问题要更为复杂。一方面,这涉及更广泛、也越来越紧迫的机器人道德规范的问题;另一方面,这也关乎现代战争的本质。

  警告程序师不要急于求成

  自动化军事技术的问题与不断变化的战争性质本身存在密切的关联,在恐怖主义和叛乱活动频繁的年代,战争不再有开始或结束,也不再有战场或军队:正如美国战略分析家安东尼·科德斯曼所言:“现代战争所带来的教训之一是,战争不再能称之为战争。”不管我们如何应对这一问题,战争都不会再像诺曼底登陆。

  事实上,一个简单的伦理密码,比如“机器人三定律”早在1950年就已经出台,但它们还不足以控制自动机器人的伦理行为。“机器人三定律”是阿西莫夫最重大的科幻理论贡献,他在名著《我,机器人》中写道:

  对于机器人技术和人工智能领域专家发出的取缔“杀人机器人”的呼声,有一种回应是:你们为什么没有早些想到这一点?

  设计师的这种心理原因可能与美国国会的命令有关。美国国会规定:到2010年之前,三分之一的“纵深”打击行动必须由机器人完成;到2015年前,三分之一的地面战斗将使用机器人士兵。

  这样说不是要反驳报告对于自动机器人士兵的恐惧,我本人也同样对这样的前景感到害怕。不过,这让我们又回到了一个关键的问题上,这个问题无关技术,而是关乎战争。

  国际在线专稿:毫无疑问,未来战争中,自动机器人士兵将成为作战的绝对主力。但是美国海军研究室近日在关于机器人士兵的研究报告《自动机器人的危险、道德以及设计》中,对军方使用机器人提出警告,建议为军事机器人设定道德规范。研究人员认为,必须对军事机器人提前设定严格的密码,否则整个世界都有可能毁于他们的钢铁之手。

图片 1  资料图片:图为英国“雷神”隐身无人战机。

  如何能够保护机器人士兵不受恐怖分子、黑客的袭击或者出现软件故障呢?如果机器人突然变得狂暴,谁应该负责呢,是机器人的程序设计师还是美国总统?机器人应该有“自杀开关”吗?林暗示说,唯一解决这些问题的办法就是提前为机器人设定“密码”,包括伦理道德、法律、社会以及政治等因素。

  我们如何让自动技术系统既安全又遵守道德规范?避免机器人给人类造成伤害是阿西莫夫在小说《我,机器人》中所探讨的主题,这本科幻小说短篇集对后世影响巨大,以至于阿西莫夫的“机器人三定律”如今有时几乎与牛顿的三大定律一样重要。具有讽刺意味的是,阿西莫夫的小说主要是关于这些出发点良好的定律如何在一些情况下遭到破坏的。

  一、机器人不得伤人或看见有人受伤却袖手旁观;

  不过从本质上讲,自从机器人问世,杀人机器人就伴随我们左右。1920年捷克作家卡雷尔·恰佩克创作的科幻剧本《罗素姆的万能机器人》让我们第一次拥有了机器人这个词。他笔下的人形机器人反抗并屠杀人类。从那以后,机器人一直在做这样的事情,从赛博人到终结者。关于机器人的故事很少有好的结局。

  报告还指出,现今美国的军事机器人设计师往往急于求成,常常会将还不成熟的机器人技术急匆匆推入市场,促使人工智能的进步在不受控制的领域内不断加速发展。更糟糕的是,目前还没有一套控制自动系统出错的有效措施。如果设计出现错误,足以让全人类付出生命的代价。

 

  “三定律”在科幻小说中大放光彩,在一些其他作者的科幻小说中的机器人也遵守这三条定律。但是,截至2005年,三定律在现实机器人工业中仍然没有应用。目前很多人工智能和机器人领域的技术专家也认同这个准则,随着技术的发展,三定律可能成为未来机器人的安全准则。(李金良)

  英国《卫报》网站8月22日发表了题为《我们不能取缔杀人机器人——现在为时已晚》的报道。

  帕特里克·林博士在报告中表示:“现在存在一个共同的误解:认为机器人只会做程序中规定它们做的事情。可不幸地是,这种想法已经过时了,一个人书写和理解程序的时代已经一去不复返了。”林博士说,实际上,现在的程序大都是由一组程序师共同完成的,几乎没有哪个人能够完全理解所有程序。因此,也没有任何一个人能够精确预测出这些程序中哪部分可能发生变异。

编辑:云顶娱乐app 本文来源:取缔为时已晚,美军担心军事机器人程序可能发

关键词: 云顶娱乐app 云顶娱乐