您现在的位置:新闻首页>智能医疗

世界人工智能专家共同签署,禁止开发致命型的杀人武器“杀人机器人”

2018-08-09 22:35编辑:310309.com人气:


科幻小说里出现的 AI 杀手机器人,引来不少人担心人类将来是否会被机器人给灭绝的隐忧,对此,近日数以千计的人工智能专家,包括 Google 人工智能子公司 DeepMind 的创始人均签署了不发展「致命性自主武器」的承诺。 

世界人工智能专家共同签署,禁止开发致命型的杀人武器“杀人机器人”

签署者主要担心若开发致命型的杀人武器,会对人类产生威胁,因此互相共同承诺既不参与创造,也不支持致命性自主武器技术的开发。 

这次签署者包括 160 家与 AI 相关的公司和组织, 香港六合彩公司幸运飞艇,以及超过2,400名专家。其中包括Google DeepMind、ClearPath Robotics,欧洲人工智能协会、XPRIZE 基金会、硅谷机器人,伦敦大学学院以及特斯拉特斯拉总裁马斯克(马斯克),以及 Google Research 的 Jeffrey Dean 和英国议会成员 Alex Sobel 等人。

专家小组反对无需人类操控就可以自主识别、瞄准和杀人的武器化AI系统。但是不包括像是军用无人机这样的东西,因为这类武器可以透过人类飞行员来进行远程便是与操作,选择杀死目标。主要认为人命不应该交由机器决定,同时呼吁各国政府和领导人,应建立国际法规予以控管。 

除此之外,此次所签署的条文中,也有特别强调为全球各国安全着想,应该尽量避免举办军备禁赛,避免具有AI的自主武器被用来当做伤害人类的武器。

2015 年,生命未来研究所(The Future of Life Institute,简称FLI)向联合国发出公开信,敦促该组织禁止发展致命的自主武器系统(LAWS)。

这封信由 1000 多名机器人研究人员和著名科学家签署,包括马斯克和霍金等人。两年后,随着谈判不断陷入停滞,FLI 和许多同样的签署者持续展开后续行动。

联合国将于 8 月举行下一次关于 LAWS 的会议。

(来源:晟讯智能科技)

织梦二维码生成器
已推荐
0
  • 凡本网注明"来源:的所有作品,版权均属于中,转载请必须注明中,http://www.310309.com。违反者本网将追究相关法律责任。
  • 本网转载并注明自其它来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。
  • 如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。






图说新闻

更多>>