Elon Musk是对全球禁止杀手机器人的领先需求,警告技术进步可以彻底改变战争,并为目标无辜人民创造新的“恐怖武器”。
特斯拉和SpaceX的首席执行官与100多名机器人和人工智能企业家一起签署了一封致联合国的信,呼吁采取行动阻止自主武器的发展。
“致命的自治武器威胁要成为战争的第三次革命,”由116个技术魅力签署的声明,还包括穆斯塔法·苏拉伊曼,谷歌深思想的联合国。
“曾经开发后,他们将允许以比以往任何时候的规模更大的武装冲突,而不是人类可以理解的速度更快地争夺,”这封信阅读。
发明者还强调了这项技术可能落入坏人手中的危险。
“这些可以是恐怖武器,武器,被打击和恐怖分子对无辜人口的使用,而武器被黑客攻击以不希望的方式,”这封信阅读。
“我们可以采取行动的时间不多了。一旦潘多拉的盒子打开了,就很难再关上了。”
马斯克和英国天体物理学家斯蒂芬·霍金都经常警告人工智能的危险。
周一,国际人工智能联合大会(International Joint Conference on Artificial Intelligence)在墨尔本召开,主办方表示,有2000名世界顶级人工智能和机器人专家参加了会议,创下了纪录。
一位专家说自主武器可能会使战争更有可能。
“今天,人类生命的潜在损失是对冲突启动和升级的威慑,但是当主要伤亡是机器人时,抑制因素急剧变化,冲突的可能性增加,”技术大学悉尼的玛丽 - 安妮·威廉姆斯教授。
她警告杀手机器人禁令可能被一些国家忽视,而是将停止“澳大利亚等国家从制定防守杀手机器人,从而容易受到忽视禁令的其他国家和团体的影响”。
另一位专家表示,今天的决定将有助于塑造“我们想要的期货”。
新南威尔士大学的托比·沃尔什教授说:“几乎每一种技术都可以用于好和坏,人工智能也不例外。”
会议组织者表示,将于周五闭幕的此次会议吸引了创纪录数量的中国参与者,反映出北京方面正努力成为该领域的领先参与者。
西班牙国家研究委员会的计划椅Carles Carles Sierra表示,该活动的一个主要焦点将探讨开发完全自主AI系统的挑战。
根据本集团的网站,联合国对自治武器的一组自主武器一直是由于周一见面,但收集到11月份,据该集团的网站介绍。
2015年,成千上万的研究人员和个性发起了禁止自治武器的上诉。
提交:行业监管




