当前位置:www.8029.com > 外国军情 > 承诺永不发展致命性AI武器,禁止致命性自主武器

承诺永不发展致命性AI武器,禁止致命性自主武器

文章作者:外国军情 上传时间:2019-10-11

www.8029.com 1

www.8029.com 2

www.8029.com ,  从产能“地狱”归来的马斯克,刚刚领衔2000多名AI专家签署了一份特殊协议。

据美国福克斯新闻网18日消息,包括美国太空探索技术公司创始人埃隆·马斯克、谷歌深度思维创始人在内的2000多名人工智能领域专家,共同签署了《禁止致命性自主武器宣言》,宣誓不参与致命性自主武器系统的开发及研制。这也是迄今针对“杀手机器人”最大规模的一次联合发声。 致命性自主武器系统是能够在没有人类决策的情况下,自主进行选择,完成寻找目标、定位、杀戮敌人这一整套工作的AI系统。将该系统送上战场,意味着机器人可不受人类干涉,自己做出生死攸关的决定。 但其支持者认为,现代作战有快速移动的特点,用机器人代替人类参战可以减少士兵伤亡;而另一方一直激烈反对,表明“杀手机器人”对人类的威胁将大大超过其为军事或执法行动带来的好处——LAWS可能会发生故障失控,也可能落入不良分子手中被恶意操纵,如果其选定目标时没有人类决策,将导致人类的世界危险丛生。 鉴于此,日前在瑞典斯德哥尔摩举办的2018国际人工智能联合会议上,共有来自90个国家、160多家AI企业或机构的2400多名AI领域学者,共同签署了《禁止致命性自主武器宣言》。宣言指出,LAWS会在脱离人类控制的情况下选择目标并实施攻击,这带来了道德及现实层面的双重危险,人类的生命权决不能交给机器,而且,此类武器的扩散将对所有国家、个人造成极大的威胁。 该宣言由位于波士顿的生命未来研究所牵头,签署者包括曾“敲响了人工智能警钟”的埃隆·马斯克、DeepMind的三位共同创始人、Skype创始人以及全球多位顶尖AI学者等。宣言签署者们希望,这一行动能促进立法者颁布正式的国际协议。 生命未来研究所所长表示,LAWS其实与生物武器一样“令人厌恶且不稳定”,应采取同样的方式处理。

  这份协议核心目的有且只有一个:承诺永不发展致命的AI武器系统。

  在瑞典斯德哥尔摩举行的IJCAL 2018上,由MIT著名物理学家Max Tegmark发起,其任职主席的生命未来研究所(Future of Life Institute,FLI)起草,该协议一经发出就应者如云。

www.8029.com 3

  包含企业领域的马斯克、DeepMind联合创始人哈萨比斯、穆斯塔法,Shane Legg;Skype创始人Jaan Tallinn;全球顶尖AI学者Yoshua Bengio、Stuart Russell、Jürgen Schmidhuber等2400全球AI科学家,都郑重签下了大名。

  就国籍和企业归属而言,他们分属90个国家、160多家AI企业或机构。

  这也是全球首个AI武器系统开发的民间反对组织,不出意外,也将是影响力最大的一个。

  《致命性自主武器宣言》

  这份协议全称《致命性自主武器宣言》(lethal autonomous weapons pledge),核心内容就是宣誓不参与致命性自主武器系统(LAWS)的开发、研制工作,而且LAWS的研发及使用应当被严格禁止。

www.8029.com 4

  宣言称:人类个体生死的决定权,决不能交给机器。这一方面是出于道德层面的考虑,“掌控他人生死”这件让人产生负罪感的事,绝不能由没有感情的机器做出。

  而且致命的AI武器,不受人类干涉、自主选择攻击目标,可归责性与难度都前所未有,它们将成为暴力活动中的强大工具,尤其是与监控、数据系统相结合时。

  宣言还强调:致命性自主武器的特征不同于核武器、化学武器及生物武器,研发团队可以单方开启军备竞赛,而国际社会缺乏实行管制的技术手段。谴责并避免这场军备竞赛,是维护全球安全的优先考虑事项。

  所以今日签署之协议,也是呼吁各国政府及首脑为了地球的未来,共同商议抵制LAWS的国际规范、法律。

  “我们这些未参与LAWS的人,需要以更高标准要求自己:我们绝不参与或支持LAWS的发展、生产、贸易与使用。我们呼吁科技企业、组织及其领袖、决策者与其他民众,共同履行该承诺。”

  军方加速、学界反对、企业夹心

  AI致命的话题,早已不新鲜。

  在AI的所有应用场景中,这是最具争议的一个,而且由于不同组织怀抱不同利益诉求,状态非常尴尬。

  在军方,自主武器从2013年开始就开始在美国、英国、以色列和韩国等军方实验室中诞生。

本文由www.8029.com发布于外国军情,转载请注明出处:承诺永不发展致命性AI武器,禁止致命性自主武器

关键词: www.8029.com