当前位置:www.8029.com > 外国军情 > 美智库称人工智能技能存各类神秘隐患,微软支

美智库称人工智能技能存各类神秘隐患,微软支

文章作者:外国军情 上传时间:2019-11-15

  新美国安全中心发表文章称,人工智能技术的未来不可限量,但目前仍是不成熟的,这就意味着它需要经历大量失败、困难以及挫折来学习成长。其潜在隐患主要体现在如下四个方面。

【智能观】如何识别AI产生的偏见呢?微软包容性设计团队发现,培养AI和培养小孩子如出一辙,而孩子童年玩游戏中表现出的一些无意识的偏见和AI产生的偏见也很想象。因此,他们通过研究小孩子玩游戏提出五种识别AI偏见的方法,并提供了这份指南。

  机器有可能作弊

话说有一天,X学校开始使用面部识别软件记录考勤,登陆在线作业系统。但是软件有一个bug,它的制造者只使用了浅肤色人群的测试样本来训练算法。不幸的是,你恰好是名非裔学生。由于肤色的原因,软件很难识别你,因此,它判你上课迟到,说你没有按时完成作业。软件怎么会出错呢?受到影响的只有你的成绩。

  机器学习是人工智能的一种方法,可以让机器从数据当中去学习解决问题的方法。但是如果没有正确地设定目标任务,机器就有可能运行出错误的结果。机器可以完成人类交给它的任务,却没有按预期遵守人类设计的规则。换句话说,机器也会作弊。这种偏离设计者初衷的情况可能会产生严重的后果。比如一个赋予了对抗恶意软件保护网络安全任务的安全系统可能会认为人类是恶意软件的主要来源从而将人类行为屏蔽掉,或者也有可能直接将电脑掉线以防止可能的恶意软件攻击。以上这些行为从技术上说的确可以实现系统想要的结果,但却违背了人类设计者的本意。

曾有人疑惑,人工智能是怎么成为种族主义者的呢?上述就是人工智能对肤色歧视的例子。虽然这并不是真实案例,但类似的人工智能偏见已经在科技行业和社交媒体上饱受诟病。

图片 1

科技行业现在一谈人工智能就很high,大数据和机器学习给了人们几年前难以想象的强大体验。但AI想要完美地实现人们的愿景,其系统必须是值得信赖的。因为人们的信任越多,他们与系统的交互就越多,系统就会获得更多数据,得到更好的结果。但信任需要很长时间才能建立,偏见却可以瞬间将其摧毁。

  机器也有“偏见”

图片 2

  人工智能只有在充分的数据保障的情况下才能表现良好,如果训练数据有缺陷或被污染,那么人工智能系统也不能幸免。这种情况是完全有可能发生的,尤其是当工作人员搜集了错误的数据并将其吸收进入系统的时候。如自动肥皂机对于白色手臂的反应堪称完美,而对于有色人种手臂的反应则差强人意,这就是机器的“偏见”。在人工智能中,类似的偏见如果发生于国家安全和战争应用中,可能会导致灾难性的后果。由于与现实世界作战环境相关的训练数据的局限和“偏见”,旨在使人类摆脱战争迷雾的人工智能系统可能会做出任何意想不到的事情。真实战争的迷雾和冲突意味着在任何一场战斗中都有许多情况是很难训练人工智能去参与的。所以在真实的战争中,人工智能可能会是很大的风险因素。此外,不法分子可能会利用这个弱点向人工智能注入受污染的训练数据。

认识人工智能的排外行为

人工智能的确会出现偏见,除非从它设计之初就有比较完善的模型。创建包容性的人工智能最关键的一步是认识到偏见是如何影响系统的。

包容性设计的首要原则是确认排外行为,本文也将AI偏见分为不同的类别,方便产品制造者及早发现问题,预见未来会出现的问题,并做出更好的决策。借助本文,AI团队可以清楚地看到自己的系统哪里出了问题,这样他们就能识别偏见,并积累经验,实现AI对每个人都公平的承诺。

本文由www.8029.com发布于外国军情,转载请注明出处:美智库称人工智能技能存各类神秘隐患,微软支

关键词: www.8029.com