首页 > 产品中心 > 猫粮
如何防止AI将你认成“大猩猩”?光靠肤白可不行

本文摘要:各位否还忘记,两年前谷歌将黑人认成“大猩猩”这个乌龙事件?

十分快三

各位否还忘记,两年前谷歌将黑人认成“大猩猩”这个乌龙事件?于是以因此次事件导致的不良影响,让Google意识到:与其担忧AI伤人,更加相当严重的是AI种族主义问题。为了避免AI“胡来”,Google为其制订了七项“道德”准则。

十分快三

事情的原委是这样的,2015年,一位名为JackyAlciné的黑人软件开发人员在推特上透漏,GooglePhotos用于的图像分类器将一名黑人女性称作“大猩猩”(Gorillas),引发了轩然大波。事发后,谷歌为此深表歉意,并著手处置这一漏洞。不仅如此,谷歌还明确提出AI技术的研发道德准则,并且正式成立了专门的机器学习道德部门,对公司的产品和服务展开分析测试,明确提出改良意见,尽量防止AI种族主义的产生。

十分快三

不光是Google,从IBM到Airbnb,每家公司都在希望保证自己的算法会经常出现类似于的偏差。为此,今年6月,Google首席执行官SundarPichai公布了公司的七项人工智能原则,指导谷歌在这些方面的工作和研究,还包括保证Google员工会生产或强化不公平的AI种族主义,并回应AI技术的研发和用于将在未来许多年内对社会产生根本性影响:对社会有益  防止生产或强化不公平的种族主义  修建并测试其安全性  对民众负责管理  带入隐私设计原则  坚决科学卓越的高标准  为合乎这些原则的用户获取除了那次不无聊的“大猩猩”事件外,哈佛大学的研究员LatanyaSweeney回应:谷歌搜寻中不存在种族歧视,当搜寻类似于黑人名字时,不会比搜寻类似于白人名字更加有可能经常出现与“被被捕”涉及的广告。这些现象都是我们的部门正式成立的原因,不应当让我们的用户看见这些,我们必须首先制止这些种族主义的产生。

十分快三

实质上,对于AI种族主义这件事,一份来自皮尤研究中心近期发布的研究结果显示:目前美国有58%的成年人指出,人工智能的算法极为程序将不会一直包括对人类的种族主义,人工智能求出的结果无法保持中立的态度。从受调查者的年龄来看,50岁以上的受访者中,有63%的人指出算法不中立;18-29岁的受访者中,也有48%的人指出算法一定会不存在种族主义。如此显然,大众对AI种族主义这件事存在共识。

似乎,解决问题AI种族主义光靠Google一家公司还远远不够,必须有更加多的公司重新加入其中。


本文关键词:十分快三

本文来源:十分快三-www.shicai126.com

  • 首页| 关于我们| 新闻中心| 产品中心| 业绩展示| 联系我们|
  • Add:云南省西双版纳傣族自治州天峻县明计大楼70号

    Tel:0782-869762781

    滇ICP备33461553号-7 | Copyright © 十分快三|V9.0 IOS 安卓版 All Rights Reserved