设想一下您尝试使用 Alexa 但却无法听到她的声音。或者获知明明您的健康状况更差,但却因为您的肤色不同,算法让其他人先于您接受医院治疗。
作为一个行业,人工智能 (AI) 带来的可能性常常使我们渴望创造新的应用,以至于我们有时会忘记考虑所有将从中受益的人。或者那些由于我们用于构建应用的数据中未考虑多元、平等和包容 (DEI) 原则而将被排除在外的人。
您输入的数据有多好,AI 就有多好。 最近,一项研究显示,人脸识别可以 99% 的准确度识别白种男性,但是对于有色人种女性,准确率则下降至 35%。为什么? 因为在设计阶段进行测试用例时未考虑该人群。
在奥克兰,软件的试行是为了预测高犯罪率地区。但结果表明,该算法实际上追踪的是少数族裔占比较高的地区,而没有考虑犯罪率。
这些是被技术放大的简单明了的不公平示例。
在 AI 和软件设计中,我们务必要在创新时考虑到每一个人。否则,我们就会成为造成持续和有害刻板印象的罪魁祸首,即便这并非我们的本意。作为结果,我们会错失 AI 可为我们日常生活带来的额外益处,并且会阻碍此项技术的真正潜力。
在美光,我们对此问题进行了深思熟虑。去年,Micron Gives 宣布了我们的“Advancing Curiosity”(增强求知欲)捐款项目,为部分专注于利用 AI 为社会带来福祉的出色大学研究团体和非营利组织提供了 100 万美元。
这一承诺包括支持 UCLA 项目(该项目旨在识别和打击 AI 领域中的偏见)和促进机器学习的透明度(通过制定具有强劲计算力的方法来帮助识别偏见)。为了促进提升 AI 领域的多元化,我们还为 AI4All 及其夏令营提供支持。AI4All 及其夏令营侧重于促进对这些领域的兴趣,尤其是弱势群体。
它超越了种族和性别;我们必须全面看待多元化。几乎所有的 AI 助手都是基于语音的,而听障或失聪人士由于无法使用语音功能而无法使用这些工具。“Advancing Curiosity”(增强求知欲)捐款项目正在与罗切斯特理工学院一起开发备选的 AI 辅助技术,从而在设计阶段就将听障用户纳入考虑范围。此举可确保该解决方案真的对用户卓有成效。
显然,为了给 AI 提供优质数据,开发这些项目的人群和机构组合必须反映我们的现实世界。如果我们看到美国人口中有 7% 的人是残障人士,那么工作场所中也应反映这一比例。这就是如何通过那些在应用程序的设计与开发过程中献言献策者的多元化和包容性来获得有价值的 AI。
但是您还需要考虑想法的多元化。同样重要的是要有一个包容的环境,让每个人都能够自在地分享想法。如果有多元化团队,但团队成员却不献言献策,那么这种多元化便没有价值。
如今,我们处在一个拐点,有大量的 AI 数据集围绕我们而构建。我们必须思考我们的数据,看看我们的数据是否完全代表着我们想服务和帮助的人群。为此,我们必须营造这样的工作场所:优秀的解决方案、卓越的创新和出色的想法都脱颖而出——无论这些想法来自哪里。
我所在的团队专注于打造多元、平等和包容的团队,对此我感到十分振奋。我们绝非完美,但我认为我们有意志和动力,并且我们认识到 DEI 为我们的文化、创新和竞争力所带来的价值。 详细了解美光为促进多元、平等和包容所做的努力,并阅读我们最新的 DEI 报告。