写点什么

避免人工智能存在“歧视”,要从这 8 大方法入手

用户头像
澳鹏Appen
关注
发布于: 2021 年 04 月 14 日
避免人工智能存在“歧视”,要从这8大方法入手

想必你听过很多关于人工智能出现的“歧视”案例、例如:人工智能把一个过马路的婴儿推车识别成危险交通工具、人脸识别软件无法识别出有色人种、人工智能只筛选男性的简历等等。机器与人类不同,算法没法撒谎,如果真的存在“歧视”,就会归因于训练模型的数据。由数据驱动的模型如何避免偏见渗入是人工智能面临的一大挑战。

克服与避免 AI 偏见的八大方法


AI 中的算法偏见是一个普遍存在的问题,它虽然不可能完全消除,但却可以通过科学的方法积极地避免这种偏见。我们将在本文中围绕如何应对 AI 中的偏见问题展开深入的讨论。如何避免 AI 中的偏见,我们首先要了解用于训练和开发机器模型的“训练数据”。


在我们发布的 2020 年 AI 与机器学习现状报告中,只有 15% 的公司表示 AI 的数据多样性、减少偏见和全球规模“不重要”。尽管这一结果已经非常不错,但仍然有 24% 的公司认为无偏见、多样化的全球性 AI 至关重要。这意味着许多公司仍需要努力克服 AI 偏见,这不仅有助于推动 AI 项目的成功,也有助于 AI 的全球化。


算法的作用是在存在人为偏见时予以干预,因此通常被认为是无偏见的。尤为重要一点是,这些模型是由人类编写的,而且通过由人机交互的体验生成大量的数据进行了训练。这就带来了向模型中引人类偏见的风险,进而导致 AI 无法真正为每个人带来价值。

想要智胜 AI 赛道,企业都需要知道如何减少 AI 偏见,并直接从训练数据的验证和测试着手。为了最大程度地减少偏见,应运用统计信息和数据探索来监控异常值。基本上来说,我们可以通过比较和验证不同训练数据样本的代表性来减少和避免 AI 偏见。如果没有这种偏见管理,任何 AI 计划都将遭遇夭折。

减少 AI 偏见的八个步骤


  1. 定义并缩小企业要解决的业务问题尝试解决过多问题通常意味着需要使用大量无法管理的类别所涵盖的大量标签。首先,缩小范围后定义问题有利于确保模型能够在真实场景应用中表现良好。

  2. 对数据采集进行结构化处理,允许有不同的意见单个数据点通常会有多个有效的意见或标签。收集这些意见并考虑合法的(通常是主观的)分歧会使模型表现更具包容性。

  3. 了解使用的训练数据研究数据集和商业数据集都会存在可能将偏见引入到算法之中的类别和标签。企业对数据的了解和拥有程度越高,出现令人反感的标签的可能性就越低。

  4. 组建一支多样化的机器学习团队,让他们提出各种问题“一千个读者就有一千个哈姆雷特”。同一工作场所,不同的人会有不同的经验和见解。种族、性别、年龄、经历、文化等背景因素不同的人,肯定会提出不同的问题,而且会以不同的方式与模型进行交互。这种提问有助于模型在投入生产之前就发现问题。

  5. 考虑所有终端用户同样,请记住一点:终端用户总是会千人千面。通过学习去预测不喜欢你的人如何与你的技术交互,以及在交互时可能出现的问题来避免 AI 偏见。

    确保标注多样性采用的人工标注员覆盖越广泛,收集到的观点就越多样化。这可以切实帮助项目减少冷启动以及后续训练模型时会出现的偏见。

  6. 进行测试和部署并总结反馈意见在整个生命周期中,模型很少是静态的。一个常见但比较严重的错误就是在部署模型时,终端用户无法向你提供有关模型在现实世界中应用情况的反馈。因此,应开放讨论和论坛,以获取反馈意见,这将有助于继续确保模型能够真正地为每个人带来价值。

  7. 制定具体的计划,以利用此类反馈意见来改善模型不仅要不断评估客户反馈意见来验证和检查模型,还需要第三方来审核变更、边缘案例、可能遗漏的偏见等等。要确保获得有关模型的各方反馈意见和团队本身得出的结论,以不断改善模型性能、进行定期迭代,从而不断提高模型的准确度。

发布于: 2021 年 04 月 14 日阅读数: 60
用户头像

澳鹏Appen

关注

还未添加个人签名 2021.03.15 加入

高质量的AI训练数据服务商

评论

发布
暂无评论
避免人工智能存在“歧视”,要从这8大方法入手