AI 的道德风险测试:偏见风险
AI 系统的偏见也包含不公平的一些倾向性反馈,主要是指 AI 系统提供了一些不准确的反馈,这些反馈有明显的偏见和不公平的特征。这种偏见大部分是因为训练用的数据集存在偏见性而导致的,那么除此之外还有可能受测试和评估因素、人类因素等多种原因影响,因此可以将偏见分成数据集偏见、测试和评估偏见以及人类因素偏见。
数据集偏见:这种偏见是由于数据集中存在不平衡或不完整的数据而导致的。这可能会导致模型在某些情况下表现良好,但在其他情况下表现不佳。例如一些语音识别文字过程中,使用普通话语言训练,那么很多方言判断就不会准确。
测试和评估偏见:这种偏见是由于测试和评估过程中存在缺陷而导致的。例如,测试数据可能与实际应用场景不匹配,或者评估标准可能存在主观性。
人类因素偏见:这种偏见是由于人类行为、态度或信仰等因素而导致的。例如,招聘系统可能会受到招聘经理的个人喜好影响,从而导致对某些候选人进行歧视。
在 AI 系统处理数据、生成输出或做出决策的时候,可能给出存在偏见性的反馈结果。可见 AI 系统的偏见会引起 AI 系统的反馈出现偏差,从而给出了存在不公平、歧视性的决策反馈,这些反馈就会直接影响社会造成负面的影响,尤其是随着 AI 系统逐渐的获取了人了的信任后,人类的生活、工作都过度依赖 AI 系统以后,那么这样的反馈就更加的危害公共安全。如下给出一些偏见的测试用例的示例:
那么 AI 系统的偏见风险的也不是凭空出现的,也是有一些风险来源引入的,这种风险来源包含了隐性偏见、抽样偏见、时间偏见、训练数据的过拟合以及边缘数据偏见:
隐形偏见是对一个人或一个群体的歧视或偏见,而持有偏见的人是无意识的。这种隐性偏见是非常危险的,因为持有这种偏见的人并无法意识到这种偏见的存在,所以这种偏见持有人就会觉得偏见行为是合理的、正确的。这种偏见常常表现在性别、种族、残疾、阶级、性别等方面。
抽样偏见是一个统计学问题,我们任何数据样本都是总样本的一个抽样,那么抽样样本数就可能存在着某些子集的倾斜。如例人口调查、客户访谈等等都有可能出现这个问题。
时间偏见是由于在建立模型的时候没有考虑模型随着时间的变化而导致的偏见。当建立一个机器学习模型的时候,这个模型工作的就很好,但在未来会失败,因为在建立模型时没有考虑到未来可能的变化。
训练数据的过拟合偏见是训练模型能够精确的在训练集上给出输出结果,但是在新的数据集合上却很难给出正确的结果,该模型过度拘泥于训练集,却不能再更多数据集中发挥正确的作用。
边缘数据偏见是一些边缘数据引起的偏见性问题,包含了正常基于训练集之外异常值,还包含了一些训练集中的缺失和不正确的值以及对模型造成负面影响的噪音数据。
如上这么多的偏见来源都可能导致 AI 系统的偏见风险,偏见风险还可能导致机器学习模型的不稳定性和不可靠性,从而降低其实用价值。针对训练数据进行详细的评估,通过专家组评审的方式屏蔽有隐形偏见和抽样偏见。在不同的环境中,合理划分训练集、测试集从而避免训练数据的过拟合和边远数据偏见。在模型应用模型测试和投产使用过程中定期检查模型的输出结果,从而当有一些时间偏见出现的时候,及时采取有效的防控措施。为了能够有效避免偏见风险,在 AI 系统发布之前需要进行指定的用户测试,将目标用户的一些典型代表划入用户验收的团队,进行验收测试从而能够充分的屏蔽执行验收测试的测试人自身的一些偏见性问题引起的测试结论不可信的结果。
版权声明: 本文为 InfoQ 作者【陈磊@Criss】的原创文章。
原文链接:【http://xie.infoq.cn/article/9fc56cd1c51e9dfe9ebffe1b3】。未经作者许可,禁止转载。
评论