AI 系统伦理道德风险之透明度验证
透明度是指让人工智能的工作原理,数据来源,决策依据和潜在影响更加清晰和可理解,以增强人们对人工智能的信任和理解。透明度是确保 AI 系统公正、可靠和负责任的重要实践之一。对于一个 AI 系统的透明度,应该从如下几个角度进行衡量:
AI 系统的目标和范围:在设计一个 AI 系统之初,就应该明确系统是用来干什么的,解决什么领域的什么问题,明确系统的干系人,在什么国家或者地域投产。这样我们就可以提前圈定需要遵从的法律、伦理道德规范,要避免什么样的风险外溢。
AI 系统的数据来源和处理逻辑:在训练 AI 系统的模型时,数据应该采用合理、合规、合法的数据,在保证数据的质量的前提下保证多样性,从而避免数据集中存在的偏见风险和歧视风险。同时数据集中的隐私问题、安全问题也是重点处理的内容。要明确清楚 AI 系统使用的数据的来源、处理方式以及数据对模型反馈的影响。
AI 系统的决策依据和潜在影响:应该熟知选择模型的是否适合当前问题的解决方案,保证 AI 系统的准确性和可靠性,避免算法引起的错误或则缺陷。应该考虑 AI 系统提供决策的依据和逻辑,并且了解决策过程的不确定性以及决策的可信度,并评价 AI 系统对于自然人的影响,这里面既包含正面的积极影响,也要包含负面的消极影响,从而可以全面评估。
在实现过程中提供可解释性模型,通过可以解释自己的决策过程和推理过程的模型提供 AI 系统的透明度,然使用者更好的理解系统的决策过程和可信赖度。同时可以通过公开数据来源、数据收集方法、数据处理方法以及数据使用方式来帮助人们了解 AI 系统的数据基础。也可以通过可视化展示 AI 系统的决策过程,帮助用户更好的理解 AI 系统的决策过程和推理逻辑,从而提高透明度。这些手段和方法都是站在 AI 系统的设计和实现角度来说明如何让一个 AI 系统有好的可信赖的透明度,那么站在测试工程师的角度应该如何评价以及验证 AI 系统的透明度呢?测试工程师应该判断 AI 系统的决策和推理过程是否清晰的、可理解的。在了解 AI 系统的目标和范围智商设计合适的测试用例,来保证被测试系统的功能以及模型分析反馈满足用户的需求。测试工程师应该同样关注训练数据的收集和处理过程是否透明,验证测试的收集过程和处理过程是否符合隐私保护和数据安全的法律法规以及相关行业要求。测试工程师同样需要关注系统的决策过程是否可视化,是否能够理解系统的决策依据和推理过程。例如要测试 ChatGPT 的透明性,需要训练数据的来源、数量、质量、隐私性、版权等问题对数据进行追溯,并且了解 GPT3.5 模型的实现原理,了解模型的优越性和局限性,然后通过连续的会话是否能够保持会话的准确、完整、一致、无偏见、无误导等属性,同时也要知道 ChatGPT 遵循了那些法律法规、规则规范等,然后功能测试过程中将如上的一些验证点植入测试用例中进行验证。关于透明度验证的一些测试用例可以参考如下的例子。
版权声明: 本文为 InfoQ 作者【陈磊@Criss】的原创文章。
原文链接:【http://xie.infoq.cn/article/374d8c938c8a08e2b51701afe】。未经作者许可,禁止转载。
评论