Page 1 of 1

可解释性和透明度

Posted: Sat Feb 22, 2025 6:37 am
by asimj1
从高层次上讲,这些技术可以根据它们应用的机器学习流程阶段进行分类:

预处理
在处理中
后期处理
预处理 缓解发生在 任何建模之前,直接针对训练数据进行。处理中技术与建模过程(即训练)期间采取的行动有关。最后,后处理 技术发生在建模过程之后,并对模型预测进行操作以缓解偏差。

所有数据科学从业者都曾参加过这样的会议,在试图解释 喀麦隆电话号码数据 模型的内部工作原理或模型的预测时,他们措手不及。从经验来看,我知道这不是一种愉快的感觉,但那些利益相关者说得有道理。对道德的信任还意味着能够尽可能好地解释或解释模型及其结果。

在选择将哪种模型投入生产时,可解释性应该是讨论的一部分。选择一个更易于解释的模型是建立模型与所有利益相关者之间融洽关系的好方法。某些模型比其他模型更容易解释和透明——例如,使用系数的模型(即线性回归)或基于树的模型(即随机森林)。这些与深度学习模型非常不同,后者的直观性要差得多。问题是,我们是否应该为一个我们可以解释的模型牺牲一点模型性能?

在模型预测层面,我们可以利用以下解释技术 XEMP 或 SHAP 了解为什么某个预测会被赋予有利或不利的结果。这两种方法都能够显示哪些特征对单个预测的贡献最大(无论是负面的还是正面的)。

在本系列中,我们介绍了 AI 信任的三大支柱:性能、操作和道德。每个支柱在 AI 项目的生命周期中都发挥着重要作用。虽然我们在不同的文章中介绍了它们,但为了完全信任 AI 系统,支柱之间没有任何权衡。实施值得信赖的 AI 需要各个层面的认同,并致力于每个支柱。这不是一段轻松的旅程,但如果我们想确保最大利益并最大限度地减少通过 AI 造成危害的可能性,这是必要的。