💎一站式轻松地调用各大LLM模型接口,支持GPT4、智谱、星火、月之暗面及文生图 广告
# 模型预测精度与机器学习中的解释 > 原文: [https://machinelearningmastery.com/model-prediction-versus-interpretation-in-machine-learning/](https://machinelearningmastery.com/model-prediction-versus-interpretation-in-machine-learning/) 在他们的书 [Applied Predictive Modeling](http://www.amazon.com/dp/1461468485?tag=inspiredalgor-20) 中,Kuhn和Johnson早期就模型预测准确性与模型解释的权衡进行了评论。 对于给定的问题,清楚地了解哪个是优先级,准确性或可解释性是至关重要的,以便可以明确而不是隐式地进行这种权衡。 在这篇文章中,您将发现并考虑这一重要的权衡。 [![model accuracy](https://img.kancloud.cn/40/b1/40b198e81b38a38dba5611c30ee11f47_640x480.jpg)](https://3qeqpr26caki16dnhd19sv6by6v-wpengine.netdna-ssl.com/wp-content/uploads/2014/07/model-accuracy.jpg) 模型准确性与可解释性 摄影:Donald Hobern,保留一些权利 ## 准确性和可解释性 模型表现根据其准确性来估计,以预测事件在看不见的数据上的发生。更准确的模型被视为更有价值的模型。 模型可解释性提供了对输入和输出之间关系的深入了解。解释模型可以回答关于独立特征为什么预测依赖属性的问题。 之所以出现这个问题,是因为随着模型精度的提高,模型复杂性也会增加,但代价是可解释性。 ## 模型复杂性 准确度越高的模型可能意味着公司有更多的机会,收益,时间或金钱。并且因此优化了预测精度。 精度的优化导致以附加模型参数(以及调整那些参数所需的资源)的形式进一步增加模型的复杂性。 > “_不幸的是,最强大的预测模型通常是最不易解释的。_ “ 具有较少参数的模型更易于解释。这很直观。线性回归模型具有每个输入特征的系数和截距项。例如,您可以查看每个术语并了解它们对输出的贡献。转向逻辑回归在底层关系方面提供了更多的权力,这些关系可以以功能转换为输出为代价进行建模,现在也必须与系数一起理解。 决策树(适度大小)可能是可以理解的,袋装决策树需要不同的视角来解释预测事件发生的原因。进一步推动,将多个模型的优化混合组合成单个预测可能超出有意义或及时的解释。 ## 准确度特朗普可解释性 在他们的书中,库恩和约翰逊以牺牲解释为代价关注模型的准确性。 他们评论说: > “_只要复杂模型得到适当验证,使用为解释而不是预测表现而构建的模型可能是不合适的。_ “ 解释是模型准确性的次要因素,它们的例子包括将电子邮件区分为垃圾邮件和非垃圾邮件,以及评估房屋作为问题的例子。医学实例被触及两次,并且在两种情况下都用于捍卫绝对需要和对可解释性准确性的需求,只要模型得到适当的验证。 我敢肯定,“但我验证了我的模型”在模型做出导致生命损失的预测时,无法进行调查。然而,有人怀疑这是一个需要仔细考虑的重要问题。 ## 摘要 无论何时对问题进行建模,您都要决定模型精度和模型解释之间的权衡。 您可以在选择用于模拟问题的方法时使用这种权衡的知识,并在呈现结果时明确您的目标。