体会SHAP分析局部解释在预测模型实践中的意义
体会SHAP分析局部解释在临床预测模型实践中的意义
SHAP分析对预测模型的解释被认为是预测模型构建的必要步骤之一,包括全局性解释(类似变量重要性,定量各个变量对预测结局的贡献)和局部性解释(定量各个变量对单个患者的预测结局的贡献)。预测模型构建过程中,多数情况下是使用全局性解释,用来展示出各个变量对结局贡献的排名和大小,而对局部性解释使用不多,本人一直对其的意义和使用场景缺乏直观的感受。
最近对SHAP局部解释的作用有了一点感受是在制作《精准化糖尿病对话系统-糖尿病COX预测》的过程中,这是一个临床预测模型API+LLM结合而成的对话系统,其中API返回三个结果,3年、5年糖尿病的累积风险(患病概率)和SHAP局部解释,而LLM的作用之一是对三个结果进行解释。
模型给出患病风险,是让用户对自己的健康状况有个估计,这时LLM没有发挥的空间,只能给出普遍性的建议,但是给出了SHAP的局部解释,就给出了用户当前健康数据对预测结果的贡献,LLM可以识别出患者当前出问题的数据,而告诉用户健康哪里出了问题,进一步告知用户采取什么样的措施来改善,而且对于不同的用户,就会有不同的局部解释结果,系统就会相应给出针对化的建议,这就是“精准”两个字的意思。
概括来说,LLM+预测模型API是一个比较新颖的部署形式,SHAP分析的局部解释让预测模型实现了“精准”化的预测。
模型体验地址是收录原创医学APP的appmatrix中,地址:https://appmatrix.cpolar.top/,用户名test,密码tset,更多APP请大家咨询订阅,也欢迎大家将制作优良的APP考虑部署在appmatrix中,方便交流和学习。