我们能够理解深度神经网络吗?
标签:
字号:A-A+
摘要:举个例子,机器学习研究者 Rich Caruana 和他的同事最近报道了一个事件。匹兹堡大学医学中心有一个团队在用机器学习预测肺炎患者会不会发展出严重的并发症。他们的目标是把那些低

举个例子,机器学习研究者 Rich Caruana 和他的同事最近报道了一个事件。匹兹堡大学医学中心有一个团队在用机器学习预测肺炎患者会不会发展出严重的并发症。他们的目标是把那些低并发症风险的病人送到门诊病房,以节省医院床位并减轻医务人员负担。这个团队尝试了好几种不同的方法,包括很多种神经元网络,以及能产生清晰可读的规则的软件生成的决策树。

他们的神经网络比其他任何方法得到正确结论的次数都更多。但当这些研究人员和医生查看那些人类可读的规则时,他们发现了这样的描述:有一条规则指示医生把有哮喘的肺炎患者送回家,但谁都知道哮喘患者是很容易患并发症的。

 

这个模型所做的只是人类分配给它的任务:找出一个数据中存在的准确模式。它给出的糟糕建议是数据中的漏洞所致。因为医院的政策是把所有患哮喘的肺炎病人送入重症监护,而正因为这个政策的良好成效,几乎所有哮喘患者都不会患上并发症。如果没有改变了医院患者纪录的额外加护工作,结果会与现在有很大不同。

 

这则医院轶事说明了可解释性(interpretability)的实际价值所在。Caruana 及同事写道:「如果那个基于规则的系统 (rule-based system)能知道哮喘降低了风险,神经网络当然也会学习到这一点。」但是神经网络并不能被人类理解,而且它对于哮喘患者得出的怪异结论的原因也难以确认。如果不是有那个可解释的模型,Malioutov 警告说:「你可能真会害死人。」
文章来源:澳门新葡京官网=http://www.lncygg.com/xinpujing/

作者:admin 来源:未知 发布于2016-09-16 16:47
本文版权归原作者所有 转载请注明出处 收藏:
您可能喜欢的文章
热门阅读