首页 >> 人工智能 >

可解释的人工智能的优点不是它们看起来的样子

2021-09-07 16:21:45 来源: 用户: 

在医疗保健 AI 能够实现从实验室到诊所的广泛转换之前,它需要克服其产生会加剧社会差异的有偏见的输出的倾向。

专家和监管机构对此达成的共识是显而易见的。

越来越多的人就治愈方法达成共识:可解释的医疗保健人工智能。

一个国际和多学科的学术团队警告说,不要那么快。

该小组在7 月 16 日发表在《科学》杂志上的一篇论文中写道,后者的共识“既夸大了要求黑盒算法可解释的好处,又低估了其缺点。”

该论文的主要作者是多伦多大学的 Boris Babic,JD、PhD(哲学)和 MSc(统计学)。资深作者是 I. Glenn Cohen,法学博士,哈佛法学院 Petrie-Flom 卫生法政策、生物技术和生物伦理学中心主任。

在充实他们的论点的过程中,作者提供了有关可解释与可解释人工智能(和机器学习)之间差异的有用入门。

他们写道,可解释的 AI/ML 是论文主旨的旁白,“使用一种易于消化的透明 ['白盒'] 功能”。

相比之下,可解释的人工智能/机器学习“找到了一个可解释的函数,它非常接近黑匣子的输出。… [T]黑匣子的不透明功能仍然是 AI/ML 决策的基础,因为它通常是最准确的。”

  免责声明:本文由用户上传,与本网站立场无关。财经信息仅供读者参考,并不构成投资建议。投资者据此操作,风险自担。 如有侵权请联系删除!

 
分享:
最新文章