亚洲报业网免费收录优秀网站,为共同发展免费收录需做上本站友情链接,我们才会审核收录,不做链接提交一律不审核,为了不浪费时间:收录必看!!!

  • 收录网站:298
  • 快审网站:10
  • 待审网站:1
  • 文章:27895
当前位置:主页 > 新闻中心 > “医疗保健需要AI AI需要因果关系”

“医疗保健需要AI AI需要因果关系”

发布日期:2021-05-20 20:12:02 浏览:

医疗中的人工智能( ai )令人兴奋:谷歌人工智能正在通过糖尿病视网膜病变预测模型改进临床医生的业务流程。 的新方法是通过皮肤癌分类等任务实现专家级性能但是,机器学习( ml )和医学交叉行业的医学工作者和研究者很快指出,这些成功并不代表医学研究和临床应用带来的更细致、更不平凡的挑战。 这些ml成功的例子(特别是全深度学习)是疾病预测问题,学习模式将定义的输入映射到带标记的良好输出上善良的学习环境是医学中ai成功的地方。 数据集相对结构化、孤立,任务明确、定义明确。 尽管如此,这些行业对标准统计方法来说仍然是困难和复杂的。 ai肌肉(阅读:深度学习)比人类专家更能分析结构和模式的数据。 模型能比较有效地处理患者在6个月内达到死亡率等问题吗?。 。和其他人超过医生的能力——特别是最近的deepmind ai用于预测急性肾病的报告,症状在被医生识别之前的48小时内可以检测到致命的肾损伤

“医疗保健需要AI AI需要因果关系”

[2]

[3]

本能模型识别功能强的行业是心理学家robin hogarth所说的善良的学习环境但是,并不是所有的医学行业都这么友好。 许多医疗应用提出的问题是,增加这种治疗并有可能混合的并发症是什么? 会发生什么,如果患者拿药品y代替x呢?。 模式重复,反馈一般迅速准确。 示例域是象棋或go,片段按照具有定义规则和边界的离散序列移动。 1997年,国际象棋冠军deepblue和年alphago在这些行业占据主导地位。

“医疗保健需要AI AI需要因果关系”

[5]

[6]

霍加斯把这些行业称为邪恶。 这就是医学中棘手的现实世界问题。 规则经常不确定或不完整。 反馈一般滞后不准确。 有时没有重复模式,有时无法学习。 在最邪恶的环境中,经验会鼓励完全错误的行为。 这是一个感兴趣的例子

“医疗保健需要AI AI需要因果关系”

在报告现实世界中发生的准确错误行为时,没有那么感兴趣:在为肺炎住院的人开发风险判断模型时,接受过现实世界数据训练的模型知道哮喘患者死于肺炎的可能性很低[8]。 虽然不知道数据中心模型,但数据集有导致错误的因素:研究者将这一奇怪的结果追溯到现有政策上,其中患有肺炎的哮喘患者直接进入重症监护病房( icu ),并因接受了更积极的治疗而没有得到同样的观察力。 这个模型知道不应该向icu推荐哮喘患者!

“医疗保健需要AI AI需要因果关系”

一般来说,所学习的风险判断非常容易受到提供者实践模式的影响。 据医学因果机器学习主任研究员david sontag观察,从临床数据中学习的非结构化模型只能和医生一样好,医生可能是不可靠的新闻来源,往往会做出不好的决定[9]。 从这个意义上说,把模型称为非结构化,意味着工程师和科学家编码的决策结构不足以表示变量之间的因果关系。

“医疗保健需要AI AI需要因果关系”

胆固醇的具体因果关系

辛普森悖论的例子可以证明因果变量的医学影响,例如研究上述运动对胆固醇的影响。 悖论的特征是两个变量之间全局相关的逆转或取消,如果以第三个为条件。 在这里,运动和胆固醇的相关性在年龄方面发生了逆转。 这当然是一个明显的例子,但明确了混合在医疗中的主要因素的力量。 在因果机器学习中,通过绘制因果图或用do-calculus表达因果逻辑[10],科学家和工程师切实模拟这些变量,或做出约束所得模型力量的假设。 如果没有这些因果关系,隐藏的拥挤因素就会消除。

“医疗保健需要AI AI需要因果关系”

考虑这项关于多发性硬化症药物胆固醇调节的研究( eshagi等人[11] ) :

在这项多发性硬化症病例研究中,作者将结构方程模型应用于随机对照试验( rct )的数据,探讨了构成疗效的因果关系。 他们特别模拟胆固醇,假设中枢神经系统疾病有联想和因果作用,注意的药物作用是否会被混淆。 tl; dr结果表明,辛伐他汀有助于降低脑萎缩率和缓解残疾恶化的作用与血清胆固醇的降低无关。 根据我们的研究,结构模型可以明确疗效的统计学途径。 进展性多发性硬化症[11]等神经退行性疾病。

“医疗保健需要AI AI需要因果关系”

在神经系统疾病中,临床试验多采用与药物作用机制无直接关系的结果测定。 例如,采用简单的认识和运动判断作为阿尔茨海默病试验的临床终点。 如果不对代表病理机制的因果结构进行模型化,临床试验的结果测量就可能是微不足道或误解性的。

“医疗保健需要AI AI需要因果关系”

因果ai可能是邪恶的

saria教授工作的一个有力例子是开发具有反事实的可靠的决策支持算法[12]。 在实际上只注意到一个(或零)情景的不同情景中推断疾病过程或结果的任务是反事实推理。 决定者面临的问题是,如果我不干预,这个患者是否有可能死亡。 如果我给这个患者服用红色药片和蓝色药片怎么办? 你可能会找到预测ml模型的答案。 但是,如前面的icu示例所示,这些监控学习算法对训练数据中选择动作的策略非常敏感。 可以利用因果推理可靠地推测注意数据背后的行动和影响。 saria和同事peter schulam通过将因果推理编码到学习过程中来实现这个目标(更具体地说,将问题编码到潜在的结果框架中从注意数据中得出因果推断,训练逆事实学习目标)。 详情请参照论文[12]。 结果得到了利用因果推理工具开发的更安全、更可靠的决策支持系统。

“医疗保健需要AI AI需要因果关系”

图灵研究所的mihaela van der schaar教授团队[13]在这个方向上做了越来越多的伟大工作。 重要的是,她的实验室工作不仅仅是开发医学数据的新人工智能技术:开发ml系统整合到临床工作流程中,优先处理现实世界的痛点,强调可以说明的医学(即ai的实施挑战) [14]。 。

“医疗保健需要AI AI需要因果关系”

拥抱机器

除了分解临床试验和加强医生的业务流程外,人工智能工程师和科学家的推进目标之一是为医疗保健带来变革性的技术——计算机模拟。 在临床试验的安慰剂不能随机化、不现实或不道德的情况下,现实世界的数据和正确的计算工具的结合有助于判断新的治疗方法[15]。 直接从FDA获取[16] :

“医疗保健需要AI AI需要因果关系”

用适当的方法分析rwd (现实世界数据)可能会提供类似的新闻,这些新闻是在以前流传的临床试验中收集的,与分解的新闻相比具有明显的特点。

什么是正确的计算工具和正确的方法? rct (尽管有缺陷[17] )由于科学严谨,被认为是判断新医学疗法性能的黄金标准。 要替换rct,必须维持或超越严格的ai平台。 描述临床数据和现实数据背后因果关系的模型和算法用透明的方法解释原因。 因果机器学习的进步提供了在计算机范围内完全进行的实验。

“医疗保健需要AI AI需要因果关系”

如果能编成法典传播到计算机上,他们会做得更好。

加里卡斯帕罗夫

国际象棋大师卡斯帕罗夫( kasparov )因倒向ibm的deepblue而闻名,他提到了人工智能超越国际象棋和游戏的能力。 事实上,医疗生态系统正在融入人工智能的能力,而机器学习科学家必须用因果语言进行编纂,以免医学上的邪恶问题得到处理。

免责声明:亚洲报业网是一个完全人工审核编辑的开放式分类目录网站,本篇文章是在网络上转载的,本站不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系btr2031@163.com,本站将予以删除。