医学的目标是拯救生命AI的目标之一则是发现错误

 新闻资讯     |      2024-02-01 08:07

  医学的目标是拯救生命AI的目标之一则是发现错误很多人争论AI机器人能否像人类医生那样精准诊疗疾病?事实上,最有经验的医生也会出错,甚至误诊。美国医学科学院刊文“是人就可能出错儿”。如此看来,把AI用于监测人类医生的失误或提醒偏见?患者是否更有获益,医疗服务更有价值?关注详情。

  主题:医院如何建立就诊“AI窗口”—聊天机器人ChatGPT多模态辅助患者咨询就诊和慢病管理

  案例一家三甲医院每天门诊量至少1万人,其中10%患者因各种原因,挂错了科室或专科,这意识着至少1000人+在门诊大厅或候诊室无效等待。如何避免这类错误,让患者精准预约就诊?各级医院如何把“互联网窗口”升级为“AI窗口”,辅助患者就诊和慢病管理。

  多模态聊天机器人还有哪些功用?解决医患刚需?能否发现医生误诊?降低医护人员工作压力,提高就诊效率和医疗效果。报名微信:GlobalMD2020

  美国加州大学研究人员发表最新观点:指出目前医疗领域应用的AI产品,并没有经过广泛评估和审批流程。此观点再次引发了针对AI软件或聊天机器人ChatGPT在临床上应用的效果,特别是患者获益和医疗结果的评估。

  该团队评论AI技术监管策略的行政命令,认为该策略旨在监管医疗服务中AI技术的应用,保障公平性、安全性、隐私保护和质量等要求。

  但该行政策略没有提及患者疾病的治疗效果,这恰恰是判断医疗技术和产品是否可以进入临床应用的金标准和评估指标。

  研究人员举例说明,以AI驱动的败血症早期预警系统为例。AI系统未能识别部分败血症患者,显示了目前AI监管法规中对治疗结果优先级的不足重视。研究人员呼吁修改该行政命令,提出应当优先考虑患者的治疗结果。

  研究团队还举例了另一项研究结果,关于应用ChatGPT聊天机器人交流患者咨询问题的研究。这是一个以患者结果为中心的目标评估案例。这种研究通过对比标准应答和AI机器人系统的应答,发现在某些患者群体中,如心衰患者,患者应用AI的使用率存在差异。

  该研究团队的观点是,针对AI医疗监管策略,现有的监管条例和行政命令把以患者结果为中心的规则“遗漏”了。而医学的目标是拯救生命,是 以患者结果为中心的实践,AI技术应当真正改善就医结果和生活质量。