艾伦·莫泽斯 新研究发现,人工智能可能并不总是最准确的健康信息来源,尤其是在癌症护理方面。 两项新研究评估了人工智能聊天机器人对各种癌症护理问题的回答质量。 其中一篇于 8 月 24 日发表在《JAMA Oncology》杂志上,重点关注名为 ChatGPT 的全句对话式人工智能服务,该服务于去年 11 月大张旗鼓地推出。 好处是:ChatGPT 提供的大约三分之二的癌症信息与美国国家综合癌症网络的当前指南准确匹配。 缺点:其余的没有。 “一些建议显然是完全错误的,”该研究的作者丹妮尔·比特曼博士说,她是布莱根妇女医院/达纳法伯癌症研究所和波士顿哈佛医学院的放射肿瘤学助理教授。“例如,对于无法治愈的诊断建议进行治愈性治疗的情况。” 比特曼说,其他时候,错误的建议更为微妙,例如,包括治疗方案的某些部分,但不是全部,例如当标准治疗还包括放疗和/或化疗时,建议仅进行手术。 她说,考虑到“错误信息与正确信息混合在一起的程度,这使得即使对于专家来说也很难发现错误”,这令人担忧。 同一期期刊上的第二项研究对人工智能的准确性进行了更为乐观的评估。 在这种情况下,调查人员查看了四种不同聊天机器人服务的答案:ChatGPT、Perplexity、Chatsonic 和微软的 Bing。每个人都被提示讨论皮肤癌、肺癌、乳腺癌、前列腺癌和/或结肠癌。 研究人员将回答的质量和准确性评为“良好”。 但是,他们表示,这并不一定意味着患者会发现人工智能体验有用。这是因为所提供的大部分信息对于大多数医疗非专业人士来说过于复杂。 与此同时,所有回复都附带一个全面警告,即患者在未先咨询医生的情况下不应根据所提供的数据做出任何医疗保健决定。 关键要点:许多人工智能用户可能会发现聊天机器人生成的医疗信息难以理解、不切实际或两者兼而有之。 “结果令人鼓舞,因为几乎没有错误信息,因为这是我们最关心的问题,”研究作者、纽约市南布鲁克林健康中心泌尿科主任阿卜多·卡巴里蒂博士说。 “但很多信息虽然准确,但并不通俗易懂,”他补充道。 卡巴里蒂说,基本上,聊天机器人提供的信息达到大学阅读水平,而普通消费者的阅读水平约为六年级。 卡巴里蒂的团队收到的人工智能信息“远远超出了这个范围”。 卡巴里蒂说,另一个可能让许多患者感到沮丧的因素是,人工智能不会告诉你如何处理它概述的癌症症状。 “它只会说‘咨询你的医生’,”他说。“也许存在责任问题。但关键是人工智能聊天并不能取代患者与医生之间的互动。” 加州大学健康系统首席数据科学家 Atul Butte 博士撰写了一篇随附的社论。 尽管这两项研究都引起了担忧,但他认为人工智能对于患者和整个医学界来说是“巨大的净增值”。 巴特说:“我相信杯子已经满了一半以上。”他指出,随着时间的推移,聊天机器人提供的信息将不可避免地变得越来越准确和易于访问。 巴特说,一些研究已经表明,人工智能有潜力提供比医疗专业人员更好的建议,甚至更多的同理心。 他的看法是:随着时间的推移,人工智能聊天机器人将在提供医疗信息和护理方面发挥越来越重要的作用。巴特预测,对于许多患者来说,好处将是切实可见的。 他指出,很少有患者有资源或特权去世界上最好的医疗中心。 “但是想象一下,如果我们能够根据来自这些顶级机构的数据和实践来训练人工智能,然后通过世界各地的数字工具将这些知识传递给世界各地,”无论是通过应用程序向患者提供,还是通过电子健康记录系统向医生提供,巴特说。 “这就是为什么我开始将人工智能称为‘可扩展的特权’,”他补充道。“[这是]我们扩大特权医疗服务的最佳方式,[只有]一些人才能向所有人提供这种服务。” (责任编辑:泉水) |