原创 GlobalMD 全球医生组织 2023-08-28 07:20 发表于北京
随着ChatGPT知名度增高,不少AI企业开发医疗聊天机器人系统,希望能为患者答疑解惑,特别是癌症患者。但聊天机器人给出的建议可信吗?最新研究报告给出了合理的评估。值得关注。
阅读文摘
最新研究论文评估了聊天机器人ChatGPT对癌症疾病的各种问题回答及其质量。专家认为“ChatGPT和其他聊天机器人软件并不总是给出准确或正确信息,尤其是癌病诊疗方面”。
当然,客观评价ChatGPT需要理解其好处和优势,比如,ChatGPT提供的有关癌症信息中,三分之二与美国国家癌症综合网络上公布的临床指南精准匹配。不好的一面是“有些建议显然完全不正确”。
在分析聊天机器人为什么给出不正确建议时,其中回答内容很微妙。例如,治疗方案仅仅是部分,而不是全部,比如建议单独手术,而标准治疗包括放疗和/或化疗联合治疗。
专家们担心那些“不正确信息与正确信息混合在一起,可能让部分医生也感到困惑,难以鉴别错误建议而认可聊天机器人的内容”。
当然,AI辅助精准诊断和治疗方面也有乐观和成功案例。比如,研究人员分别测试了四种不同的聊天机器人服务,即ChatGPT、Perplexity、Chatsonic和Bing。给它们同样的问题并讨论有关皮肤癌、肺癌、乳腺癌、前列腺癌和/或结肠癌。研究人员发现这些聊天机器人回复答案的质量和准确性“良好”。
关键问题是许多用户感觉聊天机器人生成的答案,不太好理解或不切实际,或两者兼而有之。
这说明聊天机器人回答的信息尽管准确,但并非一般人能理解。因为聊天机器人提供的信息是大学阅读水平,而普通民众对于医学专业知识的阅读水平仅为小学六年级。
在免责问题上,所有聊天机器人都会告知用户‘咨询您的医生,聊天机器人不能替代医生交流”。值得业界人士关注详情。
在ChatGPT和医生建议相互矛盾时,患者应当如何做?
相关文章
猜你喜欢