> 自媒体 > AI人工智能 > 求医3年无果,ChatGPT诊断出4岁男孩病因,大模型开始入局医疗
求医3年无果,ChatGPT诊断出4岁男孩病因,大模型开始入局医疗
来源:36氪
2023-09-21
266
管理

文|周愚

编辑|邓咏仪 尚恩

ChatGPT又立大功了!

据外媒Today报道,一位母亲考特尼病急乱投医,向ChatGPT分享了儿子亚历克斯症状的有关信息后,意外之喜出现了——ChatGPT精准地发现孩子可能罹患脊髓栓系综合征。

而在这之前,考特尼已经带着亚历克斯四处求医三年,陆续问诊了17名医生,他们分别来自牙科、儿科、耳鼻喉、成人内科、肌肉骨骼等各个科室,却始终查不出孩子的病因。

图源:X(推特)

更有网友补充道,意义不止于此——这对罕见病、疑难杂症很有帮助。

图源:X(推特)

当然,一些网友谨慎的质疑也不无道理:“如果没有人类专家的交叉确认,我们要如何确定ChatGPT的诊断是正确的?”

图源:X(推特)

不过,用大模型看病早已不是什么个例。今年以来,大语言模型的概念持续走高,国内外科技巨头们也纷纷将大模型运用于“AI 医疗”之中。

“百模大战”之下,医疗大模型也正热闹。

科技巨头涌入医疗大模型

这无疑是振奋人心的消息。此前的“AI 医疗”大多落地在医疗影像领域,但随着大语言模型的技术突破,临床中产生的巨量繁杂的医疗数据也有了用武之地。ChatGPT等大模型拥有更全面的知识体系,可以帮助发现许多人类医生忽略的细节。

据不完全统计,国内外如谷歌、英伟达、亚马逊、腾讯、百度、京东等科技巨头,都已经率先开始了医疗大模型的布局。

据悉,今年4月以来,谷歌就已经开始在美国一些顶尖私立医院实测其第二代医疗大模型——Med-PaLM 2。该模型由DeepMind的医疗健康团队,基于PaLM 2微调得来,使用者可以直接输入一张X光片,Med-PaLM 2就会对患者的病情进行诊断和分析。

图源:Google Research

与此同时,该模型也成为了在美国医疗执照考试中达到专家水平的首个大模型。根据一份内部邮件,谷歌认为Med-PaLM 2在“就医渠道较为有限”的国家尤其有用。

谷歌官网介绍,在一组对照实验中,Med-PaLM 2的答案甚至在九项指标中的八项都要优于医生给出的答案。

图源:Google Research

另外,英伟达早在2021年就开始与Schrodinger战略合作,试图提升其计算平台的速度和精确度,加速开发新的治疗方法。2个月前,英伟达又投资5000万美元,推进生物和化学领域AI基础模型的开发训练。

放眼国内,医疗大模型的商业化探索也正如火如荼地展开。

9月8日,腾讯健康对外公布了其医疗大模型,产品矩阵包括智能问答、家庭医生助手、数智医疗影像平台等多个应用场景 AI 产品矩阵。而早在2020年7月,腾讯自主研发的首个AI驱动的药物发现平台云深智药(iDrug)就正式对外发布。

图源:腾讯AI Lab-iDrug

今年7月,科大讯飞、京东等公司也动作频频。科大讯飞表示,“讯飞医疗”基于星火认知大模型,全面升级了医疗诊后康复管理平台,要将“专业的诊后管理和康复指导延伸到院外”。

京东健康也于7月13日,对外发布了“京医千询”医疗大模型,为远程医疗服务提供技术底座。

纵观各家企业的医疗大模型布局,我们也不难发现,大模型已经深入了医疗领域的各个角落,除了AI问诊,大模型在医疗影像、临床决策辅助、医院管理、药物研发等不同应用场景还有“一百种可能”。

大模型的出现,似乎也成为了某些“AI 医疗”应用场景的救命稻草。

当国内AI制药融资金额在2022年腰斩,财报开始露出难色时,ChatGPT为代表的大模型,似乎又给这个行业带来了新的躁动,智能涌现此前也对AI制药有过分析。

AI幻觉、数据隐私,还是老大难

一面是头部公司积极布局,开始商业化探索;但另一面,以世界卫生组织为代表的许多社会组织和个人,也在积极呼吁,对AI医疗服务采取”非常谨慎”的态度。

今年5月,世界卫生组织就在声明中强调:“仓促采用未经检验的AI系统可能会导致医务人员的错误,对患者造成伤害,损害人们对人工智能的信任,进而可能影响(或延迟)AI技术在全球的长期惠益何应用。”

图源:世卫组织

对于大模型在医疗领域的质疑,首先是可靠性的问题。任何医疗行为都直接关乎于人的生命安全,因此必须确保AI所提供的信息是准确且安全的,容错率更低。

然而,截止目前,AI显然做不到这一点。在与ChatGPT等大模型交流时,AI幻觉仍然时有发生。例如,在向ChatGPT提问有关流感的问题时,它可能会给出几篇标题听起来真实,但实际并不存在的论文。

这显然是不可接受的。毕竟,谁也不想过去的“网上问病,癌症起步”再次上演。尽管ChatGPT等大模型拥有巨量的知识,可能不像人类医生一样存在盲点,但目前来看,大模型也只能成为医生和临床诊断的助手,而不是替代医生。

美国医学协会主席杰西·埃伦菲尔德在回应媒体采访时,就强调说:“正如我们要求证明新药和生物制剂是安全有效的一样,我们也必须确保AI医疗保健应用的安全性和有效性。”

除此之外,由于医疗信息自身的敏感性,数据安全与隐私这个老问题,医疗大模型依然逃不开。

有别于通用大模型基于海量互联网来训练的方式,医疗大模型所需的数据大多是私有且涉及个人隐私的。

要想保障训练数据安全,目前主要的应对方法是通过技术手段进行加密处理,将医疗数据加密处理后上传大模型,再将结果解密传回。

但这也有个问题,就是如果管理规范不完善,也可能导致加密数据被非法使用或泄露。

长按添加「智涌」小助手入群,添加请备注:公司 职务

0
点赞
赏钱
0
收藏
免责声明:本文仅代表作者个人观点,与华威派无关。其原创性以及文中陈述文字和内容未经本网证实,对本文以及其中全部或者 部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
凡本网注明 “来源:XXX(非华威派)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对 其真实性负责。
如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。
QQ:2443165046 邮箱:info@goodmaoning.com
关于作者
重新开始(普通会员)
点击领取今天的签到奖励!
签到排行
0
0
分享
请选择要切换的马甲:

个人中心

每日签到

我的消息

内容搜索