密歇根大学的ai 模型,专门用来“秒懂”脑部mri 片子,帮忙把急需治疗的病人给标记出来。

大家都知道,脑部磁共振成像(MRI)用得越来越多,放射科医生忙得团团转,压力特别大。密歇根大学的科学家Todd Hollon博士带着团队,就想给这一行帮把手。他们搞了个叫Prima的AI模型,专门用来“秒懂”脑部MRI片子,帮忙把急需治疗的病人给标记出来。 要训练出这么厉害的模型,光靠普通数据可不行。团队把密歇根大学卫生中心的22万份数字化放射科记录拿来喂它,还用了一年时间,拿着29431次实际检查的数据去评估它的表现。结果发表在了《自然·生物医学工程》这本顶级杂志上。他们发现现在的需求增长太快,很多地区根本处理不过来,这让临床医生很头疼。 Prima这个模型的设计思路就是要处理真实的临床案例和报告,用来辅助日常诊断工作。Todd Hollon在文章里说,“AI模型有潜力通过提供快速、准确的信息来改善诊断和治疗,从而减轻医生和卫生系统的负担。” 论文里提到了一个叫AUC(曲线下面积)的指标来衡量诊断准确性。结果显示,Prima在52项常见的神经系统疾病诊断中表现出色,平均准确率达到了92%,比市面上的其他AI系统都要好用。它不光能分类诊断出问题出在哪,还能把可疑的病例拉出来让医生优先处理,甚至给出转诊建议。 这种视觉语言基础模型属于多模态AI系统,能从图像和文字里学习。它用的是分层视觉transformer架构,通过对比目标进行预训练,把三维的MRI影像和放射科报告对齐起来。MRI片子会被切成小块,用矢量量化变分自编码器变成一串代码(tokens),这些代码再通过序列和研究级别的transformer组合起来,生成整个检查的全貌。 接下来是迁移学习阶段:预训练的那部分组件先不动,在学习到的特征上训练一个小的前馈网络,专门用来预测具体的诊断结果和临床结局。为了把数据集做好,团队在服务器上把所有带报告的颅脑MRI都查了一遍。 经过筛选和过滤后,终于攒出了一个叫UM-220K的数据集,里面有221147项研究和560万个成像序列。为了让模型更好地学习,他们还用大语言模型(LLM)去总结放射科报告并提取结构化的信息。结果发现,模型用LLM生成的总结去做对比预训练和用人写的总结去做效果差不多。 此外他们还考虑了公平性问题:在年龄、性别、种族这些方面交叉分析发现性能变化很小;等化几率分析也表明不同人群之间真阳性和假阳性率的差异有限。未来Prima可能会加入更多患者信息和电子病历数据来提升精度;也可能用在乳腺X光或超声检查上。 Hollon打了个比方说:“就像AI工具能帮人起草邮件或给建议一样,Prima就是个解读医学影像的数字助理。”他相信这种把卫生系统和AI驱动模型结合起来的方式能带来创新,改善整个医疗保健水平。