中科院深圳先进技术研究院牵头搞出来的这个模型,直接给咱们打开了一扇“自学”的大门。

把AFLoc的研究报告从头细读过了,感觉它的意义真是太大了。以前那种让AI靠医生手把手标注来学习的老方法,费时费力还效率低下,简直把医学影像分析给卡住了。现在中国科学院深圳先进技术研究院牵头搞出来的这个模型,直接给咱们打开了一扇“自学”的大门。这就好比学生做题不需要老师事先圈出正确答案,只需要看别人写的试卷就能弄懂是怎么回事。他们把医学影像和医生的临床报告一块喂给AI,让它自己对照着学,时间久了自然就明白哪些区域重要了。 之前让宋同舟帮忙把这篇文章过了一遍,她觉得特别兴奋。这次实验里他们拿胸部X光、眼底照片还有病理切片做了测试,结果在肺炎、胸腔积液这些34种常见病上表现特别抢眼。有些数据集上的效果甚至超过了人类专家。更让人惊喜的是,在完全没有标注数据的“零样本”测试里,它竟然还能准确定位病灶。 这种把影像和报告结合起来训练的方法真的很聪明。过去那种依赖大量“画圈”数据的方式以后可能就不香了。只要有影像和文字描述,AFLoc就能自我成长起来。以后AI在不同医院、不同设备之间通用的问题也解决了不少。 看这个数据我就觉得它对咱们普通人来说太实用了。以后看病找医生多了一层高科技辅助,准确率又能提高很多。宋同舟说他们团队接下来还要继续验证这套技术在真实诊疗环境中的表现,争取早日把它用到实际辅助诊断和疾病筛查里面去。