最近,人工智能辅助诊疗这个事儿可真是闹得沸沸扬扬。数字技术发展得这么快,人工智能在医疗健康领域的应用也越来越广泛,给大伙儿获取健康信息提供了新的路子。不过,最近发生的一起用药安全事件,可给这快速发展的领域敲响了警钟,也逼着业界和社会好好琢磨琢磨,怎么在技术创新和安全保障之间找个平衡点。 听说有个人为了图方便,直接用了人工智能工具去咨询口周疱疹的问题。结果他按提示买了伐昔洛韦来吃。后来他觉得还有点感冒症状,就自己又加了感冒药吃,最后直接进医院了,被诊断出了急性肾衰竭。医生分析了一下原因,这事儿挺复杂的。 主要原因是他吃的那个进口药物单粒剂量挺高的,而人工智能给的建议没说清楚具体剂量单位和不同剂型的差别;另外那个工具也没提醒他感冒药和抗病毒药一起吃可能伤肾。好在医院抢救及时,这个人转危为安了。 这事儿说明人工智能在医疗上还是有不少问题的。 首先就是大家的认知和使用习惯有问题。很多人觉得用了人工智能工具就省心了,觉得“技术”可以替代“专业”,特别是自己觉得不是啥大病的时候。其实医学核心环节的很多东西像体察、问诊、病史追溯这些,目前人工智能还是干不了的。大家要是把辅助信息当诊断了还自己瞎判断用药,那可真有危险。 还有就是现在这些工具本身也有缺陷。这次事件就暴露了信息精准度和风险预警不够的问题。比如它没给你标注清楚药品具体是多大规格的剂量,更别提不同牌子的差别了;也没考虑你自己的体重和肝肾功能怎么样,更别提告诉你别和其他药一起吃了。 第三就是责任和权益这块还没理清楚呢。如果出了坏事儿到底谁负责?是做技术的平台还是我们自己?法律上还没完全弄清楚呢。很多平台都写了“仅供参考”来免责。 虽然有这么多问题但咱也不能因噎废食啊!毕竟这技术还是能帮医生提高效率、让信息更普及的。关键就是怎么让人和机器好好合作。 对咱们普通老百姓来说得树立正确观念:这玩意儿只能帮你了解点常识不能当医生看诊用啊!吃药之前一定要看说明书对剂量和禁忌那些信息仔细核对才行。 对做技术的那些公司来说得把安全和伦理放第一位。设计产品的时候必须加上风险防控措施;给用药建议的时候必须查权威的数据库;对于特殊人群或者几种药一起吃的风险得加个醒目的警示标志才行。 监管部门那边也得跟上脚步制定规范和标准了。 咱们要清楚医学这东西本来就挺复杂的生命多变情况多样光靠技术模型是不行的。 所以说人工智能在医疗领域的价值是赋能而不是替代医生的判断。 想让它真正造福于民咱们就得一步步来:提升技术水平、提高大家的科学素养、让平台负起责来、完善监管框架。 这样才能守护好大家的健康安全!