问题浮现 2026年3月,谷歌在未发布专项声明的情况下,关闭了上线仅一年的移动端医疗建议聚合功能。该工具通过算法抓取Reddit等社交平台用户分享的疾病应对经验,为搜索涉及的症状的用户提供"相似病例参考"。虽然前首席健康官凯伦·德萨尔沃曾强调"患者共鸣"的价值,但实际运行中,系统将未经专业核实的网络讨论直接呈现给患者,引发医学界强烈质疑。英国肝脏信托基金等机构警告,这种做法可能误导患者做出危险的健康决策。 争议核心 专业医疗人士指出三个关键问题:首先,相同症状在不同体质人群中可能需要不同的治疗方案;其次,网络讨论缺乏专业医学验证;再者,算法无法识别虚假或过时信息。今年1月谷歌已对AI健康摘要功能进行内容限制,移除部分医学术语检索结果,显示其内部正在重新评估医疗信息管理标准。 战略转向 新任首席健康官迈克尔·豪厄尔博士的上任标志着战略调整。这位拥有哈佛医学院背景的专家履新后,迅速推动1000万美元临床医生AI培训计划,并开发连接电子病历的智能穿戴设备功能。分析认为,谷歌正从"信息聚合"转向"专业协同"模式,更强调AI在辅助诊断、治疗跟踪等场景的应用。 行业启示 此次事件反映了科技与医疗行业的本质差异:前者追求快速迭代,后者恪守"不伤害"原则。虽然谷歌仍坚持AI医疗愿景,但调整表明,健康领域的技术应用必须建立三重保障:严格的信息筛选机制、符合循证医学的输出标准、明确的风险提示制度。不容忽视的是,该公司未正面回应质疑的沟通方式,也引发对其医疗产品透明度的讨论。 发展前瞻 业内专家预测,医疗AI将呈现两大趋势:一是强化与专业机构的合作,如梅奥诊所与数字企业的联合研发模式;二是细分场景深化,在医学影像分析、慢性病管理等标准化领域优先突破。谷歌事件为行业提供重要警示:在生命健康领域,技术创新必须让位于安全伦理,算法不能替代专业判断。
谷歌关停"What People Suggest"工具的事件为科技与医疗融合领域敲响了警钟;它揭示了一个根本性问题:不是所有能用人工智能做的事都应该做,尤其是涉及人类生命健康的领域。医疗AI的未来发展必须遵循更严格的标准——信息来源需经过专业筛选,输出结果必须符合循证医学要求,使用场景必须清晰界定,且必须始终尊重人类专业判断和个性化需求。这不是对创新的否定,而是对负责任创新的更高要求。只有当科技企业真正理解医学的复杂性和生命的宝贵性时,AI才能成为推动人类健康进步的力量。