意大利竞争与市场管理局认可DeepSeek整改措施 暂停"幻觉"风险调查

意大利竞争与市场管理局(AGCM)1月5日发布公报称,已结束对科技企业DeepSeek的专项调查;该决定基于企业提交的整改方案通过监管评估,也为欧洲人工智能合规实践增加了一个可参考的案例。调查始于2025年6月。AGCM认为,DeepSeek意大利语服务中存在明显不足:用户交互时仅显示英语安全提示,且未清晰告知其大模型可能生成不实信息的风险。这类被称为“幻觉”的技术现象,可能在医疗、金融等关键领域引发误导性输出。监管文件显示,整改主要围绕三上展开:一是完善本地化服务,承诺根据用户IP自动匹配意大利语版《使用条款》,并在注册页面醒目展示;二是强化风险提示,在问答界面设置常驻标识,并对专业领域内容增加特别警示;三是调整技术架构,通过对训练数据分级处理降低幻觉发生概率。专家认为,上述措施回应了欧盟《人工智能法案》对透明度的要求,也为行业提供了更可操作的合规范式。有一点是,此事发生在全球人工智能监管提速的背景下。2025年以来,法国、德国等多国相继加强对生成式技术的审查。意大利以“警示不足”为由启动调查,体现出监管机构对用户知情权的重视。米兰理工大学数字法律研究中心主任指出:“这不仅是语言适配问题,更表明了算法问责的要求。”市场观察人士认为,DeepSeek的快速回应或有助于其争取主动。与部分企业因整改迟缓而遭遇重罚相比,DeepSeek通过技术报备与制度调整并行推进,在半年内完成合规升级。据知情人士透露,其新研发的幻觉抑制算法已进入实测阶段,可能成为下一代大模型的基础能力之一。

此事件带来多重启示;一方面,人工智能企业需要把用户知情权和安全保障落到具体机制上,不能以技术进步为由弱化风险提示与责任边界。另一方面,也说明建设性的监管沟通能够促成改进,而不必走向对立。随着人工智能应用不断扩展,如何在创新与保护之间取得平衡,将是各方长期面对的共同议题。DeepSeek的整改实践表明,通过完善提示机制、优化技术方案、提高信息透明度,可以在保护用户的同时推进技术迭代。要实现这种平衡,需要企业主动履责、监管科学引导,也离不开用户的理性使用与反馈。