理性看待智能技术:既不盲目神化,也不陷入恐惧——专家呼吁各方共同推动人工智能回归工具本位

问题—— 当前,人工智能应用加速进入公众生活与生产场景,一些新工具在社交平台迅速走红,带动安装、培训、代操作等衍生服务升温。,社会舆论出现两种偏离:一类将技术能力无限放大,认为“装上就能代替思考、接管工作”;另一类则将其视为“洪水猛兽”,担忧被全面替代、甚至引发失业危机。周志华委员在会上提出要消除恐惧与盲目神化,针对的正是这种认知两极化现象。 原因—— 一是技术迭代快、信息差大。生成式模型、智能体工具不断更新,能力边界、适用条件与风险提示难以在短时间内被大众充分理解,造成“能做什么”与“能做好到什么程度”被混为一谈。二是流量驱动下的营销包装。一些产品宣传聚焦“全能”“解放双手”,弱化失败率、数据来源、权限控制等关键环节,容易诱发跟风使用。三是对就业结构调整的长期焦虑被放大。部分研究机构与自媒体以极端情景推演吸引关注,将“岗位重塑”简单等同于“岗位消失”,引发不必要的恐慌。四是社会治理与素养培育仍需跟进。公众对算法偏差、虚假内容、数据安全、责任界定等问题认识不足,导致在医疗、教育、消费决策等领域出现不当依赖。 影响—— 从个体层面看,盲目依赖可能带来现实损失:例如将健康咨询等同于诊疗建议——忽视专业判断与就医流程——存在用药风险;又如在办公、交易、账号管理等敏感操作中放任工具执行,可能引发隐私泄露、财产安全隐患。从企业层面看,若以低门槛生成内容替代专业审核,可能造成广告、产品信息失真,损害品牌公信力。从社会层面看,过度神化会推高不切实际的预期,形成“技术泡沫”;过度恐惧则会抑制合理应用与创新投入,影响产业升级与新质生产力培育。更重要的是,若虚假信息与诈骗手段借助新工具扩散,将对公共治理与社会信任造成挑战。 对策—— 一要强化法治与监管的“硬约束”。在既有政策框架基础上,更细化生成内容标识、数据合规、个人信息保护、模型安全评测、责任追溯等配套规则,明确平台、开发者、服务提供者与使用者边界,提升违法成本,压实主体责任。对高风险场景实行更严格的准入与审查机制,推动安全可控、分级分类治理落地见效。 二要推动行业自律与产品“可控可用”。企业在产品设计上应坚持最小权限原则和必要确认机制,对涉及支付、账号、文件删除、对外发送等敏感操作设置清晰提示与二次校验;完善数据来源说明与结果置信度提示,减少“看似确定、实则臆测”的误导。平台与媒体应客观呈现技术能力与局限,既不夸大其词制造幻觉,也不渲染焦虑扩大对立情绪。 三要把科普与教育做深做实。学校可将人工智能素养纳入通识教育与专业培养体系,重点提升信息甄别、逻辑推理、数据与隐私保护、学术规范等能力,引导学生形成“工具辅助、以人为主”的学习方式,杜绝将其作为代写作业、规避思考的捷径。同时,通过面向公众的科普活动与权威解读,帮助社会理解技术边界与正确用法。 四要倡导公众理性使用与多重核验。对健康、法律、金融等专业领域的信息,使用者应坚持“咨询不等于诊断、建议不等于处置”,必要时求助专业机构;对生成内容保持来源意识与证据意识,重要决策做到交叉验证。把工具用于资料整理、流程优化与辅助创意,将节省下的时间投入到更具价值的判断、沟通与创新之中。 前景—— 面向未来,人工智能对经济社会的影响更可能表现为“岗位重构”而非“全面替代”:重复性、标准化环节将加速自动化,而包含创造力、复杂协同、责任伦理与情感沟通的工作更需要人的主导。随着法律制度完善、技术评测体系健全、行业规范成型以及教育体系跟进,人工智能有望更安全、更可靠地服务科研、制造、医疗管理、公共服务等领域,成为提升效率、改善体验、促进创新的重要工具。关键在于坚持以人为本、向善而行,让技术进步与社会可承受度同步提升。

人工智能的价值在于服务人类,而非凌驾于人。当技术狂热与恐慌逐渐消退,我们需要建立科学理性的认知——既不因保守阻碍创新,也不因追捧放松警惕。只有在发展与规范间找到平衡,才能让技术真正助力人的全面发展。这是对“工具理性”最深刻的时代诠释。