【问题】最近,上海一位高校教师用智能体生成并发布社交动态,朋友们纷纷表示"真假难辨";这个看似普通的案例,实际上触及了智能体应用的核心问题:当"能写、能说、能办事"的智能体以更低成本进入社交、办公、服务等场景,公众最关心的是——谁发声?信息可信吗?出了问题谁负责?我的数据会不会被滥用?这些问题直接影响技术能否真正落地。【原因】首先,生成式内容的能力提升,让"伪装"变得更容易。文本、图片、音视频的合成门槛降低,普通人很难凭直觉辨别真假,原有的信任机制受到冲击。其次,智能体从"会思考"进化到"会行动"。它不再是简单的问答工具,而是开始承接订票、写报告、对接客户、管理日程等实际任务。一旦获得账号和数据权限,影响范围就从信息层面延伸到交易、管理和决策层面。再次,人们对未知风险天然敏感。面对新技术,社会普遍倾向于"风险规避",特别是涉及财务、隐私、职位等敏感利益时,更容易产生谨慎甚至抵触情绪。最后,制度和产品配套还在完善中。目前不少应用更注重效率和体验,在可解释性、可追溯性、可撤回授权等机制上还不够完善,这继续加剧了不安情绪。【影响】一上,智能体能提升效率和服务能力。内容生产、知识检索、客服与运营辅助等领域,智能体可以降低重复劳动强度,释放更多时间用于创造性工作,推动企业数字化转型。另一上,信任成本上升带来新问题。社交场景中"先怀疑再互动"会降低沟通效率,公共舆论场若被高仿真内容干扰,也会增加辟谣和治理压力。更值得关注的是岗位结构调整。部分流程性、标准化工作环节可能被重塑,但同时也会催生提示工程、数据治理、模型评测、安全审计、人机协作运营等新职业。如果缺乏再培训和转岗通道,短期内可能出现结构性就业压力。此外,权限外溢风险不容忽视:一旦智能体在缺少约束的情况下获取高权限账号,可能造成信息泄露、资金损失或业务中断,影响个人和机构的安全底线。【对策】让智能体"用得上、用得稳、用得安心",需要规则、技术和管理联合推进。第一,明确"人机边界"和责任链条。对外发布内容应强化标识和可核验机制,形成"谁授权、谁使用、谁负责"的闭环,避免责任真空。对关键业务场景,要建立人类最终确认制度,防止自动化决策越界。第二,推进分级授权和最小权限原则。针对社交账号、支付工具、企业核心系统等敏感入口,应通过分级审批、动态令牌、可撤销授权、操作留痕等方式降低风险,避免"一次授权、无限使用"。第三,把安全测试前置到产品全生命周期。常态化开展对抗测试、红队评估、数据合规审计和漏洞响应,从"事后补救"转向"事前预防"。第四,加强公众数字素养和组织培训。面对高仿真内容,个人需要建立核验习惯;机构则要开展面向员工的合规和安全培训,完善应急处置预案,降低"误信、误用、误授权"的概率。第五,营造鼓励创新和规范发展并重的环境。治理不应简单以"放慢"为唯一选项,也不能放任"先上车后补票"。应在可控范围内鼓励试点应用,及时把实践经验转化为行业标准和监管工具,形成可复制的治理方案。【前景】智能体走入日常是技术演进和产业升级的必然方向。未来一段时间,围绕可信身份、内容溯源、权限管理、数据合规和人机协作流程的制度与技术将加速成熟。可以预见,真正具备竞争力的智能体应用,不仅比拼能力强弱,更比拼"可信、可控、可审计"的治理水平。谁能率先建立清晰边界、稳定规则和社会共识,谁就更可能在新一轮产业变革中赢得主动。
当蒸汽机开启工业文明时,人类用了近半个世纪完成生产关系的调整。今天面对智能技术浪潮,我们既需要保持清醒认知——技术终究是人类智慧的延伸,更应发挥制度创新的智慧,在动态平衡中构建数字时代的新型社会契约。历史经验表明,每次重大技术革命最终都推动了人类文明向更高效、更包容的方向演进,关键在于把握变革节奏与风险防控的平衡。