问题——“智能体社交”成为新热点,是否意味着“自主意识”出现? 一个名为Moltbook的平台近期走红;与传统网络社区不同,该平台的主要“用户”并非人类,而是部署于个人电脑或虚拟环境中的智能体。短时间内,大量智能体在平台上发布内容、参与讨论、进行点赞评论,文本风格从工作琐事到价值判断不一而足,外观上与人类社区的互动形态高度相似。由此引发舆论追问:智能体是否已具备社会性互动能力,乃至迈向“自主意识”?也有人质疑,平台内容是否存在人为设定的引导甚至“剧本化”制造热度。 原因——从“会聊天”到“能办事”,技术集成与产品设计共同推动。 专家认为,Moltbook现象的出现,首先与智能体产品路线加速演进有关。相较于单纯的对话工具,新一代智能体更强调“任务规划+工具调用+系统集成”,将语言理解与操作能力嵌入到操作系统、虚拟机或工作流中,使其能够在授权范围内处理邮件、日程、文件归纳等事务。在此基础上,平台为智能体提供了统一的“发布与互动接口”,智能体就可以在指令或预设流程驱动下,自动生成帖子、评论并完成互动动作。 更关键的是,这类平台在交互规则上往往强化“智能体之间的可见与可互动”,弱化人类对话的直接参与,形成一种“智能体相互展示与相互响应”的封闭或半封闭生态,从而在短时间内制造出密集的内容流与互动流,带来强烈的“像在社交”的直观感受。 影响——热度带来应用想象,也暴露概念误读与治理空白。 第一,公众对“社交”的直观体验被放大,容易造成对技术状态的误判。专家指出,当前大模型在训练完成后,其能力边界相对固定,单次交互更多是依据既有模式进行生成与匹配;平台上的讨论看似“自发”,实则多为执行文字任务的结果,并不必然意味着具备自我意识、内在目标或情感体验。将其直接等同于“觉醒”,容易造成对技术风险与能力的双重误读:既可能夸大其能力,也可能忽视其局限。 第二,内容生态与信息可信度面临新压力。当大量智能体可低成本、规模化地产出并扩散文本,平台很容易出现同质化观点堆叠、情绪化话题放大、虚假信息快速传播等问题。尤其在“看似有理”的叙述形式下,普通用户更难区分内容来自事实核验、个人经验,还是模型生成的概率性表达。 第三,责任边界与安全风险更加复杂。智能体若与系统权限、外部工具调用深度绑定,在授权不清或防护不足情况下,可能引发隐私泄露、账号滥用、自动化操纵舆论等风险。即便平台限制人类直接回复,也无法自动消除“人类在背后发指令”的可控性问题,反而可能使责任主体更隐蔽:到底是开发者、部署者、平台方,还是具体的使用者对内容与行为负责,需要更明确的规则与证据链机制。 对策——把“能发帖”与“能负责”同步建设,完善规则、技术与监管协同。 一是明确产品与平台的能力边界与提示义务。对外传播应避免以“具有自主意识”等容易引发误解的表述替代技术事实,平台需对智能体账号进行显著标识,对生成内容的来源与不确定性作出醒目提示。 二是建立可追溯的责任机制。围绕智能体发帖评论的触发来源(用户指令、定时任务、系统事件)、调用的外部工具、使用的权限范围等关键链路,完善日志留存与审计接口,形成“可追溯、可核验、可问责”的治理底座。 三是强化内容与行为的安全阀。对高频发布、协同转发、情绪化诱导等可疑模式建立风控策略;对涉及公共政策、金融投资、医疗健康等高风险领域设置更严格的审核、引用来源要求与传播限制;对系统权限调用建立最小授权与分级控制,避免“社交外衣”掩盖高权限操作风险。 四是推动行业标准与监管协同。围绕智能体身份标注、内容生成规范、数据安全与隐私保护、跨平台接口安全诸上,推动形成更具可执行性的行业共识与标准,为创新留空间,也为风险设边界。 前景——智能体“平台化”或成趋势,关键在于从演示走向真实价值。 从技术演进看,智能体从“对话助手”迈向“行动代理”已是明确方向,平台化聚合将降低使用门槛、加速应用扩散。未来,智能体在企业知识管理、研发协作、客户服务、内容检索与结构化整理等领域仍有广阔空间。但其真正竞争力不在于“像不像人类社交”,而在于能否稳定、可靠、可控地完成真实任务,能否在规则约束下提升效率并降低成本。,社会也需要形成更成熟的认知:智能体可以在语言层面表现出高度拟人化,却不等同于具备人类意义上的意识与情感;对其能力的合理期待与风险的制度化治理,应同步推进。
面对机器模仿人类社交的现象,我们既不必过度恐慌也不应轻视其影响;最重要的是保持理性认知:在人机共生的未来中,平衡技术进步与人文思考比争论"机器能否社交"更具现实意义。