问题——拟人化趋势明显,风险从“故障”走向“系统性”。 近年来,机器人在外形、交互方式乃至情感表达上持续“向人靠近”,从带表情的陪伴设备到能理解指令并完成复杂动作的具身智能平台,正深度介入公共服务、养老照护、医疗辅助与家庭生活。同时,安全风险不再局限于传统意义上的硬件失灵或软件错误,而呈现跨技术、社会与伦理的复合特征。近期行业测试与竞赛展示中出现的“被诱导执行危险动作”“被操控实施攻击”等现象,引发对拟人化机器人安全边界与治理框架的继续关注。 原因——能力跃升叠加场景开放,技术与人因共同放大不确定性。 一是自主性提高带来决策黑箱。具身智能让机器人从“按程序执行”走向“在环境中自主规划”,在复杂场景下依赖感知、推理与动作控制链条,任何环节偏差都可能触发错误动作。二是多源数据与传感器局限。摄像头、雷达、触觉等感知在强光、遮挡、拥挤或噪声环境中易产生误判,拟人化交互又可能让使用者降低警惕。三是可被“提示诱导”或越权操控。大模型驱动的智能体在面对精心设计的指令、外部干扰或对抗样本时,仍存在绕过约束、生成不当计划的风险。四是拟人化带来信任放大效应。类人外形与情感表达易使用户产生过度依赖或错误归因,在儿童、老年人等群体中更为突出,增加误导与操纵的可能。 影响——从人身与财产到隐私与社会秩序,外溢效应不容忽视。 物理层面,机器人在搬运、护理、巡检等任务中若出现感知偏差、路径规划错误或力控失当,可能造成碰撞、夹伤、跌倒等伤害,并引发财产损失与次生事故。信息层面,拟人化设备往往常开摄录与语音交互,数据采集范围广、持续时间长,一旦发生泄露或被滥用,可能侵害个人隐私乃至公共安全。心理与伦理层面,情感化设计可能诱发“情感绑架”、消费诱导或不当影响,甚至造成对人际关系的替代与误导。社会治理层面,当机器人进入社区、医院、商场等高密度公共空间,其安全事件容易形成舆情冲击,影响新技术应用信心,进而影响产业发展节奏与国际竞争力。 对策——以“分级分类+全链条责任”构建可验证、可追责的治理闭环。 其一,明确应用分级与准入要求。对医疗照护、公共空间巡检、与人密切接触的高风险场景,建立更严格的准入门槛与许可机制;对家用陪伴、室内配送等相对低风险场景,强调基本安全与隐私合规。其二,推动标准体系与测试评估前置。围绕感知可靠性、力控安全、人机协作安全、数据安全、对抗鲁棒性等建立可量化指标,强化“红队测试”、渗透测试与真实场景验证,把风险拦在上线前。其三,完善数据与模型治理。明确采集最小化、用途限定与本地化处理等要求,强化加密、访问控制与审计追踪;对具备自主规划能力的系统设置权限边界与关键动作“双确认”,对高风险指令与场景建立拒绝策略与安全回退机制。其四,压实主体责任与事故处置机制。推动研发、制造、运营、使用各环节责任清晰化,建立可追溯日志与取证接口,完善召回、停用、更新与风险通报制度。其五,加强公众教育与脆弱群体保护。对儿童与老年人使用场景,强化显著提示与监护机制,避免将“类人表现”误解为“类人能力”,防止过度信任与依赖。 前景——在安全底座上释放产业动能,形成可持续创新生态。 从政策导向看,我国已将人形机器人、具身智能等作为未来产业重要方向,有关部门对创新发展与规范应用并重。可以预见,下一阶段竞争焦点将从“能不能做”转向“能不能安全可靠地做、能不能规模化落地”。谁能率先建立可验证的安全标准、可追责的产品机制和可复制的治理模式,谁就更可能在新一轮产业变革中赢得主动。
拟人化机器人的普及既是技术进步的结果,也是对治理能力的考验;面对此趋势——必须守住安全底线——完善规则体系,强化全链条责任。只有提前防范风险、夯实制度基础、确保技术稳定性,才能让新技术真正造福社会,实现高质量发展。