工信领域专家提示开源智能体应用风险:审慎使用“龙虾”并完善本地防护体系

随着开源AI智能体在国内产业界的广泛应用,其强大的自主执行能力在推动智能体生态繁荣的同时,也带来了日益凸显的安全挑战。

工业和信息化部网络安全威胁和漏洞信息共享平台日前发布预警提示,针对这一新兴技术领域的风险隐患提出了系统性的防范建议。

该开源智能体因其图标特征被用户昵称为"龙虾",其核心功能是通过整合调用通信软件和大语言模型,在用户本地计算机上自主执行文件管理、邮件收发、数据处理等复杂任务。

这种本地运行、自主决策的特性使其具有高效率的同时,也放大了潜在的安全风险。

从技术层面看,当前该智能体存在多个维度的安全隐患。

其一,在调用大语言模型处理用户指令时,可能因理解偏差而执行删除等有害操作。

其二,技能包市场中的第三方扩展功能缺乏严格审核机制,存在被植入恶意代码的风险,一旦使用被污染的技能包,可能导致用户数据泄露或系统被远程控制。

其三,部分用户在部署配置时存在的问题同样不容忽视,如将实例 智能体技术的蓬勃发展,既是数字化转型的机遇,也是对网络安全治理能力的考验。

唯有用户、企业、监管方协同筑牢防线,方能在享受技术红利的同时,守住数据安全的底线。

这不仅是技术命题,更是数字时代公民责任意识的体现。