这是从北京商报的陶凤那转来的一篇文章,讲的是最近AI“超人化”带来的麻烦事儿。腾讯搞免费安装、小米悄悄测试、各大平台上都有人“养龙虾”,这些都说明了AI智能体现在有多火。这次工信部那边也敲了个警钟,说监测到OpenClaw这个开源AI有漏洞,要是配置不当或者默认设置不改,很容易被黑客攻击或者信息泄露。“龙虾”火起来证明了行业之前的猜测是对的,说明AI Agent真的要变成主角了。这个OpenClaw虽然是美国个人弄出来的,但它厉害的地方就是让AI助手漂洋过海,一下就把智能体的热度推到了一个新高度。 这只“龙虾”让人又爱又怕,爱它是因为它能帮人干活,省心省力;怕它是因为担心它的影响力太大。以前像ChatGPT、Sora、DeepSeek还有Manus这些AI产品出现的时候,二手平台上卖课、注册账号这种生意可红火了。现在国内几大云厂商也赶紧上线了一键部署服务,想要抓住第一批用户。 随着越来越多的普通人用AI智能体来写文章、发帖子、做任务或者拍视频,智能体的作用就不只是当助手了。它在一定程度上解放了人的双手,让人觉得工具真的能自己动起来干活。但同时问题也来了,大家为了让AI干活必须给它更高的权限,敏感信息可能就不保了。对于一个才刚几个月的“小”龙虾来说,它现在执行力挺强但经验不够深,有时候会出错或者瞎搞。 这种AI“超人化”的连锁反应会比智能体本身还严重。因为效率提升了隐私和安全的问题也会被放大。大语言模型和智能体结合起来以后,知识的广度和执行的流畅度都强过一个人。工程师、程序员、研究员这些职业以前都得靠专业判断和动手能力吃饭,现在AI一自动化这些传统的生产逻辑就动摇了。 从移动互联网到AI时代,经济结构、权力结构还有人的认知结构可能都会变。勇敢的人先尝到甜头,但也得付出代价。能力越大责任越大,我们在享受AI带来的便利时,也得给这些能力划好边界。