嘿,你听说没,那个大家都在吹捧的算力崇拜,这回可能真的要到尽头了。AI界突然冒出个叫Sutton的牛人,搞出了一套特别的神经网络,叫"去中心化神经网络",这玩意儿能让机器像活人一样一直学个不停。最离谱的是,他那套阿尔伯塔系统连续427天没重启,每天只给点5%的算力增量,就能把人类三年攒下的经验全吃掉,知识保留率还能高达89%。你再看看现在那些大厂的做法,把价值5亿美元的GPU堆起来训练大模型,就想证明那个什么Scaling Law永远对。结果呢?2025年那个新加坡国大的演讲上,数据特别扎心:GPT-7得吃完人类三年的文本数据才能练出来,参数规模大了10倍性能也就提高了不到2%,最先进的LLM学了72小时后,忘得比吃了吐还干净,只剩17%了。Sutton这时候跳出来说,咱们现在这路子就像拿烧煤的方式去开电动车。他这话真的是狠狠给了整个行业一巴掌。 传统的深度网络就是流水线的工人,干固定活;Sutton的神经元倒像创业者,一边干活一边琢磨新路子。这种动态平衡的神经架构,直接解决了AI老掉牙的"灾难性遗忘"难题。就在2026年外滩大会上,那个"阿尔伯塔-07"系统更是牛掰,钢琴和围棋同时练居然一点不串戏。最让人意外的是,当5%的神经元被设为自由探索者时,模型竟然自己长出了像生物突触那样的可塑性变化。 Sutton他们在Keen Technologies搞了个秘密实验室,和那个做游戏的John Carmack联手搞了个"永生网络",已经427天没重启了。这个系统最大的神奇之处不是它有多少参数,而是每天只需5%的算力增量就能消化人类三年的经验数据。反观某大厂训练的千亿参数大模型,每次升级都得消耗一个小国一年的用电量。到了2025年图灵奖晚宴上,Sutton直接点明:当大家都在Scaling Law的路上狂奔时,真正的智能可能早从后门溜了。 三个月后OpenAI更是玩了个大反转,宣布暂停GPT-6的训练计划,跑去收购了一家搞持续学习的小公司。这就跟当年柯达发明了数码相机却抱着胶卷不放一个道理。现在的AI界真的到了十字路口:到底是继续在数据荒漠里造个更高的巴别塔?还是转而去种那颗能自己长大的智能种子?Sutton在《苦涩的教训》里写得很透彻:真正的突破不是把算力当神拜,而是教会机器像生命那样学习。 看着阿尔伯塔计划披露的"经验学习速率曲线"终于超过了Scaling Law的增长线,我想咱们可能真的是在见证智能进化史上最关键的一次大转向。以前咱们总以为越大越好、越快越好,结果现在看来,真正的智能可能藏在那种会自我生长、会持续学习的东西里。以后的路该怎么走?恐怕得好好想想了。