别管别的,咱们先看个数据:2020年那会儿,光训练那个10亿个神经元的大模型,就好比请了1000万

别管别的,咱们先看个数据:2020年那会儿,光训练那个10亿个神经元的大模型,就好比请了1000万研究生日夜不停地调参,工程量大得吓人。当年没人能靠手写代码搞定复杂的图像识别,大家都觉得车牌识别那种靠模板匹配就行的事儿才是本事。 话说回来,AI刚开始看到的照片,就像幼儿园老师把鸟图撕得乱七八糟,满眼都是毫无意义的像素碎片,根本分不清这是鸟还是猫。要想把它变成一幅完整的画,这中间得经历好几层变化。 第一层是小孩子只看颜色深浅找边缘,就像AI的第一层神经元,只管把黑笔圈出来的轮廓标记下来。这时候信息量虽然少了一半,但还只是一堆抽象线条,离火烈鸟的真相差得远着呢。 第二排的小朋友拿到第一排的草图后,不再管颜色,专门去拼图形。他们会说两块尖尖的V形可能是鸟喙,两个圆的东西八成是眼睛。这就好比AI的第二层神经元在做抽象工作,把最可能的图案往前传。 到了第三排,大家开始动脑子推理了。“尖喙+圆头+两条腿,这组合肯定是鸟啊!”结果80%的孩子都觉得这是只鸟,于是答案就出来了。当软件的特征被抽象到“尖嘴、圆头、两条腿”时,模型的信心就足了。 这里面最神奇的是小孩根本不用老师教具体长啥样,光靠海量看图自己就能总结出一套“认鸟公式”。这种泛化能力特别厉害,见了一只猫就能识别所有猫,哪怕从没见过火烈鸟也能认出来。以前为什么没人能写出这一套?因为算力不够啊!直到2020年有了超算和海量数据,AI才终于破茧成蝶。 下一集咱们再聊聊那个反向传播这位魔法老师,它能让小孩自己找到最优答案,不用靠老师硬灌进去。