豆包2.0一推出,国产AI应用市场立马就被点燃了,算力产业链也全面火起来。字节跳动最近发布了豆包大模型2.0系列,性能不比国外差,价格却只要它们的十分之一,一下子就把这个市场给盘活了。这下可好了,国产大模型终于从技术验证阶段进入了全民使用的新阶段。到了2026年,这股需求说不定能成大事呢。机构们都在分析,现在算力需求跟全链通胀似的涨不停。 国金证券他们觉得,豆包这些领先模型要是普及开来,训练端和推理端就会形成一种共振。一边训练迭代不停,一边推理需求暴增,两边一推算力需求就全都出来了。到了2026年这波热潮不会只停留在芯片上,还会往AIDC、云设施还有电力和服务器全链条扩散。各大厂商资本开支早就规划好了,字节在2026年的芯片预算就高达850亿元,阿里打算未来三年投进去至少3800亿元。那些跟核心CSP深度绑定的供应链公司肯定能大赚一笔。 这回需求大涨正好赶上国产芯片成熟了。华为昇腾、海光信息这些国产芯片通过软硬结合创新,正在抓紧建立自主的生态系统,想打破CUDA的垄断局面。开发者用AI工具做代码迁移半小时就能搞定,国产算力现在真的“好用”又“可用”。推理侧需求这么大,数据传输肯定得跟上。光纤光缆现在就像数据中心的血管一样重要。 长飞光纤抓住了这个机会,业务做得风生水起。G.654.E光纤能满足超高速传输需求,中国移动招标时它拿下了50%的份额;子公司长芯博创的MPO跳线和AOC产品销量大涨;还有空芯光纤帮中国移动建了一条商用线路。他们的收入在2025年上半年同比增长了54.6%,毛利率也达到了40.7%。 北京大学跟鹏城实验室最近搞了个“光纤-无线融合通信”的突破,带宽比5G提升了十倍以上。这给AI数据中心高带宽互联提供了新路子,进一步巩固了光通信作为算力底座的地位。总之这就是一个完整的链条:豆包2.0引爆了市场,国产芯片打破了壁垒,长飞光纤这些供应商业绩也兑现了。这是应用端逼着基础设施升级的节奏啊。等到2026年国产大模型进入需求驱动新阶段,掌握核心技术的基础设施供应商就能一直享受AI带来的红利啦。