亚马逊与openai搞了个大动作,打算联手一起把ai 这块地盘给砸响。两家公司公布了一个能管好几年的深度

亚马逊跟OpenAI搞了个大动作,打算联手一起把AI这块地盘给砸响。两家公司公布了一个能管好几年的深度合作计划,打算在云计算、AI模型搞研究还有企业怎么用这些方面,彻底把事儿办明白。根据这份协议,亚马逊要往OpenAI的口袋里塞足500亿美元,其中首期那150亿美元早就到账了,剩下那350亿美元得看项目干得怎么样,分阶段往里倒。这笔钱主要用来让前沿的AI技术跑得更快,更快变成能赚钱的东西。 两家合作的重头戏之一是联手建一个叫“有状态运行时环境”的东西,这是给AI应用准备的下一代开发框架。它靠Amazon Bedrock平台来干活,能让AI模型直接去调用计算资源、内存还有身份验证系统,让不同的工具和数据库无缝对接起来。开发者在这环境里干活不用从头再来,能把任务的上下文保留住,工作进程接着干,还能随时调动算力资源,特别适合那种得长时间运行的复杂大工程。听说这东西已经在AWS的基础设施上调试得差不多了,预计几个月后就能正式上线。 在云服务这块,AWS还把活儿揽下来,要给OpenAI的Frontier平台当独家的第三方云服务商。这个平台能让企业弄个AI智能体团队来管着,这些智能体能在真实的业务场景里跑来跑去。它们不仅能分享上下文信息、有个治理的机制在里头护着身子,还自带企业级的安全防护能力。通过这一合作,各行各业的客户以后想用OpenAI的先进解决方案就更方便了,不用自己费劲搭底层的架子了。 两家不仅是续签了现有的380亿美元协议,又新加了100亿美元的投资用来扩容算力基础设施。OpenAI信誓旦旦地说,未来八年它要通过AWS消耗掉大概2吉瓦的Trainium芯片算力。这是为了支持那个有状态运行时环境、Frontier平台还有其他那些要吃高性能的大项目能跑起来。这么一来既省了大规模生产的成本,又因为用了专用芯片让运算效率上去了。 技术这边头也是攒足了劲儿撑腰。AWS要把Trainium3和下一代Trainium4芯片给OpenAI用。尤其是计划在2027年发出来的Trainium4芯片,在FP4算力、内存带宽和容量上都会有一个大的飞跃。 在面向普通消费者的软件上,OpenAI也和亚马逊搭伙定制专属模型。亚马逊的开发团队能拿着OpenAI的基础模型做底子,针对电商、物流这些直接服务用户的场景做专项优化,弄出更合消费者口味的智能产品和服务。这种深定制的玩法让亚马逊能把AI应用迭代得更快点,同时也能牢牢握住核心技术的掌控权。