最近谷歌搞出个叫Gemini 3.1 Flash-Lite的新模型,速度快得吓人,首字响应时间缩短了2.5倍。大家都知道谷歌的东西总是又快又准,这次也不例外。这个模型不仅速度快,还很便宜,每百万个输入才0.25美元。不管你想让它生成文章还是理解图像,它都能搞定,而且你还能自己调一下它思考的深度。 昨天谷歌发了博文说这个模型是他们现在最快、最划算的3系列模型。现在开发者可以通过Gemini API先体验一把,企业用户也能在Vertex AI上用起来。价格方面真的很吸引人,输入和输出的费用都定得很低。权威机构Artificial Analysis测出来的数据显示,这个新模型比以前那个老版本快了2.5倍,整体输出速度也提高了45%。这么快的速度特别适合做实时响应的活儿。 在Arena.ai这个榜单上,它得了1432分的Elo得分,算是挺厉害的。在GPQA Diamond测试里得了86.9%,MMMU Pro测试里也有76.8%,甚至在好多地方都比上一代的大模型还强。除了性能硬货之外,这个模型还有个创新的“思考层级”功能。 这个功能可以让开发者自己控制模型思考的深浅程度:要是处理那些简单重复的工作,就把思考层级调低一点省点钱;要是要解决复杂的逻辑问题或者设计界面,就把层级调高一点让它想深一点。现在Latitude、Cartwheel还有Whering这些公司已经开始用这个新模型了。 他们反馈说这个模型不仅干活快又准,处理复杂指令的水平也很高。我觉得吧,Google这次把AI做得这么亲民又好用,肯定会让很多公司和开发者受益不少。毕竟谁不喜欢又快又便宜的好东西呢?