千问3.5的八个新模型都把“以小胜大”的理念贯彻到底了

大家最近都在聊AI,阿里那边给大家带来了不小的惊喜。3月3日晚上,他们直接开源了四款全新的千问3.5小模型,都是些小尺寸但性能很强劲的家伙。有Qwen3.5-0.8B、2B、4B还有9B。你别说,这小身板下真有大能耐。比如那个9B的版本,综合能力能跟比它大10倍的gpt-oss-120b掰手腕。特别是这个4B的版本,Agent能力特别强,连GPT-5-Nano和Gemini 2.5 Flash-Lite都不是它的对手。它还特别适合给轻量级的Agent当底座。0.8B和2B就更不用提了,体积小跑得飞快,直接装手机、智能眼镜这些地方都没毛病。开源发布之后,马斯克也在社交媒体上夸了一句“智能密度让人印象深刻”。其实千问3.5这次主要靠架构创新和训练突破,把原生多模态能力给做到了极致。不管是智能水平还是视觉理解能力,都跟着水涨船高了。结果就是这些小尺寸模型开始有中型甚至大型模型的感觉了。你看在IFBench、GPQA、ERQA这些评测里,Qwen3.5-9B直接把gpt-oss-120b给比下去了。比GPQA还难搞的数学推理和复杂文档理解,它也丝毫不虚。反观别的轻量级模型比如GPT-5-Nano、Gemini 2.5 Flash-Lite,在这些评测里根本不是对手。所以说性价比这一块简直是碾压式的存在。那个4B版本的多模态基座更是不得了,性能直接跟比它大8倍的Qwen3-VL-30B-A3B持平。玩ScreenSpot pro这种视觉智能体的游戏都没问题,操作手机电脑跟真人一样利索。在工具调用的TIRE-Bench上更是把大家都甩在了后面。最小的0.8B和2B更是适合端侧部署,直接在手机平板甚至智能座舱里跑。甚至连离线语音交互、本地文档解析这些事儿都能搞定了。 不得不说这次千问3.5的八个新模型都把“以小胜大”的理念贯彻到底了。这也就是马斯克口中“智能密度”的核心所在——用更少的计算力提供更强的智能。想想看除夕那天他们发的那个Qwen3.5-397B-A17B多厉害,不到4000亿参数就把上一代万亿级别的旗舰给干趴下了;上月底发的那三款中尺寸模型也不差,性能跟GPT-5差不多,普通消费级显卡就能跑起来。 开源才一个月时间就横扫全球排行榜前五独占四席的战绩属实炸裂。有开发者拿一台普通笔记本装M4芯片测了一下,本地跑中等尺寸的模型速度飞快;还有开发者直接惊呼:“这简直是把Claude Sonnet 4.5级别的模型免费装进电脑了。”