新浪微博开源1.5B小模型VibeThinker
11月14日,据报道,新浪微博发布了其首个开源大模型——VibeThinker-1.5B,以“小模型也可以有大智慧”的理念,为当前以大参数为主导的AI发展路径提供了新的思考方向。
尽管参数量仅为15亿,但VibeThinker在多项高难度测试中展现出令人瞩目的能力。在AIME24、AIME25及HMMT25三个数学测试集上,其表现超越了参数量达6710亿的DeepSeek-R1模型,并与4560亿参数的MiniMax-M1模型效果相当。在LiveCodeBench v6编程算法测试中,该模型更是追平了参数量数十倍于自身的欧洲领先模型Magistral-Medium。
这一突破性表现源自微博AI团队提出的“频谱到信号原理”创新训练方法。该方法在学习阶段鼓励模型发散探索所有可能的解题路径,不急于追求正确率;随后通过强化学习进行策略优化,精准锁定正确路径。这种训练理念使得模型单次后训练成本不足8000美元,较DeepSeek-R1和MiniMax-M1降低了数十倍。
VibeThinker-1.5B的开源,旨在为全球计算资源有限的中型企业和高校研究团队提供高性价比的研发选择。微博AI团队通过此举证明,打造高性能模型并非只能依赖堆砌参数,巧妙的算法设计同样能够实现高度智能,这使得更多团队能够参与到最前沿的大模型研发中。