新浪微博开源1.5B小模型VibeThinker

2025-11-14 15:50:45   |   嫣然   |   1710

11月14日,据报道,新浪微博发布了其首个开源大模型——VibeThinker-1.5B,以“小模型也可以有大智慧”的理念,为当前以大参数为主导的AI发展路径提供了新的思考方向。

尽管参数量仅为15亿,但VibeThinker在多项高难度测试中展现出令人瞩目的能力。在AIME24、AIME25及HMMT25三个数学测试集上,其表现超越了参数量达6710亿的DeepSeek-R1模型,并与4560亿参数的MiniMax-M1模型效果相当。在LiveCodeBench v6编程算法测试中,该模型更是追平了参数量数十倍于自身的欧洲领先模型Magistral-Medium。

这一突破性表现源自微博AI团队提出的“频谱到信号原理”创新训练方法。该方法在学习阶段鼓励模型发散探索所有可能的解题路径,不急于追求正确率;随后通过强化学习进行策略优化,精准锁定正确路径。这种训练理念使得模型单次后训练成本不足8000美元,较DeepSeek-R1和MiniMax-M1降低了数十倍。

VibeThinker-1.5B的开源,旨在为全球计算资源有限的中型企业和高校研究团队提供高性价比的研发选择。微博AI团队通过此举证明,打造高性能模型并非只能依赖堆砌参数,巧妙的算法设计同样能够实现高度智能,这使得更多团队能够参与到最前沿的大模型研发中。

特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字、图片等内容的真实性、完整性、及时性本站不作任何保证或承诺,请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时发送相关信息至bireading@163.com,本站将会在48小时内处理完毕。

新浪微博开源1.5B小模型VibeThinker

2025-11-14 15:50:45 浏览量: 1710 作者: 嫣然

11月14日,据报道,新浪微博发布了其首个开源大模型——VibeThinker-1.5B,以“小模型也可以有大智慧”的理念,为当前以大参数为主导的AI发展路径提供了新的思考方向。

尽管参数量仅为15亿,但VibeThinker在多项高难度测试中展现出令人瞩目的能力。在AIME24、AIME25及HMMT25三个数学测试集上,其表现超越了参数量达6710亿的DeepSeek-R1模型,并与4560亿参数的MiniMax-M1模型效果相当。在LiveCodeBench v6编程算法测试中,该模型更是追平了参数量数十倍于自身的欧洲领先模型Magistral-Medium。

这一突破性表现源自微博AI团队提出的“频谱到信号原理”创新训练方法。该方法在学习阶段鼓励模型发散探索所有可能的解题路径,不急于追求正确率;随后通过强化学习进行策略优化,精准锁定正确路径。这种训练理念使得模型单次后训练成本不足8000美元,较DeepSeek-R1和MiniMax-M1降低了数十倍。

VibeThinker-1.5B的开源,旨在为全球计算资源有限的中型企业和高校研究团队提供高性价比的研发选择。微博AI团队通过此举证明,打造高性能模型并非只能依赖堆砌参数,巧妙的算法设计同样能够实现高度智能,这使得更多团队能够参与到最前沿的大模型研发中。

,

Copyright ©2018 铋读网 All Rights Reserved.

京ICP备18051707号

京公网安备 11011302001633号