蚂蚁集团百灵大模型推出Ling-2.6-flash并正式开源,提供多版本灵活部署

2026-04-29 14:35:18   |   嫣然   |   1646

4月29日,蚂蚁集团旗下百灵大模型宣布,Ling-2.6-flash正式开源。同步提供BF16、FP8、INT4等多个版本,以便开发者根据不同的硬件环境、推理成本与部署需求灵活选用。

Ling-2.6-flash是一款总参数量为104B、激活参数为7.4B的Instruct模型。两周前曾以“Elephant Alpha”的匿名身份在OpenRouter平台上亮相。官方表示,在过去两周中,团队持续收集来自开发者的真实使用反馈,并针对Ling-2.6-flash的使用体验进行了多轮优化。具体改进包括:进一步提升了中英文自然切换能力,同时增强了模型在主流Coding框架中的适配效果。

据介绍,Ling-2.6-flash的核心能力主要体现在以下三个方面:其一,混合线性架构,提升推理效率。  通过引入混合线性架构,模型从底层优化计算效率。在4卡H20环境下,推理速度最快可达340 tokens/s,Prefill吞吐量达到Nemotron-3-Super的2.2倍。

 其二,Token效率优化,提高智效比。  在训练过程中,团队对Token效率进行了针对性校准,力求以更精简的输出完成既定目标。在Artificial Analysis的完整评测中,Ling-2.6-flash仅消耗15M tokens,约为Nemotron-3-Super等模型的十分之一。

 其三,面向Agent场景定向增强。  针对当前需求旺盛的Agent应用场景,模型在工具调用、多步规划与任务执行能力上持续打磨。在BFCL-V4、TAU2-bench、SWE-bench Verified、Claw-Eval、PinchBench等评测中,即使面对激活参数更大的模型,Ling-2.6-flash仍能取得相近甚至SOTA级别的表现。

特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字、图片等内容的真实性、完整性、及时性本站不作任何保证或承诺,请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时发送相关信息至bireading@163.com,本站将会在48小时内处理完毕。

蚂蚁集团百灵大模型推出Ling-2.6-flash并正式开源,提供多版本灵活部署

2026-04-29 14:35:18 浏览量: 1646 作者: 嫣然

4月29日,蚂蚁集团旗下百灵大模型宣布,Ling-2.6-flash正式开源。同步提供BF16、FP8、INT4等多个版本,以便开发者根据不同的硬件环境、推理成本与部署需求灵活选用。

Ling-2.6-flash是一款总参数量为104B、激活参数为7.4B的Instruct模型。两周前曾以“Elephant Alpha”的匿名身份在OpenRouter平台上亮相。官方表示,在过去两周中,团队持续收集来自开发者的真实使用反馈,并针对Ling-2.6-flash的使用体验进行了多轮优化。具体改进包括:进一步提升了中英文自然切换能力,同时增强了模型在主流Coding框架中的适配效果。

据介绍,Ling-2.6-flash的核心能力主要体现在以下三个方面:其一,混合线性架构,提升推理效率。  通过引入混合线性架构,模型从底层优化计算效率。在4卡H20环境下,推理速度最快可达340 tokens/s,Prefill吞吐量达到Nemotron-3-Super的2.2倍。

 其二,Token效率优化,提高智效比。  在训练过程中,团队对Token效率进行了针对性校准,力求以更精简的输出完成既定目标。在Artificial Analysis的完整评测中,Ling-2.6-flash仅消耗15M tokens,约为Nemotron-3-Super等模型的十分之一。

 其三,面向Agent场景定向增强。  针对当前需求旺盛的Agent应用场景,模型在工具调用、多步规划与任务执行能力上持续打磨。在BFCL-V4、TAU2-bench、SWE-bench Verified、Claw-Eval、PinchBench等评测中,即使面对激活参数更大的模型,Ling-2.6-flash仍能取得相近甚至SOTA级别的表现。

,

Copyright ©2018 铋读网 All Rights Reserved.

京ICP备18051707号

京公网安备 11011302001633号