火山引擎发布四款豆包大模型升级,国内首推“分档思考长度”功能

2025-10-16 18:26:38   |   文白不白   |   1302

10月16日,火山引擎在FORCE LINK AI创新巡展・武汉站活动中,正式发布并升级四款豆包大模型。其中豆包大模型1.6升级版成为国内首个原生支持四种思考长度(Minimal/Low/Medium/High)的模型,可帮助企业根据场景需求平衡效果、时延与成本。

升级后的豆包1.6模型在保持效果不变的前提下,总输出Tokens下降77.5%,思考时间降低84.6%。同步推出的豆包1.6 lite版本较1.5 pro模型效果提升14%,综合使用成本降低53.3%,主打高性价比与快速推理。全新发布的豆包语音合成2.0与声音复刻2.0模型则实现了基于语义理解的语音生成,支持通过自然语言精准调控语速、情绪及声线,并在复杂公式朗读中达到90%的准确率。

此次升级通过分档思考机制与语音架构创新,为企业用户提供了更灵活、可控的AI服务选择,展现出火山引擎在模型效率优化与场景适配方面的技术突破。

特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字、图片等内容的真实性、完整性、及时性本站不作任何保证或承诺,请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时发送相关信息至bireading@163.com,本站将会在48小时内处理完毕。

火山引擎发布四款豆包大模型升级,国内首推“分档思考长度”功能

2025-10-16 18:26:38 浏览量: 1302 作者: 文白不白

10月16日,火山引擎在FORCE LINK AI创新巡展・武汉站活动中,正式发布并升级四款豆包大模型。其中豆包大模型1.6升级版成为国内首个原生支持四种思考长度(Minimal/Low/Medium/High)的模型,可帮助企业根据场景需求平衡效果、时延与成本。

升级后的豆包1.6模型在保持效果不变的前提下,总输出Tokens下降77.5%,思考时间降低84.6%。同步推出的豆包1.6 lite版本较1.5 pro模型效果提升14%,综合使用成本降低53.3%,主打高性价比与快速推理。全新发布的豆包语音合成2.0与声音复刻2.0模型则实现了基于语义理解的语音生成,支持通过自然语言精准调控语速、情绪及声线,并在复杂公式朗读中达到90%的准确率。

此次升级通过分档思考机制与语音架构创新,为企业用户提供了更灵活、可控的AI服务选择,展现出火山引擎在模型效率优化与场景适配方面的技术突破。

,

Copyright ©2018 铋读网 All Rights Reserved.

京ICP备18051707号

京公网安备 11011302001633号