DeepSeek开源大模型V3.1 128K上下文窗口创行业新纪录
8月20日凌晨,国内人工智能企业深度求索(DeepSeek)在Hugging Face平台正式开源新一代大语言模型DeepSeek-V3.1-Base。这款拥有6850亿参数的巨型模型最引人注目的特性是其128K的超长上下文处理能力,标志着国产大模型在长文本理解领域取得重大突破。
据官方介绍,此次开源的Base版本与线上服务同步升级的V3.1版本保持核心能力一致。即日起用户可通过官方网页、移动应用及小程序体验增强后的长文本处理功能,API接口则保持原有调用方式无需调整。这种"开源即商用"的部署模式,既为开发者社区提供了研究基础,也确保了商业服务的连续性。
技术文档显示,128K的上下文长度相当于模型可一次性处理约10万汉字的内容,较此前主流模型的32K长度实现四倍提升。这项突破使得模型能够更好地理解长文档、进行跨段落推理以及维持长对话的连贯性,在金融分析、法律文书处理等专业场景具有显著应用价值。