腾讯混元发布4款小尺寸模型并开源 支持消费级显卡运行
8月4日,腾讯混元发布4款小尺寸模型,分别是0.5B、1.8B、4B、7B。这四款模型全部开源,消费级显卡就能运行,宣称“开发者闭眼入”,适用于手机、电脑,甚至智能座驾、智能家居设备,ARM、高通、MTK、Intel等主流芯片全都兼容。
目前,四个模型均在 Github 和 Huggingface 等开源社区上线。据悉,相关模型也兼容SGLang、vLLM、TensorRT-LLM等主流推理框架。据介绍,这四款 “小” 模型具备双脑协作能力,反应灵活。一个 “快脑” 能瞬间响应信息,快速解决如 “推荐附近川菜馆” 等简单问题;一个 “慢脑” 擅长深思熟虑,可处理 “设计自动写周报系统” 等复杂任务,如同24小时在线的最佳拍档。
同时,模型拥有超强记忆,能精准应答。它可一次性处理256K上下文,即便经过几十轮项目方案讨论,也能记住每处细节,后续提问时依旧对答如流。模型的Agent能力也相当突出。它能深度搜索资料、整理去年消费账单并自动生成Excel分析,还能一手包办旅行规划从路线搜索到攻略制定的全流程,高效处理多种任务。