三星Exynos 2600芯片引入AI模型压缩技术,端侧大模型可“瘦身”90%
12月30日,据报道,韩国AI技术公司Nota近日宣布与三星电子达成合作协议,将为下一代旗舰移动处理器Exynos 2600提供AI模型优化方案。该技术基于Nota自主研发的NetsPresso平台,能够在保持模型精度的前提下,将AI模型体积压缩90%以上,助力生成式AI模型在端侧设备中实现高效本地化运行。
这是Nota继为Exynos 2500提供技术支持后,再次获得三星旗舰芯片订单。根据协议,Nota不仅将为Exynos 2600提供模型压缩与优化方案,还将深度参与三星AI开发工具链“Exynos AI Studio”下一代版本的开发工作,通过自动化优化流程降低开发者在Exynos平台上部署最新AI模型的技术门槛与时间成本。
NetsPresso平台的核心优势在于其能够根据不同硬件环境高效优化AI模型,在确保推理准确性的同时大幅缩减模型体积。这一技术将有助于在移动设备上实现不依赖云端连接的复杂生成式AI任务处理,推动端侧AI向更高效、更私密的方向发展。
随着生成式AI应用日益普及,如何在资源有限的移动设备上实现大模型的高效部署成为行业关键挑战。三星通过与Nota的合作,试图在芯片层面构建更完善的AI优化生态,为开发者提供从模型压缩到部署落地的全链路支持。Exynos 2600预计将成为三星在高端移动市场的重要产品,其端侧AI能力的表现将直接影响其在竞争中的差异化优势。