英伟达推出TensorRT for RTX GeForce显卡AI推理性能翻倍
5月20日,英伟达今日宣布推出NVIDIA TensorRT for RTX,全面支持Windows 11系统,为GeForce RTX全系显卡提供高性能AI推理加速框架。据官方数据,该框架的推理速度可达微软DirectML方案的两倍,显著提升生成式AI、视频处理等应用的效率。该更新预计于6月通过英伟达开发者官网正式推送。
TensorRT for RTX通过深度优化RTX显卡的Tensor Core和CUDA核心,实现了显著的性能飞跃: 在流行的AI工作流工具ComfyUI中,推理性能较DirectML提升100%;其他AI应用的性能提升达1.5~1.7倍;支持即时GPU专属优化,推理库文件体积缩减至原有的1/8,节省存储空间并加快加载速度。
英伟达强调,TensorRT for RTX原生兼容Windows ML框架,并通过ONNX Runtime与硬件厂商的AI执行层协同工作。当检测到RTX显卡时,Windows ML将自动调用TensorRT优化库,无需开发者手动适配。这一设计解决了AI PC生态中“广泛兼容性”与“极致性能”难以兼顾的痛点。
目前,英伟达已为超过150个AI开发工具包(SDK)提供支持,并计划在本月新增5项ISV(独立软件供应商)集成,包括:
1. LM Studio:CUDA优化后性能提升30%;
2. Topaz Video AI:生成式AI视频加速;
3. 哔哩哔哩:支持NVIDIA Broadcast特效;
4. AutoDesk VRED & Chaos Enscape:均新增DLSS 4支持,优化3D渲染效率。
英伟达在声明中表示:“TensorRT for RTX的推出,让开发者无需在硬件兼容性与性能之间妥协。RTX显卡用户将直接获得专业级的AI加速体验。”此举进一步巩固了英伟达在消费级GPU市场的技术优势,同时也为即将到来的下一代AI应用铺平道路。