對比 NVIDIA GPU 上的 TensorFlow,該集成使深度學習推理速度快 5 倍 MathWorks 今日宣布 ,MATLAB 現在可通過 GPU Coder 實現與 NVIDIA TensorRT 集成。這可以幫助工程師和科學家們在 MATLAB 中開發新的人工智能和深度學習模型,且可確保性能和效率滿足數據中心、嵌入式應用和汽車應用不斷增長的需求。 MATLAB 提供了一個完整的工作流程來快速訓練、驗證和部署深度學習模型。工程師可以使用 GPU 資源,而無需額外編程操作,因此可以專注于應用本身而不是性能調優。NVIDIA TensorRT 與 GPU Coder 的全新集成使得可以在 MATLAB 中開發深度學習模型,然后以高吞吐量低延遲的方式部署在 NVIDIA GPU 上運行。內部基準測試顯示,MATLAB 生成的CUDA代碼與 TensorRT 結合,在部署 Alexnet模型進行深度學習推理時,性能比 TensorFlow 高 5 倍;在部署 VGG-16 模型進行深度學習推理時,性能比 TensorFlow 高 1.25 倍。* “不斷發展的圖像、語音、傳感器和物聯網 (IoT) 技術促使團隊以更好的性能和效率研究人工智能解決方案。此外,深度學習模型變得越來越復雜。所有這些都給工程師們帶來了巨大的壓力,” MathWorks 總監 David Rich 說。“現在,團隊可以使用 MATLAB 訓練深度學習模型,NVIDIA GPU 可以將實時推理部署到從云端到數據中心到嵌入式邊界設備等各種環境中。” 要了解有關使用 MATLAB 進行深度學習的更多信息,請訪問:https://cn.mathworks.com/solutions/deep-learning.html |