首頁 NVIDIA 宣佈為超大規模數據中心建立合作夥伴關係和深度學習推理能力

NVIDIA 宣佈為超大規模數據中心建立合作夥伴關係和深度學習推理能力

by 萊爾·史密斯

NVIDIA 宣布了多項新技術和合作夥伴關係,包括新版本的 TensorRT 推理軟件、將 TensorRT 集成到谷歌的 TensorFlow 框架中,以及其語音識別軟件 Kaldi 現在針對 GPU 進行了優化。


NVIDIA 宣布了多項新技術和合作夥伴關係,包括新版本的 TensorRT 推理軟件、將 TensorRT 集成到谷歌的 TensorFlow 框架中,以及其語音識別軟件 Kaldi 現在針對 GPU 進行了優化。

VIDIA 的 TensorRT4 軟件通過準確的 INT8 和 FP16 網絡執行加速各種應用程序的深度學習推理,表明它將數據中心成本降低高達 70%。 TensorRT4 還可用於在超大規模數據中心、嵌入式和汽車 GPU 平台中快速優化、驗證和部署經過訓練的神經網絡。 NVIDIA 還聲稱,與用於普通應用程序的 CPU 相比,新軟件在深度學習推理方面的速度提高了 190 倍以上。 此外,NVIDIA 和谷歌的工程師已經將 TensorRT 集成到 TensorFlow 1.7 中,使得在 GPU 上運行深度學習推理應用變得更加容易。

NVIDIA 對 Kaldi 進行了優化,以實現在 GPU 上運行的更快性能,這將為消費者帶來更準確、更有用的虛擬助手,並降低數據中心運營商的部署成本。

進一步的合作夥伴公告包括:

  • AI 支持 Windows 10 應用程序,因為 NVIDIA 與這家 IT 巨頭合作構建 GPU 加速工具,以便開發人員在 Windows 應用程序中整合更多智能功能。
  • Kubernetes 的 GPU 加速,以促進多雲 GPU 集群上的企業推理部署。
  • MathWorks 今天宣布將 TensorRT 與其旗艦軟件 MATLAB 集成。 NVIDIA 表示,工程師和科學家現在可以從 MATLAB 為 Jetson、NVIDIA Drive 和 Tesla 平台自動生成高性能推理引擎。

接下來,NVIDIA 指定 TensorRT 可以部署在 NVIDIA DRIVE 自動駕駛汽車和 NVIDIA Jetson 嵌入式平台上,而深度神經網絡可以在每個框架的數據中心的 NVIDIA DGX 系統上進行訓練,然後部署到所有類型的技術中進行實時推理。邊緣。

TensorRT 將允許開發人員專注於創建新穎的深度學習驅動,而不是為推理部署進行性能調整。 NVIDIA 補充說,開發人員可以利用 TensorRT 通過 INTS 或 FP16 精度提供極快的推理。 這將減少延遲,進而提高嵌入式和汽車平台上的物體檢測和路徑規劃等功能。

NVIDIA TensorRT

討論這個故事

註冊 StorageReview 時事通訊