长沙分类信息网-长沙新闻网

nVIDIA英伟达 Tesla V100 深度学习推理高性能GPU卡

2021-7-27 17:41:57发布17次查看
人工智慧訓練
從語音辨識到訓練虛擬私人助理自然溝通,或從開車時偵測車道到訓練自駕車行駛,資料科學家運用人工智慧克服更複雜的挑戰。解決這類的問題需要在可以掌握的時間內,訓練複雜度非常高的深度學習模型。配備 43000 個 tensor 核心的 tesla v100,是全球第一個突破 100 兆次浮點運算 (tops) 深度學習效能障礙的 gpu。第二代 nvidia nvlink™ 以最高每秒 160 gb 的速度連結多個 v100 gpu,建立世界最強大的運算伺服器。在先前系統上會耗費數週運算資源的人工智慧模型,現在只要幾天就可以訓練完成。訓練時間大幅縮短後,人工智慧現在能協助我們解決全新領域的問題。
人工智慧推論
為了讓我們能連接上最相關的資訊、服務和產品,超大規模的公司已開始運用人工智慧。不過,滿足使用者快速成長的需求並不容易。舉例來說,世界最大型的超大規模公司估計,如果每位使用者每天只花三分鐘使用語音辨識服務,公司就要加倍資料中心的容量。超大規模的 tesla v100 是針對現有超大規模伺服器架中的最高效能所設計。使用人工智慧作為核心技術,一個配備 tesla v100 gpu 的 13kw 伺服器架可以提供與 cpu 伺服器 30 個機架相同的深度學習推論效能。這個輸送量和效能的大幅成長將使可橫向擴充的人工智慧服務成為可能。
高效能運算 (hpc)
高效能運算 (hpc)是現代科技的重要支柱。從氣候預測到藥品開發,再到尋找新的能源資源,研究人員使用大量運算系統來模擬和預測我們的世界。人工智慧讓研究人員可以分析大量資料,延伸傳統的 hpc 技術,在單純模擬無法完全預測真實世界情況之處,獲得實用的資訊。tesla v100 是專為結合高效能運算和人工智慧所設計。它提供 hpc 系統一個擅長科學模擬和資料科學的運算技術的平台,以在資料中找出見解。在整合的架構中搭配使用 cuda 核心和 tensor 核心,採用 tesla v100 gpu 的單一伺服器可以上百個僅配備 cpu 的設備伺服器,取代傳統的 hpc 和人工智慧工作負載。所有的研究人員和工程師現在都可負擔人工智慧超級電腦的價格,來處理最具挑戰的工作。​


深圳市鑫昊翔科技有限公司

13692264348
中国 深圳
该用户其它信息

推荐信息

长沙分类信息网-长沙新闻网
关于本站