機器學習將雲提供商轉變為定製晶片開發商


機器學習是人工智慧 (AI) 和計算機科學的一個子領域,專注於使用資料和演算法來模擬人類學習過程並逐步提高準確性。

正在發展的資料科學學科嚴重依賴於機器學習。在資料探勘專案中,演算法被訓練使用統計方法生成分類或預測,揭示重要的見解。然後,這些見解會影響應用程式和企業中的決策,可能會影響重要的增長 KPI。大資料的持續增長和擴充套件將推動對資料科學家的需求,他們將需要幫助識別最重要的業務問題以及正確回答這些問題所需的資料。

Google TensorFlow

Google 擁有一個名為 Google Cloud Platform (GCP) 的雲平臺。Google 以 Google Cloud 的名稱提供一組開放的雲計算服務。該平臺附帶若干託管服務,用於計算、儲存和建立由 Google 硬體驅動的應用程式。軟體開發人員、雲管理員和其他公司 IT 專家可以使用專用網路連線或開放網際網路訪問 Google Cloud 服務。

一個完整的開源機器學習平臺稱為 TensorFlow。儘管 TensorFlow 是一個控制機器學習系統所有方面的綜合框架,但本研討會重點關注使用特定 TensorFlow API 建立和訓練機器學習模型。

為了加快其機器學習演算法的速度,Google 建立了自己的特殊處理器。張量處理單元 (TPU) 是該公司最初於 2016 年 5 月在其 I/O 開發者大會上釋出的處理器。但是,該公司除了宣告它們是為其機器學習框架 TensorFlow 而設計之外,沒有提供太多關於它們的資訊。

與典型的 GPU/CPU 組合相比,TPU 平均執行 Google 的常規機器學習工作負載的速度快 15 倍到 30 倍(在本例中,為英特爾 Haswell 處理器和 Nvidia K80 GPU)。此外,TPU 提供了 30 倍到 80 倍更高的 TeraOps/瓦特,因為資料中心關注功耗(隨著未來更快的記憶體,這些數字可能會增加)。

Microsoft Brainwave

Project Brainwave 是一個用於雲端和邊緣即時 AI 推理的深度學習平臺。軟神經處理單元 (NPU) 加速了來自深度神經網路 (DNN) 的推理,該單元基於高效能現場可程式設計門陣列 (FPGA),並用於計算機視覺和自然語言處理。透過在 CPU 上新增一個連結的可程式設計矽計算層,Project Brainwave 正在徹底改變計算。

Microsoft 資料中心可以使用高效能、精度可適應的 FPGA 軟處理器,以高效率和小批次大小提供預訓練的 DNN 模型。使用 FPGA 可以使基礎設施面向未來,使其能夠適應持續的進步和升級。

單個 DNN 模型可以實現為可擴充套件的硬體微服務,該微服務使用多個 FPGA 在資料中心規模的計算結構上構建 Web 規模的服務。這可以立即處理大量資料。

雲運營商正在轉向專用硬體以提高效率和效能,尤其是在即時資料流方面,以滿足深度學習不斷增長的計算需求。Project Brainwave 具有低延遲、高吞吐量和高效率等特點,以及現場可程式設計性的適應性,使其成為高效能計算的三重奏。

由於它建立在 FPGA 之上,因此它可以跟上新的發展並滿足快速發展的 AI 演算法的需求。

Amazon Inferentia

AWS 的目標是使普通開發人員能夠普遍訪問尖端技術,並使深度學習能夠以按需付費的方式經濟適用地使用。AWS Inferentia 是亞馬遜建立的第一個定製矽,用於加速深度學習工作負載,它是實現此目標的長期計劃的關鍵組成部分。AWS Inferentia 旨在在雲中提供高效能推理,降低推理的總體成本,並使開發人員能夠輕鬆地將其機器學習整合到其商業應用程式中。

為了使用 Inferentia 晶片,使用者首先需要設定 AWS Neuron 軟體開發工具包 (SDK) 例項並透過它呼叫晶片。為了為客戶提供最佳的 Inferentia 體驗,Neuron 已整合到 AWS 深度學習 AMI (DLAMI) 中。

結論

根據晶片的大小和複雜性,製造任何晶片(ASIC、SOC 等)都是一項耗時且昂貴的操作,通常需要 10 到 1000 人的團隊。機器學習越來越多地應用於時尚推薦、鐵路維護,甚至醫療診斷等領域。

更新於: 2022 年 10 月 20 日

119 次檢視

開啟您的 職業生涯

透過完成課程獲得認證

開始
廣告

© . All rights reserved.