華碩|NVIDIA Hopper GPU具有13000個人工智能設計電路

華碩|NVIDIA Hopper GPU具有13000個人工智能設計電路

文章圖片

華碩|NVIDIA Hopper GPU具有13000個人工智能設計電路

文章圖片


【錨思科技訊】NVIDIA在過去幾年中已經成為了人工智能巨頭 , 他們的GPU不僅成為HPC的首選 , 也成為了數據中心(包括人工智能和深度學習生態系統)的首選 。 最近 , NVIDIA宣布 , 它正在利用人工智能來設計和開發遠遠優于人類創建的GPU , 看起來NVIDIA的旗艦Hopper GPU就是對這一聲明的證明 , 該聲明的特點是近13000個電路實例完全由AI制作 。


在NVIDIA開發者網頁上發布的一篇博客中 , 該公司重申了其優勢 , 以及它自己是如何利用其人工智能能力來設計迄今為止最大的GPU Hopper H100的 。 NVIDIA GPU大多使用最先進的EDA(電子設計自動化)工具進行設計 , 但借助人工智能 , 利用PrefixRL方法 , 即使用深度強化學習優化并行前綴電路 , 該公司可以設計更小、更快和更節能的芯片 , 同時提供更好的性能 。

計算機芯片中的算術電路是使用邏輯門(如NAND、NOR和XOR)和導線組成的網絡構建的 。 理想電路應具有以下特性:
?。阂粋€較低的區域 , 以便在一個芯片上可以容納更多的電路 。
快速:降低延遲以提高芯片性能 。
功耗更低:芯片功耗更低 。

NVIDIA使用這種方法設計了近13000個人工智能輔助電路 , 與速度和功能相當的EDA工具相比 , 面積減少了25% 。 但PrefixRL是一項計算量非常大的任務 , 對于每個GPU的物理模擬 , 需要256個CPU和32000多個GPU小時 。 為了消除這一瓶頸 , NVIDIA開發了Raptor , 這是一個內部分布式強化學習平臺 , 利用NVIDIA硬件的特殊優勢進行這種工業強化學習 。

Raptor具有一些增強可擴展性和訓練速度的功能 , 例如作業調度、自定義網絡和GPU感知的數據結構 。 在PrefixRL的上下文中 , Raptor使工作可以跨CPU、GPU和Spot實例的混合分布 。
此強化學習應用程序中的網絡具有多樣性 , 并從以下方面受益 。
Raptor能夠在NCCL之間切換以進行點到點傳輸 , 從而將模型參數直接從學習者GPU傳輸到推理GPU 。
Redis用于異步和較小的消息 , 如獎勵或統計信息 。
JIT編譯的RPC , 用于處理高容量和低延遲請求 , 如上傳體驗數據 。
【華碩|NVIDIA Hopper GPU具有13000個人工智能設計電路】NVIDIA得出結論 , 將人工智能應用于現實電路設計 , 可以在未來實現更好的GPU設計 。

    相關經驗推薦