
近來,人工智能聊天機器人ChatGPT始終是全球關注的熱門話題,很多人認為AI將引發一場新革命。然而,ChatGPT的火爆離不開英偉達為其提供的“最強大腦”。事實上,早在十多年前,英偉達首席執行官黃仁勛就曾放言,英偉達的計算機芯片可以成為人工智能的“大腦”。如今看來,黃仁勛多年的堅持終于得到了回報,并幫助英偉達從電子游戲芯片制造商轉型為人工智能領域的先驅。
8月9日,英偉達創始人兼首席執行官黃仁勛宣布了英偉達最新的超級芯片NVIDIA DGX GH200 Grace Hopper。

這塊芯片搭載了全球最快的內存,不僅帶寬每秒5TB,內存容量更是暴增接近50%來到141GB,并表示任何大語言模型都能運行。據預計,DGX GH200將于明年第二季度投產。
當天,黃仁勛曝光了用于生成式AI的GH200 Grace Hopper超級芯片、NVIDIA AI Workbench以及通過生成式AI和OpenUSD升級的NVIDIA Omniverse。
同時,黃仁勛還宣布英偉達與 AI 開源社區 Hugging Face 合作,將把生成式 AI 超級計算能力交付給數百萬開發者,為他們構建大型語言模型(LLM)和 AI 應用提供支持。
黃仁勛表示,英偉達早在2018年做出了一項關乎生存的商業決策,很少有人意識到這個決策將重新定義英偉達的未來。而英偉達也得到了巨大的回報,但他認為,這只是人工智能驅動未來的開始。
黃仁勛認為,五年前的那個分水嶺是選擇以光線追蹤和智能渲染的形式采用AI圖像處理方式分別是RTX和DLSS。
“我們意識到光柵化已經達到了極限,”他指的是廣泛使用的傳統3D場景渲染方法。“2018 年是‘押注公司’的時刻。它要求我們重新發明硬件、軟件和算法。在我們利用AI重塑CG 的同時,我們也在為AI重塑GPU。”
雖然光線追蹤和DLSS仍處于在消費GPU和游戲領域采用的過程中,但因此而創建的架構被發現是與機器學習開發社區完美匹配的。
而對于訓練更大更復雜的生成式模型所需的大量計算不是由具有一定GPU功能的傳統數據中心來滿足,而是由H100這樣從一開始就設計用于大規模執行必要操作的系統。
可以公平地說,人工智能的發展在某些方面僅受到這些計算資源的可用性的限制。英偉達掀起了大規模的熱潮,并盡可能多的銷售了其所能生產的服務器和工作站。
黃仁勛堅信,這僅僅是開始。新的AI大模型不僅需要接受訓練,還需要由數百萬甚至數十億用戶定期實時運行。
“未來是LLM幾乎是所有事物的前沿:“人類”是新的編程語言,”他說。黃仁勛認為,從視覺效果到快速數字化的制造市場、工廠設計和重工業,一切都將在某種程度上采用自然語言界面。
“整個工廠都將是軟件定義的機器人,他們將制造的汽車本身也將是機器人,所以這是機器人設計的機器人建造機器人”他表示。
盡管這種觀點似乎有道理,有些人可能不同意他的觀點,但也恰好這對英偉達極其利好。
雖然對LLM依賴程度可能未知,但多數人認為將使用它以及需要對新的計算資源進行大量投資。當GH200(新推出的數據中心專用人工智能開發硬件)這樣的東西可以以不到十分之一的成本完成同樣的工作時,投資數百萬美元在上一代計算資源(例如以 CPU 為中心的機架)將會被取代掉。

在會上,黃仁勛展示了多個Grace Hopper計算單元像樂高積木一樣組裝成一個刀片,然后是一個機架,一排GH200,所有這些都以如此高的速度連接在一起,相當于“世界上最大的單個GPU”,其中包括一個完整的ML專業計算能力。
他提出,這些將成為未來數字化、人工智能主導的行業的基本單元。
“我不知道這句話是誰說的,但是請記住未來屬于加速計算,你買的越多,你省的就越多。如果我能要求你記住我今天演講中的一件事,那就是它”黃仁勛說。
本次,黃仁勛并沒有提及人工智能的許多挑戰、監管或人工智能轉變的整個概念。

此外,為了加速各類企業定制生成式AI,黃仁勛宣布,英偉達推出AI Workbench。據介紹,它為開發人員提供了一個統一、易于使用的工具包,可以在個人電腦或工作站上快速創建、測試和微調生成式AI模型,然后將其擴展到幾乎任何數據中心、公有云或NVIDIA DGX Cloud。
AI Workbench主要降低企業啟動AI項目的門檻。通過在本地系統上運行的簡化訪問界面,它允許開發人員從流行庫(如Hugging Face、GitHub 和NGC)中微調模型,使用自定義數據。然后,這些模型可以在多個平臺之間共享。
“為了使這種能力普惠,我們必須使其能夠在幾乎所有地方運行。”黃仁勛稱,“讓所有人都能參與生成式AI。”
而在售賣硬件之外,在軟件、云計算和平臺以及生態方面,英偉達同樣不遺余力,因為只有讓生成式AI真正進入到工業生產和辦公中,才算是真正實現“AI普惠”。