今年以來,大模型的火熱發(fā)展不僅讓人工智能重回行業(yè)舞臺中心,對于產(chǎn)業(yè)新一輪價值增長也提供了新勢能。然而,隨著大模型技術(shù)研發(fā)的深入,參數(shù)規(guī)模增長,也使得相關(guān)的計算資源需求的急劇增加,為大模型發(fā)展的新一輪突破帶來了挑戰(zhàn)。
因此,高算力芯片的需求變得更為迫切,這種需求不僅僅體現(xiàn)在模型訓(xùn)練和推理上,同時也延伸到了API調(diào)用等方方面面。擁有足夠的算力資源,已經(jīng)成為評估一個人工智能企業(yè)實力的硬指標(biāo)之一。

近期,OpenAI的負(fù)責(zé)人山姆·奧特曼(Sam Altman)公開表示,盡管目前還在評估中,但OpenAI并不排除自研 AI芯片的可能性。除了可能的自研計劃,OpenAI也為此投資了Cerebras、Rain Neuromorphics、Atomic Semi等頗具潛力的芯片初創(chuàng)公司,旨在更快、更廉價地生產(chǎn)芯片。
除了OpenAI外,人工智能企業(yè)的巨頭,例如微軟、谷歌、Meta等企業(yè)也在積極探索AI芯片的研發(fā)。一時之間,AI芯片相關(guān)的課題,又成為大模型廣泛應(yīng)用的“仰望星空”前,首先需要“腳踏實地”解決的問題。AI芯片核心技術(shù)自研箭在弦上
眾所周知,隨著“百模大戰(zhàn)”的局面已然形成,大模型設(shè)計和實現(xiàn)上取得了顯著進展,參數(shù)規(guī)模增長相關(guān)的計算資源需求的急劇增加,訓(xùn)練和推理所需的計算資源也呈指數(shù)級增長。然而,算力作為人工智能發(fā)展的三要素之一,現(xiàn)實世界中有限的計算資源,訓(xùn)練和推理過程變得更加耗時和昂貴。
從技術(shù)架構(gòu)來看,AI芯片主要分為圖形處理器(GPU)、現(xiàn)場可編程門陣列(FPGA)、專用集成電路(ASIC)、中央處理器(CPU)四大類。其中,GPU是較為成熟的通用型人工智能芯片,作為重要的計算資源在人工智能領(lǐng)域中發(fā)揮著關(guān)鍵作用。特別是GPGPU技術(shù)的應(yīng)用,使得GPU在云端進行大模型訓(xùn)練算法時能夠顯著縮短訓(xùn)練時長,減少能源消耗,降低人工智能的應(yīng)用成本。FPGA和ASIC則是針對人工智能需求特征的半定制和全定制芯片,原則上定制化程度越高,所能兼容的算法種類就越少,但進行AI加速時擁有更好的性能與更低的功耗。

大模型之家在《人工智能大模型產(chǎn)業(yè)創(chuàng)新價值研究報告》中指出,在全球算力市場中,英偉達作為高算力芯片的龍頭企業(yè),占據(jù)著領(lǐng)先地位。其A100、H100顯卡適用于支持各種機器學(xué)習(xí)模型,具備強大的數(shù)據(jù)處理能力,使其成為目前主流的AI芯片。目前,全球GPU市場中英偉達占據(jù)近90%份額。
在生成式人工智能熱潮所引發(fā)的強勁需求下,英偉達第二季度營收達135.1億美元,同比增長101%,創(chuàng)下歷史新高,凈利潤達61.88億美元,同比暴漲843%。此外,英偉達首席執(zhí)行官黃仁勛指出,全球已裝設(shè)價值約1兆美元的數(shù)據(jù)中心,包括云、企業(yè)等領(lǐng)域,這一兆美元的數(shù)據(jù)中心正逐漸轉(zhuǎn)向加速運算和生成式AI,也讓數(shù)據(jù)中心業(yè)務(wù)收入103億美元,同比增長170%,成為新的增長引擎。
雖然亞馬遜、Meta、寒武紀(jì)、地平線等國內(nèi)外科技巨頭都推出過AI芯片,但從使用場景上更多是用于AI運算加速,即推理方面,這種自研芯片的優(yōu)勢在于可以大幅降低算力成本。
而在AI訓(xùn)練方面,英偉達憑借CUDA生態(tài)優(yōu)勢,在AI及高性能計算等核心技術(shù)領(lǐng)域,仍然具備一定的領(lǐng)先優(yōu)勢。
而AMD、谷歌等企業(yè)雖然分別采用兼容CUDA和自研TPU的方式切入AI芯片賽道,試圖從AI訓(xùn)練需求中分得一杯羹,但兩者本身性能相比于英偉達同時期GPU而言性能與功耗方面還有一定差距,因此在市場表現(xiàn)上只能算差強人意。
可以說,在英偉達因為AI賺得盆滿缽滿的現(xiàn)狀之下,有的企業(yè)想要搶奪英偉達在AI算力上的蛋糕,也有的企業(yè)想要實現(xiàn)芯片自主,在實現(xiàn)軟硬協(xié)同的同時,節(jié)約芯片成本。
在大模型技術(shù)的全球化競爭面前,芯片也將成為核心競爭力之一。10月18日,美國計劃進一步收緊對華AI芯片出口管制,并將管制擴大至更多國家。據(jù)稱,新規(guī)將取消芯片的通信速度限制,并將重點放在計算性能上,這將導(dǎo)致原本可以在中國市場銷售的英偉達A800和H800芯片停售(halting sales)。這兩款芯片是英偉達去年為符合美出口管制要求定制的產(chǎn)品。
而國內(nèi)在GPU領(lǐng)域,雖然在圖形處理性能上已經(jīng)快步縮小與頭部企業(yè)差距,但在GPGPU領(lǐng)域,在算力、端口性能、生態(tài)等方面仍然與巨頭有著一定的差距,雖然短期內(nèi),國內(nèi)AI芯片市場仍然需要奮力追趕,但從長期看來,這種競爭將推動我國積累和發(fā)展芯片核心技術(shù),促使我們在全球芯片領(lǐng)域取得更大的成就。端側(cè)人工智能推動芯片AI能力升級
大模型的“芯戰(zhàn)”,不僅體現(xiàn)在大模型本身的開發(fā)上。隨著分布式計算技術(shù)需求的不斷普及,以及用戶對于個人數(shù)據(jù)隱私需求的不斷升級。如今,大模型在端側(cè)的部署,也推動著智能設(shè)備在芯片方面擁有更高的AI能力。

在2023驍龍峰會期間,高通技術(shù)公司發(fā)布了驍龍 XElite、第三代驍龍8移動平臺等芯片新品,驍龍X Elite是為AI專門打造的PC計算平臺,支持在終端側(cè)運行超過130億參數(shù)的生成式AI模型。而第三代驍龍8移動平臺NPU相比前代有98%的性能提升,模塊支持獨立供電,達到40%的能效提升。得益于端側(cè)的算力提升,依靠本地大模型,就能進行生成式AI的交互。

除此之外,聯(lián)發(fā)科也在近期與vivo共同宣布,在行業(yè)內(nèi)首次實現(xiàn)了手機上的10億和70億AI大語言模型,以及10億AI視覺大模型,共同為消費者帶來行業(yè)領(lǐng)先的端側(cè)生成式AI應(yīng)用創(chuàng)新體驗,正是基于即將發(fā)布的天璣9300旗艦芯片和vivo X100系列。

在蘋果上個月發(fā)布的iPhone 15 Pro系列所搭載的A17 Pro芯片中,搭載了16核Neural Engine神經(jīng)網(wǎng)絡(luò)引擎,運行速度比上代快2倍,每秒可處理多達35萬億次運算。這意味著A17 Pro能夠更有效地執(zhí)行復(fù)雜的AI任務(wù),如深度學(xué)習(xí)、語音識別和圖像處理等,從而提供更好的用戶體驗,為蘋果的產(chǎn)品帶來了更多的創(chuàng)新可能,如光線追蹤、ProRes視頻錄制等功能。
同時,有消息稱蘋果公司也在擴大其AI工程師的招聘力度,并計劃整合其各種服務(wù)和平臺中的人工智能元素。蘋果還同時在內(nèi)部構(gòu)建文本生成技術(shù)等任務(wù),如長文本生成、摘要、問答等。
不只是手機產(chǎn)品,在PC產(chǎn)品線上,AI能力也成為了打造差異化賣點的重要方式。在上個月微軟發(fā)布會上,不僅再次重提Copilot的無縫AI體驗,在Surface產(chǎn)品線更新中,全新的Laptop Studio 2還成為配備獨立英特爾NPU的Windows計算機。
可見,大模型在端側(cè)的應(yīng)用,未來或?qū)⒊蔀槭謾C、PC等智能設(shè)備的標(biāo)配。一方面,本地部署的大模型,能夠有效提升大模型處理的速度;另一方面,模型無需聯(lián)網(wǎng)即可完成用戶數(shù)據(jù)的訓(xùn)練,大大提升了數(shù)據(jù)安全的防護能力,讓用戶在使用時減少隱私信息泄漏的隱患。
在大模型之家看來,隨著大模型在產(chǎn)業(yè)中全面落地已經(jīng)成為不可阻擋的趨勢,搭載大模型的智能設(shè)備將滲透你我工作與生活的方方面面。而作為算力的硬件載體,芯片必然將成為企業(yè)角力的焦點。
無論是在移動設(shè)備上,還是在云端數(shù)據(jù)中心,高性能、低能耗的芯片將成為各類智能應(yīng)用的核心。面對日益龐大的大模型計算需求,各大科技企業(yè)紛紛亮出了自家芯片的底牌,希望在這場硬件競賽中取得先機,而那些能夠在芯片技術(shù)上取得突破的企業(yè),將在人工智能領(lǐng)域占據(jù)重要地位,引領(lǐng)產(chǎn)業(yè)未來的發(fā)展方向。