国产6699视频在线观看_女人爽到喷水的视频大全_亚洲欧美日韩国产视频亚洲欧美综合日韩久久_中文字幕无码久久东京热_av电影中文一区

 
首頁(yè) > 熱點(diǎn) >
 
 

“AI算力荒”解困的短、中、長(zhǎng)策

2023-04-19 08:45:02  來(lái)源:鈦媒體APP

圖片來(lái)源@視覺中國(guó)


【資料圖】

文 | 腦極體

AI算力不夠,已經(jīng)是老大難問題。ChatGPT等大語(yǔ)言模型,掀起了新一輪“大煉模型”和“煉大模型”的熱潮,又讓本就不足的算力雪上加霜。

適用于AI計(jì)算的GPU供不應(yīng)求,買不到卡的企業(yè)和科研機(jī)構(gòu)嗷嗷待哺,買到了卡的企業(yè)不得不面對(duì)漲價(jià),也被架在成本的火上烤。

目前,英偉達(dá)的GPU是AI計(jì)算最主流的硬件。有業(yè)內(nèi)人士估算過,GPT-4模型僅滿足日訪問量的計(jì)算需求,就需要六萬(wàn)張英偉達(dá)A100,每一張價(jià)格在60-100萬(wàn)人民幣,而A100和更強(qiáng)大的H100,這兩款芯片此前都被列入了美國(guó)的禁止出口清單里。還好在英偉達(dá)的游說下,又能夠在 2023 年 3 月 1 日之前繼續(xù)給大陸提供 A100 產(chǎn)品。

現(xiàn)在緩沖期已經(jīng)到了,AI算力的局面是蠟燭兩頭燒,一邊是越來(lái)越少的海外高性能芯片,一邊是越來(lái)越多的大模型訓(xùn)推需求,究竟怎么辦呢?

我知道很多普通網(wǎng)友很急,覺得又被卡脖子了,但大家確實(shí)不用那么急,為AI算力荒解困,業(yè)內(nèi)其實(shí)已經(jīng)探索出了短策、中策和長(zhǎng)策。今天就來(lái)講講,如何見招拆招。

短策:開源節(jié)流,過緊日子

實(shí)事求是來(lái)說,最關(guān)鍵的AI芯片GPU被國(guó)際廠商壟斷,市場(chǎng)占有率達(dá)到80%以上。而國(guó)產(chǎn)廠商雖然也有相應(yīng)的產(chǎn)品,但要么還沒有量產(chǎn),無(wú)法滿足規(guī)模應(yīng)用的需求;要么性能跟海外先進(jìn)產(chǎn)品的差異很大,實(shí)用中大概只能達(dá)到60%左右的水平。而中美博弈,短期內(nèi)是不會(huì)有方向性的轉(zhuǎn)變的,未來(lái)高性能芯片的封禁可能是常態(tài)。

所以結(jié)論就是,放棄幻想,接下來(lái)要準(zhǔn)備過AI算力的緊日子了。

目前業(yè)內(nèi)的應(yīng)付辦法有兩種:

一是開源。

對(duì)于N卡,繼續(xù)買,抓緊囤貨。

國(guó)內(nèi)頭部互聯(lián)網(wǎng)公司,尤其是已經(jīng)推出了大模型的企業(yè),都會(huì)進(jìn)行20%左右的戰(zhàn)略備貨,儲(chǔ)備了萬(wàn)片級(jí)別的英偉達(dá)A100芯片,所以算力基礎(chǔ)都不差。某一線云廠商透露,現(xiàn)在自家有10萬(wàn)片的A100,能夠滿足好幾個(gè)客戶復(fù)現(xiàn)GPT的AI算力需求。

此前國(guó)內(nèi)區(qū)塊鏈火爆,礦機(jī)廠商和數(shù)字貨幣販子也買了大量英偉達(dá)GPU用來(lái)“挖礦”,聽說也被一些AI公司緊急收了過來(lái)。而且,雖然緩沖期已到,但只要交付模式上商務(wù)合規(guī),還是有可能繼續(xù)用到先進(jìn)產(chǎn)品的。

對(duì)于國(guó)產(chǎn)芯,加快上馬,落地部署。

目前,國(guó)內(nèi)的頭部科技公司,已經(jīng)開始籌備或落實(shí),將寒武紀(jì)MLU370/590、燧原、百度昆侖芯、阿里平頭哥等,部署到算力集群中,盡管占比還比較少,但國(guó)產(chǎn)芯的使用和適配已經(jīng)開始了,隨著合規(guī)及產(chǎn)能提速,也能滿足AI并行計(jì)算的需求。

芯片的國(guó)產(chǎn)化替代,這一步遲早要走,大模型成了那個(gè)提前上馬的變量。

二是節(jié)流。

既然AI基礎(chǔ)設(shè)施跟大模型建設(shè)熱潮之間有剪刀差,咱能不能把錢花在刀刃上呢?還真能。

OpenAI選擇訓(xùn)大語(yǔ)言模型來(lái)實(shí)現(xiàn)通用人工智能,超大規(guī)模參數(shù)來(lái)達(dá)到“智能涌現(xiàn)”,堪稱為“敗家子兒式創(chuàng)新”。微軟公司的博客中透露,2019 年微軟宣布向 OpenAI 投資 10 億美元,為了讓OpenAI 能訓(xùn)練出越來(lái)越強(qiáng)大的模型,將28.5萬(wàn)個(gè)CPU和10000個(gè)GPU聯(lián)接起來(lái),造了一個(gè)超級(jí)計(jì)算集群。

背靠家大業(yè)大的微軟,這么燒無(wú)可厚非。但放到中國(guó)語(yǔ)境下,或許我們還可以想一想,等這波GPT式熱度消退,基礎(chǔ)模型已經(jīng)成型,那些燒錢打造的算力基礎(chǔ)設(shè)施該何去何從?百億、萬(wàn)億參數(shù)的大模型,部署到工廠、礦區(qū)、城市之類的行業(yè)場(chǎng)景,是不是也有相應(yīng)的算力支撐?

冷靜下來(lái)后,為AI算力“節(jié)流”,才是大模型真正落地的必經(jīng)之路。

節(jié)流,有兩個(gè)辦法:一是大模型“瘦身”,通過剪枝讓模型稀疏化、知識(shí)蒸餾對(duì)模型進(jìn)行壓縮,通過權(quán)重共享來(lái)減少參數(shù)量……總之,一旦一種技術(shù)路線被證明有效,那么很快就會(huì)有多種技術(shù)手段對(duì)其進(jìn)行優(yōu)化,讓模型成本大幅下降。

最近加州大學(xué)伯克利分校打造的icuna (小羊駝)模型,就只用8張A100訓(xùn)練了一天時(shí)間,將130億參數(shù)模型的訓(xùn)練成本,從1000美元降低至300美元。所以,模型“瘦身”可以有效減少單個(gè)模型的算力資源消耗。

二是硬件“壓榨”,通過端到端優(yōu)化,從AI芯片中“壓榨”出更多性能,把有限的硬件用到極致,也是一種節(jié)流。

舉個(gè)例子,主流的大模型,包括ChatGPT、GPT-4,都是以Transformer 架構(gòu)為主,微軟通過ONNX開源推理引擎的優(yōu)化,可以將大語(yǔ)言模型的推理性能提高17倍。某國(guó)產(chǎn)芯片廠商針對(duì)Transformer結(jié)構(gòu)特性進(jìn)行優(yōu)化,將芯片性能提升到原本的五倍以上,壓縮顯存30%以上。資源利用率更高,相當(dāng)于在AI訓(xùn)練和推理時(shí)單位部署成本更低了。

總的來(lái)說,面對(duì)短期內(nèi)“AI算力荒”,我們只能接受現(xiàn)實(shí),正視差距,廣積糧食,開源節(jié)流。

承認(rèn)這一點(diǎn)沒有什么好憋屈的,畢竟中國(guó)AI從零起步,到今天能跟no.1站在同一張牌桌,這才是我們熟悉的故事。

中策:兼容并包的全國(guó)算網(wǎng)

一雙眼睛全盯著高性能GPU,會(huì)發(fā)現(xiàn)差距簡(jiǎn)直無(wú)從彌補(bǔ),還在越拉越大。英偉達(dá)、英特爾、AMD等已經(jīng)將AI芯片支撐推進(jìn)到了4nm,而光刻機(jī)禁運(yùn),制程追不上,國(guó)內(nèi)14nm制程將將量產(chǎn),巧婦難為無(wú)米之炊。

但換個(gè)角度,可能就柳暗花明又一村。

大家可能還記得,去年?yáng)|數(shù)西算工程正式啟動(dòng),新型國(guó)家算力網(wǎng)絡(luò)成了新的熱點(diǎn),我們也做過很多報(bào)道和分析。

當(dāng)時(shí)我們就提到:實(shí)現(xiàn)先進(jìn)算力的一體化、集約化、多樣化供給,是“全國(guó)算力一盤棋”的題中之義。而這只是全國(guó)一體化大數(shù)據(jù)中心協(xié)同創(chuàng)新體系中的一環(huán)。

今天看來(lái),通過幾年時(shí)間,構(gòu)建數(shù)網(wǎng)、數(shù)紐、數(shù)鏈、數(shù)腦、數(shù)盾,對(duì)于AI大模型的數(shù)據(jù)、算力、聯(lián)接、商業(yè)化等多種挑戰(zhàn),是一種持續(xù)釋放影響的“中策”。

本質(zhì)上說,AI模型的訓(xùn)練推理是CPU+加速芯片。GPU的高并行性,可以成規(guī)模地處理AI工作負(fù)載,為深度學(xué)習(xí)加速,在進(jìn)行模型的訓(xùn)練和推斷時(shí)會(huì)更具有效率優(yōu)勢(shì)。英偉達(dá)的A100,在AI推理時(shí)吞吐量是CPU的249倍。

但這并不意味著,CPU不能做并行計(jì)算,加速芯片沒有其他選擇。

生成式AI的模型訓(xùn)練通常是在云端完成的,云端芯片以CPU+GPU異構(gòu)計(jì)算為主。一些小型的模型是完全可以CPU訓(xùn)練的,可能訓(xùn)練速度慢一點(diǎn),但確實(shí)可以用。

此外,ASIC芯片也很適合AI計(jì)算,目前還沒有明顯的頭部廠商,國(guó)產(chǎn)廠商還有機(jī)會(huì),很多企業(yè)開始推出自研的ASIC加速芯片。比如谷歌的TPU、英特爾的DPU、國(guó)內(nèi)寒武紀(jì)的NPU、地平線的BPU等。

模型訓(xùn)練好之后,需要結(jié)合數(shù)據(jù)計(jì)算“推理”出各種結(jié)論。手機(jī)人臉識(shí)別認(rèn)出“你是你”這個(gè)環(huán)節(jié)就是“端側(cè)推理”,iPhone將相冊(cè)上傳到云端進(jìn)行用戶行為分析就是“云端推理”。

相對(duì)模型訓(xùn)練而言,推理階段處理的是小批量數(shù)據(jù),這時(shí)候GPU并行計(jì)算的性價(jià)比就不那么明顯了,尤其是在邊緣和終端大規(guī)模部署AI算法,是難以承受如此高的成本的。FPGA、ASIC等加速芯片,協(xié)助CPU來(lái)滿足推理的計(jì)算需求,是具有競(jìng)爭(zhēng)優(yōu)勢(shì)的。

這跟算網(wǎng)有什么關(guān)系呢?

劃重點(diǎn),在全國(guó)一體化算力網(wǎng)絡(luò)體系的各種政策文件中,“算力多元化”的出現(xiàn)頻率是非常高的。

多元化,一方面體現(xiàn)在多種計(jì)算架構(gòu),支持CPU、GPU、ASIC、FPGA等多種芯片的混合部署,充分發(fā)揮不同體系架構(gòu)的優(yōu)勢(shì)。

另一方面,體現(xiàn)在多種算力,模型訓(xùn)練、邊緣推理、數(shù)值模擬的不同場(chǎng)景需要不同的算力,AI算力、通用算力、高性能算力等綜合配給,才能很好地支撐各類行業(yè)AI應(yīng)用。

正如微軟Azure高性能計(jì)算和人工智能產(chǎn)品負(fù)責(zé)人Nidhi Chappell所說,“讓更大的模型訓(xùn)練更長(zhǎng)的時(shí)間,意味著你不僅需要擁有最大的基礎(chǔ)設(shè)施,還必須能夠長(zhǎng)期可靠地運(yùn)行它”。

要長(zhǎng)期可靠地保障AI算力資源,自然要發(fā)揮中國(guó)智慧——東方不亮西方亮,黑了南方有北方。通過全國(guó)一體化算力網(wǎng)絡(luò)的建設(shè),充分推動(dòng)多種架構(gòu)的落地部署,國(guó)產(chǎn)芯片的同步發(fā)展。

未來(lái)幾年算網(wǎng)成型,對(duì)于保障算力供給,應(yīng)對(duì)不可抗力,會(huì)起到非常關(guān)鍵的作用。

長(zhǎng)策:長(zhǎng)出那雙手

理想化的角度來(lái)說,緩解AI算力荒的終極解決思路,肯定是造出對(duì)標(biāo)國(guó)際一流水平的自研芯片。但這就像“中國(guó)什么時(shí)候能有自己的OpenAI”一樣,是一個(gè)漫長(zhǎng)的暢想。

漫長(zhǎng),指的不只是足夠長(zhǎng)的時(shí)間和耐心,給半導(dǎo)體行業(yè)足夠多的錢,還要能吸納全球頂尖的技術(shù)人才、全球優(yōu)質(zhì)的風(fēng)險(xiǎn)投資機(jī)構(gòu)、計(jì)算機(jī)基礎(chǔ)人才的培養(yǎng)、允許失敗試錯(cuò)的創(chuàng)新氛圍和兜底機(jī)制、充分信息化數(shù)字化的優(yōu)質(zhì)數(shù)據(jù)基礎(chǔ)、繁榮的商業(yè)市場(chǎng)……這是一個(gè)社會(huì)工程。

那么,我們是不是就得一直這么憋屈呢?

當(dāng)然不是。咱們除了“脖子”,還有“手”啊,就不能用自己的長(zhǎng)處,去卡別人的脖子呢?

這雙手,可能是新的計(jì)算體系。

今天,經(jīng)典計(jì)算的“摩爾定律”已死,英偉達(dá)提出的“新摩爾定律”也面對(duì)AI算力供需的剪刀差有心無(wú)力。

光計(jì)算、類腦計(jì)算、量子計(jì)算等新計(jì)算體系,正在成為各國(guó)的重點(diǎn)布局方向。以量子計(jì)算為例,有望徹底解決經(jīng)典計(jì)算的算力不足問題。

當(dāng)然,總想著“彎道超車”大概率會(huì)翻車,提到這點(diǎn)只是想提醒一下,不要只盯著CPU/GPU這些已經(jīng)被卡脖子的焦點(diǎn)領(lǐng)域,而忽視了其他路線,將路走窄了。畢竟誰(shuí)能想到,當(dāng)年游戲宅們追捧的顯卡能卡住今天的AI計(jì)算市場(chǎng)呢?

英偉達(dá)GPU被發(fā)現(xiàn)可以用來(lái)跑AI之前,只有游戲發(fā)燒友會(huì)對(duì)N卡津津樂道,這種“無(wú)心插柳柳成蔭”的結(jié)果,恰好說明了多技術(shù)路線創(chuàng)新的重要性,或許會(huì)在某條路上就發(fā)現(xiàn)驚喜。

這雙手,也可能是產(chǎn)業(yè)生態(tài)。

AI本來(lái)就是一個(gè)工程性、交叉性很強(qiáng)的學(xué)科,AI芯片要充分釋放能力,除了更高制程的工藝,也離不開深刻理解行業(yè)用戶的使用習(xí)慣,才能把軟硬件做到位。

英偉達(dá)GPU的主流地位,與CUDA生態(tài)有直接關(guān)系。而CUDA的護(hù)城河正是軟件堆棧,可以讓研究人員和軟件開發(fā)者更好地在GPU上編程,構(gòu)建應(yīng)用。

如果說AI算力問題,國(guó)產(chǎn)硬件的差距是明線,軟件生態(tài)就是那條更難的暗線。

首先是軟件,就拿大模型來(lái)說,下接底層算力硬件、操作系統(tǒng)和框架,上接行業(yè)應(yīng)用,需要提供一整套從開發(fā)、應(yīng)用、管理的全流程服務(wù)和工程化方法,而目前積累了全面技術(shù)棧的只有少數(shù)國(guó)內(nèi)頭部企業(yè)。

其次是生態(tài),CUDA生態(tài)經(jīng)過多年積累,在AI計(jì)算的絕對(duì)主導(dǎo)地位,而國(guó)內(nèi)幾個(gè)頭部企業(yè)都有各自的AI生態(tài)。我們就曾遇到過這樣的采訪對(duì)象,一個(gè)工業(yè)企業(yè)的數(shù)字化案例中,既有A生態(tài)的一些軟硬件,又有B生態(tài)的一些解決方案。多個(gè)生態(tài)并存,增加了產(chǎn)業(yè)的選項(xiàng)自由和安全感,也難免帶來(lái)適配上的復(fù)雜度,以及一些重復(fù)性工作。

國(guó)產(chǎn)芯片硬件的突破或在旦夕之間,但軟件生態(tài)的爆發(fā)卻需要漫長(zhǎng)的時(shí)間去醞釀。而一旦生態(tài)如同齒輪一樣轉(zhuǎn)起來(lái)了,吸納更多產(chǎn)業(yè)資源和人才力量,很多軟硬件創(chuàng)新都能加速發(fā)展。

大語(yǔ)言模型的這波熱鬧中,我有聽到一些聲音,說中國(guó)AI行業(yè)“渾身上下都是脖子”“一卡脖子就翻白眼,一開源就全球領(lǐng)先”。

很能理解大家“怒其不爭(zhēng)”的心情,但實(shí)事求是地看,中國(guó)AI走到今天,靠的從來(lái)不是誰(shuí)的施舍,是真的有一群人,在卡脖子時(shí)沒有翻白眼,而是與禁令搶時(shí)間,與海外合作伙伴想對(duì)策,把國(guó)產(chǎn)芯片扶上馬送一程。

如果說,無(wú)需擔(dān)心“AI算力荒”,這是一種無(wú)視現(xiàn)實(shí)差距的盲目自信。但也確實(shí)不用一提算力、一提芯片,就縈繞著“生于憂患死于安樂”的焦慮氣息。

星光不問趕路人,與其花時(shí)間自憐自哀,不如在有限的規(guī)則里,做力所能及的事。短策、中策、長(zhǎng)策久久為功,這才是中國(guó)緩解“AI算力荒”的真實(shí)選擇。

關(guān)鍵詞:

  
相關(guān)新聞
每日推薦
  • 滾動(dòng)
  • 綜合
  • 房產(chǎn)