陳沛/文 谷歌專為AI計算設(shè)計的TPU(Tensor Processing Unit)最近不太順利。幾個月前發(fā)布新版TPU v5e時就曾卷入過爭議之中,這兩天又面臨計算機科學家Joseph Bates的專利侵權(quán)指控。這就讓我想具體談一下谷歌TPU。
谷歌TPU誕生之初即被寄予厚望
TPU的故事開始于2015年。當時大家普遍面臨一項挑戰(zhàn),那就是使用傳統(tǒng)CPU或GPU處理機器學習算法、特別是深度學習算法時效率都比較低。
在那個時候,不僅有如今紅得發(fā)紫的英偉達在努力升級GPU架構(gòu),谷歌也在規(guī)劃開發(fā)新的專用架構(gòu)處理器。
到2016年,谷歌就發(fā)布了用于大規(guī)模機器學習加速的首個TPU版本,專門用于優(yōu)化機器學習算法中常見的張量運算執(zhí)行過程,展現(xiàn)出了速度和能效優(yōu)勢。
首款TPU面世后,大家意識到谷歌在開發(fā)出廣受歡迎的海量數(shù)據(jù)管理系統(tǒng)、大規(guī)模分布式文件管理系統(tǒng)、開源機器學習開發(fā)框架后,又一次證明了自己深厚的技術(shù)沉淀。
抄襲?虛假?弱勢?TPU磕磕絆絆
盡管谷歌推出TPU受到業(yè)界高度評價,但這些年TPU并非一帆風順。
最近,計算機科學家Joseph Bates和他的公司Singular Computing LLC就指控谷歌在開發(fā)TPU v2和v3時,抄襲了他2010至2014年期間向谷歌介紹過的創(chuàng)新思路。
不僅如此,谷歌前幾月推出的TPU v5e,則直接跳過了前期的爭議版本TPU v5。當年谷歌非正式宣布TPU v5時,曾在研究論文中表示用到了AI設(shè)計v5版芯片,且設(shè)計效率比人類專家更高。不過,這一論述卻引發(fā)了業(yè)界對于內(nèi)容真實性的懷疑和調(diào)查,TPU v5后來也胎死腹中。
就算谷歌隨后正式發(fā)布了全新版本的TPU v5e以正視聽,它也在一定程度上回避了峰值算力指標的對比,而是聲稱每一美元對應算力的“性價比”最高。這一說法在追求最強算力的今天,似乎略顯弱勢。
最后,我細看了TPU v5e的架構(gòu)和性能指標。在TPU v5e的芯片架構(gòu)中,它又將從v3到v4沿用的雙TensorCore架構(gòu)改成了單TensorCore架構(gòu)。雖然TPU v5e的INT8峰值算力達到393 TFLOPS,超過v4的275 TFLOPS,但是v5e的BF16峰值算力卻只有197 TFLOPS,甚至還低于前一代v4的水平。這表明TPU v5e或?qū)⒏m用于推理而非訓練,也能映射出谷歌目前對于AI算力服務(wù)市場的戰(zhàn)略選擇。
TPU仍是谷歌未來發(fā)展多元算力的重要一環(huán)
TPU的發(fā)展歷程不能說明谷歌的技術(shù)水平高低,它只是客觀反映了全球科技行業(yè)中創(chuàng)新與挑戰(zhàn)并存的現(xiàn)實。
在快速迭代的技術(shù)產(chǎn)品和激烈競爭的市場中,谷歌這樣的科技巨頭也是在妥協(xié)各種內(nèi)外部因素后,穩(wěn)妥推動技術(shù)創(chuàng)新,努力維持技術(shù)領(lǐng)先地位。
如今,雖然谷歌云上已經(jīng)引入基于英偉達GPU的云算力服務(wù),但是自行開發(fā)的TPU v5e仍是谷歌優(yōu)化大語言模型、提升云業(yè)務(wù)競爭力、建設(shè)AI帝國的重要一環(huán)。
盡管存在爭議,但是TPU v5e的推出維持了谷歌在AI領(lǐng)域的主流地位,體現(xiàn)了谷歌在未來多元算力布局的長遠考慮。