AI模拟芯片能效達傳統芯片14倍

《自然》23日發表的(de)研究報道了(le)一種能效爲傳統數字計算(suàn)機芯片14倍的(de)人(rén)工智能(AI)模拟芯片。這一由IBM研究實驗室開發的(de)芯片在語音(yīn)識别上的(de)效率超過了(le)通(tōng)用(yòng)處理(lǐ)器。該技術或能突破當前AI開發中因算(suàn)力性能不足和(hé)效率不高(gāo)而遇到的(de)瓶頸。

随著(zhe)AI技術的(de)崛起,對能源和(hé)資源的(de)需求也(yě)随之上升。在語音(yīn)識别領域,軟件升級極大(dà)提升了(le)自動轉寫的(de)準确率,但由于在存儲器與處理(lǐ)器之間移動的(de)運算(suàn)量不斷增加,硬件無法跟上訓練和(hé)運行這些模型所需的(de)數以百萬計的(de)參數。研究人(rén)員提出的(de)一個解決辦法是,使用(yòng)“存内計算(suàn)”(CiM,或稱模拟AI)芯片。模拟AI系統通(tōng)過直接在它自己的(de)存儲器内執行運算(suàn)來防止低效,而數字處理(lǐ)器需要額外時間和(hé)能源在存儲器和(hé)處理(lǐ)器之間移動數據。模拟AI芯片預計能極大(dà)提升AI計算(suàn)的(de)能效,但對此的(de)實際演示一直缺乏。

研究團隊此次開發了(le)一個14納米的(de)模拟芯片,在34個模塊(tile)中含有3500萬個相變化(huà)内存單元。研究團隊用(yòng)兩個語音(yīn)識别軟件在語言處理(lǐ)能力上測試了(le)該芯片的(de)效率,這兩個軟件分(fēn)别是一個小網絡(谷歌(gē)語音(yīn)命令)和(hé)一個大(dà)網絡(Librispeech語音(yīn)識别),并在自然語言處理(lǐ)任務上與行業标準進行對比。小網絡的(de)性能和(hé)準确率與當前的(de)數字技術相當。對于更大(dà)的(de)Librispeech模型來說,該芯片能達到每秒每瓦12.4萬億次運算(suàn),系統性能估計最高(gāo)能達到傳統通(tōng)用(yòng)處理(lǐ)器的(de)14倍。

研究團隊總結道,該研究在小模型和(hé)大(dà)模型中同時驗證了(le)模拟AI技術的(de)性能和(hé)效率,有望成爲數字系統的(de)商業可(kě)行的(de)替代選擇。(張夢然)