在計算神經(jīng)網(wǎng)絡(luò )時(shí),常規的計算機芯片已達到極限。由NVIDIA和Google等公司開(kāi)發(fā)的圖形處理器和用于A(yíng)I的特殊硬件功能更為強大。神經(jīng)形態(tài)芯片基本上類(lèi)似于真實(shí)的神經(jīng)元,并且工作效率很高。量子計算機還可以極大地提高計算能力。

沒(méi)有人工智能,就不可能實(shí)現自動(dòng)駕駛和自動(dòng)駕駛功能。所需的計算能力由專(zhuān)門(mén)從事并行計算的專(zhuān)用芯片提供。但是研究人員也在研究新的,受生物學(xué)啟發(fā)的解決方案,以及在有望實(shí)現更大計算能力的量子計算機上。
幾十年來(lái),電子技術(shù)在汽車(chē)中變得越來(lái)越普遍。如今,數十種聯(lián)網(wǎng)控制設備控制引擎,變速器,信息娛樂(lè )系統和許多其他功能。汽車(chē)早已成為滾動(dòng)式計算中心,但如今,計算機功能的新飛躍正在等待著(zhù)他們,因為自動(dòng)駕駛功能和自動(dòng)駕駛需要越來(lái)越強大的計算機。而且由于傳統的芯片無(wú)法實(shí)現所需的性能,因此圖形處理器,張量處理單元(TPU)和其他專(zhuān)門(mén)為計算神經(jīng)網(wǎng)絡(luò )而設計的硬件的時(shí)機已到。
盡管常規的CPU(中央處理單元)可以普遍使用,但它們缺乏用于A(yíng)I的最佳架構。這是由于在神經(jīng)網(wǎng)絡(luò )的訓練和推理過(guò)程中發(fā)生的典型計算。“神經(jīng)網(wǎng)絡(luò )中的矩陣乘法非常復雜,”卡爾斯魯厄技術(shù)學(xué)院(KIT)Steinbuch計算中心的MarkusGötz博士解釋說(shuō)。“但是這些計算非常適合并行化,尤其是圖形卡。具有24個(gè)內核和矢量命令的高端CPU可以每個(gè)周期執行24次4計算。配備現代圖形卡的顯卡已超過(guò)5,000個(gè)。”

圖形處理器(GPU,圖形處理單元)從一開(kāi)始就專(zhuān)為并行工作而設計,并為此目的量身定制了內部架構:GPU包含成百上千個(gè)用于整數和浮點(diǎn)運算的簡(jiǎn)單計算模塊,這些模塊可以同時(shí)應用相同的功能對不同數據進(jìn)行操作(單指令多個(gè)數據)。因此,它們能夠在每個(gè)時(shí)鐘周期執行數千個(gè)計算操作-例如,計算虛擬景觀(guān)的像素或神經(jīng)網(wǎng)絡(luò )的矩陣乘法。因此,毫無(wú)疑問(wèn),GPU制造商NVIDIA的芯片目前處于理想的位置,成為一般和特別是自動(dòng)駕駛中人工智能的主力軍。大眾汽車(chē)使用美國公司的硬件。保時(shí)捷工程技術(shù)軟件開(kāi)發(fā)高級經(jīng)理Ralf Bauer說(shuō):“自動(dòng)駕駛需要特殊的硬件。” “ GPU是起點(diǎn);稍后,可能會(huì )推出專(zhuān)用芯片。”
NVIDIA當前提供專(zhuān)門(mén)用于自動(dòng)駕駛的Xavier流程。一個(gè)硅芯片配備了八個(gè)常規CPU和一個(gè)專(zhuān)門(mén)針對機器學(xué)習而優(yōu)化的GPU。對于2級以上的自動(dòng)駕駛(有限的縱向和橫向控制以及與2級相比,基于標準傳感器的增強功能),可以使用Drive AGX Xavier平臺,該平臺每秒最多可以執行30萬(wàn)億次計算操作(30 TOPS,每秒Tera操作數)。對于高度自動(dòng)化和自動(dòng)駕駛,NVIDIA擁有Drive AGX飛馬(320 TOPS),在沒(méi)有人為干預的情況下,測試車(chē)可以行駛至80公里,而無(wú)需經(jīng)過(guò)硅谷。作為Xavier的繼任者,NVIDIA目前正在開(kāi)發(fā)Orin GPU,盡管目前對其性能數據知之甚少。
并非所有汽車(chē)制造商都使用GPU。2016年,特斯拉開(kāi)始開(kāi)發(fā)自己的神經(jīng)網(wǎng)絡(luò )處理器。這家美國公司自2019年初開(kāi)始在其車(chē)輛中安裝FSD(全自動(dòng)駕駛)芯片,而不是NVIDIA的圖形處理器。除了兩個(gè)神經(jīng)處理單元(NPU)(每個(gè)單元72個(gè)TOPS)之外,它還包含十二個(gè)用于常規計算的常規CPU內核和用于圖像和視頻數據的后處理的GPU。像GPU這樣的NPU都是并行專(zhuān)用的,因此可以快速執行加法和乘法運算。
適用于A(yíng)I應用的Google芯片
谷歌是芯片業(yè)務(wù)的又一新興市場(chǎng):自2015年以來(lái),這家技術(shù)公司一直在其數據中心中使用自主開(kāi)發(fā)的TPU。該名稱(chēng)來(lái)自數學(xué)術(shù)語(yǔ)“張量”,其中包括向量和矩陣以及其他元素。這就是Google廣泛使用的人工智能軟件庫稱(chēng)為T(mén)ensorFlow的原因,并且為此芯片進(jìn)行了優(yōu)化。Google在2018年推出了第三代TPU,其中包含四個(gè)“矩陣乘法單元”,據說(shuō)可以實(shí)現90 TFLOPS(每秒的每秒浮點(diǎn)運算)。Google的子公司W(wǎng)aymo使用TPU訓練神經(jīng)網(wǎng)絡(luò )進(jìn)行自動(dòng)駕駛。

諸如Tesla的FSD或Google的TPU之類(lèi)的專(zhuān)用芯片只有大量使用時(shí)才變得經(jīng)濟。一種替代方法是FPGA(現場(chǎng)可編程門(mén)陣列)。這些通用的數字芯片包含無(wú)數的計算和存儲塊,可以通過(guò)編程將它們相互組合在一起,并可以將算法實(shí)質(zhì)上注入到硬件中(例如使用專(zhuān)用芯片,但價(jià)格便宜得多)。FPGA可以輕松地適應AI應用程序的特定要求(例如指定的數據類(lèi)型),從而在性能和能耗方面產(chǎn)生好處??偛课挥谀侥岷诘某鮿?chuàng )公司Kortiq已開(kāi)發(fā)出用于FPGA的AIScale架構,
一些研究人員正在尋求與AI專(zhuān)用芯片的神經(jīng)細胞功能更加緊密的聯(lián)系。海德堡大學(xué)的研究人員開(kāi)發(fā)了神經(jīng)形態(tài)系統BrainScaleS,其人工神經(jīng)元被實(shí)現為硅芯片上的模擬開(kāi)關(guān):細胞體由大約1,000個(gè)晶體管和兩個(gè)電容器組成,突觸大約需要150個(gè)晶體管??梢詫蝹€(gè)細胞體作為模塊組合以形成各種類(lèi)型的人工神經(jīng)元。這些突觸可以像自然界中那樣形成牢固的連接,并且還具有興奮性和抑制性類(lèi)型。神經(jīng)元的輸出由“尖峰”組成,持續數微秒的短電壓脈沖充當其他人工神經(jīng)元的輸入。
能神經(jīng)芯片
但是BrainScaleS不僅用于研究人腦。技術(shù)神經(jīng)元還可以用于解決技術(shù)問(wèn)題,例如自動(dòng)駕駛的目標檢測。一方面,它們提供了約200萬(wàn)個(gè)神經(jīng)元的每個(gè)模塊約1萬(wàn)億次運算操作(1,000 TOPS)的高計算能力。另一方面,模擬解決方案也消耗很少的能量。“例如,在數字電路中,每次操作使用大約10,000個(gè)晶體管,”海德堡大學(xué)的Johannes Schemmel解釋說(shuō)。“我們的耗電量大大減少,這使我們能夠達到每瓦約100 TOPS。” 研究人員剛剛開(kāi)發(fā)了第二代電路,并正在與行業(yè)合作伙伴討論可能的合作。
來(lái)自云的量子能量
將來(lái),甚至量子計算機也可以用于A(yíng)I領(lǐng)域。它們的基本單位不是二進(jìn)制位,而是具有無(wú)限數量可能值的qubit。借助量子力學(xué)定律,可以使計算高度并行化,從而加速計算。同時(shí),由于量子位由諸如電子,光子和離子之類(lèi)的敏感物理系統表示,因此量子計算機很難實(shí)現。例如,IBM Q System One演示了這一點(diǎn),該公司在拉斯維加斯舉行的CES 2019電子貿易展上推出了IBM Q System One。量子計算機的內部必須嚴格屏蔽振動(dòng),電場(chǎng)和溫度波動(dòng)。
神經(jīng)細胞和人工神經(jīng)元
神經(jīng)細胞 通過(guò)突觸接收其他神經(jīng)元發(fā)出的信號,這些突觸位于樹(shù)突上或直接位于細胞體上。突觸可具有興奮作用或抑制作用。所有輸入都在軸突崗進(jìn)行匯總,如果在此過(guò)程中超過(guò)閾值,則神經(jīng)細胞會(huì )發(fā)出一個(gè)大約毫秒級的信號,該信號沿著(zhù)軸突傳播并到達其他神經(jīng)元。
人工神經(jīng)元 或多或少準確地模仿了這種行為。在具有多層的傳統神經(jīng)網(wǎng)絡(luò )中,每個(gè)“神經(jīng)細胞”都接收加權和作為輸入。它由前一層神經(jīng)元的輸出和加權因子w i組成,其中存儲了神經(jīng)網(wǎng)絡(luò )的學(xué)習經(jīng)驗。這些加權因子對應于突觸,也可以是興奮性的或抑制性的。像神經(jīng)細胞一樣,可配置的閾值確定何時(shí)人工神經(jīng)元觸發(fā)。
從神經(jīng)網(wǎng)絡(luò )學(xué)習和推理
自然和人工神經(jīng)網(wǎng)絡(luò )從突觸連接強度和加權因子的變化中學(xué)習。在深度神經(jīng)網(wǎng)絡(luò )中,在訓練過(guò)程中,將數據饋送到輸入和輸出,并與所需結果進(jìn)行比較。使用數學(xué)方法, 不斷調整加權系數w ij,直到神經(jīng)網(wǎng)絡(luò )可以可靠地放置圖像(例如指定類(lèi)別)。通過(guò)推論,例如,數據被饋送到輸入,而輸出則被用于決策。
在深度神經(jīng)網(wǎng)絡(luò )(具有多層人工神經(jīng)元的網(wǎng)絡(luò ))的訓練和推理中,相同的數學(xué)運算會(huì )重復發(fā)生。如果將第1層神經(jīng)元的輸出和第2層神經(jīng)元的輸入都作為列向量相加,則所有計算都可以表示為矩陣乘法。在此過(guò)程中,發(fā)生了許多相互獨立的乘法和加法,這些運算可以并行執行。常規CPU并非為此目的而設計的-這就是圖形處理器,TPU和其他AI加速器在很大程度上優(yōu)于它們的原因。
