Nvidia iekļaujas AI mākslā ar jauno Volta arhitektūru

NVIDIA-Telsa-V100 Volta

Sanhosē, Kalifornijā. Pirmo reizi Nvidia vadošajā GTC konferencē šonedēļ varēja piedot, ka viņš domāja, ka Nvidia ir AI uzņēmums. Izpilddirektora Jensena Huanga 2 + stundu galvenajā ziņojumā bija iekļautas mini apmācības par dažādiem mašīnmācīšanās veidiem un gandrīz bezgalīgs spraudņu skaits uz AI balstītām lietojumprogrammām, kas mitinātas Nvidia GPU. Galvenais akmens bija paziņojums par Nvidia jauno Volta arhitektūru un V100 mikroshēmu. Nvidia ir strādājis, lai padarītu savus GPU arvien draudzīgākus AI lietojumprogrammām, pievienojot tādas funkcijas kā ātrs 16 bitu peldošais punkts. Bet tā jaunā Volta arhitektūra paceļ šo specializāciju augstākā līmenī ar jaunizveidoto Tensor Core, kas radikāli paātrina neironu tīklu apmācību un secinājumus.



Volta Tensor Core ir neironu tīkliem, kas tradicionālajiem GPU kodoliem ir grafika

Tradicionālie GPU kodoli tika būvēti, lai veiktu klasiskās grafikas operācijas, piemēram, ēnojumu ļoti ātri. Neironu tīkliem pamatelementi ir matricas reizināšana un saskaitīšana. Nvidia jaunie Tensor serdeņi katrs var veikt visas darbības, kas nepieciešamas, lai reizinātu divas 4 x 4 matricas un vienlaikus pievienotu trešo. Tātad papildus tam, ka V100 ir paralēli darbināmas 5120 kodolu priekšrocības, katrs kodols pats paralēli veic daudzas darbības. Rezultāts ir tas, ko Nvidia saka, ka tas ir 12x paātrinājums mācīšanās secināšanā virs Pascal un 6x paātrinājums secināšanā.



Nvidia V100 ir viena no iespaidīgākajām jebkad izgatavotajām mikroshēmām

Neapstrādātās specifikācijās V100 ir nopietni iespaidīgs. Tā kā 2115 miljardi tranzistoru ir saspiesti tā 815 kvadrātveida milimetru spiešanā, Nvidia izpilddirektors Jensens Huang apgalvo, ka tā ir lielākā un sarežģītākā mikroshēma, ko var izveidot ar pašreizējo pusvadītāju fiziku. Galīgā mikroshēma, kuras izmaksas ir 3 miljardi ASV dolāru pētniecībā un attīstībā, tiek izgatavota, izmantojot TSMC 12 nm procesu, un tajā tiek izmantota vislielākā ātruma RAM, kas pieejama Samsung. Pēc galvenās piezīmes Nvidia paskaidroja, ka tā izmantoja 12 nm un tik lielu formas izmēru, jo apzināti vēlējās izveidot pēc iespējas sarežģītāku mikroshēmu.





datu centrs-volta-tenzora-kodols-625-ud

Volta var palīdzēt apturēt AI specifisko procesoru pieaugumu

Google nesen radīja dažus viļņus, salīdzinot tā pielāgotās TensorFlow mikroshēmas veiktspēju ar vecāku Nvidia GPU, lai secinātu par veiktspēju. Volta nepārprotami ir daļa no Nvidia atbildes, taču tā neapstājas. Huans paziņoja arī par Tensorflow un Caffe kompilatoru TensorRT, kas paredzēts, lai optimizētu izpildlaika veiktspēju GPU. Sastādītājs ne tikai uzlabos efektivitāti, bet arī ievērojami samazinās latentumu - galveno Google pielāgotās mikroshēmas priekšrocību - ļaujot par 30 procentiem zemāku latentumu nekā Skylake vai P100 un 10x caurlaidspēju attēlu atpazīšanas etaloniem. Tīras secināšanas slodzēm jaunais Tesla V100 PCIe var aizstāt vairāk nekā desmit pašreizējos tradicionālos procesorus un ar daudz mazāku enerģijas patēriņu. Nvidia arī tiešāk reaģēja uz pielāgotu secināšanas mikroshēmu konkurenci, paziņojot, ka tā savu DLA (Deep Learning Accelerator) dizainu un kodu padara par atvērtu avotu.



Tensor serdeņi ir papildināti ar lielu 20 MB reģistra failu, 16 GB HBM2 RAM ar ātrumu 900 GB / s un 300 GB / s NVLink IO. Rezultāts ir mikroshēma, kas ievieš mākslīgi mākslīgajai tehnoloģijai draudzīgu Volta arhitektūras versiju. Nvidia vēlāk apstiprināja, ka ne visiem Volta arhitektūras procesoriem būs tik plašs AI paātrināšanas funkciju kopums, un tie var būt vairāk vērsti uz tīru grafiku vai vispārējas nozīmes skaitļošanas veiktspēju. Un otrādi, Nvidia aizstāvēja AI funkciju, piemēram, paātrinājuma izsecināšanu, iekļaušanu galvenajā GPU, nevis atsevišķas produktu līnijas izveidošanu, paskaidrojot, ka tās Tensor Core ir ideāli piemērots gan apmācības, gan secināšanas darbību veikšanai.



datu centrs-volta-jauns-gpu-625-ud

V100 ir modernizētā DGX-1 un jaunā HGX-1 sirds

Nvidia arī paziņoja par modernizētu DGX-1, kura pamatā ir astoņas V100 mikroshēmas, kas 3. ceturksnī ir pieejamas par 149 000 ASV dolāriem, kā arī mazāku DGX staciju ar 4 V100 mikroshēmām par 69 000 USD, kas plānota arī Q3. Paredzams, ka OEM produktus, kuru pamatā ir V100, sāks piegādāt līdz gada beigām. Sadarbībā ar Microsoft Azure, Nvidia ir izstrādājis arī mākoņiem draudzīgu lodziņu HGX-1 ar astoņiem V100, kurus var elastīgi konfigurēt dažādām mākoņdatošanas vajadzībām. Microsoft plāno izmantot Volta gan savām lietojumprogrammām, gan arī būt pieejamai Azure klientiem.



Nvidia sagaida, ka Volta darbinās arī automašīnas un robotus

Papildus tīrajām lietojumprogrammām Nvidia sagaida, ka uz Volta balstītie procesori un plates būs to fizisko ierīču sirds, kurām nepieciešama mācīšanās vai secināšanas tehnoloģija. Tas ietver robotus, īpaši tos, kas imitēti ar Nvidia nesen paziņoto Isaac robotu simulācijas rīku komplektu, kā arī dažādu formu un izmēru autonomus transportlīdzekļus. Viens īpaši interesants projekts ir Airbus centieni izstrādāt pašpilota mazu lidmašīnu, kas var pacelties vertikāli un pārvadāt divus pasažierus līdz 70 jūdzēm.