Revista si suplimente
MarketWatch
Inapoi Inainte

Hardware personalizat pentru accelerarea inteligenţei artificiale

18 Aprilie 2019



Conform unui recent raport IDC, cheltuielile legate de inteligenţa artificială în Europa vor creşte cu aproape 50% în 2019 faţă de 2018, deoarece organizaţiile încep să utilizeze această tehnologie pentru a obţine avantaje competitive. În joc s-au angrenat în special nume mari pe plan european, din comerţul cu amănuntul, cum ar fi Sephora, Asos sau Zara, dar şi entităţi financiar-bancare mari, precum NatWest şi HSBC. Beneficiile deja înregistrate includ un număr mai mare de vizite ale clienţilor, venituri mai mari, costuri mai reduse şi experienţele mai plăcute ale clienţilor.

Instanţele de utilizare a IT-ului legate de automatizarea proceselor încep să devină element principal de investiţii în Europa, multe organizaţii europene începând să-şi concentreze atenţia asupra generaţiei următoare de tehnologie IA în scopuri de personalizare sau de predicţie. Există la ora actuală un consens la nivelul afacerilor că arhitectura tradiţională a computerelor bazate pe procesoare clasice nu se ridică la înălţimea misiunii de a rula algoitmi performanţi de machine learning. De aceea, atenţia multora se îndreaptă spre procesoarele grafice pentru obţinerea performanţelor de care e nevoie la aplicaţiile de machine learning.
În ciuda acestui fenomen la nivel european, exemplele legate de modul în care va arăta viitorul apropiat sunt oferite tot de giganţii din tehnologie. Şi asta deoarece giganţii web, care necesită niveluri şi mai mari de performanţe, încep deja să dezvolte hardware personalizat de accelerare IA. De exemplu, Facebook a anunţat în luna februarie că lucrează la dezvoltarea unui chip propriu pentru procese de machine learning. Facebook se alătură astfel firmei Google, care a anunţat încă de acum trei ani dezvoltarea unui chip IA personalizat.
În 2016, Google a lansat un chip denumit TPU (Tensor Processing Unit), bazat pe un circuit integrat specific aplicaţiilor proprii folosite de companie şi construit special pentru procese de machine learning, fiind adaptat special pentru modulul de learning TensorFlow al companiei, un modul bazat pe reţele neurale (DNN). La acel moment, Google preciza că astfel de chip-uri oferă performanţe mult mai bune per watt consumat pentru procese de machine learning.
Chip-urile personalizate sunt extraordinar de scumpe şi limitate ca utilizare, deoarece sunt proiectate pentru aplicaţii specifice, aşa cum este modulul TensorFlow DNN în cazul Google. Un alt gigant al tehnologiei, Microsoft, oferă accelerare AI în mediul său cloud Azure, prin folosirea unui aşa-numit Field Programmable Gate Array (FPGA), cu performanţe similare, în opinia Microsoft, chip-urilor personalizate. Botezată Brainwave, arhitectura Microsoft de accelerare a proceselor de machine learning se bazează pe tehnologie Intel pentru a permite oamenilor de ştiinţă şi dezvoltatorilor să accelereze calculele IA în timp real.
Deocamdată, unităţile grafice de procesare date (GPU) reprezintă punctul de intrare pentru cele mai multe organizaţii care caută să instaleze hardware de accelerare a algoritmilor de machine learning. Conform analiştilor, astfel de unităţi se potrivesc în acest moment nevoii de instruire reţele neurale pentru aplicaţii IA. Cum reţelele neurale sunt create din numere mari de neuroni identici, ele sunt paralele prin natura lor. Un astfel de paralelism se mulează perfect pe arhitectura unităţilor grafice de procesare
Comunitatea de suport OpenStack a anunţat şi ea recent că va ajuta firmele să depăşească barierele legate de adoptarea tehnologiilor IA în 2019, pe măsură ce va creşte cererea pentru chip-uri grafice şi arhitecturi FPGA. În mod clar, conform analiştilor, în cazul proceselor de machine learning performante datele vor trebui să stea în mediu cloud. Însă acolo unde reglementările sau dimensiunile seturilor de date fac aşa ceva imposibil, organizaţiile au început deja să-şi construiască propriile acceleratoare de machine learning bazate pe GPU.
IDC dă în acest sens ca exemplu o bancă cu sediul la Moscova, Tinkoff, care şi-a construit propriul supercomputer în sprijinul propriei strategii de dezvoltare a unei platforme pentru AI şi machine learning. Denumit cluster-ul Kolmogorov, supercomputerul este socotit a fi al optulea ca mărime din Rusia. Zona hardware, care cuprinde 10 noduri de procesare cu acceleratoare Nvidia Tesla V100 alimentate de miezuri tensor, furnizează o performanţă de vârf de până la 658TFlops. Conform unui anunţ al băncii, preluat de IDC, această arhitectură hardware de accelerare IA a avut nevoie de doar 24 de ore pentru a realcătui un model de previzionare vânzări prin folosirea datelor acumulate pe o perioadă de 13 ani. O abordare bazată pe procesarea tradiţională a datelor ar fi avut nevoie de şase luni pentru a rula acelaşi model de previzionare.

Perspectiva quantum computing
Însă lucrurile nu se opresc aici. O altă tehnologie, quantum computing, ar putea juca un rol important în viitorul apropiat din punct de vedere al accelerării proceselor de machine learning. Nu cu multă vreme în urmă, Massachusetts Institute of Technology (MIT) şi Universitatea Oxford, împreună cu cercetători de la divizia Q a companiei IBM, au publicat în revista Nature un document în care se detaliază un experiment prin care se arată cum quantum computing poate accelera tehnica de mapare a caracteristicilor în scop de identificare a atributelor unicat ale unor date, aşa cum este cazul, de pildă, în recunoaşterea facială. Actualmente, cercetătorii caută să identifice ce seturi de date reprezintă o potrivire bună pentru accelerarea IA bazată pe quantum computing.

Etica aplicării IA
Revenind la prezent şi la Europa, Comisia Europeană a publicat cu câteva zile în urmă un set de principii legate de aplicarea etică a inteligenţei artificiale. Primul principiu priveşte sprijinirea drepturilor fundamentale ale omului de către IA. Al doilea principiu cere ca algoritmii IA să fie siguri, fiabili şi suficient de robuşti ca să repare erorile sau inconsistenţele de-a lungul întregului ciclu de viaţă. Al treilea principiu, clar derivat din GDPR, cere ca cetăţenii europeni să aibă control deplin asupra datelor lor personale.
Alt principiu se referă la transparenţă şi cere organizaţiilor să asigure trasabilitatea sistemelor IA folosite. Un alt principiu se referă la diversitatea, non-discriminarea şi echitatea sistemelor IA, care trebuie să ia în considerare toate abilităţile şi necesităţile umane atunci când operează. În plus, sistemele IA ar trebui folosite pentru întărirea bunăstării societăţii şi a mediului înconjurător, şi nu în alte scopuri. În fine, un alt principiu cere implementarea de mecanisme care să asigure responsabilizarea sistemelor IA. Rămâne de văzut ce impact va avea un astfel de document asupra dezvoltării inteligenţei artificiale pe plan european. Până la urmă, când e vorba de inteligenţă artificială, tehnologia nu înseamnă chiar totul.



Parerea ta conteaza:

(0/5, 0 voturi)

Lasa un comentariu



trimite