Revista si suplimente
MarketWatch
Inapoi Inainte

Fațetele multiple ale Inteligenței Artificiale

17 Aprilie 2024



În cadrul seriei de conferințe „Ora de Știință”, eveniment de referință organizat de Academia Română, prof. univ. Ioan Roxin a cartografiat traseul parcurs de tehnologia informației de-a lungul ultimelor decenii, oferind o perspectivă nuanțată asupra celei mai recente și spectaculoase evoluții din acest domeniu, Inteligența Artificială (IA). Cu o abordare lucidă și pragmatică, prezentarea „De la cartela perforată la inteligența artificială: izbânzi și paradigme” a evidențiat aspecte mai puțin cunoscute legate de revoluția IA, de la provocările cu care se confruntă sistemele complexe care încearcă să reproducă învățarea umană și procesele de luare a deciziilor până la miza strategică a instrumentelor IA prin transformările pe care acestea le determină la toate nivelurile societății.



Un element de suveranitate națională

Dincolo de efectele resimțite în majoritatea sectoarelor economice, în reconfigurarea ecosistemului profesional din mai multe domenii de activitate, impactul IA necesită o conștientizare superioară din partea tuturor factorilor de decizie la nivel național, devenind extrem de rapid un element de suveranitate de care depinde viitorul tuturor. Personalitate recunoscută în domeniul multimedia și al tehnologiei informației, Ioan Roxin este în prezent profesor universitar la departamentul „Informatique et multimédia“ din Montbéliard, Universitatea Franche-Comté și a condus timp de un deceniu (2014-2023) laboratorul ELLIADD (Édition, Langages, Littératures, Informatique, Arts, Didactique, Discours), un centru de studiu interdisciplinar reunind peste 160 de cercetători cu specializări diverse, precum științele limbajului, informatică, mecanică sau neurobiologie.
Pornind de la titlul anunțat al prezentării sale, prof. univ. Ioan Roxin a recunoscut încă din deschiderea conferinței (foto) că zona actuală de interes se concentrează mai puțin pe jaloanele istorice din evoluția tehnologiei informației, bine cunoscute de specialiștii din domeniu, prim-planul scenei fiind ocupat acum de avansul exponențial al IA. Cu toate acestea, o trecere sumară în revistă a etapelor cronologice scoate în evidență racordarea timpurie a inteligenței românești la primele inițiative din spațiul calculatoarelor și al limbajelor informatice. Oferind drept exemplu publicarea în România a cărții „Dumnezeu și Golem, S.A” (în 1969, la doar 5 ani după lansarea în Statele Unite), semnată de Norbert Wiener, părintele ciberneticii, Ioan Roxin a evocat „o perioadă în care datorită marelui academician [Grigore] Moisil erau foarte multe cărți științifice care intrau în țară.” De altfel, în decursul anilor 1960, sub coordonarea academicianului Tiberiu Popoviciu, unul dintre pionierii informaticii pe plan național, a fost construit primul calculator românesc cu tranzistori și cu memorie RAM (DACICC-1 – Dispozitiv Automat de Calcul al Institutului de Calcul din Cluj), urmat de primul calculator din România cu sistem de operare și compilator (DACICC-200).

La confluența dintre umanitate șitehnologie
Deceniile următoare au delimitat un spațiu caracterizat inițial de o relație inegală, cu mulți utilizatori care operau un singur calculator central (Many to one). Apoi, apariția calculatorului personal a facilitat o relație 1-la-1 (One to one) între om și mașina de calcul. Prezentul, după cum l-a descris în mod intuitiv Ioan Roxin, este cel în care un individ intră în contact și operează o multitudine de instrumente electronice (One to many): calculatoare, tablete, telefoane mobile, alte echipamente conectate la internet. Este lumea comerțului electronic, a marketingului electronic și a tuturor evoluțiilor precedate de particula magică „e-”. Ce urmează? În viitorul pe care îl putem anticipa tehnologia devine ubicuă (u-commerce, u-services, etc), iar relația se multiplică (Many to Many), implicând deopotrivă mai mulți oameni, mai multe echipamente și calculatoare. Iar această evoluție va duce către o lume pe care doar ne-o putem imagina, dominată de particula „n-” (nano-, neuro-, etc), aflată la confluența dintre umanitate și tehnologie.
Tot acest traseu se sprijină aparent pe avansul constant și accelerat al noilor tehnologii, dar în esență el reprezintă doar o continuare a externalizării funcțiilor corporale, proces istoric care schimbă de mii de ani maniera în care omul cunoaște lumea și o explorează, modul în care învață și se dezvoltă. Din acest unghi de vedere, calculatorul nu este decât cea mai recentă expresie a decuplării mesajului – procesat, reținut, emis și receptat – de suportul de informație: de la mesajul oral am trecut la cel transcris manual, după care am ajuns la mesajul multiplicat prin imprimare, pentru ca în final să ajungem la transmiterea electronică a mesajului. Astfel, revoluția numerică ne aduce în faza actuală a inteligenței artificiale, ca proces de modelare a funcțiilor mentale umane prin programe informatice.

Posibil pericol existențial
Doar că în vreme ce, la nivel teoretic, IA conduce la transformarea comportamentului uman, afectând raportul nostru cu timpul, spațiul și cunoașterea, stimulându-ne creativitatea și inventivitatea, în practică această evoluție „poate constitui un pericol existențial” pentru umanitate, după cum a subliniat Ioan Roxin.
Desigur, la prima vedere, beneficiile IA sunt incontestabile. Doar un exemplu oferit de Ioan Roxin: la sfârșitul anului trecut, Google a publicat rezultatele obținute de un instrument IA specializat – GnoME (Graphical Networks for Material Exploration), care a dezvoltat structura virtuală a 2,2 milioane de cristale noi cu ajutorul cărora pot fi realizate 380.000 de materiale stabile: 700 de astfel de materiale au fost deja create în laborator și sunt în curs de testare. Aplicațiile acestor materiale sunt dintre cele mai diverse, de la microcipuri până la baterii inovatoare pentru mașinile electrice.
Însă această performanță are un cost, care nu poate fi acoperit de orice entitate. În acest sens, Ioan Roxin a atras atenția că accelerarea performanțelor în domeniul IA se face în principal în mediul privat, capitalul atras aici fiind incomparabil mai mare decât cel gestionat de universități sau academii. Să luăm în calcul, de pildă, saltul imens de la datele de intrare utilizate de modelul GPT-3 (Generative Pre-trained Transformer), care utilizează 175 de miliarde de parametri. versiunea următoare, GPT-4, lansată de OpenAI doar un an mai târziu, gestionează de zece ori mai mulți parametri.
Apoi avem de-a face și cu diferențe de detaliu în procesele IA, care explică relevanța puterii de calcul în avansul instrumentelor dezvoltate în acest domeniu. În interiorul spațiului definit generic drept „IA”, există mai multe curente și abordări, unele dintre ele chiar concurente, pornind de la distincții care au iscat dezbateri aprinse în trecut chiar și în cazul inteligenței umane: este exemplul confruntării dintre empirism (creierul este „gol” la naștere și mediul își pune amprenta asupra dezvoltării lui) și nativism (care susține ideea „moștenirii” unui set de modele mentale derivate din evoluția noastră comună) sau distincția dintre inteligența conexionistă (care recunoaște motive statistice și ajustează conexiunile dintre neuroni – este modul în care învățăm limba maternă, de pildă) și inteligența simbolică (bazată pe reguli și simboluri, stimulând gândirea și raționamentul: analogia în acest caz se face cu modul structurat în care învățăm o limbă străină).
Astfel, în cadrul IA, la intersecția dintre tehnicile de învățare profundă (Deep Learning) și procesarea limbajului natural (Natural Language Processing) se află Modelele de Limbaj Mari (LLM - Large Language Model), fundația pe care este construit de pildă Chat GPT: sistemele LLM se bazează pe tehnici Deep Learning și sunt instruite pe seturi de date masive, care conțin de obicei miliarde de cuvinte din diverse surse, ceea ce le permite să înțeleagă nuanțe de limbă, gramatică, context. Fără a intra în detaliile instruirii unui LLM, să ne concentrăm pe una dintre etapele inițiale, cea de „jetonizare” (tokenization), care alocă un cod distinct fiecărui element de limbă care se repetă. Cum majoritatea covârșitoare a sesiunilor de instruire LLM se desfășoară în limba engleză, etapa de jetonizare este mult mai eficientă la analizarea unui text în engleză decât unul în română, mai fragmentat, cu jetoane mai scurte (care trebuie să țină cont și de semnele diacritice). Drept consecință, instruirea LLM în limba română necesită o putere de calcul mai mare, cu costuri sporite.
La astfel de elemente de detaliu se adaugă marile întrebări legate de IA, de la ipoteza emergenței unei conștiințe artificiale până la riscurile identificate de unii autori, precum Geoffrey Hinton, care își pune problema consecințelor unei entități IA mai inteligente decât oamenii sau chiar pericolul stimulării informațiilor false, cu efecte dramatice asupra proceselor umane (alegeri, războaie, etc). Este oare posibil ca o mașină să se „trezească”, să devină conștientă?, se întreabă Stanislas Dehaene în cartea „Le Code de la conscience”. Avem în continuare controlul, știm cum să oprim IA la nevoie?, insistă Geoffrey Hinton.

Strategii de adaptare
În fața unor asemenea întrebări, Ioan Roxin a prezentat câteva strategii de adaptare la IA, precum asumarea unor investiții consistente în educație și recalificare sau adoptarea unor politici de redistribuire a veniturilor, ca efect al dispariției unor profesii și al redirecționării marilor fluxuri financiare către instrumentele IA, capabile să lucreze non-stop, fără limitările unui operator uman. În egală măsură, Ioan Roxin a susținut implicarea activă a mediului academic și a actorilor guvernamentali prin promovarea participării democratice la acest fenomen și asumarea unor investiții publice în domeniu. La fel, trebuie recunoscută necesitatea unei cooperări internaționale în reglementarea IA, cu atât mai mult cu cât aspectele de suveranitate sunt esențiale în modul în care se va manifesta inteligența artificială în viața de zi cu zi. Un posibil exemplu de reacție în fața provocărilor IA este oferit de un raport prezidențial din Franța, publicat pe 13 martie 2024, care cuprinde 25 de recomandări, dintre care 7 prioritare: elaborarea unui plan de conștientizare și formare; investiții masive în companiile digitale; asumarea rolului de centru major al puterii de calcul pentru Franța și Europa; abordarea responsabilă a datelor cu caracter personal; sporirea atractivității domeniului IA; structurarea unei inițiative diplomatice care să ofere o platformă globală pentru gestionarea aspectelor IA; nu în ultimul rând, asigurarea influenței culturii franceze în acest ecosistem tehnologic.

Cât de rapid este avansul IT?
Pornind de la Legea lui Moore, care estimează că numărul de tranzistori care pot fi plasați pe un circuit integrat se dublează aproximativ la fiecare doi ani, dacă facem analogia între evoluția puterii de calcul și a costului primului microprocesor Intel 4004 (1971) cu prestațiile unui Volksvagen Beetle din acea perioadă, ajungem la un rezultat uimitor: pentru a echivala progresul atins în 50 de ani în lumea microprocesoarelor, mașina ar fi trebuit ca acum să aibă o viteză maximă de 500 de milioane de km/h, să consume doar 1 litru de combustibil la 62,5 milioane de km și să aibă un cost de fabricație de 0,2 cenți.



Parerea ta conteaza:

(0/5, 0 voturi)

Lasa un comentariu



trimite