Revista si suplimente
MarketWatch
Inapoi Inainte

Quo vadis etica inteligenței artificiale?

17 Noiembrie 2022



În noiembrie 2021, cele 193 de state membre ale UNESCO au adoptat Recomandarea privind etica inteligenței artificiale, primul acord global privind etica IA, care își propune să stabilească standarde în acest domeniu. Recomandarea este construită în jurul ideii fundamentale că inteligenţă artificială trebuie să fie centrată pe om şi să servească interesului omenirii, nu invers. Sunt evidențiate beneficiile pe care IA le aduce societății, într-o multitudine de domenii, dar sunt punctate de asemenea şi riscurile și provocările asociate, derivate din utilizarea rău intenționată a tehnologiei sau din adâncirea inegalităților. Scopul este definirea unor politici şi cadre de reglementare care să asigure o utilizare în scopuri corecte a acestor tehnologii, în acord cu drepturile omului şi să contribuie la atingerea obiectivelor de dezvoltare durabilă.

Recomandarea precizează că politicile propuse sunt îndreptate spre promovarea încrederii în toate etapele ciclului de viață al unui sistem IA și, acolo unde este necesar și adecvat, să fie susținute prin modificări la legislația existentă și prin elaborarea de noi legislații, reglementări și principii de afaceri.
Recomandarea este construită în jurul a 4 valori pentru realizarea unei IA etice: Respectarea, protecția și promovarea drepturilor omului și a libertăților fundamentale și a demnității umane, Prosperitatea mediului şi a ecosistemului, Asigurarea diversității și incluziunii și Traiul în societăți pașnice, juste și interconectate.
De asemenea, sunt incluse 10 principii care guvernează reglementarea eticii în IA.
1. Proporționalitate și a nu face rău. Utilizarea sistemelor AI trebuie să aibă un scop legitim, să respecte drepturile omului şi să se bazeze pe date științifice riguroase. Utilizarea sistemelor IA este guvernată de principiul „necesității și proporționalității”. Sistemele de inteligență artificială nu ar trebui utilizate în scopuri de punctaj social sau de supraveghere în masă.
2. Siguranță şi securitate. Daunele (riscuri de siguranță), precum și vulnerabilitățile la atac (riscuri de securitate) trebuie evitate, prevenite și eliminate pe tot parcursul ciclului de viață al sistemelor AI pentru a asigura siguranța și securitatea umană, a mediului și a ecosistemului.
3. Corectitudine şi nediscriminare. Actorii AI trebuie să protejeze echitatea și nediscriminarea și să se asigure că beneficiile tehnologiilor IA sunt disponibile tuturor.
4. Sustenabilitate. Impactul uman, social, cultural, economic și de mediu al tehnologiilor IA va fi evaluat pentru a se stabili dacă acestea sunt în conformitate cu obiectivele durabile, cum ar fi cele identificate în prezent în Obiectivele de Dezvoltare Durabilă ale Națiunilor Unite.
5. Dreptul la confidențialitate și protecția datelor. Confidențialitatea va fi protejată pe tot parcursul ciclului de viață al sistemelor AI. Vor fi stabilite cadre adecvate de protecție a datelor.
6. Supravegherea și determinarea umană. Statele membre să se asigure că este întotdeauna posibil să se atribuie oamenilor răspunderea etică și juridică care decurge din sistemele IA. În plus, deciziile de viață și de moarte nu ar trebui să fie cedate sistemelor AI.
7. Transparență și explicabilitate. Trebuie depuse eforturi pentru a spori transparența sistemelor IA şi capacitatea acestora de a explica procesul de decizie, pentru a sprijini guvernanta democratică.
8. Responsabilitate. Actorii AI și statele membre ar trebui să respecte, să protejeze și să promoveze drepturile omului și libertățile fundamentale și ar trebui, de asemenea, să promoveze protecția mediului și a ecosistemelor. Ar trebui dezvoltate mecanisme adecvate de supraveghere, evaluare a impactului, audit și due diligence, pentru a asigura responsabilitatea pentru sistemele de IA.
9. Conștientizare și educare. Creșterea gradului de conștientizarea și înțelegere a publicului cu privire la tehnologiile IA ar trebui susținute prin educație deschisă și accesibilă, angajament civic, formare în domeniul eticii IA etc., astfel încât oamenii să poată lua decizii în cunoștință de cauză cu privire la utilizarea sistemelor AI.
10. Guvernare adaptativă și colaborare. Statele trebuie să poată reglementa datele generate pe teritoriul lor sau care trec prin acestea și să ia măsuri pentru o reglementare eficientă a datelor în conformitate cu dreptul internațional. În plus, trebuie susținută participarea diferiților stakeholderi de-a lungul ciclului de viață al sistemului AI pentru o abordare incluziva a guvernării IA.



De ce este nevoie de o reglementare a eticii în IA?

Inteligenţa artificială este acum integrată în numeroase aplicații interdisciplinare, pe care le utilizăm în viața de zi cu zi: roboţi conversaționali, sisteme de suport decizional, recunoașterea facială, drone sau mașini autonome. Societatea pare să fie într-un punct în care deleagă din ce mai multe aspecte ale gândirii către tehnologie, paradoxul fiind că „cu cât capacitatea digitală a unei societăți este mai mare, cu atât aceasta devine mai vulnerabilă” (The Age of AI). Cu cât mașinile ajung să aibă un rol decizional mai semnificativ, cu atât cresc şi problemele de etică care se ridică: decizii eronate generate de IA, replici neetice generate de agenții conversaționali, decizii discriminatorii („Bias”), supravegherea în masa facilitată de IA, etc.
Oricât ne dorim că IA să imite şi să reproducă comportamentul uman, inclusiv pe plan cognitiv, IA nu este înzestrată încă cu emoție umană, moralitate, gândire critică sau capacitatea de a argumenta o decizie. Prin urmare, literatura de specialitate şi forurile cu rol decizional în domeniu subliniază importanța de a păstra o IA centrată pe om, care să potenţeze capacitățile umane şi să lucreze exclusiv în favoarea umanității. Asta înseamnă să nu dăm inteligenţei artificiale posibilitatea de a lua decizii vitale, cu rol hotărâtor, de exemplu în ceea ce privește viețile umane, care pot avea consecințe neetice.
În acest context, a apărut o nevoie emergentă de a reglementa aceste aspecte şi în timp au fost propuse o serie de documente în acest sens, într-un efort care urmărește ca în final să există un cadru de norme unanim implementate.

Inițiative de reglementare a eticii în IA
Pe lângă Recomandarea privind etica inteligenței artificiale publicată de UNESCO anul trecut, au mai existat inițiative care au urmărit trasarea unor direcții şi norme de utilizare a IA, redactate şi publicate de Uniunea Europeană, UNESCO, Consiliul Europei, cercetători şi profesori, companii private.
● În 2020, Comisia Europeană a publicat Cartea Albă privind inteligența artificială și Strategia europeană privind datele - primii piloni ai noii strategii digitale la nivelul UE. Cartea Alba prezintă un cadru pentru o inteligență artificială fiabilă, bazată pe excelență și încredere. „Trebuie să existe norme clare care să abordeze problema sistemelor de IA cu grad ridicat de risc, fără a le împovăra însă excesiv pe cele cu risc mai scăzut. Vor continua să se aplice normele stricte ale UE în materie de protecție a consumatorilor, de combatere a practicilor comerciale neloiale și de asigurare a protecției datelor cu caracter personal și a vieții private”, precizează CE. Documentul pune accent pe o abordare IA centrată pe factorul uman, care să respecte legislația UE și drepturile fundamentale, iar sistemele de IA concepute ar trebui să fie transparente, trasabile și să garanteze supravegherea umană.
● Parlamentul European a publicat „EU guidelines on ethics în artificial intelligence: Context and implementation”, care evidenţiază necesitatea unei abordări în IA centrată pe om.
● În 2019, Grupul de experți la nivel înalt privind inteligența artificială (AI HLEG), înființat de Comisia Europeană, a publicat Ghidurile de etică pentru evaluarea unei IA de încredere („Assessment List for Trustworthy Artificial Intelligence” - ALTAI4). Ghidul include o listă de criterii pentru a evalua dacă sistemul IA care este dezvoltat, implementat, achiziționat sau utilizat aderă la cele șapte cerințe ale Inteligenței Artificiale (AI) de încredere: implicare și supraveghere umană, robusteţe tehnică și siguranţă, respectarea vieţii private și guvernanța datelor, transparenţă, responsabilitate, bunăstarea societăţii și a mediului, diversitate, nediscriminare și echitate.
● În 2019, au fost publicate Recomandările OCDE privind Inteligența Artificială - primul instrument de cooperare interguvernamentală în domeniu.

România pe drumul IA
România este singurul stat membru UE care încă nu are o strategie națională de IA, deși este ferm promisă din 2017. Rând pe rând, MCID, ADR şi diverse alte instituții ale statului au format şi reformat grupuri de lucru care să elaboreze această strategie, însă fără succes până acum. La începutul lunii octombrie, în cadrul evenimentului „Building a Global Ethical Framework for AI: The UNESCO Recommendation on the Ethics of AI”, organizat la Universitatea Politehnica din București, ministrul Sebastian Burduja anunţa că instituţia pe care o reprezintă va înfiinţa un hub naţional în domeniul inteligenţei artificiale, în cadrul căruia se va face cercetare. Mai mult, la începutul acestei luni, guvernul a aprobat memorandumul privind înfiinţarea Comitetului Român pentru Inteligenţă Artificială, care va include un consiliu ştiinţific de etică în inteligenţă artificială, un consiliu de educaţie şi grupuri de lucru tematice. Consiliul va fi responsabil de redactarea şi finalizarea strategiei naţionale în această sferă.
Ministrul Sebastian Burduja a pus accent pe Inteligenta Artificială în timpul mandatului său şi este convins că România are „ingredientul cheie” pentru a avansa în domeniul inteligenţei artificiale la nivel global, referindu-se aici la „minţi strălucite” şi capacitatea de cercetare şi inovare.
„Vizăm să conectăm marii specialişti pe care România îi are în inteligenţă artificială, în machine learning, la marile universităţi, laboratoare de cercetare, companii, din întreaga lume, cu mediul academic, de cercetare, inteligenţă artificială, de acasă”, a declarat Burduja.
În planul eticii în IA, România s-a declarat încă de la început deschisă să adopte toate reglementările necesare pentru adoptarea inteligenței artificiale în condiții de siguranță. În 2019, România a fost singura țară europeană non-membră a OCDE care a aderat la Recomandările organizației privind Inteligența Artificială. De asemenea, România a luat act şi a apreciat pozitiv recomandările UNESCO pentru etica în IA.n



Parerea ta conteaza:

(0/5, 0 voturi)

Lasa un comentariu



trimite