Revista si suplimente
MarketWatch
Inapoi Inainte

Deepfake: Tehnologia care manipulează realitatea

21 Mai 2025



Deepfake-urile nu mai sunt viitorul – sunt deja parte din prezentul nostru digital. Te pot impresiona, amuza sau păcăli. Tocmai de aceea, fiecare dintre noi trebuie să devină un mic „detectiv digital”. Verifică, raportează, educă-i și pe alții. Într-o lume cu realități fabricate, vigilența e o formă de apărare.

1. Ce este un deepfake?
Un deepfake este un material fals – deobicei video sau audio – creat cu ajutorul inteligenței artificiale, care imită perfect aspectul, vocea sau mișcările unei persoane reale. Termenul vine de la „deep learning” și „fake”. Cu alte cuvinte, este o manipulare digitală extrem de avansată, capabilă să inducă în eroare chiar și un ochi atent.
Astăzi, oricine are acces la unele aplicațiisau platforme poate genera un deepfake în câteva minute — fie pentru divertisment, fie, din păcate, pentru dezinformare sau manipulare.

2. Ce tehnologii sunt folosite și cum funcționează?
Deepfake-urile se bazează pe rețele neurale artificiale, în special pe modele detipGAN (Generative Adversarial Networks). Acestea antrenează două rețeleAI: una care creează conținutul și alta care îlevaluează, până când rezultatul pare „real”.
Pentru a construi un deepfake convingător, AI-ul are nevoie de:
• imagini/video cu persoana-țintă (surse: rețele sociale, emisiuni, interviuri),
• înregistrări audio pentru a învăța tonul, inflexiunile și ritmul vocii,
• un algoritm care sincronizează mimica, expresiile faciale și vocea cu un nou mesaj (fals).
Platformele comerciale, precum Synthesia, HeyGen sau Descript, permitdejacrearea de avatare realiste, iar unele sunt folosite legal în marketing, educație sau cinema. Dar în mâinile greșite, aceleași tehnologii devin arme de dezinformare.



3. Exemple de deepfake din România

Deși România nu este un punct central pe harta globală a manipulării prin deepfake, în ultimii ani am asistat la o serie de incidente care ridică semnale de alarmă, mai ales în contexte politice și financiare. Aceste cazuri, deși punctuale, arată că și spațiul informațional românesc este vulnerabil la noile forme de dezinformare digitală.
• Unul dintre cele mai grave exemple recente a fost apariția, în 2024, a unui clip fals în care guvernatorul Băncii Naționale a României, Mugur Isărescu, părea să recomande o platformă online de investiții. Videoclipul, generat cu ajutorul inteligenței artificiale, a folosit imaginea și vocea guvernatorului într-un context fictiv, dar extrem de convingător. Materialul a circulat online, prezentând o „emisiune” falsă în care Isărescu ar fi lăudat performanțele unei platforme de trading, invitând românii să investească urgent. Deși era o fraudă evidentă pentru un ochi informat, mulți utilizatori au fost păcăliți de autoritatea imaginii și a discursului simulant oficial. Acest incident subliniază nu doar riscul dezinformării, ci și potențialul deepfake-urilor de a afecta încrederea în instituțiile financiare, mai ales într-un context de volatilitate economică.
• În ianuarie 2024, ministrul Energiei, Sebastian Burduja, a fost ținta unui atac de tip deepfake. Un videoclip fals, distribuit pe o pagină de Facebook, îl prezenta pe Burduja promovând o schemă de investiții inexistente asociată companiei Enel. În înregistrare, vocea și imaginea ministrului erau manipulate pentru a convinge publicul că pot obține câștiguri lunare de 9.000 de lei prin această platformă fictivă. Burduja a depus o plângere penală la Parchetul de pe lângă Înalta Curte de Casație și Justiție, denunțând utilizarea abuzivă a tehnologiei deepfake pentru înșelarea cetățenilor și subminarea încrederii în instituțiile statului.
• În 2023, rețelele sociale – în special TikTok – au fost invadate de videoclipuri în care președintele Klaus Iohannis sau premierul Marcel Ciolacu păreau să facă declarații controversate sau să exprime opinii absurde. Aceste videoclipuri au fost create folosind aplicații comerciale de voice cloning și AI-based lipsync, disponibile publicului larg.
• O altă direcție periculoasă a fost utilizarea deepfake-urilor în fraude de tip scam, în special în reclamele online pentru investiții în criptomonede sau scheme de îmbogățire rapidă. Vedete TV precum Andi Moisescu sau chef Cătălin Scărlătescu au „recomandat” site-uri dubioase, în videoclipuri în care nu fuseseră implicați.
Deși aceste deepfake-uri nu sunt neapărat sofisticate din punct de vedere tehnic, impactul lor este semnificativ deoarece speculează încrederea publicului în personalități mediatizate și exploatează lacunele legislative privind utilizarea neautorizată a imaginii în spațiul digital.
Cazurile de mai sus arată că deepfake-urile nu sunt doar o amenințare abstractă, ciun instrument activ de manipulare. Elepotfi folosite pentru compromiterea imaginii publice, influențarea alegerilor, fraude financiare directe, erodarea încrederii în autorități și instituții, alimentarea polarizării sociale. În lipsa unui cadru legal clar și a unuimecanism rapid decontracarare, România rămâne vulnerabilă la astfel de atacuri, mai ales în anii electorali sau în perioadele de instabilitate economică.



4. Cum detectăm un deepfake?

Deși tehnologia din spatele deepfake-urilor avansează rapid, există în continuare indicii vizibile care pot semnala un conținut manipulat, mai ales dacă este generat cu instrumente comerciale sau cu un set limitat de date. Atenția la detalii vizuale și auditive, combinată cu verificarea sursei informației, sunt esențiale pentru a identifica un deepfake. Iată câteva semne vizibile de manipulare:
• Expresii faciale rigide sau ușor nefirești: zâmbete artificiale, care nu implică ochii, buze care se mișcă mecanic sau mimică ce nu corespunde emoției transmise.
• Clipit neregulat sau privire fixă: modelele AI întâmpină dificultăți în a genera clipitul natural; de multe ori, privirea este fixă, cu un aspect sticlos sau fără focalizare.
• Sincronizare imperfectă între voce și buze: chiar și diferențe de fracțiuni de secundă pot fi sesizabile, mai ales în pronunția consoanelor.
• Tranziții anormale de lumină și umbră pe față: o sursă de lumină nerealistă, reflexii absente sau umbre care apar brusc între cadre.
• Artefacte vizuale în jurul gurii, nasului sau conturului feței: uneori pot apărea distorsiuni sau pierderi de claritate, mai ales în zonele cu multă mișcare facială.
• Anomalii sonore: o voce prea „rotundă”, fără imperfecțiuni, lipsită de respirații naturale, poate trăda un voice clone.
Pe lângă observația vizuală si verificarea surselor, putem verifica autenticitatea conținutului cu ajutorul platformelor de fact-checking, cum ar fi: Snopes.com, AFP Fact Check, Reuters Fact Check si InVID – un instrument folosit de jurnaliști pentru verificarea imaginilor și video-urilor online. Pe langa instrumentele internaționale, există și platforme românești de fact-checking care pot ajuta publicul să identifice informații false sau manipulatoare: Factual.ro – verifică afirmații ale politicienilor și personalităților publice, Verificat.ro – parte din rețeaua AFP Fact Check, Context.ro – investigații și verificări media.

5. Ce facem când vedem un deepfake? Unde raportăm?
Pasul 1: Nu distribuim. Chiar dacă pare real sau șocant, nu da mai departe până nu ești sigur. Distribuirea unei informații false amplifică răul.
Pasul 2: Raportează conținutul.
• Pe rețelele sociale:
- Facebook / Instagram: apasă pe „…” → Raportează → Conținut fals / Dezinformare
- TikTok: apasă pe „…” → Raportează → Înșelătorie sau Conținut fals
- YouTube: Raportează → Dezinformare / manipulare
• Dacă materialul este difuzat la TV sau radio, se poate depune o sesizare scrisă la Consiliul Național al Audiovizualului (CNA), menționând postul, data, ora și conținutul reclamat.
În cazurile care implică tentativă de fraudă, fals în identitate sau distribuirea de conținut falsificator cu potențial periculos, se poate face o sesizare la Directoratul Național de Securitate Cibernetică (DNSC) sau o plângere la Poliția Română – specializarea Criminalitate Informatică sau online prin e-guvernare.ro
Pasul 3: Semnalează public conținutul.
Poți contacta platforme de fact-checking (Factual, Verificat, Context) sau poți semnala presa, dacă materialul circulă rapid și poate face rău.



Parerea ta conteaza:

(0/5, 0 voturi)

Lasa un comentariu



trimite