Internetul intră într-o nouă eră: nu mai poți avea încredere în ceea ce vezi
O voce clonată în câteva secunde. Un apel video fals. Imagini generate de AI aproape imposibil de detectat. Pe măsură ce deepfake-urile devin tot mai realiste, diferența dintre realitate și manipulare devine tot mai greu de recunoscut.
Clipurile false generate cu AI devin aproape imposibil de detectat
Într-o seară aparent banală din februarie, o femeie din Manchester a primit un apel video de la fiica ei. Imaginea era clară, iar vocea părea autentică. Tânăra vorbea grăbit, printre suspine, spunând că fusese implicată într-un accident și că avea nevoie urgentă de bani. Mama nu a stat pe gânduri. A transferat aproape 4.000 de lire sterline înainte să descopere adevărul: fiica ei nu fusese niciodată implicată într-un accident. Imaginea și vocea fuseseră generate cu ajutorul inteligenței artificiale.
Până recent, asemenea povești păreau scene din filme science-fiction. Astăzi însă, experții avertizează că internetul intră într-o etapă în care imaginile, vocile și videoclipurile nu mai pot fi considerate automat dovezi ale realității.
De ani întregi, Hany Farid studiază modul în care imaginile și înregistrările digitale pot fi manipulate. Profesor și specialist în criminalistică digitală, Farid a colaborat de-a lungul timpului cu instituții media, companii tehnologice și organizații care încearcă să combată dezinformarea online. În ultimii ani, avertismentele sale au devenit tot mai sumbre.
„Timp de peste un secol, fotografia și filmul au avut statutul de martor vizual al adevărului. Această epocă se apropie de final”, avertiza el recent.
Tehnologia din spatele acestor falsuri hiper-realiste este cunoscută sub numele de „deepfake” — materiale audio sau video generate de inteligența artificială pentru a imita persoane reale.
Primele versiuni puteau fi recunoscute relativ ușor. Fețele păreau rigide, expresiile nenatural de fixe, iar mișcările gurii nu se sincronizau perfect cu vocea. Astăzi însă, lucrurile s-au schimbat radical.
Noile modele AI pot reproduce nu doar chipuri și voci, ci și detalii subtile ale comportamentului uman: ezitări în vorbire, schimbări fine de ton sau expresii faciale aproape imposibil de diferențiat de cele reale.
Un studiu publicat în revista științifică Public Library of Science One a arătat cât de vulnerabili sunt oamenii în fața acestor falsuri digitale. Participanții au ascultat voci reale și voci generate de AI, încercând să le diferențieze. Rezultatele au fost neliniștitoare: aproape una din patru decizii a fost greșită.
Mai surprinzător a fost faptul că, chiar și după ce participanții au primit explicații despre semnele care ar putea indica un fals, capacitatea lor de detectare s-a îmbunătățit foarte puțin.
Un alt studiu, publicat în revista iScience, a descoperit că oamenii tind să își supraestimeze dramatic abilitatea de a identifica deepfake-urile. Mulți dintre participanți erau convinși că și-ar da seama imediat dacă un videoclip este fabricat. În realitate, au greșit mult mai des decât credeau.
Cercetătorii explică acest fenomen prin expresia „seeing is believing” — tendința profund umană de a acorda credibilitate lucrurilor pe care le vedem.
Timp de generații întregi, imaginile video au fost percepute ca una dintre cele mai puternice forme de dovadă. O fotografie surprindea un moment real. O filmare confirma că un eveniment chiar s-a întâmplat. Inteligența artificială începe însă să rupă această legătură instinctivă dintre imagine și adevăr, iar consecințele devin din ce în ce mai concrete.
Într-o lume în care o voce poate fi clonată în câteva secunde, emoțiile umane devin vulnerabilități exploatabile. Un copil care plânge la telefon. Un mesaj audio aparent trimis de un partener. Un director care cere urgent un transfer bancar.
În 2024, o companie multinațională din Hong Kong a pierdut aproximativ 25 de milioane de dolari într-un caz care a șocat specialiștii în securitate cibernetică.
Un angajat din departamentul financiar a fost invitat la o videoconferință internă. Pe ecran apăreau mai mulți directori ai companiei, inclusiv ceea ce părea a fi directorul financiar. Fețele erau familiare, vocile păreau autentice, iar discuția avea tonul calm și procedural al unei ședințe obișnuite. La un moment dat, angajatului i s-a cerut să aprobe mai multe transferuri urgente. Nu a suspectat nimic.
Abia după efectuarea transferurilor, compania avea să descopere adevărul: toate persoanele din videoconferință fuseseră recreate cu ajutorul inteligenței artificiale. Singura persoană reală din apel era chiar angajatul care fusese păcălit.
În paralel, fenomenul produce victime și în afara fraudelor financiare. În mai multe țări au apărut cazuri de adolescente ale căror fotografii publicate pe rețelele sociale au fost folosite pentru a crea imagini pornografice false generate cu inteligență artificială.
O adolescentă din Statele Unite povestea presei locale că, atunci când a intrat într-o dimineață în clasă, a simțit imediat că ceva se schimbase. Colegii o priveau diferit. Unii râdeau în șoaptă, alții evitau să îi vorbească. Abia mai târziu a aflat că fotografii false generate cu AI circulau pe telefoanele elevilor. În doar câteva zile, relațiile cu prietenii s-au deteriorat, iar familia a fost nevoită să contacteze avocați și autorități locale.
Chiar și după dispariția materialelor de pe internet, efectele pot continua mult timp. Specialiștii spun că problema nu este doar existența acestor falsuri, ci și faptul că ele lasă urme greu de eliminat din memoria oamenilor. Chiar și atunci când imaginile sunt demontate și demonstrate ca fiind false, suspiciunea poate rămâne.
Unii continuă să privească persoana afectată diferit. Alții păstrează în minte imaginile pe care le-au văzut înainte ca adevărul să fie clarificat.
Într-un spațiu online unde informația circulă cu o viteză uriașă, dezmințirile ajung adesea prea târziu — după ce reputații au fost afectate, relații distruse, iar răul a fost deja făcut.
Deepfake-urile ies din zona divertismentului
Deepfake-urile au evoluat rapid de la simple farse online la instrumente folosite în fraude, șantaj și campanii de dezinformare.
Companii de securitate cibernetică avertizează că tentativele de fraudă bazate pe clonarea vocilor cresc accelerat, pe măsură ce instrumentele AI devin mai ieftine și mai accesibile.
Escrocii au nevoie uneori doar de câteva secunde de înregistrare audio pentru a reproduce vocea unei persoane. Fragmentele sunt adesea preluate din videoclipuri publicate pe TikTok, Instagram sau YouTube.
În multe cazuri, victimele primesc apeluri de la „copii”, „parteneri” sau „șefi” care cer bani urgent. Câteva secunde de panică sunt suficiente pentru ca oamenii să reacționeze instinctiv, înainte să apuce să verifice dacă persoana de la celălalt capăt al telefonului este reală.
Potrivit revistei americane Wired, una dintre cele mai influente publicații dedicate tehnologiei și culturii digitale, fraudele bazate pe deepfake-uri se înmulțesc rapid pe măsură ce instrumentele de inteligență artificială devin accesibile aproape oricui. În același timp, clipurile false încep să contamineze spațiul public.
În mijlocul protestelor și conflictelor care au inundat fluxurile rețelelor sociale în ultimii ani, au început să apară și videoclipuri fabricate care păreau complet autentice — explozii inexistente, atacuri care nu avuseseră loc sau declarații oficiale rostite doar de inteligența artificială.
Multe dintre aceste materiale au fost distribuite de milioane de ori înainte ca jurnaliștii și organizațiile de fact-checking să demonstreze că imaginile erau false.
Problema este că, odată ce un videoclip provoacă panică sau furie, efectul emoțional nu dispare complet nici după ce falsul este demontat.
Revista TIME avertiza recent că noile instrumente video bazate pe AI produc imagini atât de realiste încât diferențele față de materialele autentice devin aproape imposibil de observat.
„Nu mai putem folosi ochii și urechile drept arbitri ai adevărului”
În laboratoarele universităților și în centrele companiilor de securitate digitală se desfășoară o luptă tot mai dificilă împotriva falsurilor generate de inteligența artificială.
Cercetătorii încearcă să construiască programe capabile să identifice videoclipurile și înregistrările manipulate înainte ca acestea să se răspândească online. Numai că tehnologia evoluează într-un ritm amețitor.
Printre cei care studiază fenomenul se află și Siwei Lyu, cercetător american specializat în analiza imaginilor digitale manipulate. În primii ani ai fenomenului deepfake, Lyu și echipa sa observaseră că multe videoclipuri false puteau fi recunoscute după mici imperfecțiuni: expresii faciale rigide, mișcări nenaturale sau clipit nefiresc. Astăzi însă, multe dintre aceste semne aproape că au dispărut. Noile modele AI reușesc să imite tot mai convingător expresiile umane, ritmul vorbirii și reacțiile subtile ale feței.
O analiză publicată în Journal of King Saud University – Computer and Information Sciences avertizează, la rândul ei, că realismul noilor generații de deepfake-uri face detectarea lor din ce în ce mai dificilă.
Problema nu ține doar de sofisticarea tehnologiei. Internetul însuși complică lucrurile. Videoclipurile sunt comprimate, editate și redistribuite constant pe platformele sociale, iar în acest haos digital chiar și sistemele performante de detectare pot începe să greșească.
„Intrăm într-o lume în care nu mai putem folosi ochii și urechile drept arbitri ai adevărului”, avertizează Lyu.
Efectele se văd deja online. Sub videoclipurile virale apar tot mai des aceleași întrebări: „Este real?” „E făcut cu AI?”
Experții în dezinformare avertizează că această stare permanentă de suspiciune poate deveni extrem de periculoasă. Fenomenul are deja un nume: „liar’s dividend” — avantajul mincinosului.
Într-o lume în care orice imagine poate fi declarată falsă, chiar și dovezile reale riscă să fie negate.
Când nici dovezile nu mai par sigure
Consecințele acestei transformări ar putea ajunge mult dincolo de internet și rețelele sociale.
Timp de decenii, înregistrările audio și video au fost considerate unele dintre cele mai puternice probe într-o anchetă. Astăzi însă, această siguranță începe să se clatine.
Potrivit Axios, publicație americană specializată în analiză și tehnologie, tribunalele și sistemele judiciare se confruntă cu o problemă tot mai serioasă: cum poate fi verificată autenticitatea unei înregistrări într-o perioadă în care inteligența artificială poate fabrica dovezi extrem de convingătoare?
Pentru experții în criminalistică digitală, miza devine uriașă. Nu mai este vorba doar despre fotografii modificate sau videoclipuri editate superficial. Noile tehnologii pot genera conversații care nu au existat niciodată, întâlniri fictive sau declarații fabricate care par autentice până la cele mai mici detalii.
Într-un astfel de context, fiecare probă digitală riscă să vină însoțită de aceeași întrebare: poate fi demonstrat cu adevărat că este reală?
Dar poate că schimbarea cea mai profundă nu are loc în tribunale sau laboratoare, ci în viața de zi cu zi.
Tot mai mulți oameni privesc imaginile online cu o neîncredere pe care până recent nu o aveau. Părinții încep să stabilească parole sau întrebări secrete cu copiii lor pentru a evita fraudele bazate pe clonarea vocilor, iar companiile introduc proceduri suplimentare de verificare înaintea transferurilor importante de bani.
Încet, încet, aproape fără să își dea seama, oamenii încep să se adapteze unei lumi în care ceea ce vezi sau auzi nu mai este suficient pentru a convinge.
Poate că acesta este cel mai straniu efect al erei deepfake-urilor: nu doar faptul că inteligența artificială poate fabrica realități false, ci faptul că oamenii încep să își reorganizeze comportamentul pornind de la ideea că pot fi înșelați în orice moment.
În liniștea telefoanelor pe care le purtăm zilnic în buzunare, adevărul devine tot mai greu de verificat.
Iar internetul — construit cândva ca o fereastră spre lume — riscă să se transforme într-o sală infinită de oglinzi.
Surse: Public Library of Science, iScience, Wired, TIME, Axios, Journal of King Saud University - Computer and Information Sciences