Abonează-te la Newsletter-ul Nostru

Succes! Verifică-ți emailul

Pentru a finaliza abonarea, dă clic pe linkul de confirmare din inbox-ul tău. Dacă nu ajunge în 3 minute, verifică folderul de spam.

Ok, Mulțumesc
Noua generație de deepfake-uri audio și video: cât de vulnerabili suntem?
Identitatea vizuală devine tot mai ușor de falsificat în era deepfake-urilor. Imagine generată cu ajutorul AI

Noua generație de deepfake-uri audio și video: cât de vulnerabili suntem?

O nouă generație de deepfake-uri devine tot mai greu de recunoscut, amenințând conturi bancare, identități online și încrederea publică. Specialiștii avertizează că instituțiile nu sunt pregătite pentru următorii doi ani.

Bogdan Cical profile image
by Bogdan Cical

Tehnologia deepfake a evoluat rapid din zona de divertisment în cea a infracțiunilor digitale. Dacă în urmă cu câțiva ani falsurile video erau ușor de identificat, astăzi algoritmii generativi reproduc vocea, mimica și gesturile în timp real într-un mod aproape imposibil de distins pentru privitor. Un raport recent al MIT Technology Review arată că fraudele bazate pe clonare vocală au crescut cu peste 700% în 2024, iar autoritățile europene anchetează cazuri în care directori au fost convinși — prin apeluri imitate — să transfere sume de până la 200.000 de euro. „Suntem martorii unei industrializări a falsului”, spune dr. Anika Hsu, expertă în securitate cibernetică la University of Amsterdam.

Foto:@ Cemrecan Yurtman / Unsplash

O armă pentru hacking și propagandă

Fenomenul depășește aria financiară. Deepfake-urile sunt folosite în campanii electorale și în conflicte informaționale, amplificând tensiuni sociale. Potrivit European Digital Media Observatory, peste 22% dintre materialele manipulate identificate în 2025 includ declarații simulate ale unor figuri publice. În Taiwan și India, câteva clipuri atribuite unor politicieni au devenit virale înainte de a fi demontate, influențând dezbaterea publică. Uniunea Europeană discută etichetarea obligatorie a conținutului generat sintetic, însă procesul legislativ avansează lent.

Platformele sociale reacționează diferit: TikTok și Meta testează watermarking, în timp ce site-uri mai mici ignoră problema pentru a maximiza interacțiunea.

„Întrebarea nu este dacă vom vedea un clip fals care provoacă panică la nivel național, ci când”, avertizează analistul media Luca Berger pentru Politico Europe.

Concomitent, clonarea vocală devine uimitor de accesibilă: câteva secunde de înregistrare sunt suficiente pentru a genera o voce credibilă prin aplicații gratuite. În Statele Unite, Federal Trade Commission investighează incidente în care sistemele automate ale băncilor nu au reușit să distingă între client și imitatorul AI.

În China, autoritățile cer etichetarea obligatorie a vocilor sintetice, iar Europa pregătește propriile reguli prin AI Act.

„Este o cursă între reglementare și inovare, iar inovarea nu încetinește”, spune Hsu.

Putem ancora încrederea într-o lume sintetică?

Pentru utilizatorul obișnuit, riscurile sunt mai aproape decât par: un apel al unei „rude” care cere bani, un clip atribuit fals unui șef ce solicită date confidențiale sau o înregistrare video cu afirmații inflamatoare ale unei persoane publice. Potrivit Cybersecurity Ventures, până în 2028, majoritatea materialelor vizuale online vor fi, într-o formă sau alta, modificate sau generate artificial. Companiile de tehnologie lucrează la instrumente de verificare bazate pe micro-expresii și vibrații vocale, însă succesul lor depinde de adoptarea simultană în platformele pe care circulă aceste materiale.

Industria cinematografică încearcă să-și protejeze artiștii, după ce actorii de la Hollywood au protestat în 2023 față de folosirea AI pentru replici și dubluri fără consimțământ.

„Ștergerea urmelor autenticității vizuale este provocarea centrală a momentului”, spune avocatul media Harriet Cole pentru The Hollywood Reporter.

Problema este și psihologică. Odată ce publicul începe să pună la îndoială orice imagine, se clatină unul dintre pilonii societății: încrederea minimă în natură faptică.

„Epoca post-adevărului devine epoca post-video”, comprimă Cole.

Unele țări introduc intervenții educaționale: în Danemarca, școlile predau module despre manipularea vizuală, iar campanii publice în Germania explică metode simple de verificare. Criticii susțin însă că fenomenul avansează mai repede decât capacitatea populației de a-l interpreta corect.

Instituțiile publice se mișcă lent. Băncile testează biometrie suplimentară, redacțiile investesc în camere de verificare a autenticității, iar companiile de tehnologie propun standarde de etichetare. Totuși, multe dintre aceste soluții rămân inaccesibile utilizatorului obișnuit.

„Sistemele de protecție profesionale nu se traduc automat în siguranță pentru public”, avertizează Cole.

Comportamentul uman amplifică problema: utilizatorii continuă să distribuie secvențe neverificate din instinct emoțional, ceea ce alimentează ecosistemul falsurilor credibile.

Pe termen scurt, se conturează un fenomen delicat: eroziunea încrederii de bază. Nu doar știrile sunt puse sub semnul întrebării, ci și apelurile telefonice, întâlnirile video, mesajele vocale trimise între membri ai aceleiași familii. Falsurile pun presiune nu doar pe tehnologie, ci și pe intimitate, reputație și relații. Iar dacă orice poate fi simulat, atunci orice poate fi negat. Această inversare a poverii dovezii ridică probleme juridice complicate — de la campanii electorale până la procese penale.

În paralel, platformele de dating se confruntă cu o categorie nouă de înșelăciuni. În ultimele luni, au apărut cazuri în care utilizatori au fost atrași în conversații video cu persoane al căror chip era generat artificial în timp real, simulând expresii și reacții aparent autentice. Potrivit unui raport intern al unei platforme europene citat de MIT Technology Review, cel puțin 12 incidente au implicat cereri de bani sau date personale după discuții video aparent credibile. În Statele Unite, poliția din Los Angeles investighează o serie de plângeri în care imaginile sintetice au fost folosite pentru a crea „familiaritate afectivă” — un proces în care victima dezvoltă încredere pe baza unei prezențe vizuale false.

Companiile recunosc că, spre deosebire de fraudarea prin text sau fotografie, manipularea video generează un nivel emoțional mai profund.

„Când cineva îți zâmbește și îți răspunde în timp real, bariera critică scade imediat”, explică cercetătoarea Elina Moretti, specialistă în comportament digital.
Foto: @ IrynaKhabliuk

Pentru platforme, provocarea nu mai este doar verificarea identității contului, ci și a feței care apare pe ecran. În spațiul intim al dating-ului, deepfake-urile nu fură doar date, ci și timpul, atenția și vulnerabilitatea emoțională a victimelor.

Unii cercetători propun crearea unui „pașaport digital” pentru conținut, o semnătură criptată atașată fiecărei înregistrări autentice. Ideea are susținători, dar și critici, care văd riscul unei supravegheri extinse. Alții mizează pe alfabetizarea media, însă ritmul cu care progresează modelele generative depășește ritmul de adaptare al populației. În SUA, câteva universități au introdus workshopuri despre verificarea autenticității vizuale, iar în Franța, redacțiile experimentează „sigilii editoriale” pentru imagini confirmate.

Pe măsură ce ne apropiem de un viitor în care vocea poate fi clonată și chipul animat la comandă, apar întrebări mai profunde: cine deține adevărul vizual? Cum protejăm reputația într-o lume în care acuzația video devine mai puternică decât fapta? Și cât timp va trece până când o criză generată de un deepfake va depăși mediul online și va produce consecințe fizice?

Pentru moment, răspunsurile rămân incomplete. Tehnologia accelerează, infrastructura de protecție se construiește în grabă, iar publicul navighează între fascinație și suspiciune. Într-un mediu tot mai sintetizat, paradoxal, autenticitatea — cândva implicită — riscă să devină un lux verificabil. Iar în curând, va trebui poate să o demonstrăm, nu doar să o presupunem.


VIDEO : Euronews--Ce este deepfake, conținutul falsificat cu ajutorul Inteligenței Artificiale și cum îl recunoaștem

Surse :

MIT Technology Review — raport deepfake fraud (2025)
European Digital Media Observatory — analiză conținut manipulat (2025)
Politico Europe — interviuri propagandă vizuală (2025)
Cybersecurity Ventures — forecast conținut sintetic (2025)
The Hollywood Reporter — drepturi imagine digitală (2024)

Bogdan Cical profile image
de Bogdan Cical

Știrile importante, trimise direct pe e-mailul tău

Platforma ta de știri actualizate, cu analize clare și perspective relevante. Informații imparțiale din diverse domenii, pentru o informare completă.

Succes! Verifică-ți emailul

To complete Subscribe, click the confirmation link in your inbox. If it doesn’t arrive within 3 minutes, check your spam folder.

Ok, Mulțumesc

Citește mai mult