Abonează-te la Newsletter-ul Nostru

Succes! Verifică-ți emailul

Pentru a finaliza abonarea, dă clic pe linkul de confirmare din inbox-ul tău. Dacă nu ajunge în 3 minute, verifică folderul de spam.

Ok, Mulțumesc
Escrocheriile deepfake și atacurile AI devin tot mai periculoase: ce spune noul raport de securitate cibernetică 2025
AI devine un instrument esențial în arsenalul escrocilor digitali, alimentând atacuri tot mai greu de detectat. 📷 Imagine generată cu ajutorul inteligenței artificiale. Sursa: stirifocus.ro

Escrocheriile deepfake și atacurile AI devin tot mai periculoase: ce spune noul raport de securitate cibernetică 2025

Un nou raport prezentat la conferința RSAC 2025 arată cum AI este folosită tot mai des în escrocherii: deepfake-uri convingătoare, e-mailuri de phishing impecabile și atacuri automate devin noua normalitate a criminalității digitale.

Bogdan Cical profile image
by Bogdan Cical

AI, arma invizibilă a escrocilor digitali

Vocea ta, fața ta, stilul tău de a vorbi – toate pot fi imitate acum cu o fidelitate uimitoare. Un nou raport de securitate cibernetică prezentat la Conferința RSA 2025 (RSAC), una dintre cele mai mari reuniuni globale în domeniu, avertizează că escrocheriile bazate pe inteligență artificială devin din ce în ce mai sofisticate și greu de detectat. Pe măsură ce tehnologia evoluează, granița dintre realitate și fals devine tot mai greu de identificat, iar vulnerabilitatea umană este exploatată la o scară fără precedent, relatează Fox News .

RSAC 2025 – Alarmă globală în fața riscurilor digitale

Conferința RSA (RSAC), desfășurată anual în San Francisco, este considerată cel mai important forum internațional în domeniul securității cibernetice. În 2025, accentul a fost pus clar pe inteligența artificială: cum poate fi folosită pentru apărare, dar mai ales cum este deja exploatată pentru atac. Raportul de anul acesta a atras atenția asupra unei tendințe îngrijorătoare: criminalitatea digitală nu mai are nevoie de hackeri experimentați – doar de algoritmi bine antrenați.

Escrocherii deepfake în timp real

Printre amenințările majore identificate se numără apelurile telefonice și video în care escrocii folosesc AI pentru a imita perfect vocea unui superior, a unui coleg sau chiar a unei rude, convingând victimele să furnizeze informații sensibile sau să transfere bani. Un caz notoriu din Marea Britanie a implicat o companie care a pierdut 20 de milioane de lire sterline după un apel Zoom cu fețe și voci false, create integral de un generator de conținut video AI. Atacul a fost atât de sofisticat, încât nicio persoană prezentă la întâlnire nu a bănuit că interlocutorii erau creați digital. Înregistrările video păreau complet autentice, până în cele mai mici detalii – mișcările buzelor, expresiile faciale, chiar și ticurile verbale au fost replicate cu acuratețe.

Compania vizată, din sectorul financiar, a transferat suma uriașă către un cont offshore, crezând că primește instrucțiuni de la un director executiv. Abia după mai multe ore s-a descoperit frauda, când directorul real a contactat echipa pentru o discuție programată. Ancheta a scos la iveală faptul că atacatorii folosiseră mostre publice de voce și video, disponibile pe rețele sociale și în interviuri online, pentru a antrena modelul AI care a produs falsurile.

Phishing cu AI: mesajele perfecte care păcălesc și experții

Instrumentele AI utilizate în aceste escrocherii sunt vândute pe forumuri clandestine și pot genera mii de e-mailuri personalizate, fără greșeli gramaticale și cu un ton convingător. Platforme precum GoMailPro folosesc sisteme avansate de limbaj precum ChatGPT pentru a livra e-mailuri de phishing imposibil de detectat cu filtrele actuale. Fiecare mesaj este adaptat victimei și conceput să treacă drept autentic.

📷 Imagine generată cu ajutorul inteligenței artificiale. Sursa: stirifocus.ro

Un exemplu recent a implicat o companie IT din Germania, unde un angajat a primit un e-mail aparent de la CEO, solicitând o plată urgentă către un furnizor. Mesajul avea semnătura exactă a CEO-ului, tonul era profesional, iar referințele interne erau corecte. Abia după verificări suplimentare, firma a descoperit că e-mailul fusese generat de un sistem AI, antrenat pe datele interne ale companiei, accesate anterior în urma unei breșe de securitate minore.

Chatboți care păcălesc în timp real

Console AI precum X137 Telegram și Gemini simulează conversații umane într-un mod înfiorător de realist. Acestea sunt proiectate pentru a menține dialoguri coerente, adaptive și personalizate, oferind răspunsuri în timp real care par a fi emise de persoane reale. Escrocii le folosesc pentru a interacționa simultan cu zeci sau chiar sute de victime, fără pauză, fără erori, fără suspiciuni.

Într-un caz documentat în SUA, un chatbot programat să imite un operator de call center a convins un utilizator să divulge date bancare și să instaleze un software malițios „pentru verificare de securitate”. Conversația a durat peste 40 de minute și a inclus glume, pauze naturale și chiar schimburi empatice – toate generate de AI. Victima a mărturisit ulterior că „a avut impresia că vorbește cu o persoană empatică, nu cu un robot”.

Deosebit de periculoasă este capacitatea acestor console de a se adapta la stilul de comunicare al victimei, folosind cuvintele-cheie din dialog pentru a menține iluzia umanității. Prin folosirea AI multimodală, aceste sisteme pot chiar trimite capturi de ecran false, documente falsificate sau videoclipuri deepfake pentru a consolida credibilitatea în conversație.

Sextorsiune AI: frică bazată pe iluzii

O altă metodă perfidă este sextorsiunea alimentată de AI: victimele primesc e-mailuri cu amenințări că ar fi fost înregistrate în ipostaze intime – imagini generate de AI, de fapt, dar extrem de realiste. De obicei, atacatorii folosesc fotografii publice ale victimei pentru a genera conținut fals care pare convingător. Unele mesaje conțin și mostre video generate de modele AI, cu expresii faciale și gesturi similare cu ale persoanei reale.

📷 Imagine generată cu ajutorul inteligenței artificiale. Sursa: stirifocus.ro

Mulți oameni cedează și trimit bani, sperând că vor opri distribuirea acestor materiale false. Panica generată de un astfel de mesaj este imensă, mai ales când este însoțit de amenințări explicite privind distribuirea imaginilor către angajatori, familie sau presă. Din păcate, chiar și în cazurile în care victimele își dau seama că imaginile sunt false, teama de rușine și expunere le determină să cedeze șantajului. Potrivit experților citați la RSAC 2025, cazurile de sextorsiune AI s-au triplat în ultimul an și afectează în special adolescenți și tineri adulți.

Manipularea AI: Jailbreaking și otravirea modelelor

Infractorii cibernetici utilizează metode de jailbreaking pentru a păcăli modelele AI să genereze conținut periculos sau interzis. În paralel, o altă tehnică numită „data poisoning” permite atacatorilor să introducă date false în seturile de antrenament, pervertind rezultatele sistemelor AI. Acest lucru poate duce la recomandări greșite, cod malițios sau răspunsuri toxice din partea unor platforme altfel bine intenționate.

AI, complice în malware și atacuri distribuite (DoS)

Tot mai multe grupuri de crimă organizată digitală folosesc AI pentru a automatiza generarea de malware, crearea de site-uri clone, trimiterea de mesaje în masă și chiar orchestrarea de atacuri DoS (denial-of-service). Aceste instrumente nu doar că sunt eficiente, dar sunt și ușor de utilizat – ceea ce reduce dramatic bariera de intrare pentru noi actori în lumea criminalității cibernetice.

Ce ne poate salva? Vigilența și educația digitală

Raportul RSAC 2025 trage un semnal de alarmă: într-o lume digitală din ce în ce mai vulnerabilă, nu doar soluțiile tehnice contează, ci și educația. Oamenii trebuie să înțeleagă cum funcționează AI, care sunt riscurile reale și cum pot recunoaște semnalele unui posibil atac. Firmele, la rândul lor, trebuie să-și instruiască angajații și să investească în tehnologii de detectare a conținutului generat artificial.

Într-o epocă a aparențelor digitale, adevărul trebuie antrenat și el

Pe măsură ce AI devine tot mai sofisticată, și formele de manipulare și fraudă vor deveni mai greu de detectat. Într-un viitor apropiat, în care nu vei mai putea avea încredere nici măcar în propriile simțuri, protecția reală vine dintr-o combinație de tehnologie, conștientizare și colaborare internațională. RSAC 2025 marchează un nou început în lupta cu „arma invizibilă” a erei digitale: inteligența artificială.


Sursă: Fox News

Bogdan Cical profile image
de Bogdan Cical

Știrile importante, trimise direct pe e-mailul tău

Platforma ta de știri actualizate, cu analize clare și perspective relevante. Informații imparțiale din diverse domenii, pentru o informare completă.

Succes! Verifică-ți emailul

To complete Subscribe, click the confirmation link in your inbox. If it doesn’t arrive within 3 minutes, check your spam folder.

Ok, Mulțumesc

Citește mai mult