OpenAI grăbește lansările și reduce testele de siguranță pentru noile modele AI
OpenAI a scurtat considerabil perioada alocată testării de siguranță a modelelor sale AI, reducând-o de la șase luni la doar câteva zile. Decizia ridică semne de întrebare privind riscurile potențiale ale noilor tehnologii, într-un context de competiție acerbă.

Dacă folosești inteligența artificială în activitatea ta zilnică sau ești doar curios cu privire la viitorul tehnologiei, această știre te privește direct. Potrivit Financial Times, OpenAI – compania cunoscută pentru dezvoltarea GPT-4 – și-a scurtat radical procesul de testare a siguranței pentru următorul său model, denumit „o3”.
De la șase luni de evaluări riguroase, compania a trecut la doar câteva zile de verificări. Informațiile vin de la opt persoane implicate în testare, intervievate de FT, care susțin că resursele alocate acestui proces au fost reduse semnificativ. Motivul? Presiunea de a lansa rapid modele noi pentru a rămâne înaintea rivalilor precum Google, Meta sau xAI, compania fondată de Elon Musk.
Un angajat implicat în testarea lui o3 a declarat că „testele erau mai amănunțite pe vremea când tehnologia nu era atât de importantă”. Acum, spune el, ne aflăm într-o goană pentru lansări rapide, care „ar putea deveni o rețetă pentru dezastru”.
Deși nu există un standard internațional pentru testele de siguranță în domeniul AI, Uniunea Europeană a impus recent obligații clare privind evaluarea celor mai puternice modele. În plus, OpenAI, alături de alte companii importante, semnase în trecut angajamente cu guvernele din SUA și Regatul Unit pentru colaborări cu institute independente în testarea tehnologiei.
Pentru GPT-4, lansat în 2023, echipa a avut la dispoziție șase luni pentru verificări, timp în care problemele au început să apară după două luni. În schimb, pentru o3, echipele au avut doar câteva zile. Acest nou model este proiectat să rezolve sarcini complexe de raționament și să ducă AI-ul la un nou nivel de sofisticare – motiv în plus pentru a cere prudență.
Testele sunt însă costisitoare: implică experți externi, seturi de date specializate, ingineri interni și consum mare de putere de calcul. OpenAI susține că a optimizat procesul de evaluare prin automatizare și alte măsuri interne, afirmând că modelele cu risc ridicat sunt în continuare testate temeinic.
Cu toate acestea, un fost cercetător în domeniul siguranței din cadrul companiei a avertizat că această schimbare de strategie ar putea duce la ignorarea riscurilor majore.