Modelul AI Claude Mythos de la Anthropic, compromis înainte de lansare publică
Sistemul de inteligență artificială considerat prea periculos pentru lansarea publică a ajuns în mâinile unor utilizatori neautorizați.
Compania americană de inteligență artificială Anthropic se confruntă cu o situație delicată după ce modelul său cel mai avansat, Claude Mythos, a fost accesat ilegal de către un grup de utilizatori neautorizați, înainte ca firma să aprobe lansarea sa controlată.
Conform informațiilor publicate de Bloomberg, un "grup mic de utilizatori neautorizați" a avut access la Mythos încă din ziua în care Anthropic a anunțat oficial planurile de a oferi modelul pentru testare unui număr restrâns de companii selectate. Incidentul reprezintă o ironie amară pentru o companie care și-a construit reputația pe principii stricte de siguranță în domeniul inteligenței artificiale.
Modelul considerat "prea periculos" pentru publicul larg
Claude Mythos a fost descris de către reprezentanții Anthropic ca fiind extrem de capabil în domeniul securității cibernetice, motiv pentru care compania a decis să nu îl lanseze public. Existența modelului a fost inițial dezvăluită printr-o scurgere de informații, iar Anthropic a confirmat ulterior dezvoltarea sa, menținând însă o politică de acces extrem de restrictivă.
Compania a petrecut săptămâni întregi explicând de ce Mythos este considerat prea avansat și potențial periculos pentru a fi pus la dispoziția publicului larg. Capacitățile sale în materie de securitate cibernetică au fost prezentate ca fiind atât de sofisticate încât ar putea reprezenta un risc dacă ar fi utilizate în mod necorespunzător.
Anthropic a confirmat că desfășoară o investigație internă pentru a determina circumstanțele exacte în care s-a produs breșa de securitate și pentru a identifica responsabilii.
Impact asupra industriei AI și măsuri de securitate
Incidentul ridică întrebări importante despre capacitatea companiilor de inteligență artificială de a-și proteja propriile tehnologii avansate. Anthropic s-a poziționat constant ca un lider în domeniul siguranței AI, promovând o abordare responsabilă în dezvoltarea și implementarea sistemelor de inteligență artificială.
Breșa de securitate survine într-un moment în care industria globală a inteligenței artificiale este supusă unei atenții sporite din partea autorităților de reglementare. Uniunea Europeană a adoptat recent legislația AI Act, care impune standarde stricte pentru sistemele de inteligență artificială cu risc ridicat.
Pentru România, incidentul subliniază importanța dezvoltării unor capacități proprii în domeniul securității cibernetice și al inteligenței artificiale. Țara noastră a lansat recent Strategia Națională pentru Inteligența Artificială 2021-2027, care include măsuri specifice pentru gestionarea riscurilor asociate tehnologiilor AI avansate.
Cazul Anthropic demonstrează că și companiile cu cele mai stricte protocoale de securitate pot fi vulnerabile la atacuri sofisticate, evidențiind necesitatea unor standarde industriale mai riguroase pentru protecția tehnologiilor sensibile de inteligență artificială.
Surse: The Verge - AI
Foto: Igor Omilaev / Unsplash