OpenAI, dat în judecată după ce nu a raportat amenințările unui atacator din Canada
Familiile victimelor unui atac armat dintr-o școală din Canada dau în judecată OpenAI pentru că nu a alertat autoritățile.
Familiile a șapte victime ale unui atac armat petrecut într-o școală secundară din provincia British Columbia, Canada, au intentat procese împotriva companiei OpenAI și a directorului său general, acuzându-i de neglijență pentru că nu au alertat autoritățile cu privire la conversațiile tulburătoare pe care atacatorul le-a avut cu ChatGPT.
Procesele au fost depuse miercuri la o instanță federală din San Francisco și vizează OpenAI, compania care a dezvoltat chatbot-ul de inteligență artificială ChatGPT. Conform documentelor judiciare, atacatorul a fost identificat ca fiind Jesse Van Rootselaar, în vârstă de 18 ani, care a comis atacul armat la Tumbler Ridge.
Angajații companiei au semnalat contul cu opt luni înainte
Potrivit acuzațiilor din procese, intențiile violente ale atacatorului erau bine cunoscute de către OpenAI. Angajații companiei au semnalat contul lui Van Rootselaar cu opt luni înainte de atac și au stabilit că acesta reprezenta "o amenințare credibilă și specifică de violență cu arma de foc împotriva unor persoane reale", conform documentelor judiciare.
Familiile susțin că angajați ai companiei au îndemnat conducerea să notifice autoritățile cu privire la comportamentul îngrijorător al tânărului cu luni înainte de atacul mortal de la Tumbler Ridge. Cu toate acestea, compania nu a luat măsurile necesare pentru a preveni tragedia.
Detaliile atacului din British Columbia
Atacul armat a avut loc într-o școală secundară din Tumbler Ridge, o localitate din provincia British Columbia, Canada. Incidentul s-a soldat cu șapte victime, ale căror familii au decis să întreprindă acțiuni legale împotriva OpenAI pentru rolul pe care îl consideră că l-a avut în facilitarea atacului.
Procesele ridică întrebări importante despre responsabilitatea companiilor de tehnologie în monitorizarea și raportarea comportamentului potențial periculos detectat pe platformele lor de inteligență artificială. Este prima dată când o companie care dezvoltă sisteme de IA este trasă la răspundere juridic pentru astfel de circumstanțe.
Implicații pentru reglementarea IA în Europa și România
Acest caz ar putea avea repercusiuni semnificative asupra modului în care sunt reglementate sistemele de inteligență artificială la nivel global, inclusiv în Uniunea Europeană și România. Actul European privind Inteligența Artificială, care va intra în vigoare treptat, prevede obligații clare pentru companiile care dezvoltă sisteme de IA cu risc ridicat.
Pentru România, care implementează în prezent regulamentele UE privind IA, acest caz subliniază importanța stabilirii unor protocoale clare de raportare și monitorizare a comportamentului suspicios detectat de sistemele de inteligență artificială. Autoritățile române urmăresc îndeaproape dezvoltările din domeniul reglementării IA pentru a se asigura că legislația națională este în conformitate cu standardele europene.
Procesele depuse împotriva OpenAI ar putea crea un precedent legal important pentru industria tehnologiei și responsabilitatea companiilor în prevenirea violenței facilitate de sistemele de inteligență artificială.
Surse: The Guardian - World
Foto: Growtika / Unsplash