Un studiu recent al Future of Life Institute (FLI) arată că unele dintre cele mai mari companii de inteligență artificială (AI), inclusiv OpenAI, Anthropic, Meta sau xAI, nu respectă standardele globale de siguranță. În practică, acestea sunt mai puțin reglementate decât o braserie sau un restaurant obișnuit.
Ce spune raportul: lipsă de strategii clare de siguranță
Evaluarea publicată de FLI relevă că aceste companii nu au o strategie transparentă şi credibilă pentru controlul sistemelor AI puternice, în pofida ritmului rapid de dezvoltare. Nu există planuri concrete de reducere a riscurilor, iar procedurile pentru siguranță sunt inconsistente.
Deşi unele companii au prezentat cadre teoretice de siguranță, niciuna nu a demonstrat un mecanism verificabil, fiabil, care să garanteze că pot gestiona eficient riscuri majore: de la dezinformare masivă, până la erori ce pot avea consecințe grave.
De ce comparaţia cu restaurantele spune multe
Concluzia harsh a raportului, că aceste companii sunt „mai puțin reglementate decât restaurantele”, subliniază un paradox: în timp ce restaurantele sunt supuse unor reguli stricte de sănătate publică, siguranță alimentară și inspecții regulate, firmele de AI operează în mare parte în afara unor reglementări clare sau aplicabile consistent.
Această discrepanță scoate în evidență cât de departe este actualul cadru legal de a acoperi noile riscuri generate de tehnologiile AI, iar ritmul rapid al inovației complică și mai mult situația.
Riscuri nu doar teoretice: ce se poate întâmpla
Lipsa de reglementare și control deschis asupra dezvoltării AI ridică semnale de alarmă serioase, potrivit experților:
- modelele pot fi folosite pentru generarea de dezinformare, manipulare, conținut dăunător;
- capacitatea lor de a produce texte, imagini, video etc. poate influența societatea la scară largă fără control real;
- în lipsa transparenței, nu există garanții că dezvoltatorii sunt pregătiți să prevină sau gestioneze erori grave sau utilizări abuzive.
Raportul avertizează că, pe măsură ce tehnologia avansează spre „super-inteligență”, riscurile devin tot mai greu de anticipat și controlat.
Ce se întâmplă în Europa și de ce reglementarea este urgentă
În Uniunea Europeană a fost adoptat Regulamentul privind inteligența artificială (EU AI Act), care stabilește un cadru juridic pentru reglementarea AI — clasificând produsele AI pe niveluri de risc și impunând obligații diferite în funcţie de aceste niveluri.
Totuși, implementarea regulilor este în derulare, iar controalele efective sunt încă limitate. Criticii susţin că actualele standarde nu acoperă rapiditatea cu care apar tehnologii noi, și că lobby-ul companiilor mari riscă să dilueze norme importante pentru siguranță.
Ce să reţinem (ca utilizatori și cetățeni)
- Nu putem da automat crezare oricărui sistem AI — în absența unui cadru transparență-rigid, riscul abuzului sau erorilor mari există.
- În calitate de utilizatori, e util să cerem responsabilitate: solicită informaţii despre cum sunt gestionate datele, siguranţa sistemului, limitările AI-lor.
- Societatea, prin legi, reglementări, presiune publică, trebuie să urmărească care firme dezvoltă IA, cum le testează, ce standarde aplică.
„Responsabilitatea se construiește împreună.
Intră pe canalul nostru de WhatsApp Responsabil și fii parte dintr-o comunitate care vrea să schimbe România în bine.
Leave a comment