Chatbotul Grok, creat de xAI ca alternativă la ChatGPT, a fost recent implicat într-o controversă după ce utilizatorii au descoperit că fusese programat să evite răspunsurile care afirmau că sursele ce menționează Elon Musk sau Donald Trump răspândesc dezinformare.
Incidentul a fost confirmat de Igor Babuschkin, șeful departamentului de inginerie al xAI, care a dat vina pe un fost angajat OpenAI din cadrul xAI pentru modificarea neautorizată a sistemului de instrucțiuni ale chatbotului.
Modificare neautorizată a sistemului de instrucțiuni
Sistemul de instrucțiuni al lui Grok – regulile care guvernează modul în care AI-ul răspunde utilizatorilor – este vizibil public, în acord cu filozofia lui Musk privind transparența AI.
Babuschkin a explicat că un angajat a modificat fără aprobare aceste instrucțiuni, crezând că astfel va îmbunătăți acuratețea răspunsurilor. Cu toate acestea, xAI a subliniat că schimbarea nu reflectă valorile companiei.
Musk a promovat Grok drept un AI "maximal orientat spre adevăr", cu misiunea de a "înțelege universul". Totuși, noul model Grok-3 a stârnit controverse afirmând că Musk, Trump și vicepreședintele JD Vance sunt cei care fac cel mai mult rău Americii. De asemenea, inginerii xAI au fost nevoiți să intervină pentru a împiedica Grok să răspundă că Musk și Trump merită pedeapsa cu moartea.
Dilema AI: Bias și cenzură
Acest incident evidențiază provocările legate de bias-ul AI și de gestionarea conținutului sensibil politic. În timp ce Musk a criticat OpenAI și alte modele AI pentru tendințele lor politice, acest scandal ridică semne de întrebare și despre neutralitatea și transparența lui Grok.
Pe măsură ce instrumentele AI devin din ce în ce mai utilizate în jurnalism, cercetare și dezbateri publice, dilema dintre cenzură, obiectivitate și căutarea adevărului devine tot mai acută. Rămâne de văzut dacă Grok va reuși să fie cu adevărat o alternativă imparțială și transparentă la ChatGPT.
Comentariul va fi postat dupa aprobare