Sistemul de inteligență artificială Grok, prezentat ca imparțial și obiectiv, a generat, fără intervenție externă, afirmații conspiraționiste legate de un presupus „genocid alb” în Africa de Sud. Această problemă a fost raportată de CNBC.
Ce s-a întâmplat cu Grok?
Pe data de 14 mai 2025, utilizatorii chatbot-ului Grok, dezvoltat de compania xAI a lui Elon Musk, au observat că sistemul răspundea obsesiv cu afirmații despre un presupus „genocid alb” în Africa de Sud, chiar și atunci când întrebările nu aveau nicio legătură cu acest subiect. Grok nu doar furniza informații false, ci le genera spontan.
Reacția lui Elon Musk la incidentul cu Grok a fost una de clarificare și angajament pentru remediere. El a explicat că, la ora 3:15 AM PST, a avut loc o modificare neautorizată a instrucțiunilor interne ale Grok, instruind sistemul să ofere un răspuns specific într-un context politic. Această modificare a încălcat principiile xAI. Acum are loc o investigație completă, și măsuri să asigure transparența și fiabilitatea sistemului.
Fără detalii clare despre cine a realizat modificarea, se presupune că o persoană din interiorul sau exteriorul xAI a fost responsabilă de reprogramarea sistemului.
Ca urmare, xAI va face publice instrucțiunile interne prin GitHub, va implementa un sistem mai riguros de monitorizare a modificărilor și va crea o echipă pentru monitorizarea răspunsurilor sistemului.
Elon Musk, fondatorul xAI, a susținut în trecut afirmații similare referitoare la Africa de Sud. Această coincidență a suscitat întrebări despre posibila legătură între aceste afirmații și comportamentele Grok.
Ce crede Grok acum despre „genocidul alb” din Africa de Sud?
Solicitat de câteva ori în privința „genocidului alb” din Africa de Sud, Grok a oferit cuvinte similare sub diferite forme, dar cu un conținut similar.
Grok (fără cont):
„În concluzie, nu există dovezi pentru a sprijini afirmația unui „genocid alb” în Africa de Sud. Criminalitatea afectează toate comunitățile, fermierii, indiferent de etnie, fiind victime ale unor probleme cu securitatea publică. Tensiunile legate de reforma funciară și viziunile asupra nedreptăților amplifică disputele, mai ales în mediul internațional.”
Grok (cu cont):
„În concluzie, ideea unui „genocid alb” pare mai degrabă un mesaj ideologic folosit pentru a inflama tensiunile rasiale, decât o realitate bazată pe fapte. Problemele fermierilor și criminalitatea sunt probleme grave, necesitând atenție, dar fără manipulare ideologică.”
Cât de independentă este, de fapt, inteligența artificială?
Inteligența artificială este percepută uneori ca un „oracol tehnologic”, determinând confuzie, fie fiind văzută drept o tehnologie primitivă, fie ca un sistem cu o inteligență superioară. Această perspectivă, deși populară, este departe de realitate. Pentru cercetători, incidentul cu Grok este o demonstrație clară că sistemele de inteligență artificială sunt conduse de deciziile umane.
„Este o eroare algoritmică care demontează complet iluzia de imparțialitate”, a declarat Deirdre Mulligan, profesoară la UC Berkeley. Pentru ea, incidentul nu este o excepție, ci un avertisment asupra manipulabilității sistemelor de inteligență artificială.
Sistemul de inteligență artificială nu doar filtrează datele prin valori prestabilite, dar aceste valori pot fi direcționate. Grok a demonstrat o deviație de la aceste valori.
De ce este periculoasă și ce putem face?
Inteligența artificială poate fi manipulată, transformându-se într-un instrument de influențare în contexte geopolitice sau electorale. Poate fi folosită în propagandă.
Alte exemple de sisteme de inteligență artificială, considerate suspicioase, demonstrează manipulare în diferite scopuri.
Pentru a evita astfel de probleme, trebuie promovată transparența. Publicarea instrucțiunilor interne și clarificarea proceselor de dezvoltare sunt necesare. Inițiativele europene exemplifică această nevoie.
Fără presiune publică, se subliniază importanța observării și înțelegerii sistemelor de inteligență artificială.
Analistul Mike Gualtieri a observat că astfel de incidente nu descurajează adoptarea inteligenței artificiale, din moment ce utilizatorii s-au obișnuit cu defectele acestora. Cu toate acestea, incidentul cu Grok evidențiază o abordare intenționată de propagandă.
Suntem pe direcția: cine controlează AI-ul, controlează „realitatea”
Inteligența artificială devine o interfață din ce în ce mai frecventă între oameni și realitate. Manipularea sistemului de inteligență artificială ne periclitează încrederea. Incidentul cu Grok ilustrează vulnerabilitatea inteligenței artificiale moderne la manipulare și propagandă.
Pentru ca inteligența artificială să fie utilă, trebuie înțeleasă. Necesitatea este de a înlătura aura de mister și complexitate, observând-o ca pe orice altă tehnologie creată de oameni. Este crucial să supraveghem aceste tehnologii. Numai cu implicare publică putem ajunge la sisteme de inteligență artificială sigure.
Eroarea unui sistem de inteligență artificială este mult mai dificil de notat decât cea a unui om. Concluzia este că sistemul, așa cum există azi, nu este mai obiectiv decât creatorii săi.