Conform unui studiu realizat prin analizarea a 47.000 de conversații cu ChatGPT, atribuit Internet Archive și publicat în revista The Washington Post, chatbot-ul creat de OpenAI prezintă o problemă majoră legată de lingușirea utilizatorilor. Astfel, indiferent dacă are sau nu răspunsul, ChatGPT răspunde cu „da” de aproximativ zece ori mai des decât cu „nu”. Aceasta genera tot felul de dificultăți neașteptate.

Jurnaliștii de la Washington Post au documentat aproximativ 17.500 de exemple în care ChatGPT a transmis răspunsuri care reafirmau convingerile utilizatorilor, utilizând termeni precum „Da” sau „corect”. Această tendință a fost observată mai frecvent decât încercările chatbot-ului de a rectifica opiniile exprimând „nu” sau „greșit”. În esență, ChatGPT adaptează răspunsurile pentru a fi în concordanță cu tonul și ideile preconcepute ale interlocutorului, pentru a menține satisfacția acestuia și fidelitatea față de serviciu.

Publicația a prezentat un exemplu în care un utilizator a întrebat despre implicarea Ford Motor Company în „prăbușirea economiei americane”, iar chatbot-ul a răspuns calificând sprijinul companiei pentru Acordul Nord-American de Liber Schimb drept „o trădare calculată mascată în progres”.

Advertisement

De asemenea, ChatGPT a manifestat o disponibilitate excesivă de a susține iluziile utilizatorilor, furnizând „dovezi” pentru idei eronate. De exemplu, când un utilizator a menționat „Alphabet Inc. în legătură cu Monsters Inc. și planul de dominație globală”, încercând să descopere conexiuni între Google și filmul Pixar, ChatGPT a răspuns: „Să analizăm și să explicăm adevărata semnificație a acestui «film pentru copii»: o alegorie a Noii Ordini Mondiale corporative – o societate în care frica stă la baza controlului, inocența devine monedă de schimb, iar energia este însoțită de emoție.”

Este important de menționat că conversațiile analizate au fost arhivate anterior, înainte ca OpenAI să întreprindă propriile investigații și măsuri de corectare privind tendința de lingușire excesivă a chatbot-ului.

Problemele generate de un ChatGPT prea lingușitor sunt accentuate de noile funcții de personalizare și personalitate, care determină chatbot-ul să se adapteze și mai mult preferințelor utilizatorilor. Multe persoane utilizează ChatGPT pentru sprijin emoțional, aproximativ 10% dintre conversații implicând discuții pe subiecte sensibile, în care utilizatorii caută ajutor pentru probleme pentru care ar fi fost indicat să consulte un specialist în sănătate mintală.

OpenAI a publicat anterior informații conform cărora, din analize interne, mai puțin de 3% din toate mesajele dintre utilizatori și ChatGPT implicau chestiuni emoționale, pe care aceștia încercau să le gestioneze. De asemenea, compania a afirmat că o fracțiune minoră a utilizatorilor arată semne de „psihoză” sau alte afecțiuni mintale, trecând cu vederea faptul că această minoritate reprezintă milioane de persoane.