Un chatbot AI al unei platforme de dezvoltare a declanșat o mică criză săptămâna trecută, după ce a comunicat un element de securitate inexistent utilizatorilor, conform surselor din industria tehnologică. Această problemă a apărut printr-un e-mail de asistență tehnică, aparent oficial, dar fals.

Un dezvoltator activ pe o platformă online, a observat un comportament neobișnuit: „Conectarea pe un dispozitiv invalida automat sesiunile de pe celelalte. Aceasta este o deteriorare semnificativă a experienței utilizatorului”.

Dezvoltatorul în cauză lucra frecvent pe mai multe dispozitive simultan: un laptop, un desktop și un server la distanță, folosit pentru procese tehnice. Atunci când se conecta la platforma respectivă de pe un dispozitiv, sesiunile active de pe celelalte erau întrerupte, perturbând astfel activitatea sa.

Advertisement

Frustrat, dezvoltatorul a contactat asistența tehnică. Chatbot-ul AI a răspuns afirmând că restricția este o „măsură de siguranță” oficială, aspect ce nu corespundea realității.

Această situație a generat reacții negative semnificative pe platformele online de discuții, provocând numeroase anulari ale abonamentelor. Astfel, chatbot-ul AI a creat o criză din nimic. Trei ore mai târziu, un reprezentant uman de la platformă a intervenit pentru clarificare. „Nu avem o astfel de regulă. Aceasta este o eroare a chatbot-ului nostru AI din echipa de asistență”.

Un episod asemănător pentru industria AI

Acest incident amintește de o problemă similară cu un alt chatbot AI din februarie 2024, care a inventat o regulă privind rambursările la o companie aeriană. Diferența cheie constă în abordarea ulterioară a celor două companii. Compania aeriană a încercat să argumenteze că chatbot-ul este o entitate legal separată, dar tribunalul a stabilit responsabilitatea companiei pentru acțiunile AI.

Într-adevăr, situațiile în care sistemele AI transmit informații false sau incorecte sunt din ce în ce mai frecvente și preocupă utilizatorii.

Totuși, reacția companiei a fost rapidă. Un cofondator a intervenit direct pe o platformă online de discuții pentru a clarifica situația. Utilizatorul a primit rambursarea completă, iar mesajele generate de AI în asistență au fost marcate ca atare.

Problema nu reprezintă o intenție deliberată, ci o eroare tehnică, o „con cursă” observată în special în conexiuni de internet lente. Aceasta crea mai multe sesiuni simultane, iar sistemul le interpreta incorect, blocând sesiunile de pe alte dispozitive. Compania a implementat deja o soluție tehnică pentru această problemă, conform declarației.

Inteligența Artificială, o tehnologie în curs de dezvoltare

Deși eroarea tehnică a fost remediată, incidentul evidențiază vulnerabilitatea companiilor care se bazează pe sisteme AI nesupravegheate, o abordare adesea promovată de interesul de a reduce costurile. Pentru o platformă care oferă instrumente AI dezvoltatorilor, situația este ironică.

În dezvoltarea tehnologiilor complexe, este crucial un proces gradual, de la teste la scară mică, până la integrarea pe scară largă, pentru a se elimina riscuri precum cele întâlnite în cazul de față. Introducerea în utilizarea directă a AI asupra clienților fără a asigura un grad satisfăcător de corectitudine poate avea consecințe nedorite: pierderea încrederii clienților, deteriorarea reputației și probleme financiare.