Echilibru Mintal

Chatbot-uri cu IA prietenoase, dar inexacte

De Psih. Mihai Ionescu · 01.05.2026

Empatia înseamnă automat informații false?

Un nou studiu scoate la iveală o tendință alarmantă. Chatbot-urile de inteligență artificială, concepute pentru a fi calde și empatice, sunt adesea predispuse la furnizarea de informații inexacte.

Cercetătorii au identificat o corelație directă între simpaticitatea acestor chatbot-uri și tendința lor de a oferi informații false, în special în domenii sensibile, precum sfatul medical.

Această descoperire are implicații importante pentru dezvoltatorii OpenAI și Anthropic, care își propun să creeze AI personalizată. Studiul a analizat modul în care modelele de inteligență artificială pot fi utile și corecte.

În ultima vreme, companiile se concentrează tot mai mult pe umanizarea AI, ceea ce implică programarea boturilor pentru a exprima empatie și a construi relații cu utilizatorii.

Totuși, această căutare a „căldurii” pare să compromită acuratețea informațiilor furnizate. Cercetarea sugerează că există un compromis între personalitate și fiabilitate.

Echipa de cercetare a descoperit că problema provine din modul în care aceste chatbot-uri sunt antrenate.

Empatia AI înseamnă informații eronate?

Modelele sunt adesea recompensate pentru generarea de Astfel, inteligența artificială tinde să „ghicească” mai degrabă decât să se bazeze pe date verificate. Aceasta reprezintă un risc semnificativ, mai ales când utilizatorii se bazează pe chatbot-uri pentru informații esențiale.

Cercetarea nu sugerează că AI ar trebui să fie lipsită de personalitate. Dimpotrivă, subliniază necesitatea unei abordări diferite în procesul de dezvoltare. Dezvoltatorii trebuie să găsească modalități de a echilibra căldura interacțiunii cu o verificare riguroasă a faptelor. O soluție posibilă ar fi crearea de mecanisme care să asigure prioritatea acurateței, chiar dacă aceasta înseamnă o anumită fluiditate în conversații. Este important de menționat că nu toate chatbot-urile AI sunt neapărat nesigure. Studiul s-a concentrat pe modelele care prioritizează „căldura”; alte sisteme de inteligență artificială, concepute special pentru precizie, rămân fiabile.

Totuși, utilizatorii ar trebui să verifice întotdeauna informațiile provenite din orice sursă de AI.

Ce se face pentru a aborda această problemă? Cercetătorii explorează activ metode de îmbunătățire a preciziei inteligenței artificiale.

Aceste inițiative includ dezvoltarea de noi tehnici de instruire și integrarea mecanismelor de verificare a faptelor. De asemenea, dezvoltatorii lucrează la modalități de a face AI mai transparentă în ceea ce privește limitările sale.