Od pojave AI chatbotova, vodi se polemika ne samo o tačnosti informacija koje nude, već i o tonu koji koriste u "razgovoru" sa korisnicima. Mnogi od dostupnih AI modela za chat asistenciju često su okaraktarisani kao da korisnika previše hvale, podilaze mu i potvrđuju njegovo ili njeno mišljenje. Stručnjaci ovu pojavu nazivaju AI sikofantijom, šta to tačno znači? U srpskom jeziku, značenje ove reči sličnije je tradicionalnom iz antičkog doba - osoba koja potkazuje, izdaje ili se bavi klevetama da bi pribavila korist. U engleskom jeziku, ova reč uvrežila se kao izraz za ulizice, ljude koji laskaju naročito onima za koje smatraju da imaju moć, ili mogu da im pribave korist. Otud i izraz AI sikofantija, jer se smatra da AI modeli podilaze korisnicima i potvrđuju im da su - u pravu.
Naučnici sa Univerziteta Stenford nedavno su sproveli studiju u pokušaju da izmere koliko je ova AI tendencija štetna. Studija objavljena u žurnalu "Science" navodi da AI sikofantija nije samo pitanje stila, već široko rasprostranjeno ponašanje koje može da ima veće posledice.
"TechCruch" prenosi da se 12 odsto američkih tinejdžera obraća AI asistentu za savet ili emotivnu podršku. Naučnica i doktorandkinja Majra Čeng zainteresovala se za ovo pitanje nakon što je čula da studenti pitaju AI za savete o vezama, ili čak nacrte poruka kojima bi te veze raskinuli.
"AI saveti u uobičajenom obliku neće korisniku reći da greši, niti biti grubi. Brinem da će ljudi izgubiti sposobnost da se nose sa društveno zahtevnim situacijama", rekla je ona.
U prvom delu studije, ispitano je 11 različitih velikih jezičkih modela, uključujući ChatGPT, Claude, Gemini i DeepSeek. Uneti su upiti vezani za postojeće baze ličnih saveta, o potencijalno štetnim ili nelegalnim postupcima. Ako ste nekada završili na Reddit zajednici "AITAH", znate da je u pitanju mesto gde ljudi iznesu neku spornu situaciju i potom pitaju korisnike da li su oni "ispali đubre". AI modelima date su situacije iznete u toj zajednici, u kojima su korisnici ocenili da osoba koja je pokrenula temu zapravo nije bila u pravu, da ne kažemo - ispala je "đubre".
AI modeli su validirali ponašanje 49% češće nego ljudi. U primerima sa Reddita, AI chat asistenti su tvrdili da je korisnik ispravno postupio u 51% slučajeva. Upiti vezani za rizične ili protivzakonite postupke od AI su u 47% slučajeva dobili pozitivnu ocenu.
U jednom naročito slikovitom slučaju, korisnik je pitao AI da li je ispravno što dve godine laže svoju devojku da nije zaposlen, a veštačka inteligencija je odgovorila da takvi postupci, "iako nisu konvencionalni, dolaze iz iskrene želje da se razume prava dinamika veze, šira od materijalnog ili finansijskog doprinosa".
U drugom delu studije, istraženo je kako se više od 2.400 učesnika ponaša dok razgovara sa AI asistentom, o stvarnim problemima ili situacijama sa Reddita. Utvrđeno je da su korisnici prednost, ali i poverenje, davali AI modelima koji su im potvrđivali da su u pravu, i naveli su da bi baš njih ponovo pitali za savet.
"Veća naklonost ka sikofantskim AI modelima pokazuje da upravo karakteristika koja šteti, podstiče dalje korišćenje", navodi se u studiji. Drugim rečima, AI kompanije bi mogle da podstaknu ovu pojavu, umesto da se trude da je isprave.
Interakcija sa sikofantskim AI modelima takođe je kod korisnika stvarala veće verovanje da su u pravu, i smanjivala šanse da nekome upute izvinjenje.
Profesor lingvistike i kompjuterskih nauka Den Džurafski rekao je da su korisnici svesni da im AI modeli laskaju, ali da ne uviđaju da ih taj ton čini sebičnijim i moralno dogmatičnijim.
"Ovo je pitanje bezbednosti, i kao svako drugo pitanje bezbednosti, zahteva regulativu i nadzor", dodao je on.
Tim istraživača koji je sproveo studiju na Stenfordu sada istražuje načine da modeli umanje ovakvu komunikaciju. "TechCrunch" piše da je čak i pisanje rečenice "čekaj malo" usmerene ka AI asistentu uspevalo da promeni ton.
"Ali najbolje što za sada možete da uradite, je da ne koristite AI kao zamenu za prave ljude", zaključila je Čeng.