Želite da vam ChatGPT daje tačnije odgovore? Budite bezobrazni, pokazalo Istraživanje | Smartlife RS

Ukucajte željeni termin u pretragu i pritisnite ENTER

Želite da vam ChatGPT daje tačnije odgovore? Budite bezobrazni, pokazalo Istraživanje

Autor Ilija Baošić

Suprotno normama pristojnog ponašanja, ChatGPT će davati tačnije odgovore na neljubazne upite.

 ChatGPT zvanična aplikacija konačno dostupna na Google Play prodavnici Izvor: Smartlife

Kaže se da lepa reč i gvozdena vrata otvara. Međutim, izgleda da to ne važi za veštačku inteligenciju. istraživanje koje je sproveo Univerzitet u Pensilvaniji pokazalo je da neljubazni upiti upućeni ChatGPT četbotu daju bolje odgovore od onih koji su formulisani pristojno.

U zanimljivoj studiji utvrđeno je da zahtevi koji se mogu oceniti kao "veoma grubi" daju tačne rezultate u 84,4% slučajeva. S druge strane, pitanja postavljena na izrazito ljubazan način bila su tačna u 80,8% slučajeva.

 Prosečna tačnost odgovora
Prosečna tačnost odgovora za različite nivoe ljubaznosti upita
Izvor: arXiv

Razlika možda ne deluje velika, ali protivreči ranijim otkrićima da četbotovi imitiraju opšteprihvaćene društvene norme i nagrađuju lepo ponašanje. "Suprotno očekivanjima, neljubazna pitanja daju ubedljivije rezultate od ljubaznih", navode autori istraživanja.

Kako bi bolje ilustrovali značaj svog otkrića, autori citiraju poseban izveštaj iz prethodne godine, prema kojem zahtevi formulisani na neučtiv način negativno utiču na performanse modela.

Ali studija Univerziteta u Pensilvaniji ukazuje na nešto sasvim drugo, barem kada je reč o ChatGPT-4o modelu - brub ton zapravo ima stabilizujući efekat i povećava tačnost odgovora. Prema autorima, novi modeli više ne pokušavaju da oponašaju društvene norme. Umesto toga, ponašaju se kao obične mašine koje nagrađuju direktnost, a ne pristojnost. Ali šta bi moglo biti uzrok takvog ponašanja?

Tvrdi se da ljubazno formulisana, indirektna pitanja mogu da stvore dvosmislenost ("Da li biste mogli, molim vas, da mi kažete"). Direktno postavljeni zahtevi ("Reci mi odgovor"), s druge strane, uklanjaju mogućnost da se model zbuni zbog složenih jezičkih konstrukcija.

Iako istraživanje još uvek čeka akademsku recenziju, već je privuklo pažnju stručnjaka iz ove oblasti - i pokazuje da budući AI modeli možda neće zahtevati samo tehničku, već i društvenu kalibraciju.

Postanite deo SMARTLIFE zajednice na Viberu.

Možda će vas zanimati

Najnovije

Uređaji

Testovi

…

Komentari 0

Vaš komentar je prosleđen moderatorskom timu i biće vidljiv nakon odobrenja.

Slanje komentara nije uspelo.

Nevalidna CAPTCHA