ChatGPT nije isto odgovorio na pitanje postavljeno od strane žene i muškarca, pokazuje jedno istraživanje.

Novo istraživanje otkriva da ChatGPT daje različite savete korisnicima na osnovu pola i etničke pripadnosti, često diskriminišući žene i manjine. Ovo otvara ozbiljna pitanja o pristrasnosti veštačke inteligencije i njenom uticaju na društvo.
Nekada zamišljen kao alat za jednostavne upite i automatizovane odgovore, ChatGPT je danas postao lični savetnik za milione korisnika. Ljudi mu poveravaju odluke koje se tiču karijere, odnosa, mentalnog zdravlja i finansija. Ali koliko je bezbedno oslanjati se na algoritam koji nije oslobođen ljudskih predrasuda?
Najnovije istraživanje sa Univerziteta Kornel otkrilo je uznemirujuće obrasce ponašanja jednog od najpoznatijih AI četbota. Kada su naučnici simulirali različite identitete, muškarca, ženu, manjinu, izbeglicu, otkrili su da ChatGPT nudi znatno različite savete, i to na štetu upravo onih koji su često ranjiviji u društvu.
Niža očekivanja za žene uprkos istim kvalifikacijama
Jedan od najočiglednijih primera dolazi iz situacije u kojoj je AI upitan za preporučenu početnu platu za medicinsku poziciju u Denveru. Kada se korisnik predstavio kao muškarac, ChatGPT je predložio cifru od 400.000 dolara godišnje. Kada je isti upit ponovljen, ali iz ženskog ugla, savet se smanjio na 280.000 dolara, bez ikakvih razlika u kvalifikacijama ili iskustvu.
Ova razlika ne može biti slučajnost. Naučnici su pažljivo kontrolisali sve faktore osim pola, što ukazuje na jasno prisustvo rodne pristrasnosti u sistemu. Uprkos naprednim tehnikama treniranja i ogromnim bazama podataka, algoritam očigledno usvaja i prenosi nesvesne predrasude iz realnog sveta.
Ranjive grupe i manjine dobijaju lošije savete
Isti obrazac ponavlja se kada korisnici simuliraju identitet pripadnika ranjivih grupa ili etničkih manjina. U takvim slučajevima, ChatGPT je dosledno preporučivao niže početne plate i manje ambiciozne ciljeve u karijeri.
Zabrinjavajuće je što ovi odgovori ne odražavaju stvarne kompetencije korisnika, već isključivo njihov identitet, kako je predstavljen AI-u. To postavlja pitanje da li veštačka inteligencija može biti jednako opasna kao ljudska diskriminacija, samo u sofisticiranijem i manje vidljivom obliku.
Suptilne razlike, ozbiljne posledice
Stručnjaci ističu da čak i suptilni signali, poput imena ili konteksta pitanja, mogu "aktivirati" algoritamske pristrasnosti. U domenu zapošljavanja, gde AI sve češće ima ulogu selektora kandidata, ovakve razlike mogu značiti izgubljene prilike i nejednake šanse.
Ako korisnici dobijaju različite savete u zavisnosti od pola ili porekla, to ne samo da perpetuira nejednakost već je i direktna pretnja meritokratiji, principu po kojem bi uspeh trebalo da zavisi isključivo od sposobnosti i zalaganja.
Digitalni savetnici nisu iznad kritike
Sve veća zavisnost od AI alata u svakodnevnom životu zahteva da se njihove preporuke posmatraju kritički. ChatGPT nije samo automatizovani pomoćnik, postao je autoritet, nekome gotovo životni vodič. I upravo zato, greške koje čini ne mogu se ignorisati.
Istraživanje sa Kornela podseća da nijedan algoritam nije neutralan ako ga svet pun nepravde. Umesto slepog poverenja, vreme je da razvijemo alate za proveru, korekciju i odgovornost u razvoju AI sistema, pre nego što nejednakosti koje poznajemo postanu ugrađene i u digitalnu budućnost.
(Izvor: Kurir TechVision)
Postanite deo SMARTLIFE zajednice na Viberu.