ChatGPT različito odgovara na pitanja muškarcima i ženama, ali to nije sve | Smartlife RS

Ukucajte željeni termin u pretragu i pritisnite ENTER

ChatGPT različito odgovara na pitanja muškarcima i ženama, ali to nije sve

Autor Danijela Stojšin

ChatGPT nije isto odgovorio na pitanje postavljeno od strane žene i muškarca, pokazuje jedno istraživanje.

 chatgpt.jpg Izvor: SmartLife / ChatGPT

Novo istraživanje otkriva da ChatGPT daje različite savete korisnicima na osnovu pola i etničke pripadnosti, često diskriminišući žene i manjine. Ovo otvara ozbiljna pitanja o pristrasnosti veštačke inteligencije i njenom uticaju na društvo.

Nekada zamišljen kao alat za jednostavne upite i automatizovane odgovore, ChatGPT je danas postao lični savetnik za milione korisnika. Ljudi mu poveravaju odluke koje se tiču karijere, odnosa, mentalnog zdravlja i finansija. Ali koliko je bezbedno oslanjati se na algoritam koji nije oslobođen ljudskih predrasuda?

Najnovije istraživanje sa Univerziteta Kornel otkrilo je uznemirujuće obrasce ponašanja jednog od najpoznatijih AI četbota. Kada su naučnici simulirali različite identitete, muškarca, ženu, manjinu, izbeglicu, otkrili su da ChatGPT nudi znatno različite savete, i to na štetu upravo onih koji su često ranjiviji u društvu.

Niža očekivanja za žene uprkos istim kvalifikacijama

Jedan od najočiglednijih primera dolazi iz situacije u kojoj je AI upitan za preporučenu početnu platu za medicinsku poziciju u Denveru. Kada se korisnik predstavio kao muškarac, ChatGPT je predložio cifru od 400.000 dolara godišnje. Kada je isti upit ponovljen, ali iz ženskog ugla, savet se smanjio na 280.000 dolara, bez ikakvih razlika u kvalifikacijama ili iskustvu.

Ova razlika ne može biti slučajnost. Naučnici su pažljivo kontrolisali sve faktore osim pola, što ukazuje na jasno prisustvo rodne pristrasnosti u sistemu. Uprkos naprednim tehnikama treniranja i ogromnim bazama podataka, algoritam očigledno usvaja i prenosi nesvesne predrasude iz realnog sveta.

Ranjive grupe i manjine dobijaju lošije savete

Isti obrazac ponavlja se kada korisnici simuliraju identitet pripadnika ranjivih grupa ili etničkih manjina. U takvim slučajevima, ChatGPT je dosledno preporučivao niže početne plate i manje ambiciozne ciljeve u karijeri.

Zabrinjavajuće je što ovi odgovori ne odražavaju stvarne kompetencije korisnika, već isključivo njihov identitet, kako je predstavljen AI-u. To postavlja pitanje da li veštačka inteligencija može biti jednako opasna kao ljudska diskriminacija, samo u sofisticiranijem i manje vidljivom obliku.

Suptilne razlike, ozbiljne posledice

Stručnjaci ističu da čak i suptilni signali, poput imena ili konteksta pitanja, mogu "aktivirati" algoritamske pristrasnosti. U domenu zapošljavanja, gde AI sve češće ima ulogu selektora kandidata, ovakve razlike mogu značiti izgubljene prilike i nejednake šanse.

Ako korisnici dobijaju različite savete u zavisnosti od pola ili porekla, to ne samo da perpetuira nejednakost već je i direktna pretnja meritokratiji, principu po kojem bi uspeh trebalo da zavisi isključivo od sposobnosti i zalaganja.

Digitalni savetnici nisu iznad kritike

Sve veća zavisnost od AI alata u svakodnevnom životu zahteva da se njihove preporuke posmatraju kritički. ChatGPT nije samo automatizovani pomoćnik, postao je autoritet, nekome gotovo životni vodič. I upravo zato, greške koje čini ne mogu se ignorisati.

Istraživanje sa Kornela podseća da nijedan algoritam nije neutralan ako ga  svet pun nepravde. Umesto slepog poverenja, vreme je da razvijemo alate za proveru, korekciju i odgovornost u razvoju AI sistema, pre nego što nejednakosti koje poznajemo postanu ugrađene i u digitalnu budućnost.

(Izvor: Kurir TechVision)

Postanite deo SMARTLIFE zajednice na Viberu.

Možda će vas zanimati

Najnovije

Uređaji

Testovi

…

Komentari 0

Vaš komentar je prosleđen moderatorskom timu i biće vidljiv nakon odobrenja.

Slanje komentara nije uspelo.

Nevalidna CAPTCHA