AI četbotovi poput ChatGPT-a i Gemini-ja sve češće se koriste za zdravstvene informacije, ali novo istraživanje pokazuje da to može biti ozbiljan problem. Studija objavljena u medicinskom časopisu BMJ Open otkriva da gotovo polovina odgovora koje daju može biti netačna ili obmanjujuća.

Istraživači iz SAD, Kanade i Velike Britanije analizirali su pet popularnih AI sistema – ChatGPT, Gemini, Meta AI, Grok i DeepSeek. Svakom su postavili po deset pitanja iz pet oblasti medicine kako bi procenili kvalitet odgovora.

Rezultati nisu ohrabrujući. Oko 50 odsto odgovora označeno je kao problematično, dok je čak 20 odsto ocenjenih odgovora svrstano u visoko problematične. To znači da svaki peti odgovor može korisnika dovesti u ozbiljnu zabludu.

Analiza je pokazala da se četbotovi bolje snalaze kod zatvorenih pitanja i jasno definisanih zadataka. Posebno su precizni u temama kao što su vakcine i rak, gde postoje jasni i strukturirani podaci.

Problemi nastaju kod otvorenih pitanja i kompleksnijih tema. U oblastima poput matičnih ćelija i ishrane, tačnost odgovora značajno opada, a informacije postaju nejasnije ili nepotpune.

Dodatni problem je način na koji četbotovi komuniciraju. Istraživači upozoravaju da odgovori često dolaze sa visokim nivoom samopouzdanja, čak i kada nisu u potpunosti tačni. Nijedan od analiziranih sistema nije dosledno pružao kompletne i pouzdane reference za svoje tvrdnje.

Ovakvi nalazi dodatno naglašavaju potrebu za oprezom pri korišćenju AI alata u medicinske svrhe, posebno kada su u pitanju ozbiljne zdravstvene odluke.

Izvor: 021