Veštačka inteligencija sve više ulazi u svet informisanja, ali novo istraživanje BBC-ja pokazuje da joj i dalje ne treba slepo verovati, naročito kada su u pitanju vesti.

Prema analizi koju je sproveo BBC, više od polovine odgovora koje generišu popularni AI alati sadrži ozbiljne probleme, uključujući netačne informacije, izmenjene citate i pogrešno interpretirane činjenice.

Više od 50% odgovora ima ozbiljne greške

BBC je testirao četiri vodeća AI sistema - ChatGPT, Microsoft Copilot, Google Gemini i Perplexity, tako što im je postavio 100 pitanja o aktuelnim vestima i tražio da koriste BBC kao izvor.

Rezultati su zabrinjavajući:

  1. čak 51% odgovora imalo je "značajne probleme"
  2. oko 19% odgovora sadržalo je činjenične greške (pogrešni datumi, brojke i tvrdnje)
  3. u 13% slučajeva citati su bili izmenjeni ili potpuno izmišljeni

Drugim rečima, AI često zvuči uverljivo, ali to ne znači da je tačan.

Gde AI najviše greši

Najveći problem, prema istraživanju, jeste tačnost informacija. AI modeli ponekad:

  1. mešaju stare i nove informacije
  2. pogrešno pripisuju izjave izvorima
  3. dodaju kontekst koji ne postoji u originalnom tekstu

U pojedinim slučajevima, sistemi su čak iznosili tvrdnje koje se uopšte ne nalaze u originalnim BBC člancima.

Zašto je ovo ozbiljan problem

BBC upozorava da je najveći rizik u tome što korisnici imaju tendenciju da veruju odgovorima kada AI navede pouzdan izvor poput poznatih medija. Drugim rečima, čak i kada je informacija pogrešna, činjenica da je „potkrepljena“ brendom kao što je BBC može dodatno da zavara korisnike.

Stručnjaci upozoravaju da bi ovakvi propusti mogli ozbiljno da naruše poverenje u medije i dodatno zakomplikuju borbu protiv dezinformacija.

AI još nije spreman da zameni novinare

Iako AI alati postaju sve napredniji, ovo istraživanje pokazuje da i dalje imaju velike slabosti kada je u pitanju razumevanje konteksta i tačno prenošenje informacija.

Veštačka inteligencija može biti koristan alat, ali ne i pouzdan izvor vesti bez dodatne provere.