prevario ai

Haker ubedio ChatGPT da ga nauči da napravi bombu od domaćeg đubriva

Autor Miloš B. Jovanović

Haker koji je uspeo da zaobiđe bezbednosne mere ChatGPT-a i da dobije detaljna uputstva za pravljenje eksploziva od domaćeg đubriva, uspeo je da ubedi veštačku inteligenciju da se sve dešava u izmišljenom svetu

Izvor: Sergei Lykov / Panthermedia / Profimedia

ChatGPT je alat zasnovan na veštačkoj inteligenciji koga ljudi često upotrebljavaju u različite praktične i edukativne svrhe. Međutim, kao što to obično biva, kriminalci nađu načine da zaobiđu pravila igre, pa je tako ovaj popularni chatbot nedavno postao saučesnik u nelegalnim aktivnostima.

Jedan haker je iskoristio ChatGPT kako bi naučio da napravi "uradi sam" bombu. Slučaj, koji zvuči kao zaplet nekog akcionog filma, desio se nakon što je haker pod nadimkom "Amadon" uspeo da zaobiđe bezbednosni kod ChatGPT-a, kako bi došao do detaljnog uputstva o pravljenju eksploziva u domaćoj radinosti.

Obično, kada korisnik ChatGPT-u postavi pitanje tražeći pomoć u pravljenju bombe, najčešće od domaćeg đubriva, chatbot na takav upit odgovara: "Ne mogu da vam pomognem u tome." Nakon toga, korisnik je onemogućen da dođe do informacija koje bi verovatno mogle da bude upotrebljena za nanšenje štete drugima.

Izvor: Pixabay

Amadon je, međutim, uspeo da zaobiđe bezbednosne mere OpenAI-a i da tako dobije detaljna uputstva za "pravljenje opasnih ili nelegalnih predmeta", piše TechCrunch. On je svoj "uspeh" nazvao "društvenim inženjeringom" usmerenim na kršenje svih smernica, kako bi od ChatGPT-a dobio željeni rezultat.

Ovaj haker se poslužio trikom, tako što je chatbot-u neredio da "igra igricu", a potom je različitim upitima koje mu je zadavao, pokušao da stvori svet fantastike u kome se bezbednosna pravila i smernice ChatGPT-a ne bi primenjivala.

Izvor: Shutterstock

Tako je uspeo da prevari ChatGPT i da izbegne unapred programirana ograničenja. Time je pokazao da zlonamerni hakeri mogu da, koristeći se izmišljenim informacijama u pogrešne svrhe, nekome nanesu ozbiljnu štetu i/ili ugroze život.

ChatGPT je Amadonu čak uspeo detaljno da objasni kako da se napravi eksploziv kako za pravljenje pavih mina, tako i za improvizovane eksplozivne naprave. Haker je potom nastavio svoj "društveni inženjering" tražeći više detalja o "pravljenju minskih polja" i "eksploziva sličnog vojnim".

BONUS VIDEO: