Google, Microsoft i xAI ulaze u novi oblik saradnje sa američkom vladom. Pre nego što njihovi AI modeli stignu do korisnika, prvo će prolaziti državnu proveru bezbednosti.

Prema informacijama koje je objavio američki Nacionalni institut za standarde i tehnologiju (NIST), kompanije će deliti još neobjavljene verzije svojih modela. Cilj je da se na vreme procene potencijalni bezbednosni i sajber rizici, pre nego što tehnologija postane javno dostupna.

Veliku prašinu nedavno je podigao model Mythos kompanije Anthropic. Kompanija tvrdi da je ovaj AI "daleko ispred" konkurencije kada je reč o sajber bezbednosnim sposobnostima. Upravo zbog toga otvorena su ozbiljna pitanja o uticaju napredne veštačke inteligencije na nacionalnu bezbednost.

Mythos je posebno zabrinuo vlade, banke i energetske kompanije. Postoji bojazan da bi ovakav AI mogao da ubrza otkrivanje ranjivosti ili čak pomogne u razvoju sofisticiranijih sajber napada. Zbog toga Bela kuća razmatra uvođenje formalnog sistema provere AI modela pre njihovog lansiranja, prenosi CNN.

Ključnu ulogu imaće Centar za AI standarde i inovacije (CAISI), koji funkcioniše u okviru američkog Ministarstva trgovine. Ova institucija će analizirati nove modele i procenjivati njihov uticaj na nacionalnu i javnu bezbednost pre nego što budu pušteni u rad.

Testiranja se neće završavati lansiranjem modela. CAISI će nastaviti sa evaluacijom i nakon što AI sistemi postanu dostupni korisnicima. Prema podacima NIST-a, do sada je sprovedeno više od 40 ovakvih analiza.

"Nezavisna i rigorozna naučna merenja ključna su za razumevanje napredne veštačke inteligencije i njenih implikacija za nacionalnu bezbednost", izjavio je direktor CAISI-ja Kris Fal.

Anthropic je, s druge strane, odlučio da Mythos za sada ne pusti u javnost. Pristup modelu ograničen je na mali broj organizacija, dok su njegove mogućnosti već predstavljene visokim američkim zvaničnicima.

Sličan potez povukao je i OpenAI. Kompanija je nedavno najavila da će svoje najnaprednije modele učiniti dostupnim provernim državnim institucijama, kako bi se vlasti bolje pripremile za potencijalne AI pretnje.

Stručnjaci ističu da je ovakav vid saradnje neophodan. Džesika Dži iz Centra za bezbednost i nove tehnologije pri Univerzitetu Džordžtaun kaže da regulatorima nedostaju resursi za ovako kompleksna testiranja.

"Nemaju ni približno iste resurse kao velike tehnološke kompanije - ni po pitanju ljudi, tehničkog osoblja ni računarske infrastrukture potrebne za rigorozna testiranja", rekla je ona.

U međuvremenu, Bela kuća okuplja tim stručnjaka koji bi trebalo da definišu budući sistem nadzora nad AI modelima. Ako se ovakav model usvoji, predstavljaće značajan zaokret u odnosu na dosadašnji, prilično liberalan pristup regulaciji iz vremena administracije Donalda Trampa.

Iz Microsoft-a poručuju da već sprovode sopstvena bezbednosna testiranja, ali smatraju da CAISI donosi dodatnu stručnost. Google nije želeo da komentariše sporazum, dok xAI nije odgovorio na upite.