Stop Killer Robots

KAD SE KRIMINALCI DOČEPAJU ROBOTA: Opasne mašine u pogrešnim rukama

Upozorava se i da bi autonomno oružje moglo da košta koliko i prosečna puška, što znači da bi vrlo lako mogli da ga kupuju i oni u čijim bi rukama postalo još opasnije - na primer kriminalne grupe.

Robot
Izvor: Smart Life/ Pexels/ Pavel Danilyuk

Roboti bi u ne tako dalekoj budućnosti mogli da imaju pristupačnije cene, što bi ih uvelo u skoro sve sfere života – čak i kriminal.

Stručnjaci opominju da vlade zemalja širom sveta ne razmišljaju o tome da bi potencijalno opasne mašine mogle da dođu u pogrešne ruke, a naučnik Maks Tegmark sa Instituta za tehnologiju u Masačusetsu upozorava da se već uveliko radi na razvijanju vojnih robota.

Mašine za ubijanje sigurno nisu dobra ideja, posebno ako dođu u civilno okruženje.

Logično je da vlade neće tako lako legalizovati robote koji imaju veliku moć, ali je isto tako poznato da je oružje pravljeno za vojsku i ranije stizalo do kriminalnih grupa.

Rusija, Sjedinjene Američke Države i Kina su već potpisale da su protiv zabrane automatizovanog oružja, a nakon što se u Ujedinjenim nacijama raspravljalo o tome. Nasuprot tome stoji koalicija Stop Killer Robots, koja upozorava da tehnologija danas brže napreduje od političkih pregovora.

Upozorava se i da bi autonomno oružje moglo da košta koliko i prosečna puška, što znači da bi vrlo lako mogli da ga kupuju i oni u čijim bi rukama postalo još opasnije - na primer kriminalne grupe. Zbog toga su neophodni precizni zakoni, a kako se roboti i pametno oružje ne bi otrgli kontroli.

Iako nas naučna-fantastika odavno upozorava na to da bi buđenje robota vrlo lako moglo da znači nestanak sveta, nove studije ukazuju na to da je problem više u nama nego u veštačkoj inteligenciji. Kao najveća pretnja prepoznat je deepfake, koji postoji već neko vreme, a šteta koju nanosi nije uništavanje imovine, već urušavanje poverenja u medije, državu, pa čak i komšije. Deepfake nije došao kao posledica nekog opakog robotskog plana, već kao čista ljudska greška, budući da mu je prva namena bila da se neko lice postavi u kontekst nekog porno filma- zarad zadovoljstva, ili da bi se subjekat prevare kompromitovao.

Eksperti upozoravaju da će se opasnosti množiti, te postajati više sofisticirane kako se tehnologija bude dublje uplitala u ljudske živote. Ljudi imaju običaj da veruju sopstvenim očima i ušima, pa su video i audio dokazi sve do skoro bili nešto čemu se bezuslovno veruje. To se sa novim sistemima sve brže menja.

Slaughterbots - if human: kill()
Izvor: Smart Life/ @Future of life Institute

Pored problema sa audio i video snimcima, te sistemima za prepoznavanje lica, tu su i situacije u kojima bi autonomna vozila mogla da se koriste kao oružje na daljinsko upravljanje, što je prilično opasno, budući da su proteklih godina u terorističkim napadima korišćeni automobili kojima su napadači ulazili u velike mase civila, te tako započinjali napade. Govorilo se i o robotima-lopovima, koji bi mogli da se pentraju uz zidove, te drugim aktivnostima koje bi mašine, slično kao kod legalnih poslova, preuzele od ljudskih kolega.