KAD SE KRIMINALCI DOČEPAJU ROBOTA: Opasne mašine u pogrešnim rukama | Smartlife RS

Ukucajte željeni termin u pretragu i pritisnite ENTER

KAD SE KRIMINALCI DOČEPAJU ROBOTA: Opasne mašine u pogrešnim rukama

Upozorava se i da bi autonomno oružje moglo da košta koliko i prosečna puška, što znači da bi vrlo lako mogli da ga kupuju i oni u čijim bi rukama postalo još opasnije - na primer kriminalne grupe.

Roboti bi u ne tako dalekoj budućnosti mogli da imaju pristupačnije cene, što bi ih uvelo u skoro sve sfere života – čak i kriminal.

Stručnjaci opominju da vlade zemalja širom sveta ne razmišljaju o tome da bi potencijalno opasne mašine mogle da dođu u pogrešne ruke, a naučnik Maks Tegmark sa Instituta za tehnologiju u Masačusetsu upozorava da se već uveliko radi na razvijanju vojnih robota.

Možda će vas zanimati

Mašine za ubijanje sigurno nisu dobra ideja, posebno ako dođu u civilno okruženje.

Logično je da vlade neće tako lako legalizovati robote koji imaju veliku moć, ali je isto tako poznato da je oružje pravljeno za vojsku i ranije stizalo do kriminalnih grupa.

Rusija, Sjedinjene Američke Države i Kina su već potpisale da su protiv zabrane automatizovanog oružja, a nakon što se u Ujedinjenim nacijama raspravljalo o tome. Nasuprot tome stoji koalicija Stop Killer Robots, koja upozorava da tehnologija danas brže napreduje od političkih pregovora.

Upozorava se i da bi autonomno oružje moglo da košta koliko i prosečna puška, što znači da bi vrlo lako mogli da ga kupuju i oni u čijim bi rukama postalo još opasnije - na primer kriminalne grupe. Zbog toga su neophodni precizni zakoni, a kako se roboti i pametno oružje ne bi otrgli kontroli.

Iako nas naučna-fantastika odavno upozorava na to da bi buđenje robota vrlo lako moglo da znači nestanak sveta, nove studije ukazuju na to da je problem više u nama nego u veštačkoj inteligenciji. Kao najveća pretnja prepoznat je deepfake, koji postoji već neko vreme, a šteta koju nanosi nije uništavanje imovine, već urušavanje poverenja u medije, državu, pa čak i komšije. Deepfake nije došao kao posledica nekog opakog robotskog plana, već kao čista ljudska greška, budući da mu je prva namena bila da se neko lice postavi u kontekst nekog porno filma- zarad zadovoljstva, ili da bi se subjekat prevare kompromitovao.

Eksperti upozoravaju da će se opasnosti množiti, te postajati više sofisticirane kako se tehnologija bude dublje uplitala u ljudske živote. Ljudi imaju običaj da veruju sopstvenim očima i ušima, pa su video i audio dokazi sve do skoro bili nešto čemu se bezuslovno veruje. To se sa novim sistemima sve brže menja.

Roboti
Izvor: Smart Life/ @Future of life Institute

Pored problema sa audio i video snimcima, te sistemima za prepoznavanje lica, tu su i situacije u kojima bi autonomna vozila mogla da se koriste kao oružje na daljinsko upravljanje, što je prilično opasno, budući da su proteklih godina u terorističkim napadima korišćeni automobili kojima su napadači ulazili u velike mase civila, te tako započinjali napade. Govorilo se i o robotima-lopovima, koji bi mogli da se pentraju uz zidove, te drugim aktivnostima koje bi mašine, slično kao kod legalnih poslova, preuzele od ljudskih kolega.

Postanite deo SMARTLIFE zajednice na Viberu.

Možda će vas zanimati

Najnovije

Uređaji

Testovi

…

Komentari 0

Vaš komentar je prosleđen moderatorskom timu i biće vidljiv nakon odobrenja.

Slanje komentara nije uspelo.

Nevalidna CAPTCHA