Roboti se ne razjezijo ali iščejo maščevanja, vendar tudi ne poznajo sočustvovanja in usmiljenja, opozarjajo znanstveniki. Foto: EPA
Roboti se ne razjezijo ali iščejo maščevanja, vendar tudi ne poznajo sočustvovanja in usmiljenja, opozarjajo znanstveniki. Foto: EPA

Inženir robotike Ron Arkin iz Tehnološkega inštituta v Atlanti je namreč začel razvijati tehnologijo, ki bi orožje "naučila" sprejemati samostojne odločitve, kdaj uporabiti svojo smrtonosno silo. Ukvarja se predvsem z možnostmi, kako bi orožje sprogramirali tako, da bi delovalo "etično" oziroma bi upoštevalo pravila spopadov.

Pri razvijanju podporne programske opreme se je opiral na študije vojaške etike in pogovore z vojaki, saj želi zmanjšati civilne žrtve. Eden izmed vietnamskih vojnih veteranov mu je namreč dejal, da so vojaki na bojišču streljali na vse, kar se je premikalo. "Z lahkoto naredim takšnega robota, a raje začnimo razmišljati, kako ustvariti robote, ki bodo delali bolje od nas," je svoje videnje pojasnil Arkin.

Letalo se "odloča" na podlagi bližine civilistov
Na poligonu tako preizkuša različne položaje, ki temeljijo na dejanskih prizoriščih, predvsem v Afganistanu. V enem izmed scenarijev letalo brez pilota zazna skupino talibanov, a jih ne napade, saj se nahajajo znotraj pokopališča, kar bi lahko izvalo mednarodni spor.

Ker letalo uporablja natančne zemljevide, lahko ugotovi, kdaj je morebitna tarča preblizu bolnišnice, šole ali drugega kraja, polnega civilistov.

A Arkin poudarja, da njegove raziskave, ki jih podpira ameriška vojska, niso namenjene razvijanju prototipov, ki bi jih nekoč uporabili na bojiščih. "Najpomembnejši rezultat raziskave ni sama mehanika, ampak odločitve, ki jo stimulirajo," dodaja.