Turkin armeija ilmoitti syksyllä toimittavansa 30 autonomista taisteludroonia Syyrian vastaiselle rajalle tämän vuoden aikana. Tekoälyllä ja kasvojentunnistusteknologialla varustettujen lennokkien on tarkoitus partioida rajalla ja tarvittaessa tehdä iskuja havaitsemiinsa kohteisiin.
Turkkilaisen asevalmistaja STM:n kehittämä Kargu-drooni kykenee kantamaan muutaman kilon painoisen ammuksen tai räjähteen. Tämä riittää tuhoamaan isommankin ajoneuvon tai taistelujoukon.
Asevalmistajan markkinointivideoilla droonit lentävät muodostelmassa ja tekevät kamikaze-hyökkäyksiä. Ne etsivät kohteensa, tunnistavat sen ja hyökkäävät. Kaikki päätökset voi antaa algoritmin tehtäväksi.
Ihmisoikeusjärjestö Human Rights Watch pitää Kargun kaltaisia sotakoneita täysin autonomisten asejärjestelmien, eli niin kutsuttujen tappajarobottien, esiasteena.
Tähän kategoriaan kuuluu Israelin valtiollisen ilmailuteollisuuden IAI:n kehittämä Harpy 2 -lennokki, joka kykenee itsenäisesti etsimään ja tuhoamaan tutka-asemia. Tappajarobottien esiasteeksi lasketaan myös eteläkorealaisen elektroniikkajätti Samsungin rakentama raskaasti aseistettu SGR-A1 -robotti, joka pystyy omatoimisesti avaamaan tulen havaitessaan lähestyvän kohteen.
Molemmat näistä asejärjestelmistä on jo käytössä.
Neuvottelut eivät pysy aseteknologian perässä
Itsenäisesti toimivia sotakoneita kehitetään täyttä häkää ympäri maailmaa. Asevalmistajilla ja armeijoilla on kehitystyön suhteen vapaat kädet, sillä tällä hetkellä näiden järjestelmien kehitystä tai käyttöä ei säännellä lainkaan.
Autonomisten aseiden käytön rajoittamisesta on väännetty YK:ssa jo usean vuoden ajan. Tällä hetkellä valmistelussa on lisäpöytäkirja YK:n tavanomaisia aseita rajoittavaan yleissopimukseen, mutta työ on vielä pahasti kesken.
Tällä hetkellä 29 valtiota vaatii täysin autonomisille asejärjestelmille kieltosopimusta, mutta monelle valtiolle riittäisi asejärjestelmien käytön periaatteita ohjaava asiakirja. Euroopan parlamentti on hyväksynyt päätöslauselman, jossa vaaditaan itsenäisesti toimivien autonomisten aseiden kieltämistä. Samalla kuitenkin useat jäsenmaat vastustavat kieltoa. Suomen hallitusohjelmassa yhtenä tavoitteena on edistää autonomisten aseiden globaalia sääntelyä.
Kansainvälisiä neuvotteluja on vaikeuttanut teknologian kehityksen vauhti. Kankeasta päätöksenteosta tunnettu YK on joutunut useaan otteeseen päivittämään autonomisia asejärjestelmiä koskevan tilannekuvansa.
Etenkin suuret sotilasvallat ovat tehneet rajoitusten sorvaamisesta haastavaa. Ongelmia on tuottanut etenkin autonomisten asejärjestelmien määrittely. Kuinka paljon ja minkälaisia ominaisuuksia asejärjestelmässä pitää olla, että se päätyy sääntelyn piiriin? Miten itsenäisesti päätöksen tekevä asejärjestelmä eroaa itsenäisesti räjähtävästä miinasta?
Yhdysvaltain ja Iso-Britannian kaltaisen suurvaltojen vastustus tekee sääntelyn saavuttamisesta YK:n tasolla vaikeaa. Rajoitusten on löydettävä toinen reitti. Sellainen on avautunut tekoälytutkijoiden ja ohjelmistokehittäjien suunnalta.
Innovointi siirtyi Pentagonista Piilaaksoon
Sotavoimien ja teknologiayritysten väliset suhteet ovat pitkään olleet tiiviit. Ne ovat yhä tiiviit, mutta 2000-luvulla vetovastuu on vaihtunut.
Kun ennen uudet teknologiat, kuten esimerkiksi internet, GPS-paikannus tai mikroaaltouuni, valuivat sotavoimista siviilielämään, nykyään uudet keksinnöt ja sovellukset syntyvät yksityisten yritysten laboratorioissa.
Koneoppiminen, uusin kamerateknologia, hahmontunnistus ja kevyet droonit ovat kaikki kehittyneet suoraan kaupallisille markkinoille. Armeijoista on tullut asiakkaita muiden joukossa. Toisilla valtioilla yhteistyö yritysten kanssa sujuu paremmin kuin toisilla.
Yhdysvalloissa niin Amazon, Microsoft kuin Google ovat kaikki tehneet yhteistyötä maan puolustusvoimien kanssa. Tämä on herättänyt tyytymättömyyttä yhtiöiden työntekijöiden keskuudessa ja synnyttänyt uudenlaista aktivismia Piilaaksossa.
Kun Google kertoi maaliskuussa 2018 yhteistyöstään Yhdysvaltain puolustusministeriön kanssa, hetkessä yli 3 000 työntekijää allekirjoitti vetoomuksen yhteistyön lopettamiseksi. Yhteistyöstä oli huhuttu Googlen käytävillä jo kuukausien ajan ja kun yhtiö vahvisti asia, moni googlelainen huolestui työnsä seurauksista. Oliko heistä tullut osa koneistoa, joka tappaa ihmisiä toisella puolella maailmaa?
Googlen Maven-projektin tarkoituksena oli parantaa ja nopeuttaa ihmisten ja kohteiden tunnistamista miehittämättömien lennokkien kuvaamista videoista. Projektin parissa työskennellyt ohjelmistoinsinööri Laura Nolan sanoo, että Mavenin päämääränä oli korvata ihmisanalyytikko koneella.
Nolanin mukaan Googlen työntekijät huolestuivat, että Maven johtaa valvonnan lisääntymiseen. Kun videomateriaalia pystytään analysoimaan tehokkaammin, taivaalle voidaan laittaa enemmän lennokkeja.
– Jo valvonta itsessään on tuhoavaa. Se on psykologisesta rankkaa yhteisöille, jotka joutuvat sen kohteeksi. Valvonta tuhoaa yhteisöllisyyden, kun ihmiset eivät uskalla kokoontua yhteen. Mielestäni se on ihmisoikeusrikkomus, Helsingissä vieraillut Nolan toteaa.
Google lopetti yhteistyön painostuksen alla
Useat työntekijät jättivät Googlen vastalauseena Maven-projektille. Nolan oli yksi heistä. Ennen irtisanoutumistaan hän oli työskennellyt amerikkalaisyhtiön Irlannin toimipisteessä neljä vuotta.
Nolanin mielestä Maven oli osa armeijan tappoketjua, joka alkaa tiedustelusta ja päättyy iskuun.
– Projekti Maven oli ongelmallinen, koska se raivasi tietä autonomisille asejärjestelmille, Nolan sanoo.
Google ilmoitti kesäkuussa 2018, ettei se jatka yhteistyötä Yhdysvaltain puolustusministeriön kanssa. Työntekijöiden painostus sai yhtiön luopumaan sopimuksesta, joka olisi tuonut Googlelle vuosittain jopa 250 miljoonaa dollaria.
Nolan puolestaan on Google-uransa jälkeen kiertänyt maailmaa kampanjoimassa autonomisia asejärjestelmiä rajoittavan sääntelyn puolesta Campaign to Stop Killer Robots -verkoston nimissä. Useista järjestöistä (mm. Amnesty International, Human Rights Watch ja International Committee for Robot Arms Control) koostuvan verkoston tavoitteena on estää tekoälyä saamasta lupaa tappaa. Se haluaa autonomisille asejärjestelmille samanlaisia rajoituksia kuin mitä YK on määritellyt kemiallisten aseiden käyttöön.
– Uskon, että voimme voittaa tämän taistelun. Maailmassa on selkeä moraalinen konsensus siitä, että näitä autonomisia asejärjestelmiä ei haluta nähdä. Ihmiset pitävät moraalisesti vääränä delegoida päätös jonkun tappamisesta koneelle, Nolan sanoo.
Sodan sääntöjä noudattava robotti voisi tappaa lapsen
Itsenäisesti päätöksiä tekevät robottiaseet synnyttävät moraalisia kysymyksiä siitä riippumatta, toimivatko ne niin kuin pitää tai eivät. Nolan ei usko, että autonomiset sotakoneet toimisivat oikein koko ajan.
– Keskityn työssäni pääsääntöisesti ohjelmistojen luotettavuuteen ja voin sanoa, että järjestelmät eivät koskaan toimi niin kuin niiden pitäisi.
Täysin autonomisten asejärjestelmien tekemien virheiden hinta voi olla ihmishenkiä. Tappajarobotti ei välttämättä osaa erottaa sotilasta metsästäjästä tai kepillä leikkivästä lapsesta. Tekoälylle voi olla vaikeaa arvioida iskun aiheuttamat sivulliset uhrit. Se ei välttämättä osaa ottaa huomioon, että isku tuhoaisi samalla ihmisille tärkeän vedenpuhdistamon.
Entä jos virhe tapahtuu, kuka on vastuussa? Onko se komentaja, joka on lähettänyt lennokin konfliktialueelle? Onko se koneen valmistaja tai algoritmin kirjoittanut ohjelmoija? Entä jos tekoäly vioittuu vihollisen ampumasta luodista ja kääntää aseensa omia joukkoja vastaan?
Asevalmistajat mainostavat robottejaan eettisinä vaihtoehtoina ihmissotilaille. Robotit eivät tee virheitä, koska ne ovat väsyneitä tai peloissaan. Ne eivät janoa kostoa, minkä ansiosta ne eivät sorru sotarikoksiin samalla tavalla kuin tunteelliset ihmiset.
Sodankäyntiä varten on määritelty paljon yhteisiä kansainvälisiä säännöksiä ja lakeja, kuten Geneven sopimukset ja humanitääriset oikeudet. Asevalmistajien mukaan sodan säännöt voidaan ohjelmoida näihin tappokoneisiin, jolloin ne itse asiassa vähentävät vääryyksiä taistelukentällä.
Yhdysvaltain armeijan entinen ammattisotilas ja autonomisten asejärjestelmien asiantuntija Paul Scharre kyseenalaistaa kirjassaan Army of None: Autonomous Weapons and the Future of War robottiaseiden moraalisen paremmuuden. Hän huomauttaa, että aina sodassa sääntöjen mukaan toimiminen ei ole moraalisesti oikea ratkaisu.
Esimerkkinä tästä Scharre kertoo tarinan Afganistanin-komennukseltaan. Taliban-taistelijat olivat havainneet hänen ryhmänsä ja lähettäneet 6-vuotiaan tytön tarkkailemaan amerikkalaissotilaita. Tytön tehtävänä oli kertoa Scharren ryhmän sijainti radiopuhelimen välityksellä talibaneille. Scharre huomauttaa, että sotaa koskevien sääntöjen mukaan amerikkalaissotilaat olisivat voineet ampua tytön, koska tämä osallistui sotilasoperaatioon. Sotia koskevat säännöt eivät sisällä alaikärajaa taistelijoille.
Sotilaat eivät ampuneet tyttöä. Kansainvälisiä sääntöjä noudattamaan ohjelmoitu tappajarobotti olisi voinut näin tehdä.
Lue myös: