Jaa

Eilispäivän tieteiskirjallisuuden visiot etäohjattavista miehittämättömistä lentoaluksista ovat näinä päivinä yhä tavallisempi osa niin valtiollista kuin ei-valtiollistakin poliittista väkivaltaa. Aseteknologian nopean kehityksen vuoksi on hyvä pohtia myös mahdollisia seuraavia askelia. Aseteknologian trendeistä ehkäpä eniten keskustelua on ymmärrettävästi herättänyt autonomisiin asejärjestelmiin liittyvät tulevaisuudenkuvat, joista esimerkiksi parvina operoivat miniatyyri-droonit ovat jo siirtyneet Pentagonin tulevaisuuden visioista testivaiheeseen.

Autonomisten asejärjestelmien kehittäminen on yksi keskeisimmistä osista Yhdysvaltojen puolustushallinnon ja asevoimien ”Third Offset” ‑strategiassa. Strategian julkilausuttuna tavoiteena on Yhdysvaltojen asevoimien sotilaallisen ylivoiman säilyttäminen suhteessa Kiinan ja Venäjän kaltaisiin ”lähikilpailijoihin”. Strategiassa korostetaan operatiivista ylivoimaa mahdollisissa konflikteissa, mutta yliaseman mukanaan tuoman pelotteen säilyttäminen suhteessa kilpailijoihin katsotaan jo sinänsä itseisarvoksi strategisena instrumenttina.

Vaikka autonomiset asejärjestelmät eivät edusta koko kuvaa, tai edes merkittävää osaa, sodankäynnin muotojen kehitykseen liittyvistä trendeistä, on niitä vastaan keskittyvä kampanja ”tappajarobottien” kieltämiseksi noussut jo Yhdistyneiden kansakuntien agendalle. Kampanjan tavoitteena on autonomisia asejärjestelmiä koskevan kiellon sisällyttäminen eräitä konventionaalisia aseita koskevan yleissopimuksen piiriin. Sopimuksen tavoitteena on rajoittaa sellaisten aseiden käyttöä, joiden katsotaan aiheuttavan tarpeetonta tai kohtuutonta kärsimystä: sopimuksen pöytäkirja IV vuodelta 1995 esimerkiksi kieltää laseraseet, joiden ainoana tarkoituksena on pysyvän näkövamman aiheuttaminen.

Humanitaaristen järjestöjen lisäksi tuhannet teknologiateollisuuden, robotiikan ja tekoälytutkimuksen edustajat – mukaan lukien sellaiset nimet kuin Stephen Hawking ja Elon Musk – ovat yhdessä tunnettujen yhteiskunnallisten intellektuellien kanssa tukeneet vuonna 2015 julkaistussa vetoomuksessaan autonomisten asejärjestelmien globaalia kieltoa ennen kuin on liian myöhäistä. Huomiota herättäneen vetoomuksen mukaan tappavan voimankäytön sallivan kontrollin luovuttaminen autonomisille asejärjestelmille voi johtaa siviilien ja taistelijoiden välisen erottelun lopulliseen häviämiseen, sodankäynnin moraalisen vastuun liudentumiseen sekä potentiaalisesti tuhoisaan asevarustelukierteeseen.

Autonomisiin asejärjestelmiin liittyvät pelot eivät ole yllättäviä, kun huomioi ”koneiden kapina” -tarinan yleisyyden länsimaisen populaarikulttuurin piirissä kirjoista peleihin ja tv-sarjoista elokuviin. Tappajarobottien vastainen kampanja on näin ollen mitä konkreettisin vastaus koneisiin liittyviin epäluuloihin ja uhkakuviin.

”Roomban ja terminaattorin välillä on eroa”

Yllä esitellyn näkemyksen vastapuoleksi voinee katsoa sotilasalan asiantuntijat, jotka torjuvat autonomisiin asejärjestelmiin tähtäävän ennakoivan täyskiellon toisaalta naiivina, sillä (osittain) autonomiset asejärjestelmät ovat jo tätä päivää, ja toisaalta harhaanjohtavana perustaessaan argumenttinsa oletukselle täydestä autonomiasta, eli tässä tapauksessa tappavasta voimankäytöstä ilman ihmiskontrollia. Tästä näkökulmasta autonomisinkaan järjestelmä ei toimi ilman ihmisen mukanaoloa päätöksentekosilmukassa – minimissään tämän voi nähdä puhtaasti järjestelmän funktion määrittämisen näkökulmasta, sillä edistyneimmätkään tekoälyt eivät tee päätöksiä ilman selkeitä alustavia parametreja toiminnalle.

Autonomisten asejärjestelmien kehitystä ei tulisi näin ollen tarkastella loikkana nykytilanteesta suoraan autonomisten humanoidi-robottien valtaamille sotatantereille. Sen sijaan kehitys tulisi nähdä vähittäisinä askelina kohti teknologisia ratkaisuja, joissa jotkin aiemmin ihmisten taitoihin perustuvat verraten strukturoidut toimenpiteet automatisoituvat teknologisten ratkaisujen myötä ja ”operationaalisen-autonomian” ollessa perusteltua. Esimerkkejä tällaisista teknologioista ovat jalkaväkiyksiköille soveltuvat robottikantojuhdat ja ”älykkäät” tarkkuuskiväärit autonomisten ilmataistelualusten sekä ”minimaalisia oheistappioita aiheuttavien”älyohjusten lisäksi.

Autonomiset asejärjestelmät ovat tästä näkökulmasta yhtä vääjäämättömiä kuin automatisoidut ratkaisut yhteiskunnissa laajemmin: itseohjautuvat autotkaan eivät valikoi itse määränpäätään, vaan odottavat käyttäjänsä tekevän tämän valinnan. Näin ollen algoritmit, jotka ohjaavat tekoälyä, ovat viime kädessä ihmispäättäjien käsissä. Autonomisiin asejärjestelmiin liittyvät lailliset ja eettiset haasteet nousevat esille niiden kehittämistä puoltavissa puheenvuoroissa säännöllisesti, mutta nämä pohdinnat jäävät usein ihmisen päätöksentekoroolin pysyvyyden toistamiseen.

Asteittain automatisoitujen tai autonomisten sotilaskäytössä olevien järjestelmien vertaaminen Google-autoihin ja puheet ”raskaiden toimintojen” aiheuttaman taakan vierittämisestä pois ihmisten niskoilta ovat teknisesti ottaen johdonmukaisia ja heijastelevat laajempaa teknologista kehitystä. Nämä huomiot jättävät kuitenkin avoimeksi polttavat kysymykset teknologian ja ihmisyyden välisten rajojen vetämisestä – joista on tullut yhä akuutimpia algoritmeihin perustuvien ratkaisujen levitessä yhteiskunnan eri osa-alueille.

Onko tekoäly sotaisa?

Erika Hayasakin Foreign Policy -aikakauslehdessä hiljattain julkaistu artikkeli lähtee liikkeelle kysymyksestä: onko tekoäly seksistinen”? Artikkeli nostaa esille kysymyksen siitä, missä määrin tällä hetkellä kehitettävät algoritmit, alustat ja kehittyneet tekoälyohjelmat ovat alttiita toisintamaan yhteiskuntamme pimeitä puolia, tässä tapauksessa naisiin liittyviä ennakkoluuloja, stereotypioita ja suoranaista misogyniaa? Hayasaki nostaa esille esimerkkejä DARPA:n järjestämästä haastekilpailusta, joissa robottiosallistujat rakennetaan hypermaskuliinisia ominaisuuksia omaaviksi selviytyjiksi samaan aikaan, kun seuralaisroboteiksi tarkoitetut ovat Jia Jia -robotin tavoin usein feminiinejä ja luonteeltaan alistuvia (”When her creator greeted her, she answered,Yes, my lord, what can I do for you?’”).

Hayasakin artikkeli herättää jatkokysymyksen liittyen autonomisiin asejärjestelmiin. Jos tekoäly ja laajempi teknologinen kehitys voi toisintaa seksismin kaltaista yhteiskunnallista ongelmaa, niin mikä estäisi näitä algoritmeja oppimasta myös muita yhteiskunnallisia rakenteellisia ”paheita” rasismin, aggressiivisen nationalismin, äärimmäisten uskonnollisten tulkintojen tai muiden ideologisten näkemysten joukosta ja näiden sisältymistä aseteknologisiin innovaatioihin? Edellisessä osassa nostetut näkemykset ihmisyyden säilymisestä mukana autonomisissa järjestelmissä saattaa näin olla yksi väylä dystooppisille seurauksille teknologian kehittyessä kattamaan yhä laajempia osia inhimillistä vuorovaikutusta.

Autonomisten asejärjestelmien kehitystä käsittelevissä puheenvuoroissa toistuu usein asevoimien halu ylläpitää ihmiskontrolli suhteessa autonomisiin systeemeihin: näiden näkemysten valossa tavoitteena ei ole sodankäynnin täysautomatisointi, vaan luoda tehtävistä paremmin suoriutuvia ”kentaurimaisia” toimintayksiköitä, jossa tekoälyyn perustuvat järjestelmät rajaavat optimaalisesti käsillä olevat toimintavaihtoehdot ihmissotilaille kuin supertietokoneet mahdolliset shakkisiirrot ihmispelaajille.

Tällainen näkemys nojaa intuitiivisesti helposti lähestyttävään, mutta monella tapaa yksipuoliseen, instrumentalistiseen, näkemykseen teknologian roolista ihmisyydelle. Käyttämämme työvälineet eivät ole irrallisia maailmankuvastamme, vaan niiden voidaan katsoa monella tapaa määrittävän olemassaolomme rajat ja mahdollisuudet. Filosofi ja antropologi Bruno Latouriin usein liitettyyn toimijaverkkoteoriaan viitaten yhteiskuntamme teknologiset ja infrastruktuuriset rakenteet eivät ole erotettavissa sosiaalisesta vuorovaikutuksesta, vaan nämä kietoutuvat toisiinsa erottamattomalla tavalla.

Autonomisten järjestelmien kehitysprosessia ei voi erottaa laajemmasta kulttuurisesta kontekstista – ja sen mahdollisesti korruptoivasta vaikutuksesta kuten ehkä teknologian instrumentaalista käyttöä ja kentaurijärjestelmien etuja korostavat näkemykset antavat ymmärtää.

Tulevaisuuden sodan eettisestä ajankohtaisuudesta

Loppujen lopuksi on totta, että tekoälyä ohjaaville algoritmeille on sinänsä yhdentekevää, onko sille määritellyssä tehtävässä kyse osakkeiden ostopäätöksestä, sähkönkulutuksen optimoinnista tai viholliseksi määritellyn kohteen eliminoimisesta ”positiivisen identifikaation” ehtojen täytyttyä. Autonomiset järjestelmät saattaisivat olla joidenkin arvioiden mukaan paljon parempia noudattamaan sodankäynnin sääntöjä erehtyväisiin ihmisiin verrattuna.

Näkemyksen tekee ongelmalliseksi sen nojaaminen idealisoituun ja valtiokeskeiseen käsitykseen symmetrisestä sodankäynnistä: jos jotain, niin terrorismin vastaisen sodan hallitsemat vuosikymmenet ovat osoittaneet perusteellisesti, että kansainvälisen oikeuden sotaa koskevan säännöstön ja aktuaalisen sodankäynnin välillä vallitsee merkittävä kuilu.

Vaikka Yhdysvaltojen kaltaisen teknologisen edelläkävijän strategisia tulevaisuuden visioita alleviivaavatkin oletukset suurvaltojen välisestä konfliktista, niin asymmetriset konfliktit ja niissä käytettävät korkean teknologian asejärjestelmät eivät ole häviämässä minnekään.

Yksi ilmeinen esimerkki ”matalan teknologian” ratkaisuista, jota mahdollisen teknoarmeijan vastapuoli voisi hyödyntää, on lapsisotilaiden käyttö. Nykyinen tekoälyteknologia soveltuu hyvin säännönmukaisuuksien ja yhteyksien löytämiseen massiivisesta määrästä dataa, mutta toistaiseksi puutteellisesti ei-loogisten ja pienten kontekstisidonnaisten eroavaisuuksien tunnistamisessa. Ovatko lapsisotilaat legitiimejä kohteita? Kuinka erottelu lapsisotilaan ja sotaleikkejä leikkivän lapsen välillä ohjelmoidaan?

Tällainen eettinen pohdinta voi vaikuttaa luonteeltaan teoreettiselta ja ennenaikaiselta, mutta kysymykset siitä, miten jus in bello -periaatteita sovelletaan tai ollaan soveltamatta, nopeuteen perustuvan etulyöntiaseman ylläpitämiseksi – autonomisten järjestelmien kehittämisessä ovat ajankohtaisia, vaikka lopullisen päätöksen voimankäytöstä tekisikin ihminen. Modernien asejärjestelmien teknologinen kompleksisuus tekee jo nyt eron ”hyökkäyspäätöksessä avustamisen” ja varsinaisen ”hyökkäyspäätöksen” välillä usein pieneksi.

Tappajarobottien aloittama maailmanloppu ei vaikuta skenaariona kovinkaan todennäköiseltä tällä hetkellä verrattuna esimerkiksi kotiemme älylaitteiden päätymiseen osaksi kybersodan reserviä. Tästä huolimatta on perusteltua palata ajoittain takaisin tulevaisuuteen pohtimaan kehittyvän teknologian, turvallisuuden ja poliittisen väkivallan yhteyksiä. Eilispäivän tulevaisuuden aseisiin liittyvillä teoreettisilla pohdinnoilla on tapana ajan kuluessa muuttua tämän päivän hyvin todellisiksi eettisiksi ongelmiksi.

Hae
Exact matches only
Search in title
Search in content
Search in comments
Search in excerpt
Filter by Custom Post Type

Jaa