https://frosthead.com

Voivatko tappajarobotit oppia noudattamaan sodan sääntöjä?

Kuten muistopäivä muistuttaa meitä joka vuosi, sota ei katoa.

Mutta se muuttuu. Ja yksi syvällisemmistä muutoksista, joita näemme tulevina vuosina, on armeijalle, joka on yhä riippuvaisempi robotista. Droonit saavat nyt suurimman osan huomiosta, mutta yhä enemmän puolustusministeriön innovaatioita ovat muun tyyppisiä miehittämättömiä koneita kokeellisista lentokoneista kentällä oleviin sotilaisiin.

Vetovoima on helppo ymmärtää. Robottien käyttö on potentiaalisesti tehokkaampaa, täsmällisempää ja halvempaa kuin luottaen yksinomaan ihmisiin sodankäynnissä. Ja se tarkoittaisi tietysti myös vähemmän ihmisuhreja.

Mutta tämä muutos tuo mukanaan monimutkaisen haasteen: Voidaanko sotilaskoneet ohjelmoida päätöksentekoon? Mikä johtaa tarttuvampiin kysymyksiin: Voivatko robotit oppia moraalia?

Yhdysvaltain merivoimien tutkimuslaitoksen mielestä nyt on oikea aika selvittää asia. Aiemmin tässä kuussa se ilmoitti viisivuotisesta, 7, 5 miljoonan dollarin avustuksesta tutkimuksen rahoittamiseen Tuftsin, Brownin, Yalen ja Georgetownin yliopistoissa ja Rensselaerin ammattikorkeakoulussa (RPI) siitä, voivatko koneet yhtenä päivänä valita oikean väärän.

Merivoimat haluavat välttää tilannetta, jossa Googlen kuljettaja-auto nyt kohtaa: tekniikka, joka julkaistaan ​​kaukana ennen kaikkea selvyyttä sen aiheuttamista juridisista ja eettisistä kysymyksistä. Ennen kuin itsenäiset robotit lähtevät kentälle, armeija haluaa tietää, voivatko he todella oppia tekemään oikeita asioita.

Kuten RPI: n kognitiivisen tieteen osaston päällikkö Selmer Bringsjord näkee, robotin tekoäly voitaisiin suunnitella toimimaan moraalin kahdella tasolla. Ensimmäinen perustuisi selkeiden eettisten valintojen tarkistusluetteloon, kuten ”jos joudut haavoittuneeseen sotilaaseen, sinun pitäisi auttaa häntä.” Mutta entä jos tämä toiminta on ristiriidassa sen ensisijaisen tehtävän kanssa, kuten ammusten toimittamisen kanssa, muut sotilaat? Bringsjord sanoo, että siinä vaiheessa robotilla olisi oltava kyky harjoittaa ”syvempää moraalista päättelyä” päätöksentekoksi tilanteissa, joita ohjelmoijat eivät ehkä ole pystyneet ennakoimaan.

Tutkijoiden olisi kehitettävä ainutlaatuisia algoritmeja ja laskennallisia mekanismeja, jotka voitaisiin integroida olemassa olevien itsenäisten robottien arkkitehtuuriin. Tämä on "ajatteluprosessia", jonka avulla kone voi ohittaa suunnitellun käyttäytymisen sen kyvyn perusteella soveltaa moraalisia päättelyjä.

Jos tämä vaikuttaa poikkeuksellisen kunnianhimoiselta, niin on. Aluksi tutkijoiden on eristettävä ihmisen moraalin peruselementit - millä periaatteilla me kaikki olemme yhtä mieltä? - ja sitten selvittää, kuinka sisällyttää ne algoritmeihin, jotka antaisi robotille jonkin verran moraalista pätevyyttä.

Se ei ole pieni yritys. Tästä syystä on todennäköistä, että koneet, joita ihminen ei hallitse, rajoittuvat lähitulevaisuudessa muihin kuin taisteluun liittyviin rooleihin, kuten valvontaan, turvallisuuteen, etsintään ja pelastamiseen tai lääketieteelliseen hoitoon. Mutta väistämättä sotilassuunnittelijat haluavat vastauksen kysymykseen, joka kaikkea tätä kaikkea yllä pitäisi: Pitäisikö robotit, jotka toimivat yksin, koskaan tappaa ihmisen?

Jos kone on 90 prosenttia varma siitä, että kaikki ajoneuvossa, jonka se aikoo ampua, on terroristi, onko se tarpeeksi varma? Voisiko robotti ampua aseen lapsessa, jos se toteaa sen olevan vihollinen? Jos jokin menee pieleen ja itsenäinen robotti räjäyttää erehtymättä kylän, kuka on vastuussa? Komentaja, joka määräsi operaation? Henkilö, joka ohjelmoi robotin? Vai kukaan?

Jos uskot, että tämä on edelleen tieteiskirjallisuutta, ota huomioon, että aiemmin tässä kuussa teknisten älykköjen ja ihmisoikeuksien välisestä kansainvälisestä oikeudesta vastaavien aiheiden asiantuntijat punnitsivat ”tappajarobotteja” YK: n konferenssissa Genevessä. Ryhmät, kuten Human Rights Watch, ja muutamien maiden, kuten Pakistanin, Egyptin, Kuuban ja Vatikaanin, virkamiehet kehottivat kieltämään robotit, joilla on oikeus tappaa. Mutta useimmat maat, etenkin ne, joissa on edistyneimmät robotit, eivät ole valmiita menemään niin pitkälle.

Katso esimerkiksi WildCat, nelijalkainen robotti, jota kehitetään ajamaan suurilla nopeuksilla kaikenlaisissa maastoissa.

Toistaiseksi Yhdysvaltain armeija noudattaa vuoden 2012 puolustusministeriön direktiiviä, jonka mukaan kukaan kone, jolla on valta tappaa, ei voi olla täysin autonominen. Ihmisen on kirjaimellisesti soitettava laukauksiin. Mutta se ei välttämättä pidä paikkaansa kaikissa paikoissa: Maaliskuussa New Scientist lainasi Venäjän virkamiestä sanomalla, että viiden ballistisen ohjuksen asennuksessa olevat robottivalvojat pystyvät havaitsemaan ja tuhoamaan kohteet ilman, että ihminen antaa sitä eteenpäin.

Alla oleva Foster-Miller Talon on yksi monista maapallon koneista, joita kehitetään taistelua varten.

Sodan säännöt

Raportti tappajarobotti-konferenssista esitellään YK: n tietyille tavanomaisten aseiden komitealle marraskuussa. Mutta ei näytä siltä, ​​että kielto olisi tulossa pian.

Geneven keskusteluun liittyneiden joukossa oli Georgia Techin tekoälyn asiantuntija Ronald Arkin, joka on jo pitkään puolustanut koneiden kykyä tehdä moraalisia päätöksiä. Hän uskoo, että jos robotit oppivat noudattamaan kansainvälistä lakia, he voisivat tosiasiassa käyttäytyä eettisemmin kuin ihmiset sodassa, koska ne olisivat ehdottoman johdonmukaisia. He eivät pystyisi vastaamaan vihaan tai paniikkiin tai ennakkoluuloihin. Joten Arkin vastustaa kieltoa, vaikka hän on avoin autonomisten aseiden moratoriolle, kunnes koneille annetaan mahdollisuus nähdä, kykenevätkö he hallitsemaan sodan säännöt.

Toinen AI-tutkija, Noel Sharkey, joka keskusteli Arkinista Genevessä, on hyvin eri mieltä. Hän ei usko, että robotille ei pitäisi koskaan antaa valtaa tehdä elämää tai kuolemaa koskevia päätöksiä.

Äskettäin hän kertoi Defense One : lle: “En usko, että he koskaan päätyvät moraaliseen tai eettiseen robottiin. Sitä varten meillä on oltava moraalinen virasto. Sitä varten meidän on ymmärrettävä toiset ja tiedettävä, mitä kärsimys tarkoittaa. "

"Robotti voidaan asentaa joillakin eettisillä säännöillä, mutta se ei todellakaan välitä", hän sanoo.

Voivatko tappajarobotit oppia noudattamaan sodan sääntöjä?