https://frosthead.com

Voiko tekoäly auttaa estämään koulun ampumisia?

Kaikista ampumistaan ​​koulukampanjat ovat hämmästyttävä kauhu.

Paitsi että siellä on vähän yksimielisyyttä niiden lopettamisesta - ehdotuksilla, jotka vaihtelevat aseiden käytön rajoittamisesta aseistamisopettajiin -, on vielä vähemmän varmuutta siitä, miksi oppilas avaa tulen luokkatovereilleen.

Nyt jotkut tutkijat ovat alkaneet tutkia, voisiko tekoäly auttaa löytämään vastauksia. Ajatuksena on, että algoritmit voisivat pystyä analysoimaan paremmin koulun ammuntaan liittyviä tietoja ja ehkä jopa tunnistamaan oppilaiden kielen tai käytöksen malleja, jotka voisivat ennakoida koulun väkivaltaa. Tutkimus on vielä alkuvaiheessa, ja mahdollisuus käyttää koneita ennustamaan siitä, mistä voi tulla koulun ampuja, herättää yksityisyyttä koskevia kysymyksiä ja muita eettisiä kysymyksiä, jotka liittyvät kaikenlaiseen profilointiin, etenkin koska prosessiin osallistuisi lapsia. Tavoitteena on kuitenkin nähdä, voivatko älykkäiden koneiden analyyttinen voima antaa enemmän selkeyttä tragedioille, joita usein käytetään korkeiden tunteiden ja poliittisen retoriikan pyörressä.

Siirtyminen tekniikkaan

Keinotekoisen älykkyyden käyttäminen tapana tuoda tieteellinen analyysi jotain niin käsittämätöntä kuin koulun ammuskelut vetoivat Shreya Nallapatihun. Hän valmistui vasta lukiosta Coloradossa, mutta helmikuussa, kun opiskelijat ampuivat 17 opiskelijaa Parklandissa, Floridassa, opiskelijajohtaja Emma Gonzalez innosti häntä toimimaan.

"Minusta tuntui, että meidän ei pitäisi vain lähettää ajatuksiamme ja osanottomme", Nallapati sanoo. "Ajattelin, että kasvavana vuosituhannen sukupolvena meidän pitäisi yrittää käyttää sitä, mitä tunnemme parhaiten - tekniikkaa."

Joten Nallapati, joka on opiskellut tekoälyä lukiossa, tavoitti muihin tuntemiinsa nuoret naiset ohjelman avulla, jonka nimi on Tietojenkäsittelyn aspiraatio, jota johtaa Naisten ja tietotekniikan keskus. Tietotekniikan pyrkimykset rohkaisevat nuoria naisia ​​pääsemään tietotekniikan ja tekniikan aloille.

Nallapati pyysi muita ryhmän jäseniä liittymään häneen uuteen projektiin, #NeverAgainTech. Hän toivoo, että yhteistyön tuloksena on AI-pohjainen kokoaminen ja analysointi monenlaisista koulun ampumisiin liittyvistä tiedoista - demografisista ja sosioekonomisista tiedoista aiemmista ampujaista aina huumeidenkäytön tai neurologisten häiriöiden historiaan aseiden saatavuus valtioissa, joissa hyökkäyksiä on tapahtunut. Tavoitteena on kehittää kokonaisammuntojen monien komponenttien kattavampi erittely kuin mikään nykyinen, ja saada ohjelmistot saataville yleisölle, etenkin kouluille ja lainvalvontaviranomaisille, ensi vuonna.

Arvioidaan riski

Cincinnatin lastensairaalan lääketieteellisen keskuksen tutkijaryhmä käyttää erilaista lähestymistapaa käytettäessä AI: tä kouluväkivallan torjumiseksi. Se julkaisi äskettäisen tutkimuksen, jonka mukaan koneoppiminen voisi auttaa terapeuteja ja neuvonantajia havaitsemalla opiskelijan mahdollisen riskitason.

Erityisesti tutkijat havaitsivat, että AI oli yhtä tarkka kuin lasten ja nuorten psykiatrien ryhmä väkivaltaisen käytöksen riskin arvioinnissa, joka perustui haastatteluihin 119 lapsen kanssa 12–18-vuotiaita. Tutkimuksessa keskityttiin laajasti fyysiseen fyysiseen tilanteeseen. aggressio, johtava tutkija Drew Barzman sanoo, että sitä voitiin soveltaa myös koulun ampumariskin arviointiin.

"Ennen kouluväkivaltaa on yleensä varoitusmerkkejä", hän sanoo. Erityisesti Barzmanin aiemman tutkimuksen mukaan kieli, jota opiskelija käyttää haastattelussa, voi auttaa erottamaan korkean riskin teini-ikäisen matalariskistä. Tutkimuksessa pääteltiin, että entinen ilmaisi todennäköisemmin kielteisiä tunteita itsestään ja muiden teoista. Hän puhui todennäköisemmin myös itseään koskevista väkivaltaisista teoista ja väkivaltaisista videopeleistä tai elokuvista.

Ryhmä otti uuden askeleen hankkimalla AI-algoritmin aikaisemman tutkimuksen tulokset uuden tutkimuksen haastatteluun haastateltujen opiskelijoiden tekstien analysoimiseksi. Kielihahmojen perusteella se osoitti, onko henkilöllä suuri tai matala riski väkivallan tekoon. Yli 91 prosenttia ajasta, algoritmi, joka käytti vain selkeitä lauseita, kohdistui lasten ja nuorten psykiatrien ryhmän laajempiin arvioihin, joilla oli myös pääsy vanhempien ja koulujen tietoihin.

Tutkimuksen opiskelijat rekrytoitiin suurelta osin psykiatrian poliklinikoilta, sairaalaosastoilta ja päivystysosastoilta. Jotkut olivat hiljattain osoittaneet suuria käyttäytymismuutoksia, mutta toisten kohdalla muutokset olivat vähäisempiä. Barzman kertoo heidän käyneen monenlaisissa kouluissa, vaikka yksikään niistä ei ollut kotiopetettu.

Barzmanin mukaan tutkimus keskittyi fyysisen aggression ennustamiseen koulussa, mutta ei vieläkään tiedetä, voisiko koneoppiminen todella estää väkivaltaa. Tässä vaiheessa keskitytään tarjoamaan terapeuteille ja neuvonantajille työkalu, joka voisi terävöittää heidän arvioitaan opiskelijoista haastattelujen perusteella. Barzman toteaa, ettei tarkoituksena ole saada koneita tekemään päätöksiä opiskelijoista.

"Se olisi lähtökohtaisesti tarkoitettu auttamaan lääkäriä päätöksenteossa", Barzman sanoo. "Tarjoamme heille rakenteen siitä, mitä olemme todenneet tärkeiksi kysymyksiksi. Voi olla vaikeaa haastatella opiskelijaa, valita oikeita tietoja ja muistaa kaikki. Ideana on antaa heille työkalu, joka voi auttaa heitä prosessin kautta ja parantaa heidän arviointiensa tarkkuutta. "

Matty Squarzoni on toinen uskova tekoälyn mahdollisuuksiin puuttua kouluväkivaltaan. Hän on Kalifornian start-up-nimisen Sitch AI: n toimitusjohtaja, joka aikoo markkinoida tekniikkaa, jonka mukaan hänen mukaansa autettaisiin kouluja selviytymään tällaisista uhista. Alkuvaiheessa keskitytään antureiden järjestelmän kehittämiseen, jonka avulla poliisit voivat havaita ampumapisteiden tarkan sijainnin ja seurata ampujan liikkeitä koulun kautta. Mutta Squarzonin mukaan yritys etsii myös tapoja ennustavan analyysin avulla havaita mahdolliset ongelmat ennen kuin ne muuttuvat väkivaltaisiksi.

Hän uskoo, että tekoäly voisi analysoida opiskelijan tietoja ja merkitä merkittäviä muutoksia hänen suorituksessaan tai käyttäytymisessään. Squarzoni tunnustaa mahdolliset yksityisyyden huolet, mutta sanoo, että yritys ei tiedä opiskelijoiden henkilöllisyyttä.

"Emme puhu profiilien luomisesta", hän sanoo. ”Tarkasteltaisiin kutakin ihmistä ainutlaatuisena kokonaisuutena. Mutta ihmiset ovat tottumuksellisia olentoja. Kun heillä alkaa olla epäsäännöllisyyksiä, silloin alat tarkastella niitä. Huomaat liput ja ehkä liput alkavat lähestyä ja lähentää. Ne voivat olla mielenterveysongelmia tai ehkä heidän arvosanansa ovat pudonneet.

"Emme halua sanoa:" Tämän henkilön tulee ampujaksi. " Haluamme pystyä sanomaan: "Tämä henkilö tarvitsee apua." "

Ei niin nopeasti?

Mutta toiset ovat vakavasti huolissaan kiireestä käyttää ohjelmistoalgoritmeja monimutkaisten yhteiskunnallisten ongelmien ratkaisemiseksi.

"Näemme nyt suuntauksen, jossa AI: tä sovelletaan erittäin herkille alueille hälyttävällä nopeudella, ja näitä algoritmeja tekevät ihmiset eivät välttämättä ymmärrä käyttämiensä tietojen kaikkia sosiaalisia ja jopa poliittisia näkökohtia", sanoo Rashida Richardson, politiikan tutkimuksen johtaja New Yorkin yliopiston AI Now Institute -ohjelmassa, joka tutkii tekoälyn sosiaalisia vaikutuksia.

Yksi alue, jolla AI: n käyttö on joutunut tuleen, on niin kutsuttu ennustava poliisitoiminta. Nämä ovat ohjelmistotuotteita, jotka analysoivat rikostilastoja ja ennustavat sitten rikoksia todennäköisemmin. Mutta kriitikot huomauttavat, että tiedot, kuten pidätykset, voivat olla seurausta ihmisen puolueellisuudesta, joka lopulta voi tulla uuniksi algoritmiin.

Se on aina ennustavan analyysin riski ja miksi tietolähde on avaintekijä määritettäessä, kuinka objektiivinen se voi olla. Cincinnati Lastensairaalan tutkijoiden kehittämällä AI-työkalulla analyysi kuitenkin perustuu siihen, mitä yksittäiset opiskelijat sanovat haastattelun aikana, eikä laajaan tilastotietoon.

Silti Richardsonin mielestä on tärkeää, että tällaista ohjelmistoa luovat ryhmät ovat ”monitieteisiä”, jotta esimerkiksi opettajat osallistuvat ohjelmiin, joissa arvioidaan opiskelijoiden käyttäytymistä.

”Tutkijat eivät ehkä ymmärrä monia vivahteita siitä, mitä koulutus- ja oikeuspoliittisessa maailmassa ihmiset kutsuvat kouluilmapiiriksi. Se sisältää turvallisuus- ja käyttäytymiskysymykset ”, hän sanoo. ”Minkä tyyppinen koulu määrää usein, kuinka käyttäytymiseen suhtaudutaan ja miten kurinalaisuutta hoidetaan.

"Esimerkiksi charter-kouluissa on todettu olevan paljon tiukempia kurinpitomenetelmiä", Richardson lisää. ”Tuossa ympäristössä olevia lapsia kohdellaan paljon eri tavalla kuin huippuluokan yksityisessä koulussa ja jopa erilaisissa julkisen kouluympäristöissä.

”Yritetään ymmärtää erittäin monimutkaisia ​​asioita, joihin on lukemattomia tietoja, ja soveltaa teknistä ratkaisua, joka heijastaa sen suikalaa, on ongelma, koska se voi joko toistaa samat ongelmat, joita näemme yhteiskunnassa, tai luoda ratkaisun ongelmaan, jota ei ole olemassa. ”

Richardsonin mielestä toinen huolenaihe on se, että vaikka AI-ohjelma kehitettäisiin parhaiten tarkoituksellisesti, sitä voidaan lopulta käyttää tavoilla, joita sen luojat eivät ole odottaneet.

"Kun keksit nämä työkalut", hän sanoo, "ei ole niin, että sinulla on edelleen hallintaa siitä, miten ne pannaan täytäntöön tai miten ne vaikuttavat edelleen koko yhteiskuntaan."

Voiko tekoäly auttaa estämään koulun ampumisia?