https://frosthead.com

Proteettiset raajat "näkevät" sen, mitä sen käyttäjä haluaa tarttua

Kun tartut jotain, kätesi tekee suurimman osan työstä. Aivosi vain sanovat: "Mene, et ole huolissasi siitä, miten se tapahtuu." Mutta proteesilla, jopa edistyneimmällä, tämä toiminta vaatii paljon enemmän tahallisuutta. Seurauksena on, että monet potilaat luopuvat huipputeknisistä raajoistaan.

Asiaan liittyvä sisältö

  • Kuinka hermostoverkkojen hakkerointi voi auttaa amputeutuneita virheellisesti murskaamaan munan
  • Proteesin hankkiminen on helppoa verrattuna siihen, että saadaan tehdä mitä haluat

Nykyaikaiset proteesit saavat komentoja sähköisten signaalien muodossa lihaksista, joihin he ovat kiinnittyneet. Mutta edes parhaat proteesit eivät voi vielä tehdä paljon. Käyttäjät tarvitsevat pitkän harjoittelujakson tottuakseen raajoihin. Ne voivat liikkua usein vain rajoitetuilla tavoilla, ja käyttäjien on vaihdettava käsin kahvojen välillä erilaisten tehtävien suorittamiseksi - esimerkiksi oven avaamiseksi puristusta vastaan ​​ja avaimen kääntämiseksi. Kaiken kaikkiaan se tarkoittaa, että käsi ei voi toimia saumattomasti aivojen kanssa.

Yksi työkalu, joka voi auttaa ratkaisemaan tämän ongelman, on tietokoneenäkö. Newcastlen yliopiston tutkijat kiinnittivät verkkokameran proteesikäteen, kytkeivät sen syvälle oppivaan hermoverkkoon ja antoivat laitteet kahdelle amputoidulle, joiden käsivartet olivat amputoitu ranteen yläpuolella, mutta kyynärpään alapuolella. Tietokone käytti kameraa nähdäksesi mitä käyttäjä oli saavuttanut, ja säätämään proteesin pito automaattisesti.

Tulokset ovat toistaiseksi olleet lupaavia. Newcastlen ryhmä raportoi Journal of Neural Engineering -artikkelissa, että käyttäjien onnistumisaste oli yli 80 prosenttia esineiden noutamisessa ja siirtämisessä.

"Jos voimme parantaa tätä, sata prosenttia, olisi paljon luotettavampaa käyttää käsi amputeihin", sanoo Newcastlen jatko-opiskelija ja lehden pääkirjailija Ghazal Ghazaei. "Jos se tulee olemaan käytetään tosielämässä, sen pitäisi olla virheetön. ”

Itse laite oli hyllyllä oleva proteesi, nimeltään i-raajainen ultra, ja verkkokamera oli alhaisen resoluution, edullinen Logitech Quickcam Chat. Todellinen innovaatio oli, kuinka Ghazaein joukkue kehitti tietokoneoppimisjärjestelmän web-kameran tietojen käyttämiseksi.

Ohjelmisto tunnistaa nostettavan esineen muodon kuviot ja luokittelee ne luokkiin sen otteen perusteella, jota tarvitaan niiden tehokkaaseen tarttumiseen. Opettaakseen tietokoneen tämän tekniikan, Ghazaei syöttää sille 72 kuvaa, joista 500 on 500 astetta 5 asteen välein. Ohjelmisto suodattaa objektit ominaisuuksiensa perusteella ja oppii kokeilun ja virheen kautta, mitkä luokkiin kuuluvat.

Sitten, kun proteesi esitetään esineellä, verkko luokittelee matalan resoluution kuvan sen laajan, abstraktin muodon perusteella. Sen ei tarvitse olla jotain järjestelmästä aiemmin nähtyä - esineen yleinen muoto riittää kertomaan kädelle, mitä kättä käytetään. Ghazaei ja joukkue käyttivät neljää tartuntatyyppiä, mukaan lukien puristusta (kaksi sormea), jalustaa (kolme sormenpäätä), neutraaleja palmaria (kuten kahvikupin tarttuminen) ja primaattista palmaria (missä kämmen osoittaa alaspäin).

Tietokonenäköä on käytetty aikaisemmin robotti käsissä, sekä proteesissa että teollisuusroboteissa. Mutta tällaisiin pyrkimyksiin on osallistunut joko vakiokokoisia ja -muotoisia objekteja, kuten valmistusympäristössä, tai hitaampia algoritmeja. Newcastlessa kehitetty järjestelmä pystyi läpikäymään tämän prosessin riittävän nopeasti luokittelemaan esineet oikein 450 mikrosekunnissa tai noin 1/2000 th sekunnissa. "Suurin ero on aika, joka kuluu käsityksen saamiseen ja tehtävän suorittamiseen", Ghazaei sanoo. ”Joillekin heistä se kestää noin neljä sekuntia, ja joillekin tarvitaan useita valokuvia. Meille se on vain yksi tilannekuva ja se on erittäin nopea. ”

Tämän tekniikan vaikutukset ovat paljon pidemmälle kuin taloustavaroiden kerääminen. Kuvankäsittelyjärjestelmät voisivat auttaa proteesijalkaa tietämään, kuinka kaukana ne ovat maasta, ja esimerkiksi säätämään sitä. Molemmilla tapauksilla on yhteistä robottijärjestelmä, joka toimii yhdessä aivojen kanssa.

"Pääideana on, että robotti ja ihminen ovat vuorovaikutuksessa ja lisäävät älykkyyttä robottijärjestelmään", kertoo Lontoon Imperial Collegen neurorehabilitaatiotekniikan professori Dario Farina, jonka laboratorio tutkii kehon ja aivojen neuromuskulaarisia rajapintoja ja laitteet, joihin he kytkeytyvät.

"Ei vain potilas, joka hallitsee aivoillaan ja hermorajapinnan kautta proteesia, vaan myös potilasta avustaa toinen älykäs kokonaisuus, joka on kiinnitetty proteesiin ja joka voi nähdä ympäristön" Farnia, joka ei ollut mukana Newcastlen tutkimuksessa, sanoo. "Suurin haaste tässä on todellakin kyetä jakamaan hallinta ihmisen ja tiedustelujärjestelmän välillä."

Se on varhainen vaihe keinotekoisen älykkyyden sulauttamisessa aivojen kanssa, mikä epäilee, mitkä toimet toimivat parhaiten jokaiselle luomatta konflikteja. Ghazaei on kohdannut tämän ongelman; hän työskentelee edelleen hallitakseen sitä, kuinka suurta osaa laajasta liikkeestä proteesin tietokone hallitsee käyttäjän toimiin nähden. Tällä hetkellä käyttäjä osoittaa proteesin esineelle, saa sen ottamaan kuvan ja sitten käsivarsi valitsee tartunnan ja tarttuu.

Se on vain yksi monista jäljellä olevista haasteista. Tällä hetkellä järjestelmä ei ymmärrä pitkiä näkymättömiä kohteita. Sillä on vaikeuksia täynnä olevia taustoja. Joskus se tulkitsee kauempana olevan esineen pienemmäksi, lähempänä. Ja Ghazaei sanoo, että toinen tavoite on kasvattaa tartuntatyyppien lukumäärää 10 tai 12. Mutta hänen mukaansa, kokeilun kaksi käyttäjää arvostivat jo suorituskyvyn nousua ja yksinkertaisuutta, jota se käyttää perimään jotain.

Proteettiset raajat "näkevät" sen, mitä sen käyttäjä haluaa tarttua