Sama tekniikka, joka virkaa chatty-matkapuhelimesi, voisi jonain päivänä antaa äänen niille, jotka ovat menettäneet kykynsä puhua. Kuten Renae Reints raportoi Fortuenelle, Columbian yliopiston neurotieteilijät ovat äskettäin edenneet merkittävästi kohti tätä futuristista tavoitetta kääntämällä aivojen aallot onnistuneesti ensimmäistä kertaa ymmärrettäväksi puheeksi.
Ryhmän tutkimuksessa, joka on julkaistu tieteellisissä raporteissa, sisältyy melko epätavallinen lähestymistapa. Sen sijaan, että seuraisi ajatuksia suoraan puheen tuottamiseksi, tutkijat tallensivat neurologisia kuvioita, jotka aiheuttivat koehenkilöt, jotka kuuntelivat muiden puhetta. Nämä aivoaallot syötettiin vokooderiin - keinotekoisen älykkyyden algoritmiin, joka syntetisoi puheen - ja muunnetaan sitten ymmärrettäväksi, vaikkakin robottiääniseksi, puheeksi, joka heijastaa osallistujien kuulemia lauseita.
"Äänemme auttavat yhdistämään meidät ystäviin, perheeseemme ja ympäröivään maailmaan, minkä vuoksi äänenvoiman menettäminen vammojen tai sairauksien vuoksi on niin tuhoisaa", tutkimuksen kirjoittaja Nima Mesgarani, Columbian neurobiologiaohjelman insinööri, sanoo lausunto. ”Tämänpäiväisessä tutkimuksessa meillä on potentiaalinen tapa palauttaa tämä voima. Olemme osoittaneet, että oikealla tekniikalla jokainen kuuntelija voi purkaa ja ymmärtää näiden ihmisten ajatukset. "
Gizmodon George Dvorskyn mukaan on syytä huomata, että tutkijat eivät ole vielä selvittäneet, miten kääntää sisäiset ajatukset, jotka tunnetaan myös kuvitteellisena puheena, sanoiksi. Tässä ihanteellisessa tilanteessa puheteknologiaa hyödyntävät ihmiset vain kuvittelevat, mitä he halusivat sanoa, ja odottavat sitten keinotekoista äänijärjestelmää näiden sanojen sanallistamiseksi.
Edesmennyt brittiläinen fyysikko Stephen Hawking käytti puhesynteesitekniikan alkeellista versiota kommunikoidakseen muiden kanssa. Kuten Nina Godlewski kirjoittaa Newsweekille, Hawkingilla todettiin amyotrofinen lateraaliskleroosi (ALS) 21-vuotiaana. Moottorineuronisairaus väitti lopulta hänen puhekykynsä, pakottaen hänet käyttämään kädessä pidettävää napsauttajaa puheen käynnistämiseen.
Kun Hawking menetti kätensä käytön, hän siirtyi kasvojen liikkeisiin perustuvaan järjestelmään; Gizmodon Dvorsky selittää edelleen, että tutkija käytti silmälasiinsa kytkettyä poskikytkintä äänisyntetisaattorin puhtamien sanojen valitsemiseksi.
Tämän tekniikan edistyksellinen toisto jättäisi keskitiehen käyttämättä, jolloin käyttäjät voisivat tuottaa puheen ilman tietokoneen tai liikeherkän järjestelmän apua.
Verrattuna Avery Thompson toteaa Popular Mechanics -tapahtumaan, Columbian ryhmän tutkimus keskittyy "kuullun puheen" kääntämiseen. Tutkijat rekrytoivat viisi epilepsiapotilasta, joille on tarkoitus tehdä aivoleikkaus, ja pyysivät heitä kuuntelemaan joukko puheisia sanoja - esimerkiksi nauhoituksen joku lasketaan nollasta yhdeksään - samalla kun se on kiinnitetty hermojen valvontalaitteisiin.
Näiden työkalujen kaapatut aivoaallot laitettiin vokooderiin, joka syntetisoi puheen neuroverkon avulla, joka on koulutettu futurismin Kristin Houserin sanoin “puhdistamaan” lähtö ja tekemään äänet ymmärrettäviksi.
Seuraavaksi tutkijat pyysivät 11 muuta osallistujaa kuuntelemaan AI-yhteensopivaa puhetta. Merkittävää on, että tutkimuksen yhteistekijä Mesgarani huomauttaa Columbian lausunnossa, että nämä yksilöt pystyivät “ymmärtämään ja toistamaan” äänet noin 75 prosenttia ajasta - “hyvin ja pidemmälle” kaikissa aiemmissa kokeissa havaitut äänitasot. (Voit arvioida nauhoituksia itse täältä.)
Haastattelussa Gizmodon Dvorskylle Mesgarani sanoo, että hän ja hänen kollegansa toivovat syntetisoivan monimutkaisempia lauseita lähitulevaisuudessa. Tutkijat haluavat myös tallentaa aivosignaaleja, jotka ovat muodostaneet koehenkilöt, jotka ajattelevat tai kuvittelevat puhetta sen sijaan, että vain kuuntelevat muiden puhetta. Lopuksi Mesgarani lisää lausunnossaan, että joukkue pyrkii yhtenä päivänä muuttamaan tekniikan implantiksi, joka kykenee kääntämään käyttäjän ajatukset suoraan sanoiksi.
Uuden tutkimuksen potentiaalisiin rajoituksiin sisältyy sen pieni otoskoko ja Newcastlen yliopiston neurotieteilijä Andrew Jacksonin mukaan, joka ei ollut mukana tutkimuksessa, tosiasia, että hermoverkot olisi johdettava suureen määrään aivosignaaleja jokaiselta uudelta osallistujalta puheen syntetisoimiseksi yli lukujen yhdeksän.
"Tulevaisuudessa on mielenkiintoista nähdä, kuinka hyvin yhdelle koulutetut dekooderit yleistyvät muille henkilöille", Jackson kertoo Gizmodolle . ”Se on vähän kuin varhaiset puheentunnistusjärjestelmät, jotka käyttäjän on jouduttava yksilöllisesti kouluttamaan, toisin kuin nykypäivän tekniikka, kuten Siri ja Alexa, joka voi ymmärtää kenen tahansa äänen ja käyttää taas hermoverkkoja. Vain aika näyttää, voisiko nämä tekniikat tehdä samana päivänä aivosignaaleihin. "