https://frosthead.com

Neurowetenschappers hebben hersengolven omgezet in verbale spraak

Dezelfde technologie die uw spraakzame mobiele assistent voedt, kan op een dag een stem geven aan degenen die het spraakvermogen hebben verloren. Zoals Renae Reints voor Fortune rapporteert, hebben neurowetenschappers van de Universiteit van Columbia onlangs een grote vooruitgang geboekt in de richting van dit futuristische doel, door met succes hersengolven voor het eerst in begrijpelijke spraak te vertalen.

Het onderzoek van het team, gepubliceerd in Scientific Reports, houdt een enigszins onconventionele benadering in. In plaats van gedachten direct te volgen om spraak te produceren, registreerden de onderzoekers neurologische patronen die werden gegenereerd door proefpersonen die naar anderen luisterden. Deze hersengolven werden ingevoerd in een vocoder - een kunstmatige intelligentie-algoritme dat spraak synthetiseert - en vervolgens omgezet in begrijpelijke, zij het robotachtig klinkende, spraak die de zinnen weerspiegelde die door deelnemers werden gehoord.

"Onze stemmen helpen ons contact te maken met onze vrienden, familie en de wereld om ons heen. Daarom is het verliezen van de kracht van je stem als gevolg van letsel of ziekte zo verwoestend", zegt studie-auteur Nima Mesgarani, ingenieur in het neurobiologieprogramma van Colombia, in een verklaring. “Met de studie van vandaag hebben we een potentiële manier om die kracht te herstellen. We hebben aangetoond dat met de juiste technologie de gedachten van deze mensen door elke luisteraar kunnen worden gedecodeerd en begrepen. '

Het is vermeldenswaard, volgens George Dvorsky van Gizmodo, dat wetenschappers nog niet weten hoe ze interne gedachten, ook bekend als ingebeelde spraak, direct in woorden kunnen vertalen. In dit ideale scenario zouden individuen die spraaktechnologie gebruiken zich eenvoudigweg voorstellen wat ze wilden zeggen en dan wachten op een kunstmatig stemsysteem om deze gedachten te verwoorden.

De overleden Britse natuurkundige Stephen Hawking gebruikte een rudimentaire versie van spraaksynthesetechnologie om met anderen te communiceren. Zoals Nina Godlewski schrijft voor Newsweek, werd Hawking op 21-jarige leeftijd gediagnosticeerd met amyotrofische laterale sclerose (ALS). De motorneuronziekte claimde uiteindelijk zijn spraakvermogen, waardoor hij gedwongen werd een clicker in de hand te gebruiken om spraak te activeren.

Toen Hawking het gebruik van zijn handen verloor, schakelde hij over op een systeem op basis van gezichtsbewegingen; Gizmodo ’s Dvorsky legt verder uit dat de wetenschapper een wangschakelaar gebruikte die op zijn bril was aangesloten om woorden te kiezen die werden uitgesproken door een stemsynthesizer.

Een geavanceerde iteratie van deze technologie zou de middelste man weglaten, waardoor gebruikers spraak kunnen produceren zonder de hulp van een computer of bewegingsgevoelig systeem.

Ter vergelijking, Avery Thompson merkt op voor Popular Mechanics, de studie van het Columbia-team is gericht op het vertalen van "afgeluisterde spraak". Onderzoekers rekruteerden vijf epilepsiepatiënten die een hersenoperatie zouden ondergaan en vroegen hen om te luisteren naar een reeks gesproken woorden - bijvoorbeeld een opname van iemand tellen van nul tot negen - terwijl aangesloten op neurale bewakingsapparatuur.

De hersengolven die door deze tools werden gevangen, werden in de vocoder gebracht, die spraak synthetiseerde met behulp van een neuraal netwerk dat getraind was, in de woorden van Kristin Houser van Futurism, om de output te “opruimen” en de geluiden verstaanbaar te maken.

Vervolgens vroegen de wetenschappers 11 andere deelnemers om te luisteren naar de spraak met AI. Het is veelzeggend dat studie-co-auteur Mesgarani in de Columbia-verklaring opmerkt, deze individuen waren in staat om de geluiden ongeveer 75 procent van de tijd te "begrijpen en herhalen" - "ruimschoots" de percentages die in eerdere experimenten werden waargenomen. (Je kunt de opnames hier zelf beoordelen.)

In een interview met Gizmodo ’s Dvorsky zegt Mesgarani dat hij en zijn collega's hopen in de nabije toekomst meer complexe zinnen te synthetiseren. De onderzoekers willen ook hersensignalen opnemen die zijn gegenereerd door proefpersonen die nadenken of zich de handeling van het spreken voorstellen in plaats van alleen maar te luisteren naar anderen die spreken. Tot slot, voegt Mesgarani toe aan de verklaring, het team streeft ernaar om op een dag de technologie om te zetten in een implantaat dat in staat is om de gedachten van de drager rechtstreeks in woorden te vertalen.

Potentiële beperkingen van het nieuwe onderzoek zijn de kleine steekproefomvang en, volgens de neurowetenschapper Andrew Jackson van Newcastle University, die niet bij het onderzoek betrokken was, het feit dat neurale netwerken zouden moeten worden geïntroduceerd bij een groot aantal hersensignalen van elke nieuwe deelnemer om spraak boven de getallen nul tot en met negen te synthetiseren.

"Het zal in de toekomst interessant zijn om te zien hoe goed decoders die voor één persoon zijn getraind, generaliseren naar andere personen, " vertelt Jackson aan Gizmodo . “Het is een beetje zoals vroege spraakherkenningssystemen die individueel door de gebruiker moesten worden getraind, in tegenstelling tot de hedendaagse technologie, zoals Siri en Alexa, die de stem van iedereen kunnen begrijpen, opnieuw met behulp van neurale netwerken. Alleen de tijd zal uitwijzen of deze technologieën ooit hetzelfde zouden kunnen doen voor hersensignalen. "

Neurowetenschappers hebben hersengolven omgezet in verbale spraak