Het is een veel voorkomende misvatting dat de meeste slechthorende mensen gemakkelijk lippen kunnen lezen. Maar hoewel veel inderdaad liplezers zijn, kan slechts 30 tot 40 procent van het Engels worden begrepen door naar de mond te kijken. Veel gesproken Engels gebeurt zonder lipbeweging, terwijl veel geluiden, zoals 'b' en 'p', er identiek uitzien.
Hierdoor verliezen veel slechthorenden verlies tijdens het communiceren met het gehoor. Een aantal recente technologische innovaties proberen het probleem aan te pakken, van apparaten die gesproken taal in tekst op een smartphone omzetten tot speculatieve systemen waarmee dove mensen via hun tong kunnen 'horen'. Dat klopt - onderzoekers van de Colorado State University ontwikkelen een oortje dat geluiden vertaalt in elektrische patronen die het vervolgens naar een houder stuurt.
Nu hoopt een bedrijf de slechthorenden op een meer naadloze manier te helpen. Het Live-Time Closed Captioning System (LTCCS) maakt van spraak onmiddellijk schuivende tekst die wordt weergegeven op een klein scherm geknipt aan een bril. Momenteel in de proof of concept-fase, zeggen de oprichters van LTCCS dat het "het vermogen van de gebruiker herstelt om een natuurlijk vloeiend gesprek aan te gaan."
LTCCS-maker Daniil Frants werd geïnspireerd om het apparaat te ontwerpen toen zijn gitaarleraar hem vroeg of hij dacht dat Google Glass hem op de een of andere manier zou kunnen helpen communiceren met zijn slechthorende vader.
"Ik begon te rommelen met Google Glass, om te zien of het een ondertiteling kon doen, " zegt hij. "Maar na zes maanden werd het duidelijk dat er geen manier was om dat effectief te doen met Glass."
Dus besloot Frants het zelf te doen. Hij creëerde een systeem dat is opgebouwd uit bestaande of gewijzigde onderdelen - een Raspberry Pi-microcomputer, een spraakherkenningssysteem en een display aangepast van degene die hij zag op een online technologieforum. De gebruiker draagt een microfoon, die is aangesloten op de microcomputer. De microcomputer vangt geluiden op en vertaalt ze naar tekst met behulp van de spraakherkenningssoftware en stuurt ze vervolgens naar het display in een bril.
Frants is trouwens 17 jaar. Zijn VP van Frants Innovators, Inc., Ilan Pesselev, is 14. De rest van zijn team is 18 jaar en jonger. De meesten van hen gaan naar dezelfde middelbare school in Manhattan.
Ik vroeg Frants waar hij de vaardigheden leerde om de LTCCS te maken, gezien het feit dat hij nog niet naar de universiteit of de hogeschool ging. Hij legt uit dat zijn vader hem een aantal basisprogrammeervaardigheden heeft geleerd en hij heeft zichzelf de rest geleerd.
"Als ik iets nieuws moest leren, zou ik een heleboel dingen Google", zegt hij.
Hoewel 'Googlen' de gemiddelde persoon misschien niet helpt een dergelijk complex systeem te achterhalen, is Frants niet gemiddeld. Op 14-jarige leeftijd was hij de jongste persoon die ooit stage heeft gelopen bij het uiterst prestigieuze MIT Media Lab, dat zich richt op onderzoek naar mens-machines (denk aan 'slimme' protheses en intelligente machines). Hij heeft ook gewerkt aan cyberkunstprojecten die over de hele wereld zijn getoond.
Frants en zijn team hopen tegen de zomer van 2016 een goed prototype te hebben. Uiteindelijk zal het apparaat $ 750 verkopen.
Op korte termijn hoopt Frants, die onlangs verscheen op "The Tonight Show met in de hoofdrol Jimmy Fallon", computerwetenschappen te studeren aan het MIT. Op langere termijn zou hij graag zien dat zijn bedrijf, Frants Innovators, een hub wordt voor nieuwe ideeën.
"Als een Darwinisme voor ideeën, waar uiteindelijk sommigen afsterven en wat overblijft is het beste idee, " zegt hij. "Ik hoop dat de LTCCS daar het eerste idee voor is."