https://frosthead.com

Binnen het futuristische Augmented Human Lab van professor Nanayakkara

Naarmate gebruikersinterfaces worden gebruikt, is een zachte clicker met Bluetooth-ondersteuning ter grootte van een prop kauwgom een ​​van de moeilijkste manieren om een ​​computer te selecteren, te verplaatsen, te klikken of op een andere manier te bedienen. Maar voor bepaalde situaties is het eigenlijk heel logisch. Stel dat u fietst en een oproep op uw headset wilt beantwoorden of een routebeschrijving wilt opzoeken, maar u niet van de tralies wilt afhouden. Of als u verlamd bent en een elektrische rolstoel moet besturen, zal een onopvallend richtingskussen in uw mond veel minder opvallen dan een standaard mond- of kinbedieningsapparaat, of zelfs een die u met uw schouder indrukt.

"Hoe kunnen we deze interacties reproduceren met behoud van de discreetheid van de interface?" Zegt Pablo Gallego, een van de uitvinders van het apparaat, genaamd ChewIt. “Mensen kunnen niet zien of u interactie hebt met ChewIt, of dat u kauwgom of een tandvlees in de mond heeft. Of misschien een karamel. '

Gallego ging akkoord met dit idee, vastbesloten om het te verfijnen en een prototype te maken in het streven naar zijn master in engineering aan de Universiteit van Auckland in Nieuw-Zeeland. Onderzoek toonde aan dat mensen verschillende vormen in hun mond kunnen herkennen, net zoals met vingertoppen. En hij wist dat we tandvlees en andere vreemde voorwerpen kunnen verdragen. Wat volgde was jaren werk, het optimaliseren van de vormfactor. Een rond voorwerp zou niet werken; de gebruiker kon niet zien hoe het was georiënteerd. Het moest groot genoeg zijn om te controleren, maar klein genoeg om weg te stoppen in de wang. Samen met onderzoeker Denys Matthies maakte Gallego ChewIt uit een asymmetrische klodder polymeerhars met een printplaat met een knop die een stoel kan besturen en verplaatsen.

ChewIt prototype.jpg Dit prototype van ChewIt toont de polymeerhars en de printplaat. (Universiteit van Auckland)

Gallego en Matthies bedachten en bouwden ChewIt aan het Augmented Human Lab van de Universiteit van Auckland, een onderzoeksgroep hoogleraar engineering Suranga Nanayakkara, samengesteld om hulpmiddelen uit te vinden die zijn ontworpen om technologie aan te passen voor menselijk gebruik, in plaats van andersom. Er is een mismatch, redeneerde Nanayakkara, tussen wat onze technologie doet en hoe deze met ons samenwerkt. We zouden het niet moeten leren; het zou ons moeten leren.

"Krachtige technologie, slecht ontworpen, zorgt ervoor dat gebruikers zich gehandicapt voelen", zegt Nanayakkara. “Krachtige technologie met de juiste mens-machine-interface zorgt ervoor dat mensen zich sterker voelen, en dat zorgt ervoor dat de mens-op-mens interactie op de voorgrond blijft en de technologie op de achtergrond blijft. Het helpt het volledige potentieel van technologie te benutten. ”

Nanayakkara heeft zijn uiterste best gedaan om ervoor te zorgen dat studenten en wetenschappers in zijn productieve lab in staat zijn om te creëren op basis van hun interesses en met elkaar samen te werken aan hun ideeën. De verscheidenheid aan technologieën die ze hebben ontwikkeld, is opmerkelijk. Er is een welkomstmat die bewoners herkent op basis van hun voetafdruk, inclusief het gewicht van de drager en de slijtageprofielen van de zolen, en de deur voor hen ontgrendelt. Er is een persoonlijke geheugencoach die zich bezighoudt via audio op momenten dat hij herkent dat de gebruiker tijd en aandacht heeft om te oefenen. Er is een slimme cricketbat die gebruikers helpt hun grip en swing te oefenen. Er is een stappendetector voor loophulpmiddelen voor ouderen, omdat de FitBits en smartwatches vaak stappen mislopen wanneer mensen rollers gebruiken.

En er is GymSoles. Deze slimme inlegzolen werken als een coach voor gewichtheffen en helpen dragers de juiste vorm en houding te behouden tijdens squats en deadlifts. "Deze hebben zeer verschillende houdingen, " zegt Samitha Elvitigala, die het apparaat bouwt als onderdeel van zijn promotieonderzoek. "Er zijn enkele subtiele bewegingen die je moet volgen, anders krijg je letsel." Sensoren in de zolen volgen het drukprofiel van de voeten, berekenen het drukcentrum en vergelijken dit met het patroon dat het zou moeten zijn - zeg of de gewichtheffer te ver naar achteren of te ver naar voren leunt. Vervolgens geeft het apparaat haptische feedback in de vorm van subtiele trillingen, waarmee wordt aangegeven hoe de lifter zichzelf moet uitlijnen. Door haar kanteling en de positie van haar voeten en benen en heupen correct aan te passen, valt het hele lichaam in de juiste vorm. Elvitigala verfijnt het project nog steeds en onderzoekt hoe het kan worden gebruikt voor andere toepassingen, zoals het verbeteren van het evenwicht bij Parkinson-patiënten of slachtoffers van een beroerte.

De oorsprong van het Augmented Human Lab gaat helemaal terug op een ervaring die Nanayakkara had op de middelbare school. Werkend met studenten op een residentiële school voor doven, realiseerde hij zich dat iedereen behalve hij naadloos communiceerde. Het zorgde ervoor dat hij de communicatie en vaardigheden heroverweeg. "Het gaat niet altijd over het verhelpen van handicaps, het gaat over het verbinden met mensen", zegt hij. "Ik voelde dat ik iets nodig had om met hen verbonden te zijn." Later zag hij een soortgelijk probleem in de communicatie met computers.

Hij leerde erover te denken als een ontwerpprobleem tijdens zijn studie engineering en vervolgens als postdoc in de Fluid Interfaces-groep van computerwetenschapper Pattie Maes, onderdeel van het MIT Media Lab. Net als het Augmented Human Lab bouwt de Fluid Interfaces-groep apparaten die zijn ontworpen om de cognitieve vaardigheden te verbeteren via naadloze computerinterfaces.

"Apparaten spelen een rol in ons leven, en op dit moment is hun impact zeer negatief, op ons fysieke welzijn, ons sociaal welzijn", zegt Maes. "We moeten manieren vinden om apparaten beter te integreren in ons fysieke leven, ons sociale leven, zodat ze minder storend zijn en minder negatieve effecten hebben."

Het doel, zegt Maes, is niet om computers zover te krijgen dat ze alles voor ons doen. We zullen beter af zijn als ze ons kunnen leren dingen beter zelf te doen en ons daarbij kunnen helpen. Haar studenten ontwierpen bijvoorbeeld een bril die de oogbewegingen en het EEG van dragers bijhoudt en hen eraan herinnert om zich te concentreren op een lezing of een lezing wanneer hun aandacht afneemt. Een ander maakt gebruik van augmented reality om gebruikers te helpen bij het in kaart brengen van herinneringen tijdens het lopen, een ruimtetechniek die geheugenkampioenen een 'geheugenpaleis' noemen. Vergelijk dat met Google (misschien zoek je naar 'Halloween-kostuums' in plaats van creatief te worden, zegt Maes ) of Google Maps, die grotendeels onze behoefte hebben vervangen om informatie te bewaren of te begrijpen waar we zijn.

"We vergeten vaak dat er altijd kosten aan verbonden zijn als we een dergelijke service gebruiken die ons helpt." “Veel van de apparaten en systemen die we bouwen, vullen een persoon met bepaalde functies aan. Maar wanneer je een bepaalde taak of vaardigheid uitbreidt, verlies je soms ook een klein beetje van die vaardigheid. "

Misschien begon Nanayakkara's bekendste apparaat, de FingerReader, in zijn tijd bij MIT. FingerReader is ontworpen voor slechtzienden en heeft een eenvoudige interface: richt de camera op de ring op iets, klik en het apparaat vertelt je wat het is, of leest welke tekst erop staat, via een hoofdtelefoon.

FingerReader volgde Nanayakkara naar Singapore, waar hij eerst het Augmented Human Lab begon aan de Singapore University of Technology and Design, en vervolgens naar de Universiteit van Auckland, waar hij zijn team van 15 in maart 2018 verhuisde. * In die tijd, hij en zijn studenten hebben FingerReader verfijnd en volgende versies gemaakt. Net als veel van de andere apparaten is FingerReader (voorlopig) gepatenteerd en zou het ooit zijn weg naar de markt kunnen vinden. (Nanayakkara richtte een startup op met de naam ZuZu Labs om het apparaat te produceren, en produceert een testrun van een paar honderd stuks.)

In sommige opzichten pakken de uitbreiding van virtuele assistenten zoals Siri, Alexa en Google Assistant soortgelijke problemen aan. Ze zorgen voor een meer natuurlijke interface, meer natuurlijke communicatie tussen mensen en hun alomtegenwoordige computers. Maar voor Nanayakkara vermijden ze zijn apparaten niet, ze bieden alleen een nieuw hulpmiddel om ze aan te vullen.

"Deze technologie is geweldig, ze moeten gebeuren, het is hoe het veld vordert", zegt hij. “Maar iemand moet nadenken over hoe hij de volledige macht van die mensen het beste kan benutten. Hoe kan ik dit gebruiken om de volgende opwindende mens-machine-interactie te creëren? "

* Noot van de redactie, 15 april 2019: een eerdere versie van dit artikel verklaarde ten onrechte dat Suranga Nanayakkara zijn team in mei 2018 van de Singapore University of Technology and Design naar de Universiteit van Auckland verhuisde, terwijl het in maart 2018 was. Het verhaal is bewerkt om dat feit te corrigeren.

Binnen het futuristische Augmented Human Lab van professor Nanayakkara