https://frosthead.com

Op een dag weet je telefoon of je blij of verdrietig bent

Gezichtsanalyse op het werk. Afbeelding afkomstig van Affectiva

Zoveel tijd die we doorbrengen met onze mobiele telefoons en laptops en tablets, het is nog steeds vrijwel een eenrichtingsrelatie. Wij handelen, zij reageren. Natuurlijk kun je een gesprek voeren met Siri op je iPhone, en hoewel ze snel is, kwalificeert het nauwelijks als speels geklets. U stelt vragen, zij geeft antwoorden.

Maar wat als deze apparaten onze emoties echt zouden kunnen lezen? Wat als ze elk klein gebaar, elk gezichtsteken zouden kunnen interpreteren, zodat ze onze gevoelens kunnen meten en - misschien beter dan - onze beste vrienden? En dan reageren ze, niet met informatie, maar met wat voor empathie zou kunnen doorgaan.

We zijn er nog niet, maar we gaan snel in die richting, aangedreven door een wetenschappelijk veld dat bekend staat als affectief computergebruik. Het is gebouwd rond software die menselijke gevoelens kan meten, interpreteren en erop kan reageren. Dit kan inhouden dat je je gezicht op de camera vastlegt en vervolgens algoritmen toepast op elk aspect van je uitdrukkingen om te proberen elke grijns en kin te begrijpen. Of het kan betrekking hebben op het lezen van uw niveau van ergernis of plezier door bij te houden hoe snel of met hoeveel kracht u op een tekst tikt of dat u emoticons gebruikt. En als u te geagiteerd lijkt te zijn - of dronken - kunt u een bericht krijgen dat suggereert dat u misschien op het verzendpictogram wilt drukken.

Zien hoe moeilijk het voor ons mensen is om andere mensen te begrijpen, is dit idee van het programmeren van machines om onze gevoelens te lezen geen kleine uitdaging. Maar het gaat sneller, omdat wetenschappers hun aandacht richten op het leren van emotionele intelligentie.

Elke beweging die u maakt

Een van de betere voorbeelden van hoe affectief computergebruik kan werken, is de aanpak van een bedrijf dat Affectiva wordt genoemd. Het neemt expressies op en onderzoekt vervolgens met behulp van gepatenteerde algoritmen gezichtstekens en maakt gebruik van een database met bijna 300 miljoen frames van elementen van menselijke gezichten. De software is zo verfijnd dat het verschillende combinaties van die elementen met verschillende emoties kan associëren.

Toen het werd ontwikkeld in MIT's Media Lab door twee wetenschappers, Rosalind Picard en Rana el Kaliouby, werd de software, bekend als Affdex, ontworpen met als doel autistische kinderen te helpen beter te communiceren. Maar het had duidelijk veel potentieel in de zakenwereld, en dus spitste MIT het project af in een privébedrijf. Sindsdien heeft het $ 21 miljoen opgehaald bij investeerders.

Hoe wordt Affdex gebruikt? Meestal kijken mensen naar reclamespots. het registreert mensen terwijl ze advertenties op hun computer bekijken - maak je geen zorgen, je moet je hiervoor aanmelden - en vervolgens evalueert het, op basis van zijn database met gezichtssignalen, hoe de kijkers denken over wat ze hebben gezien. En de software geeft niet alleen een algemeen positief of negatief oordeel; het breekt de reacties van de kijkers seconde per seconde af, waardoor adverteerders met meer precisie dan ooit tevoren kunnen identificeren wat wel en niet werkt in een commercial.

Het kan ook zien dat terwijl mensen het ene zeggen, hun gezichten het andere kunnen zeggen. Tijdens een interview met de Huffington Post gaf el Kaliouby het voorbeeld van de reactie op een advertentie voor bodylotion die in India werd uitgezonden. Tijdens de commercial raakt een man op speelse wijze de blootgestelde buik van zijn vrouw aan. Naderhand zei een aantal vrouwen dat het had gezien dat ze dat tafereel aanstootgevend vonden. Maar volgens el Kaliouby, toonden de video's van de kijkers aan dat alle vrouwen op de scène reageerden met wat zij een 'plezierige glimlach' noemde.

Ze ziet kansen buiten de reclamewereld. Smart-tv's kunnen veel slimmer zijn over wat voor soort programma's we leuk vinden als ze een geheugenbank van onze gezichtsuitdrukkingen kunnen ontwikkelen. En politici zouden in staat zijn om real-time reacties te krijgen op elke regel die ze uiten tijdens een debat en in staat zijn om hun berichten direct aan te passen. Bovendien, zegt el Kaliouby, kunnen er gezondheidstoepassingen zijn. Ze zegt dat het mogelijk is om de hartslag van een persoon te lezen met een webcam door de bloedstroom in zijn of haar gezicht te analyseren.

"Stel je voor dat je altijd een camera hebt die je hartslag bewaakt, " zei ze tegen de Huffington Post, "zodat deze je kan vertellen of er iets mis is, of je fit moet worden, of als je je wenkbrauwen fronst tijd en behoefte om te ontspannen. "

Dus wat vind je, eng of cool?

Volgapparatuur

Hier zijn vijf andere manieren waarop machines reageren op menselijke emoties:

  • En hoe was mijn dag ?: Onderzoekers van de Universiteit van Cambridge hebben een mobiele Android-app ontwikkeld die het gedrag van een persoon gedurende de dag bewaakt, met behulp van inkomende oproepen en sms'en, plus berichten op sociale media om hun humeur bij te houden. De app, genaamd "Emotion Sense", is ontworpen om een ​​"ontdekkingsreis" te creëren, waarmee gebruikers een digitaal record van de pieken en dalen van hun dagelijks leven kunnen hebben. De gegevens kunnen worden opgeslagen en gebruikt voor therapiesessies.
  • En dit ben ik na het derde kopje koffie: dan is er Xpression, een andere stemming-tracking app gemaakt door een Brits bedrijf genaamd EI Technologies. In plaats van te vertrouwen op mensen in therapie om dagboeken van hun stemmingswisselingen bij te houden, luistert de app naar veranderingen in de stem van een persoon om te bepalen of ze zich in een van de vijf emotionele toestanden bevinden: kalm, blij, verdrietig, boos of angstig / bang. Het houdt vervolgens een lijst bij van de stemmingen van een persoon en wanneer deze veranderen. En als de persoon dat wenst, kan dit record aan het einde van elke dag automatisch naar een therapeut worden gestuurd.
  • Wat als je gewoon een hekel hebt aan typen op een telefoon? : Wetenschappers bij Samsung werken aan software die je gemoedstoestand zal bepalen aan de hand van hoe je je tweets op je smartphone typt. Door te analyseren hoe snel je typt, hoeveel de telefoon trilt, hoe vaak je backspace-fouten maken en hoeveel emoticons je gebruikt, moet de telefoon kunnen bepalen of je boos, verrast, blij, verdrietig, angstig of walgt. En op basis van de conclusie die het trekt, kan het bij je tweet de juiste emoticon bevatten om je volgers te laten weten dat je gemoedstoestand hebt.
  • Nodig je vrienden gewoon niet uit om te kijken: met behulp van een sensor om de pols en een smartphonecamera die om de nek wordt gedragen, hebben onderzoekers van MIT een "lifelogging" -systeem gecreëerd dat afbeeldingen en gegevens verzamelt die zijn ontworpen om een ​​persoon te laten zien welke gebeurtenissen vertegenwoordigd zijn hun emotionele hoogtepunten en dieptepunten. Het systeem, Inside-Out genoemd, bevat een biosensor in een polsband die verhoogde emoties volgt door elektrische ladingen in de huid, terwijl de smartphone de locatie van de persoon volgt en meerdere foto's per minuut maakt. Aan het einde van de dag kan de gebruiker zijn ervaringen bekijken, samen met alle sensorgegevens.
  • Je voorhoofd zegt dat je problemen hebt: dit was waarschijnlijk onvermijdelijk. Onderzoekers van de University of Southern California hebben een robottherapeut gecreëerd die niet alleen is geprogrammeerd om patiënten met goed getimede "Uh-huhs" aan te moedigen, maar ook expert is, met behulp van bewegingssensoren en stemanalyse, bij het interpreteren van elk gebaar en elke stem van een patiënt verbuiging tijdens een therapiesessie.

Videobonus: wil je zien hoe bizar deze trend van apparaten die menselijke emoties lezen kan krijgen? Bekijk deze promotie van Tailly, een mechanische staart die je niveau van opwinding oppikt door je hartslag te volgen en vervolgens op de juiste manier te zwaaien.

Meer van Smithsonian.com

Deze nieuwe robot heeft een gevoel van aanraking

Koken Met Robots

Op een dag weet je telefoon of je blij of verdrietig bent