https://frosthead.com

Hoe begrip van dieren ons kan helpen het meeste uit kunstmatige intelligentie te halen

Elke dag verschijnen er talloze krantenkoppen uit talloze bronnen over de hele wereld, die zowel waarschuwen voor ernstige gevolgen als veelbelovende utopische toekomst - allemaal dankzij kunstmatige intelligentie. AI "transformeert de werkplek", schrijft de Wall Street Journal, terwijl het tijdschrift Fortune ons vertelt dat we worden geconfronteerd met een "AI-revolutie" die "ons leven zal veranderen". Maar we begrijpen niet echt hoe interactie met AI zal zijn - of hoe het zou moeten zijn.

Het blijkt echter dat we al een concept hebben dat we kunnen gebruiken als we aan AI denken: zo denken we over dieren. Als een voormalige dierentrainer (zij het kort) die nu onderzoekt hoe mensen AI gebruiken, weet ik dat dieren en dierentraining ons veel kunnen leren over hoe we moeten nadenken over, omgaan met en omgaan met kunstmatige intelligentie, zowel nu als in de toekomst.

Het gebruik van dierlijke analogieën kan gewone mensen helpen veel van de complexe aspecten van kunstmatige intelligentie te begrijpen. Het kan ons ook helpen nadenken over hoe we deze systemen het beste nieuwe vaardigheden kunnen aanleren en, misschien nog het belangrijkste, hoe we hun beperkingen goed kunnen begrijpen, zelfs als we de nieuwe mogelijkheden van AI vieren.

Kijkend naar beperkingen

Zoals Magi Boden, AI-expert, legt uit: "Kunstmatige intelligentie probeert computers dingen te laten doen die mensen kunnen doen." Onderzoekers van AI zijn bezig computers te leren redeneren, waarnemen, plannen, verplaatsen en associaties te maken. AI kan patronen in grote gegevenssets zien, de waarschijnlijkheid van een gebeurtenis voorspellen, een route plannen, het vergaderschema van een persoon beheren en zelfs oorlogsspelscenario's spelen.

Veel van deze mogelijkheden zijn op zichzelf niet verwonderlijk: een robot kan natuurlijk door een ruimte rollen en nergens tegenaan botsen. Maar op de een of andere manier lijkt AI meer magisch wanneer de computer deze vaardigheden begint samen te stellen om taken uit te voeren.

Neem bijvoorbeeld autonome auto's. De oorsprong van de auto zonder bestuurder ligt in een project van het Defense Advanced Research Project Agency uit de jaren tachtig, het Autonomous Land Vehicle. Het doel van het project was om onderzoek naar computervisie, perceptie, planning en robotcontrole aan te moedigen. In 2004 werd de ALV-inspanning de eerste Grand Challenge voor zelfrijdende auto's. Nu, meer dan 30 jaar sinds het begin van de inspanning, bevinden we ons op de afgrond van autonome of zelfrijdende auto's op de civiele markt. In de beginjaren dachten maar weinig mensen dat zo'n prestatie onmogelijk was: computers konden niet rijden!

Maar zoals we hebben gezien, kunnen ze dat. De mogelijkheden van autonome auto's zijn voor ons relatief eenvoudig te begrijpen. Maar we worstelen om hun beperkingen te begrijpen. Na de fatale Tesla-crash in 2015, waarbij de stuurautomaatfunctie van de auto geen trekker-oplegger in zijn rijstrook kon waarnemen, lijken maar weinigen nog steeds de ernst te begrijpen van hoe beperkt de stuurautomaat van Tesla eigenlijk is. Hoewel het bedrijf en de software door de National Highway Traffic Safety Administration zijn vrijgesteld van nalatigheid, blijft het onduidelijk of klanten echt begrijpen wat de auto wel en niet kan doen.

Wat als Tesla-eigenaren te horen kregen dat ze niet in een 'bètaversie' van een stuurautomaat reden, maar eerder in een semi-autonome auto met de mentale gelijkwaardigheid van een worm? De zogenaamde "intelligentie" die "volledige zelfstuurmogelijkheden" biedt, is echt een gigantische computer die behoorlijk goed is in het detecteren en vermijden van objecten, het herkennen van items in afbeeldingen en beperkte planning. Dat kan het perspectief van de eigenaar veranderen over hoeveel de auto echt zou kunnen doen zonder menselijke input of toezicht.

Wat is het?

Technologen proberen AI vaak uit te leggen hoe het is gebouwd. Neem bijvoorbeeld vooruitgang in diep leren. Dit is een techniek die netwerken met meerdere lagen gebruikt om te leren hoe een taak uit te voeren. De netwerken moeten enorme hoeveelheden informatie verwerken. Maar vanwege de hoeveelheid gegevens die ze nodig hebben, de complexiteit van de associaties en algoritmen in de netwerken, is het vaak onduidelijk voor mensen hoe ze leren wat ze doen. Deze systemen kunnen heel goed worden in een bepaalde taak, maar we begrijpen ze niet echt.

In plaats van AI te beschouwen als iets bovenmenselijk of buitenaards, is het gemakkelijker om ze te vergelijken met dieren, intelligente niet-menselijke we hebben ervaring met training.

Als ik bijvoorbeeld versterkend leren zou gebruiken om een ​​hond te trainen om te zitten, zou ik de hond prijzen en hem traktaties geven als hij op commando zit. Na verloop van tijd zou hij leren het commando te associëren met het gedrag met de traktatie.

Het trainen van een AI-systeem kan vrijwel hetzelfde zijn. Bij het versterken van deep learning zetten menselijke ontwerpers een systeem op, stellen zich voor wat ze willen leren, geven informatie, kijken naar de acties en geven feedback (zoals lof) wanneer ze zien wat ze willen. In wezen kunnen we het AI-systeem behandelen zoals we dieren behandelen die we trainen.

De analogie werkt ook op een dieper niveau. Ik verwacht niet dat de zittende hond complexe concepten zoals 'liefde' of 'goed' begrijpt. Ik verwacht dat hij een gedrag leert. Net zoals we honden kunnen laten zitten, blijven en omrollen, kunnen we AI-systemen krijgen om auto's over de openbare weg te verplaatsen. Maar het is te veel van de auto verwacht om de ethische problemen die kunnen optreden bij het rijden in noodsituaties te 'oplossen'.

Ook onderzoekers helpen

Het beschouwen van AI als een trainbaar dier is niet alleen nuttig om het aan het grote publiek uit te leggen. Het is ook nuttig voor de onderzoekers en ingenieurs die de technologie bouwen. Als een AI-geleerde een systeem een ​​nieuwe vaardigheid probeert aan te leren, kan het denken vanuit het perspectief van een dierentrainer helpen bij het identificeren van potentiële problemen of complicaties.

Als ik bijvoorbeeld probeer mijn hond te trainen om te zitten, en elke keer als ik zeg "zitten", gaat de zoemer naar de oven af, dan begint mijn hond het zitten niet alleen te associëren met mijn commando, maar ook met het geluid van de zoemer in de oven. In wezen wordt de zoemer een ander signaal dat de hond vertelt om te zitten, wat een "toevallige versterking" wordt genoemd. Als we zoeken naar onbedoelde versterkingen of signalen in AI-systemen die niet goed werken, dan weten we niet alleen beter wat er gebeurt verkeerd, maar ook welke specifieke omscholing het meest effectief is.

Dit vereist dat we begrijpen welke berichten we geven tijdens AI-training, evenals wat de AI in de omgeving waarneemt. De ovenzoemer is een eenvoudig voorbeeld; in de echte wereld zal het veel gecompliceerder zijn.

Voordat we onze overheersers van AI verwelkomen en onze levens en banen aan robots overdragen, moeten we even pauzeren en nadenken over het soort intelligenties dat we creëren. Ze zullen heel goed zijn in het doen van bepaalde acties of taken, maar ze kunnen geen concepten begrijpen en weten niets. Dus als je erover denkt duizenden te beschieten voor een nieuwe Tesla-auto, onthoud dan dat de stuurautomaatfunctie eigenlijk gewoon een zeer snelle en sexy worm is. Wil je echt controle over je leven en het leven van je dierbaren geven aan een worm? Waarschijnlijk niet, dus hou je handen aan het stuur en val niet in slaap.


Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Het gesprek

Heather Roff, Senior Research Fellow, Departement Politiek & Internationale Betrekkingen, Universiteit van Oxford; Research Scientist, Global Security Initiative, Arizona State University

Hoe begrip van dieren ons kan helpen het meeste uit kunstmatige intelligentie te halen