https://frosthead.com

Kunnen machines moraliteit leren?

Toen John Brennan, president Obama's keuze om het volgende hoofd van de CIA te worden, gisteren verscheen voor een senaatscommissie, verdrong één vraag alle andere tijdens zijn hoorzitting:

Hoe worden de beslissingen genomen om moordende drones te sturen na vermoedelijke terroristen?

Het hoe en trouwens het waarom van het bestellen van specifieke drone-aanvallen blijft grotendeels een mysterie, maar ten minste één ding is duidelijk - de beslissingen worden genomen door mensen die, hopelijk, worstelen met de gedachte een dodelijke raket te sturen in een bezet gebouw.

Maar wat als mensen er niet bij betrokken waren? Wat als op een dag beslissingen over leven of dood zouden worden overgelaten aan machines die zijn uitgerust met heel veel gegevens, maar ook een gevoel van goed en kwaad?

Moreel dilemma

Dat is niet zo ver gezocht. Het zal niet snel gebeuren, maar het lijdt geen twijfel dat naarmate machines intelligenter en autonomer worden, een cruciaal onderdeel van hun transformatie het vermogen is om moraliteit te leren.

In feite is dat misschien niet zo ver weg. Gary Marcus, die onlangs in The New Yorker schreef, presenteerde het scenario van een van de autovrije auto's van Google voordat hij een fractie van een seconde moest besluiten: “Je auto rijdt met een snelheid van 50 mijl per uur over een brug wanneer een schoolbus met 40 onschuldige kinderen wordt vervoerd kruist zijn pad. Moet uw auto uitwijken, mogelijk het leven van de eigenaar (u) riskeren, om de kinderen te redden, of door te gaan, alle 40 kinderen in gevaar te brengen? Als de beslissing in milliseconden moet worden genomen, moet de computer het telefoontje plegen. '

En hoe zit het met robotwapens of soldaten? Zou een drone kunnen leren niet op een huis te schieten als hij wist dat er ook onschuldige burgers binnen waren? Kunnen machines worden geleerd om de internationale oorlogsregels te volgen?

Ronald Arkin, professor informatica en robotica-expert bij Georgia Tech, denkt van wel. Hij heeft software ontwikkeld, een 'ethische gouverneur' genoemd, waardoor machines kunnen beslissen wanneer het geschikt is om te vuren en wanneer niet.

Arkin erkent dat dit nog tientallen jaren kan duren, maar hij gelooft dat robots op een dag zowel fysiek als ethisch superieur kunnen zijn aan menselijke soldaten, niet kwetsbaar voor het emotionele trauma van gevechten of wraakzucht. Hij stelt zich geen volledig robotleger voor, maar een waarin machines dienen met mensen, die risicovolle taken vol stressvolle beslissingen nemen, zoals het opruimen van gebouwen.

Pas op voor moordende robots

Maar anderen voelen dat het tijd is om dit soort denken te pletten voordat het te ver gaat. Eind vorig jaar brachten Human Rights Watch en de Human Rights Clinic van Harvard Law School een rapport uit, "Losing Humanity: The Case Against Killer Robots, " dat, trouw aan zijn titel, regeringen opriep om alle autonome wapens te verbieden omdat ze "de risico op overlijden of letsel van burgers tijdens gewapend conflict. "

Rond dezelfde tijd kondigde een groep professoren van Cambridge University plannen aan om het Center for the Study of Existential Risk te lanceren. Wanneer het later dit jaar wordt geopend, zal het aandringen op serieus wetenschappelijk onderzoek naar wat er kan gebeuren als en wanneer machines slimmer worden dan wij.

Het gevaar, zegt Huw Price, een van de mede-oprichters van het Centrum, is dat we op een dag te maken zouden kunnen hebben met "machines die niet kwaadaardig zijn, maar machines wiens belangen ons niet omvatten".

De kunst van het bedrog

Shades of Skynet, het malafide kunstmatige intelligentiesysteem dat een cyborg Arnold Schwarzenegger voortbracht in films van The Terminator . Misschien blijft dit altijd sciencefiction.

Maar overweeg ander onderzoek dat Ronald Arkin nu doet als onderdeel van projecten die worden gefinancierd door het ministerie van Defensie. Hij en collega's hebben onderzocht hoe dieren elkaar bedriegen, met als doel robots de kunst van het bedriegen te leren.

Ze hebben bijvoorbeeld gewerkt aan het programmeren van robots zodat ze, indien nodig, kunnen veinzen zoals dieren vaak doen. En ze hebben gekeken naar lesmachines om het gedrag van wezens zoals de oostelijke grijze eekhoorn na te bootsen. Eekhoorns verbergen hun noten voor andere dieren, en wanneer andere eekhoorns of roofdieren verschijnen, zullen de grijze eekhoorns soms plaatsen bezoeken waar ze vroeger noten verstopten om hun concurrenten van de baan te gooien. Robots die zijn geprogrammeerd om een ​​vergelijkbare strategie te volgen, hebben concurrenten kunnen verwarren en vertragen.

Het is allemaal in het belang, zegt Arkin, van het ontwikkelen van machines die geen bedreiging voor de mens vormen, maar eerder een pluspunt, vooral in de lelijke chaos van oorlog. De sleutel is om u nu te gaan richten op het instellen van richtlijnen voor passend robotgedrag.

"Wat moet er met deze nieuwe mogelijkheid worden gedaan wanneer je die doos van Pandora begint te openen?", Zei hij in een recent interview. "Ik geloof dat de kans bestaat dat niet-strijdende slachtoffers worden verminderd door deze intelligente robots, maar we moeten wel heel voorzichtig zijn met hoe ze worden gebruikt en ze niet zomaar op het slagveld vrijgeven zonder de juiste zorgen."

Om de New Yorker- schrijver Gary Marcus te geloven, bieden ethisch geavanceerde machines een groot potentieel buiten het slagveld.

De gedachte die me het meest achtervolgt, is dat de menselijke ethiek zelf slechts een work-in-progress is. We worden nog steeds geconfronteerd met situaties waarvoor we geen goed ontwikkelde codes hebben (bijvoorbeeld in het geval van hulp bij zelfdoding) en hoeven niet ver in het verleden te kijken om gevallen te vinden waarin onze eigen codes dubieus of slechter waren (bijvoorbeeld wetten die toegestane slavernij en segregatie).

Wat we echt willen zijn machines die een stap verder kunnen gaan, niet alleen begiftigd met de meest degelijke ethische codes die onze beste hedendaagse filosofen kunnen bedenken, maar ook met de mogelijkheid dat machines hun eigen morele vooruitgang boeken, waardoor ze voorbij onze eigen beperkte vroeg komen -entwintigste-eeuwse idee van moraliteit. '

Machines marcheren verder

Hier zijn meer recente robotontwikkelingen:

  • Hmmmm, ethisch en stiekem: Onderzoekers in Australië hebben een robot ontwikkeld die kan rondsluipen door alleen te bewegen als er voldoende achtergrondgeluid is om het geluid te verbergen.
  • Wat is dat zoemende geluid ?: Britse soldaten in Afghanistan zijn begonnen met het gebruiken van bewakingsdrones die in hun handpalmen passen. De kleine robot wordt de Black Hornet Nano genoemd en is slechts vier centimeter lang, maar heeft een spionagecamera en kan 30 minuten vliegen als hij volledig is opgeladen.
  • Krassen op het oppervlak: NASA ontwikkelt een robot genaamd RASSOR die slechts 100 pond weegt, maar in staat zal zijn om mineralen op de maan en andere planeten te ontginnen. Het kan op ruw terrein en zelfs over stoutmoedigen bewegen door zichzelf op zijn armen te zetten.
  • Ah, lust: en hier is een vroeg Valentijnsverhaal. Wetenschappers van de Universiteit van Tokio gebruikten een mannelijke mot om een ​​robot te besturen. Eigenlijk gebruikten ze de paringsbewegingen om het apparaat te richten op een object dat was geparfumeerd met vrouwelijke feromonen.

Videobonus: dus u weet gewoon niet zeker of u een robot van 13 voet lang kunt bedienen? Geen probleem. Hier is een handige demo die laat zien hoe gemakkelijk het kan zijn. Een gelukkig model laat je zelfs zien hoe je de "Smile Shot" -functie bedient. Je lacht, het vuurt BB's af. Hoe moeilijk is dat?

Meer van Smithsonian.com

Deze robot is een betere vader dan je vader

Robots Get the Human Touch

Kunnen machines moraliteit leren?