Snel de stekker eruit: zijn robots ons te slim af?

Mike Kiev / NOS
Geschreven door
Iris de Graaf
redacteur Buitenland

Aan simpele chatbots en spraakherkenning zijn we inmiddels wel gewend, maar wat gebeurt er als de techniek zich verder ontwikkelt en robots slimmer lijken te worden dan wij?

Door nieuwe toepassingen op het gebied van kunstmatige intelligentie worden robots en algoritmes veel sneller slimmer dan experts hadden verwacht. Moeten we ons al zorgen maken?

De afgelopen week kwamen verschillende soorten robots in opspraak, omdat ze dingen deden die eigenlijk niet de bedoeling waren.

- In China werden slimme chatbots opeens kritisch op de Communistische Partij, dus die werden snel offline gehaald door de overheid.

- Nieuwe algoritmes kunnen nu emoties en sarcasme herkennen in teksten, nog beter dan de meeste mensen dat kunnen - een stap verder in kunstmatige emotionele intelligentie.

- En twee spraakrobots, ontwikkeld door Facebook, ontwikkelden opeens hun eigen geheimtaal die niemand meer snapte.

Bij artificial intelligence denk je misschien aan robots die de hele wereld overnemen. Maar de echte definitie van kunstmatige intelligentie is anders. "Machines die patronen herkennen en daardoor iets uit kunnen voeren net als, maar niet beter dan de mens", legt promovendus kunstmatige intelligentie Sara Budts uit.

"Een rekenmachine was ooit ook een machine met een kunstmatige intelligentie, want het herkende patronen. De rekenmachine werd echter slimmer dan wij op dit specifieke onderdeel, en nu is het een gewone machine geworden waar we helemaal gewend aan zijn."

Volgens hoogleraar kunstmatige intelligentie en patroonherkenning Lambert Schomaker vinden wij onszelf veel te intelligent. "Wij kunnen met schaken ongeveer zeven zetten vooruit denken, maar dan houdt het wel op. Een computer kan dit veel beter. Hij kan daardoor ingewikkelde patronen begrijpen en soms redeneren boven ons inbeeldingsvermogen."

De stekker eruit

Toch worden rekenmachines en schaakcomputers als minder 'eng' gezien dan machines die kunnen communiceren. De commotie die ontstond toen bekend werd dat de twee spraakrobots van Facebook hun eigen taal hadden ontwikkeld was enorm, vooral in de Britse media.

Iedereen was in rep en roer en de stekker werd direct uit het experiment getrokken. Er werd gesproken over "paniek", "angstaanjagend" en "potentieel gevaarlijk". Een professor in robotica, Kevin Warwick, zei dat dit een belangrijke mijlpaal is, maar dat iedereen die denkt dat dit niet gevaarlijk is, zijn hoofd in het zand steekt.

"Wij hebben geen flauw idee wat deze robots tegen elkaar zeggen. Als je eenmaal robots hebt die ook fysiek zelf dingen kunnen doen, in het bijzonder voor militaire doeleinden, kan zoiets dodelijk zijn."

Foutje

"Onzin", zegt Budts. Volgens haar is het gewoon een slecht taalmodel geweest. "Het werkte niet voor de robots, dus probeerden ze het taalmodel te omzeilen om logischer te kunnen communiceren. Of het is gewoon een fout geweest in het algoritme."

Taalmodellen worden al veel gebruikt in ons dagelijks leven; bijvoorbeeld het automatisch oplezen van stations in de metro of de automatische spellingscheck op je telefoon. Het zijn allemaal algoritmes die voorspellen wat er gezegd moet worden.

"Machines worden getraind om uit te zoeken wat belangrijk is en wat niet. De robot beschikt over héél veel oppervlakkige data, zodat hij sterker wordt in het voorspellen van patronen. Zo worden ze heel goed in één specifieke cognitieve menselijke functie, maar niet opeens slimmer dan de mens zelf", vertelt Budts.

Stefano Capra / NOS

Volgens Schomaker is de paniek ontstaan doordat computers iets doen wat mensen niet meer begrijpen. "Wij worden vooral bang wanneer de techniek verder gaat dan wij hem hebben ontwikkeld. Op het moment dat wij de patronen niet meer herkennen of begrijpen wordt het 'eng'. Maar deze robots hielden geen wapens vast: niks gevaarlijks aan dus."

Filosoof en ethicus Jeantine Lunshof ziet het gevaar wél. "Tot nu toe geloven we dat wat we in robots stoppen, er ook weer uitkomt - al dan niet in de vorm van een ingewikkelder patroon. Maar de geheimtaal van de Facebookrobots laat zien dat er iets uit kan komen dat we er niet in hebben gestopt."

Het feit dat we daar geen controle over hebben vindt ze potentieel gevaarlijk: "Als een autonoom systeem door slechts een foutje in het algoritme iets hackt op het internet, is het een catastrofe."

"Stel je voor dat autonome wapensystemen, die zelf kunnen bepalen of ze wel of niet overgaan tot de aanval, opeens dingen gaan doen die wij er niet instoppen, dan is het zeker wel een probleem."

Sergej Soldatov / NOS

Budts, Schomaker en Lunshof zien vooral een potentieel gevaar in het gebrek aan ethiek en regelgeving in de wereld van kunstmatige intelligentie: het vermogen om de gevolgen van je keuzes te overwegen.

"Alles wat bestaat kan potentieel gevaarlijk zijn: een potlood door iemands oog rammen, bijvoorbeeld. Maar wij zijn ons bewust van wat we wel en niet kunnen doen met een potlood. Nadenken over de mogelijke consequenties van het toepassen van deze nieuwe vormen van kunstmatige intelligentie is het belangrijkste om het allemaal veilig te houden", zegt Budts.

Ook Schomaker beaamt dit: "Je ziet het bij zelfrijdende auto's. De reden dat ze nog niet volop aan het rijden zijn, is omdat we er niet uit zijn wie verantwoordelijk is als er ongelukken gebeuren. We moeten nu eerst dealen met dit soort zaken, voor we ons zorgen gaan maken over gevaar in de toekomst."

Rustig slapen

De drie experts zijn het uiteindelijk wel eens over de gevaren. "Het valt allemaal wel mee."

De hoop op het uitvinden van allerlei nieuwe technologieën en tegelijkertijd de angst voor het misbruik daarvan dragen bij aan de paniek die veel media zaaien, zeggen de experts. Als we ons bewust blijven van onze keuzes en mogelijke consequenties kunnen we blijven leren en experimenteren. "Wel moeten we altijd rekening blijven houden met de onvoorspelbaarheid van het leven", zegt Schomaker.