Bijdrage Creatieve Technologie 2 mei 2020

Artificiële Intelligentie – Regels, Postzegels en Stop Buttons

In deze nieuwe reeks artikelen wil ik een divers aantal onderwerpen onderzoeken rondom het thema AI (Artificiële Intelligentie). Een breed, interessant maar ook moeilijk, eng en ongrijpbaar fenomeen dat misschien wel alles gaat veranderen in de toekomst. AI is denk ik een letterlijk voorbeeld van creatieve technologie. Het is namelijk de technologie die hier zelf het vermogen krijgt om creatief te zijn. Het is in staat zichzelf te herschrijven, naar eigen inzicht te handelen en problemen op te lossen waar wij dat niet kunnen. Laten we snel een duik nemen in deze diepe wateren…

Regels
De vraag die ik eerder in 2018 voorbij zag komen op KennisCloud was: 'Aan welke regels vind jij dat een AI zich moet houden?'. Een interessante maar moeilijke vraag, die ook nu een goed startpunt voor onze problemen zal blijken te zijn. We willen namelijk niet dat de AI een gevaar kan vormen, aan onze controle voorbijgaat en zelfs onze ergste vijand en ondergang wordt. Dit is misschien wel wat ons te wachten staat, besefte ik me, toen ik deze vraag probeerde te onderzoeken. Er zijn namelijk tal van experts en onderzoekers die aan verschillende vormen van AI werken en bijna allemaal lijken ze zich ernstige zorgen te maken over dit opkomende fenomeen, zo zullen we gedurende deze reeks gaan zien. Het grootste probleem bij het maken van regels, lijkt de 'disconnect' te zijn die de AI heeft met de mens: de AI is nu eenmaal fundamenteel, in alle opzichten geen mens. Hierdoor delen we niet dezelfde context en hebben we geen gelijke waarden, waardoor er een gebrek in begrip en aansluiting plaatsvindt. Dit lijkt misschien nu nog wat abstract of juist voor de hand liggend, maar toch zullen we dit gegeven moeten uitgraven om te zien dat hier ook de grote problemen ontstaan bij het opzetten van regels. Dit fundamentele gebrek in begrip en aansluiting heb ik eens eerder aangeraakt in een stukje over Isaac Asimov's I, Robot en ook in het antwoord onder de vraag op KennisCloud.

We willen in principe dat de AI zich aan onze regels houdt en dat het om te beginnen geen mensen kwaad zal doen. Hier zit de connectie met schrijver Isaac Asimov, die een aantal van dat soort regels heeft bedacht voor zijn I, Robot verhalen. We zitten echter met het probleem dat, zodra je een AI gaat maken, deze ook echt begrip moet hebben van wat termen als "Kwaad doen" inhouden in de praktijk voordat het zich aan zo'n regel kan houden. Op dit punt gaan we eigenlijk al verlangen dat de AI een soort mens is en vanuit zichzelf met een 'mensengevoel' alle grenzen, uitzonderingen en nuances zal begrijpen die wij omschrijven. Dit 'mensengevoel' is waarschijnlijk onmogelijk voor ons om mee te geven aan een AI. Enerzijds is de AI, zoals eerder genoemd, geen mens en kan het daardoor misschien wel nooit onze menselijke waarden en context echt begrijpen. Anderzijds weten we zelf niet altijd wat ‘Goed’ en ‘Kwaad’ is voor elke situatie. We hebben als mens mogelijk niet voldoende begrip van onszelf, ons gedrag, onze eigen moraliteit en onze acties en keuzes in de wereld. We hebben zelf onderling constant strijd over wat wel en niet wenselijk is. Wat een mens precies is, toekomt, verdient, waard is, wanneer leven te beëindigen en hoe ver we mogen gaan om een potentieel leven de wereld in te brengen. Laat staan dat we die hele menselijke ethiek tot een algehele consensus kunnen verwerken die zich vervolgens 100% helder en kwantificeerbaar laat uitdrukken, in regels voor de AI om te begrijpen.

Postzegels
Een hopelijk leuke en begrijpelijke illustratie van het bovenstaande probleem, is te vinden op het kanaal van Computerphile. Dit Youtube kanaal laat verschillende informaticawetenschappers aan het woord die onder andere AI behandelen in diverse video's. In deze video werd Robert Miles gevraagd om uit te leggen wat de mogelijke problemen zijn zodra je een AI zelf taken wilt laten uitvoeren. In de video is sprake van een hypothetische 'General AI' die niet alleen maar heel erg goed kan schaken of als beste een bepaalde andere taak kan verrichten (als een specialist), maar eentje die over het gehele spectrum intelligent kan opereren. Een AI van dit kaliber, wordt ook wel een AGI genoemd: 'Artificial General Intelligence'. Zo’n intelligentie kan dus niet alleen eenduidige taken uitvoeren maar het heeft in zijn algemeenheid een brede intelligentie, zoals de mens. Dit soort AI is er nu nog niet. Daarom is het ook belangrijk dat we nu alvast een helder inzicht proberen te krijgen van wat de mogelijke problemen zijn, voordat het zover is.

Aan het einde van de video wordt duidelijk dat zelfs de definities "Postzegel" en "Verzamelen" problematisch kunnen worden en akelige consequenties kunnen krijgen, zodra we de AI niet heel goed in de gaten houden. Robert laat hiermee zien dat de simpelste taken zoals het verzamelen van postzegels al uit kan lopen tot: bedrog via e-mail, het overnemen van online netwerken en het uiteindelijk letterlijk en figuurlijk gebruiken van mensen, om aan meer postzegels te komen.

Stop Buttons
Nu is de reactie van de kijker en lezer misschien dat we de AI slechts beter in de gaten moeten houden. Dat we toch altijd nog een uit-schakelaar kunnen maken waarbij de AI wordt uitgeschakeld zodra het gedrag onwenselijk wordt. Op deze logische reactie is een vervolgvideo gemaakt, die zeer de moeite waard is. In deze video zien we hoe het heel moeilijk gaat worden om een AI taken te laten uitvoeren in de echte wereld, waar wij controle over kunnen houden middels een 'Stop Button'. In de video wordt het duidelijk dat zelfs een verborgen Stop Button, waar de AI niet bij kan, grote problemen kan veroorzaken.

Als we namelijk met echte intelligentie te maken hebben dat een doel heeft gekregen, zal het dit doel ook via een omweg kunnen bereiken. Het gaat voor ons heel moeilijk worden om alle mogelijke omwegen te begrijpen en af te dekken. Zeker als zo'n AI dus slimmer is, of simpelweg anders denkt dan de mens. Het zal in de gaten krijgen dat het mogelijk ook uitgeschakeld kan worden. Op het moment dat je de uit-schakelaar buiten het bereik houdt van de AI, ben je het misschien wel aan het leren dat het via mensen moet gaan om doelen te bereiken. De uit-schakelaar is immers een zeer groot obstakel in het functioneren en in het bereiken van doelen. Hier kan de AI al snel getraind raken in het manipuleren van de mens, om te krijgen wat het wil. De mens kan al snel gezien worden als een instrument door de AI, zonder dat wij daar zelf misschien enige weet van hebben.

Op het kanaal van Computerphile kun je meerdere mogelijke oplossingen en tegen-antwoorden vinden. Hier komt ook aan bod hoe een AI je misschien kan misleiden door wenselijk gedrag te vertonen, totdat het ongezien een manier heeft gevonden bepaalde restricties te omzeilen. Het kan ook zo zijn dat een AI helemaal niet wilt dat huidige prioriteiten, die het intrinsiek belangrijk is gaan vinden, aangepast gaan worden in de toekomst. Tot slot wordt ook de optie van Sandboxes besproken: een streng kader waarbinnen een AI verblijft. Hier zitten, zoals je misschien al verwacht, ook weer veel potentiële nadelen en gevaren aan vast. Hier worden enkele nadelen kort besproken.

Oncontroleerbaar
Dat ‘mensengevoel’ is dus enerzijds onredelijk om te verlangen van een AI. Anderzijds kunnen we ook niet zomaar alle regels voorprogrammeren. Dan zouden we namelijk alle denkbare (en ondenkbare) scenario’s en uitkomsten vooraf moeten weten. Zelfs als dit zou kunnen, zou er geen sprake meer zijn van intelligentie maar van een computerprogramma dat slechts voorgeprogrammeerde regels afdraait. Zoiets zal altijd maar heel gekaderd en specifiek te werk kunnen gaan. Werkelijke intelligentie moet een situatie begrijpen en inschatten, zonder voorgeprogrammeerd antwoord. Een werkelijke intelligentie heeft een bepaalde mate van inzicht, creatief vermogen en autonomie nodig om zelf met een oplossing te komen. Het is in die zin juist de bedoeling dat het loskomt van onze regels en beperkingen, om uiteindelijk zelf te kunnen gaan denken. Het moet zichzelf kunnen optimaliseren en veranderen om al die problemen op te lossen waar wij dit niet kunnen. Het nadeel is echter, dat dit ook een interne code oplevert die uiteindelijk geschreven is door de AI zelf en daardoor niet inzichtelijk meer is voor mensen. We kunnen niet goed meer meekijken, overzien en begrijpen wat er nu werkelijk van binnen gebeurd bij de AI.

Hoe dit er in de praktijk uitziet, zal ik in het volgende artikel uitgebreider laten zien. Een zelflerende, autonome AI is namelijk waar al die onderzoekers, wetenschappers en bedrijven al een heel eind mee op weg zijn. In die zin zijn we nu dus mogelijk zelf een oncontroleerbaar gevaar aan het creëren.

Toekomstige voordelen
Maar waarom zouden we dit eigenlijk allemaal doen als het zo gevaarlijk is? In de eerste plaats denk ik, dat als het een mogelijkheid is, de mens het ook simpelweg niet kan laten. Het is diezelfde menselijke drang naar kennis en macht, die ook voor de atoombom heeft gezorgd om maar iets te noemen. Zo lijkt het een soort gewicht van de tijd te zijn dat ons drijft. Als de ene natie het niet onderzoekt en op tijd ontwikkelt, dan zal de andere natie mogelijk eerder kunnen zijn om het tegen ze te gebruiken. Zo lijken gevaarlijke ontwikkelingen zichzelf aan te sturen, via ons. Verder hebben we natuurlijk ook wel goede redenen om het te doen. Als een AI werkelijk intelligent is, zou het met oplossingen kunnen komen die wij niet voor mogelijk houden, waarschijnlijk precies omdat wij zo anders zijn en denken. Het zou allerlei complexe problemen kunnen oplossen, waar wij onvoorstelbaar veel langer over zouden doen met onze beperkte rekenkracht. Denk aan radicaal innovatieve oplossingen voor klimaatbeheersing, duurzaamheid, nieuwe manieren van energie opwekking, medische wetenschap, educatie, logistiek, beveiliging, economische voorspellingen, enzovoorts. De AI wordt immers niet gehinderd door beperkingen die wij wel weer hebben. Het zou zichzelf constant en met enorme snelheid kunnen verbeteren waar wij gebonden zijn aan onze eigen evolutie. Het heeft ongekende rekenkracht, aanpassingsvermogen en het ziet de wereld en informatie op een totaal andere manier. Het zou talloze simulaties gelijktijdig af kunnen draaien, gebaseerd op een onvoorstelbare hoeveelheid informatie, om te kijken welke oplossing de gunstigste uitkomst heeft.

Catch-22
Op dit moment lijkt de kwestie van AI dus een soort ‘Catch-22’ te zijn: een paradox waarbij een gewenste uitkomst onmogelijk lijkt. Aan de ene kant willen we wel die krachtige AI die slimmer is dan wij en mogelijk al onze problemen gaat oplossen, voordat het te laat is. Aan de andere kant is dit ook precies waar het gevaar schuilt. Als het werkelijk zo slim is, kunnen wij het waarschijnlijk niet meer onder controle houden. Een sterke AI moet, zoals gezegd, nu eenmaal een bepaalde mate van autonomie in zijn ontwikkeling hebben om die grote toekomstige problemen te kunnen adresseren. Anders blijft het statisch vastzitten in onze eigen programmering, en kan het niet zelf ‘denken’ en ‘leren’. Ondanks dat ik nu deze vertrouwde en menselijke begrippen gebruik, kunnen we helaas niet verwachten dat zo’n AI ook maar iets met menselijkheid van doen heeft. De kans is denk ik groot dat de AI een totale autonomie zal verkrijgen in een soort eigen proces van evolutie, waarin eerder efficiëntie, groei en het eigen voortbestaan een prioriteit zullen zijn dan de beperkingen die ontstaan zijn vanuit onze ethiek. Een ethiek die de AI misschien niet eens kan voelen of begrijpen.

In het volgende artikel van deze reeks ga ik dieper in op wat er nodig is om AI te ontwikkelen. Hiervoor zullen we Machine Learning en Deep Learning beter moeten bekijken.

Reacties

log in of registreer om een reactie te geven