Hoe zorgen we dat een kunstmatige intelligentie zich aan onze normen en waarden houdt?

En hoe laten we deze normen en waarden daarna mee ontwikkelen met de veranderende normen en waarden van de mens?

In het boek I, Robot van Isaac Asimov hebben robots 3 ingebouwde gedragregels (de 'three laws of robotics'):
- A robot may not injure a human being or, through inaction, allow a human being to come to harm.
- A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
- A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.

Robots zoals die in het boek I, Robot zijn op dit moment nog toekomstmuziek, maar we krijgen wel steeds meer te maken met kunstmatige intelligentie. Dit brengt ethische vragen met zich mee. Bijvoorbeeld: wat moet een zelfrijdende auto doen als de remmen falen? De inzittenden beschermen, of andere weggebruikers ontwijken? 

Het MIT onderzoekt hoe de keuzes die zelfdenkende machines moeten maken aansluiten bij onze normen en waarden middels een test op moral machine. Doe de test en merk zelf hoe moeilijk deze dilemma's zijn. 

Hoe denk jij dat we ervoor kunnen zorgen dat deze 'robots' onze normen en waarden aanhouden?

Reacties

log in of registreer om een reactie te geven

Wil je het graag over iets anders hebben? Start ook een gesprek!