Bias, bevooroordeeldheid, is een groot probleem bij kunstmatige intelligentie en komt voort uit het probleem dat er onbewust vooroordelen zitten in de data waarmee kunstmatige intelligentie getraind wordt. De Volkskrant plaatste hier dit weekend een interessant artikel over, zie link.

Betekent dit dat we kunstmatige intelligentie nooit beslissingsbevoegdheid kunnen geven? Of is dit op te lossen, door bijvoorbeeld de algoritmes achter de kunstmatige intelligentie verplicht transparant te maken waardoor iedereen inzicht kan krijgen in de werking en hier de fouten in op kan sporen? Wat denk jij?

Reacties

log in of registreer om een reactie te geven