Het ontbreekt momenteel aan een kader waarin je succesvol kan eisen dat Facebook (of een ander bedrijf) je vertelt op welke gronden een automatische beslissing werd gemaakt. En mocht die mogelijkheid er wel zijn, dan is het nog maar de vraag of die uitleg zou volstaan. Zo weet een huismoeder in Amerika nog steeds niet waarom haar slimme Amazon Echo-luidspreker een conversatie over houten vloeren opnam en daarna doorstuurde naar een collega van haar echtgenoot. De 800 artsen en gezondheidsprofessionals zijn misschien niet op zoek naar een verklaring, maar waren zonder meer gebaat geweest bij een sneller proces om hun brief opnieuw te mogen delen.
Dit opiniestuk verscheen eerder op datanews.knack.be. Auteurs: Rob Heyman, werkzaam bij imec-SMIT-VUB als coördinator bij het Kenniscentrum Data & Maatschappij. Annelien Smets is onderzoekster bij imec-SMIT-VUB.
Het probleem bestaat uit twee uitdagingen: een gebrek aan uitleg en een trage rechtzetting. Een consument kan niet anders dan uitleg vragen, maar is daarbij overgeleverd aan de goodwill van een bedrijf als Facebook. Techgiganten verkiezen om zo weinig mogelijk informatie vrij te geven. Hier rijst de vraag: wat voor uitleg vinden wij voldoende om te begrijpen wat er is gebeurd? Zijn we bijvoorbeeld tevreden met een extract uit de community-richtlijnen van Facebook die ons vertellen welke content er volgens hen niet mag gedeeld worden?
Wat voor uitleg vinden wij voldoende om te begrijpen wat er is gebeurd?
Ten tweede: iemand die gecensureerd wordt, moet deze beslissing eenvoudig kunnen aanvechten. Net zoals we in een geblokkeerde lift met één knop kunnen aangeven dat er iets misloopt. Dergelijke mechanismen zorgen ervoor dat we de technologie beter gaan vertrouwen. Bovendien gaat het hier over socialemedia, een snel medium. We moéten ons dus wel afvragen hoe lang we het aanvaardbaar vinden dat iemand per abuis wordt gecensureerd?
Europa onderzoekt of en wat voor regulering er voor AI moet komen. Er zijn al verschillende principes voorgesteld waaraan systemen met kunstmatige intelligentie moeten voldoen. Voor dit thema hebben we er twee nodig: explainability en redress. Het eerste is het recht om een verklaring te krijgen hoe een beslissing tot stand komt. Het tweede principe stelt dat (de mogelijkheid tot) rechtzetting noodzakelijk is als voorwaarde om vertrouwen te behouden in systemen die zich kunnen vergissen.
Er zijn zo veel verschillende toepassingen voor AI dat dit zich niet eenvoudig in een wet of regel laat gieten.
Een kader van principes of wetten om dit mogelijk te maken, is een eerste stap. Maar het zal niet genoeg zijn. Er zijn zo veel verschillende toepassingen voor AI dat dit zich niet eenvoudig in een wet of regel laat gieten. We kunnen bijna niet anders dan per toepassingsgebied met belanghebbenden telkens weer de twee bovenstaande vragen beantwoorden. Zo weten we wat zij verwachten en wat technisch mogelijk is. Het Kenniscentrum Data & Maatschappij wil alvast stappen zetten om dit te realiseren, en kijkt daarbij naar Engeland waar dit al wordt gedaan in project ExplAIn.
Facebook heeft momenteel nog het voordeel dat ze een complex probleem laten oplossen door automatisering. Ze hebben het recht om dat te proberen. Maar wij als burgers moeten een recht op uitleg en rechtzetting eisen voor iedere beslissing die ons raakt, ongeacht of die nu door een persoon of een machine wordt genomen.