Pakweg 2012, dus jaren geleden was ik bij een verzekeraar die vertelde over risicobeheersing. Een van de mooie dingen die ik hoorde was dat er een groep slimme mensen keek naar de risico indicatoren van de verzekeraar. Wat ze wilden bekijken was: als we vertrouwen op onze risico-indicatoren, wat kan er dan allemaal mis gaan? Dat was een mooie vraag. Want de risicosystemen in de financiële wereld zijn fantastisch, maar de vondsten om te spelen met die systemen ook. Denk aan de rommelhypotheken die ooit aanleiding waren voor de kredietcrisis. Slechte kredieten verpakken met goede kredieten zodat het risico niet meer goed zichtbaar is.
Waren deze nerds maar eens bij de Belastingdienst wezen kijken! Want als we vertrouwen op vaste beoordelingssystemen weten we niet goed wat er allemaal aan onze ogen onttrokken wordt. En dan waren er in het geval van de Belastingdienst nog echte ogen die meekeken en mensen die konden waarschuwen dat het mis ging.
Dit is meteen één van de gevaren van Artificiele Intelligentie, volgens de WRR “systemen die intelligent gedrag vertonen door hun omgeving te analyseren en – met enige graad van autonomie – actie te ondernemen om specifieke doelen te bereiken.”. Het kan dus gaan om beoordelingen zoals bij de belastingen, het kan gaan om systemen als van Facebook om posts te tonen die “bij jouw interesses passen”, het kan zelfs gaan over systemen die automatisch publiceren. Immers in 2020 publiceerde The Guardian een essay dat geschreven is via Artificiele Intelligentie, een taalgenerator van Openai. In het artikel betoogt taalgenerator gpt-3 dat de mens zich niet bedreigd hoeft te voelen door AI. Wat gebeurt er als we beinvloed kunnen worden door door AI gegenereerde essays?
De ontwikkelingen gaan door, terwijl we er weinig van weten en pas laat, te laat er achter komen dat we er te weinig van weten, weinig aan kunnen doen en zwaar door beinvloed worden.
Daarom is het goed dat de WRR hier een rapport over schreef. Toch blijft het ook na het lezen van het rapport moeilijk om het te doorgronden.
Daar gaat meteen een van de aanbevelingen op in: “Willen de organisaties die de rechten en belangen van burgers behartigen, hun rol bij AI kunnen waarmaken, dan moeten zij ook over de capaciteiten daartoe kunnen beschikken. Specifieke kennis van deze organisaties is onmisbaar bij de inbedding van dit soort technologieën, en daarmee bij de inbedding van AI in de samenleving”. Toch ontbreekt hun stem momenteel in veel AI-discussies. De WRR rekent hier wel erg op vertegenwoordigende organisaties.
Maar dan? Dan kun je meepraten, maar heb je dan wel invloed? Via Zondag met Lubach (over de fabeltjesfuik) misschien. Maar de overheid kan vaak niet ingrijpen. De WRR beveelt aan dat de wetgever op korte termijn een actievere rol pakt, ontwikkelingen veel meer vanuit een integraal perspectief adresseert en tijdig via regulering stuurt op de bredere economische en maatschappelijke context waarbinnen ai tot wasdom komt.
En toch blijf ik dan twijfelen. Moet het wel beperkt blijven tot de overheid? Moeten we niet rechten van individuen vastleggen om als ze slachtoffer worden openheid en genoegdoening te kunnen eisen? Ik moest namelijk direct denken aan een discussie over de invoering van DIGID en de veiligheid. Ik vroeg toen in de commissie Burger@Overheid hoe een individu zou kunnen controleren of er misbruik gemaakt zou zijn van zijn gegevens. Het antwoord was tekenend: het is heel goed vastgelegd per dienst hoe de integriteit gewaarborgd is. Maar wat als iets fout is gegaan? Welk recht heeft dan een individu???
Ik had het volgende voorbeeld. Iemand krijgt van de Belasting zijn wegenbelasting terug omdat zijn auto is gestolen. Het is een voorbeeld van geautomatiseerde domheid. De man schrikt, want zijn auto is niet gestolen! Hij belt de Belastingdienst. Daar vraagt men: “Waar is uw auto gestolen?”. Maar die is niet gestolen! “Het staat hier wel zo aangegeven als mededeling van de politie”. Kunt u dat niet veranderen? “Nee, dat mag alleen de politie!” Dan maar de politie bellen. Die vroeg meteen: “Waar is uw auto dan gestolen?” Maar die was niet gestolen. “Als ik niet weet welke politieregio uw auto als gestolen heeft opgegeven kan ik niets doen.” De gegevens waren per regionale dienst beveiligd. Een schrijffoutje in Eindhoven bracht de eigenaar van de auto bijna tot een zenuwinzinking. Deze inzinking werd alleen voorkomen doordat er mensen waren die begrepen dat hier iets heel raars aan de hand was. Stel je voor dat daar geen mensen tussen zaten!
Bij elk AI systeem zou je een reverse brainstorm moeten houden: wat kan er mis gaan als dit algoritme vergaande invloed krijgt om zelfstandig te besluiten? Wanneer slaat de kunstmatige intelligentie om in kunstmatige domheid? Vervolgens kijken hoe er gehandeld kan worden als dat inderdaad gebeurt. Wat moet dan de overheid kunnen doen en wat het individu? Dat is nog een hele kluif!
Geen opmerkingen:
Een reactie posten