dinsdag 21 februari 2023

Vraag aan Chat GPT: Wie zegt dat?

Als je veel verschillende sites en kranten leest, vergeet je soms waar je een bepaald feit vandaan haalde. Je weet je bron niet meer. Terwijl er een reden kan zijn waarom een bron juist dat feitje aanhaalde en een ander feitje niet. Zo vertelde iemand mij dat Sophie Hermans van de VVD weer gas wil oppompen in Groningen. “Ze wil dat Nederland zelf energie produceert en onafhankelijk wordt van andere landen.” Eigenaardig!

Maar als blijkt dat hij dat wat onzorgvuldig op De Dagelijkse Standaard las, een nieuws en opinieblog waar nieuws en opinie door elkaar loopt, dan kijk je er anders tegen aan. Deze site is anti-regering, dus elke zin die anders en negatief uitgelegd kan worden, wordt ook negatief uitgelegd. Want Hermans wilde liever niet afhankelijk zijn van totalitaire regimes en pleitte voor zonne- en windenergie.

Dan weet je weer: je moet je bron kennen. En dat is met de komst van Chat GPT heel belangrijk Op Chat GPT weet je niet meer waar het vandaan gehaald wordt, maar het klinkt fantastisch.

Zelf zegt Chat GPT “Het is belangrijk om je bronnen te kennen omdat het je helpt om de betrouwbaarheid en nauwkeurigheid van de informatie te beoordelen. Wanneer je informatie van een betrouwbare bron gebruikt, kun je erop vertrouwen dat de informatie accuraat is en op feiten is gebaseerd. Als je echter informatie van een onbetrouwbare bron gebruikt, loop je het risico onjuiste of misleidende informatie te gebruiken.”

Het blijft belangrijk om te kunnen weten wat er precies is uitgezocht of wat er is gebeurd. Stel je voor dat Chat GPT voor de overheid gebruikt wordt en er worden niet te verifiëren uitspraken gedaan.

Dan kan het wel in 99,9% van de gevallen goed zijn, maar wat als er een fout in sluipt? Hoe kun je je als gebruiker of onderdaan verdedigen?

Mensen maken fouten, maar fouten uitsluiten is gevaarlijker
In ieder systeem is het vervelend als er een fout wordt gemaakt. En mensen maken fouten. Stap je dan over op computeralgoritmen, dan is de gedachten dat er geen menselijke fout gemaakt wordt. Sluit je dat uit door gebruik van de computer en zit daar dan een heel zeldzame fout in, dan gaat het hele proces door op basis van een fout. Die fout gaat overal in zitten, rapportages, dossiers van verschillende organisaties. Probeer dan de fout maar eens te herstellen.

Uw auto is gestolen, zegt de computer
Ik herinner mij van lang geleden het verhaal van de man die geen wegenbelasting hoefde te betalen omdat zijn auto gestolen was. Dat had de Belastingdienst automatisch geregeld. Maar zijn auto was niet gestolen! Toen hij er over belde werd hij veelvuldig doorgestuurd en hem steeds gevraagd waar zijn auto dan gestolen was of wie dat dan had doorgegeven of wanneer de auto was teruggevonden. “Ja, maar hier staat toch echt: uw auto is gestolen!”. “Wie zegt dat dan?” vroeg de man die zijn auto voor zijn deur geparkeerd zag.

Het kon niet veranderd worden, dat stond de computer niet toe.

Uiteindelijk kwam hij bij de politie (“Welk bureau heeft uw auto dan als gestolen opgegeven?”). Het bureau kon gevonden worden en toen werd duidelijk dat het een typefout was. Wat je al niet moet doen om wegenbelasting te betalen....

Techneuten willen systemen ontwikkelen die voorkomen dat die ‘domme’ mensen fouten maken. Chat GPT laat zien hoeveel een computer kan en weet. Maar bedenk dat je zeldzame fouten ook moet kunnen terugvinden (bron) en ook de mensen die gemachtigd zijn om de fout te herstellen.

Weet wat je doet met zelflerende systemen. Altijd moet terug te vinden zijn waar de bron was en waar de fout was gemaakt. Anders gaat het met 99,9% van de mensen prima en heeft 0,1% voortdurend last van een onherstelbare fout.