Artificial Intelligence (AI) of kunstmatige intelligentie is overal: van zoekmachines en programma’s die teksten genereren tot algoritmes die een kandidaat selecteren voor een functie of de kans op schooluitval bepalen. Maar de inzet van AI is niet zonder risico’s. Daarom gaat het CBS zorgvuldig om met vragen van externe partners over dit thema. Om de afwegingen die daarbij gemaakt worden helder vast te leggen, stelde de CBS-directie een AI-beleid vast.
Het CBS maakt statistieken over AI, bijvoorbeeld over de inzet van AI bij bedrijven en over welke soorten AI-technologie het gaat. Het CBS onderzoekt momenteel of het mogelijk is om meer statistische informatie rond AI te verzamelen. Maar het CBS zet AI ook zelf in bij het maken van statistieken. Daarnaast krijgt het CBS vragen van andere overheidsorganisaties over de inzet van AI, inclusief de daarbij gebruikte databronnen. Wat betreft het maken van CBS-statistieken over AI geven de bestaande kaders voldoende duidelijkheid. Voor de vragen van externe partners over hoe zij AI het beste kunnen inzetten, is er nu door de CBS-directie een AI-beleidskader vastgesteld.
Kim van Ruler, beleidsadviseur bij het CBS: ‘Het AI-beleid maakt duidelijk welke AI-vragen het CBS wel en niet kan beantwoorden, zowel voor onszelf als voor de externe partijen met wie we samenwerken. We willen transparant zijn over de mogelijkheden én risico’s.’
> LEES OOK: Algoritmetoezicht AP van start
Zelflerend algoritme
Het CBS werkt nooit mee aan verzoeken die leiden tot de opsporing van personen of tot informatie over individuen of bedrijven. Van Ruler: ‘Dat valt onder administratief gebruik van data en dat doen we nooit. Maar er is ook een groot grijs gebied als organisaties hulp willen bij de inzet van AI-algoritmes en de daarvoor gebruikte data.’
AI is een containerbegrip, zegt Joost Huurman, directeur Research en Development bij het CBS. ‘Het AI-beleid gaat vooral om AI waarbij zelflerende algoritmes een rol spelen.’ Zo’n algoritme maakt zelf nieuwe regels op basis van de input, de data, die het krijgt. ‘Het gevaar daarvan is dat door bias in de data – bijvoorbeeld als een bepaalde doelgroep oververtegenwoordigd is – een negatieve spiraal kan ontstaan. Dat kan leiden tot onterechte conclusies over bepaalde groepen mensen. Daar moet je enorm mee oppassen en erg alert op zijn.’
> LEES OOK: Charles Groenhuijsen: Algoritmes of bewakers?
Zorgvuldig en behulpzaam
‘Het CBS vindt het belangrijk om zeer zorgvuldig om te gaan met nieuwe ontwikkelingen op het gebied van AI’, zegt Van Ruler. ‘Maar we willen ook behulpzaam zijn als dat mogelijk is en ten goede komt aan de samenleving.’ Een voorbeeld van een vraag die in het grijze gebied viel, kwam van het Centraal orgaan Opvang Asielzoekers (COA). Dat wilde met behulp van een algoritme passende plekken in Nederland zoeken voor statushouders. Huurman: ‘Dat neigt naar administratief gebruik, dus dat ging niet. Wat we wel voor het COA konden doen was advies geven over hun dataset. Een goede dataset is een voorwaarde voor een eerlijk algoritme. Het doel van de inzet van dit algoritme was positief, namelijk het zorgen voor goede huisvesting. Dat speelde mee in de afweging.’
Het AI-beleid maakt duidelijk welke AI-vragen het CBS wel en niet kan beantwoorden
Drie afwegingen
Het AI-beleid is gebaseerd op drie afwegingen.
- Als een organisatie een beroep doet op het CBS op het gebied van AI, dan wordt ten eerste gekeken naar de rol die gevraagd wordt: gaat het om adviseren of om beoordelen? Van Ruler: ‘Het beoordelen van data en algoritmen van externe partijen doen we niet. Dat is niet onze taak.’
- De tweede afweging heeft te maken met de vraag of de hulpvraag over te gebruiken data gaat of over algoritmen. Adviesvragen over data kan het CBS meestal honoreren. Adviesvragen over algoritmen zijn afhankelijk van de context.
- Tot slot wordt gekeken naar het type algoritme: is dit bedoeld om iets te voorspellen of om iets te verklaren? Het CBS doet geen voorspellingen (behalve over de bevolkingsgroei, redactie) en zal dus doorgaans ook niet meewerken aan algoritmes die hierover gaan. Een algoritme dat iets verklaart, kan wel. Huurman: ‘Het ligt genuanceerd. Neem een algoritme dat risicofactoren destilleert uit een wijk waar veel armoede voorkomt. Dat is een verklarend algoritme. Het probleem is dat je zo’n onderzoek vaak kunt omdraaien: armoede voorspellen op basis van risicofactoren die in een wijk voorkomen. We blijven dus zeer zorgvuldig in onze afweging.’
In het AI-beleid van het CBS zijn veel voorbeelden opgenomen over wat wel en wat niet kan. Van Ruler: ‘En als het echt niet duidelijk is welke aanpak we moeten kiezen, dan is er bij het CBS een ethische commissie die zich over de hulpvraag buigt.’
> LEES OOK: Juul Goor, criminoloog, over de trends op het gebied van openbare orde en veiligheid
Betrouwbare statistieken
‘Het CBS doet veel onderzoek naar AI’, aldus Huurman. ‘De inzet daarbij is om AI steeds beter te maken. Lerende algoritmen bieden veel mogelijkheden. Maar wij kijken in ons onderzoek specifiek naar de onderdelen die we zelf kunnen gebruiken voor de uitvoering van onze taak: het maken van betrouwbare statistieken.’
Bron: CBS