Het potentieel van Artificial Intelligence (AI) voor het veiligheidsdomein is onmiskenbaar. Maar er liggen naast kansen ook uitdagingen en risico’s. Hoe kunnen we AI optimaal en verantwoord benutten om Nederland veiliger te maken? Fokko Dijksterhuis en Roeland de Koning van Capgemini Invent geven handreikingen.
Lynsey Dubbeld
Artificial intelligence (AI) is geen hype, het is here to stay. Ook in het veiligheidsdomein. Dat signaleert Capgemini in de nieuwste editie van het jaarlijkse rapport Trends in Veiligheid.
Inhoudsopgave:
– Voorbij de fase van hooggespannen verwachtingen
– Techniek om slimmer en effectiever te werken
– Groeiende afhankelijkheid van AI
– Toegevoegde waarde door voorspellend vermogen van AI
– Herkennen van ongewenste situaties
– AI ondersteunt menselijke beslissingen en acties
– Slimme, verantwoorde en mensgerichte aanpak
– Alles staat of valt met de kwaliteit van de data
– Gevoelens van onveiligheid verminderen niet met inzet AI
– Bewustwording van mogelijkheden AI door experimenten
– Beeldherkenningssysteem dat risicovolle situaties detecteerd
– Grote behoefte aan transparantie over inzet AI
– Praktijkvoorbeelden bewijzen waarde van inzet AI
– Innovatiekracht uit de private sector
– AI maakt menselijk handelen niet overbodig
Voorbij de fase van hooggespannen verwachtingen
“Als we uitgaan van de hype cycle van Gartner, een methodologie die een beeld geeft van de volwassenheid van technologische innovaties, dan kunnen we zeker zeggen dat veel AI-technologieën voorbij de fase van hooggespannen verwachtingen is. Het potentieel staat vast en de praktische toepassingen worden steeds meer werkelijkheid”, vertelt Fokko Dijksterhuis, senior consultant cybersecurity bij Capgemini Invent.
Techniek om slimmer en effectiever te werken
AI is een containerbegrip en niet alle toepassingen zijn het experimenteerstadium al voorbij, vult De Koning, principal consultant bij Capgemini Invent, aan. “Eigenlijk zouden we steeds de vraag moeten stellen: over welke technologie hebben we het precies? AI kan gaan om uiteenlopende toepassingen – van deep learning tot bijvoorbeeld voice recognition en video-analyse. De gemene deler is dat het gaat om technologieën die mensen helpen om beter, slimmer en efficiënter te werken. Bijvoorbeeld omdat we ontwikkelingen nauwkeuriger kunnen monitoren, of meer informatie kunnen verzamelen en analyseren. In zekere zin is AI geen kunstmatige intelligentie maar augmented intelligence die professionals optimaal toerust om hun taken uit te voeren.”
Groeiende afhankelijkheid van AI
Dijksterhuis en De Koning zien in toenemende mate dat AI-toepassingen worden geïmplementeerd. In de nabije toekomst zullen we steeds vaker zelfs móeten vertrouwen op AI-capaciteiten om de innoverende crimineel te kunnen bijbenen, schrijven ze in hun bijdrage over AI in Trends in Veiligheid. “Als we iets zeker weten, is dat we steeds meer AI-toepassingen in de praktijk zullen zien terugkomen. In het tijdperk van Big Data zullen we steeds afhankelijker worden van AI om immense hoeveelheden data te verwerken en te analyseren.”
Toegevoegde waarde door voorspellend vermogen van AI
In het veiligheidsdomein kunnen AI-toepassingen van veel toegevoegde waarde zijn. AI kan betekenisvolle analyses loslaten op data die met surveillance wordt verzameld, bijvoorbeeld om patronen te herkennen. Dit is het geval bij predictive policing, waarbij het voorspellende vermogen van AI-analyses misdaden helpt voorkomen. Bijvoorbeeld doordat politieauto’s surveilleren op locaties die als risicovol zijn geïdentificeerd. Ook binnen het justitiële systeem wordt gekeken naar toepassingen. AI kan bijvoorbeeld de kans op recidive helpen voorspellen.
Herkennen van ongewenste situaties
“Met name op het gebied van beeldherkenning en video-analyse liggen er veel kansen”, zegt De Koning. “De pilot in Stratumseind in Eindhoven, een winkelgebied waar met camera’s en sensoren uiteenlopende informatie wordt verzameld, is een goed voorbeeld. AI kan daar een waardevolle toevoeging zijn om ongewenste situaties en objecten te herkennen.”
AI ondersteunt menselijke beslissingen en acties
De toepassing van AI ligt ook voor de hand bij onder andere crowd control, grenscontroles en politie surveillances. Bovendien kan AI een rol spelen in het tegengaan van fake news, omdat er beeldmanipulatie mee kan worden opgespoord. Daarnaast zijn er mogelijkheden om sociale media met AI te analyseren en vervolgens cyberrisico’s te identificeren. Dijksterhuis: “In feite liggen er kansen voor alle activiteiten in het veiligheidsdomein waar het van belang is om grote hoeveelheden complexe data te analyseren. De inzet van AI ondersteunt dan menselijke beslissingen en acties.”
Slimme, verantwoorde en mensgerichte aanpak
Dijksterhuis en De Koning benadrukken dat het inzetten van AI bedachtzaam en zorgvuldig moet gebeuren. Verkeerde keuzes die op basis van AI worden gemaakt kunnen aanzienlijke impact hebben, bijvoorbeeld als algoritmes (onbedoeld) vooringenomen blijken te zijn. Diverse onderzoeken uit de Verenigde Staten hebben laten zien dat de toepassing van predictive policing de focus legt op bepaalde bevolkingsgroepen, met een verhoogde kans op een incorrect vonnis tot gevolg.
In de maatschappelijke discussie over AI gaat het niet voor niets regelmatig over thema’s zoals de democratische rechtsstaat, privacy en transparantie. De recent aangekondigde Nederlandse AI Coalitie zet zich nadrukkelijk in voor een slimme én mensgerichte, verantwoorde aanpak. De Koning: “De ethische discussie over onze omgang met AI is heel waardevol. Wat willen we ermee en wat juist niet? Het is voor het publieke vertrouwen in de technologie ook belangrijk dat we laten zien wat er gebeurt en hoe het werkt.”
Alles staat of valt met de kwaliteit van de data
Dijksterhuis vult aan: “Het helpt dan als er aandacht is voor transparantie. Dat wil zeggen dat de toepassing – en de achtergrond ervan – uitlegbaar is. Ook de eerlijkheid van de oplossing is een aandachtspunt. We willen bijvoorbeeld voorkomen dat een algoritme een racial bias vertoont. Verder is het zo dat AI natuurlijk zo goed of zo slecht is als de data die je gebruikt. Datakwaliteit is sowieso een issue, of je de informatie nu gebruikt als input voor AI of voor andere toepassingen.”
Gevoelens van onveiligheid verminderen niet met inzet AI
Voorkomen moet worden dat de inzet van AI in het veiligheidsdomein zorgt voor een onveilig gevoel, benadrukken Dijksterhuis en De Koning. Volgens onderzoek dat Ipsos uitvoerde voor Trends in Veiligheid geeft de inzet van AI in het veiligheidsdomein 36 procent van de Nederlandse burgers een onveilig gevoel. 21 procent voelt zich er veilig door en 43 procent heeft geen mening. Overigens blijkt uit hetzelfde onderzoek ook dat 72 procent van de Nederlanders aangeeft criminelen innovatiever te vinden dan de overheid. Verder heeft ruim de helft van de burgers liever meer blauw op straat dan nieuwe technologische oplossingen.
Bewustwording van mogelijkheden AI door experimenten
Organisaties in het veiligheidsdomein moeten zich bewust zijn van de mogelijkheden en uitdagingen die de implementatie van AI-oplossingen meebrengen, stellen Dijksterhuis en De Koning. Experimenten kunnen helpen om te ontdekken hoe we de potentie van AI op een verantwoorde manier kunnen ontsluiten.
Beeldherkenningssysteem dat risicovolle situaties detecteerd
Een voorbeeld van zo’n experiment was vorig jaar te zien tijdens het Innovatiecongres van het ministerie van Justitie en Veiligheid. Daar ontwikkelden specialisten van Capgemini samen met het innovatieteam van het ministerie een AI-systeem dat in een kort tijdsbestek al veel leert. De tweedaagse demonstratie maakte duidelijk hoe een beeldherkenningssysteem kan worden getraind om houdingen en bewegingen van mensen te herkennen, zodat afwijkende gedragingen en risicovolle situaties snel, nauwkeurig en automatisch kunnen worden gedetecteerd. “Met dit soort systemen kan het werk van spotters – speciaal getrainde politiefunctionarissen die in de openbare ruimte surveilleren om vroegtijdig afwijkende situaties te identificeren – mogelijk worden ondersteund”, zegt De Koning.
Grote behoefte aan transparantie over inzet AI
Wat zijn randvoorwaarden voor een goed AI-experiment? Het start met bewustwording van de risico’s, zegt De Koning. “Je moet weten dat de data die je gebruikt bevooroordeeld kan zijn. Daarnaast moet je transparant zijn over de werking van het algoritme. Je moet kunnen uitleggen wat het doet. Er zijn trouwens ook tools waarmee je information bias kunt voorkomen.” Uit internationaal onderzoek blijkt dat 75 procent van de respondenten behoefte heeft aan transparantie over de inzet van AI, en dat 73 procent wil weten of AI hen eerlijk behandelt.
Praktijkvoorbeelden bewijzen waarde van inzet AI
Experimenten zoals in Stratumseind en bij het Innovatiecongres wekken de indruk dat de inzet van AI in het veiligheidsdomein nog in de kinderschoenen staat. Toch zijn er vanuit predictive policing en de inzet van AI in de strafrechtketen al volop praktijkvoorbeelden, vertelt Dijksterhuis. “Het lijkt soms alsof AI iets heel nieuws is, maar er is in feite al sinds de jaren negentig veel aandacht voor het gebruik van statistieken en geavanceerde analyses om bijvoorbeeld de operatie van de politie te verbeteren. De waarde van AI voor voorspellende opsporing heeft zich zeker al bewezen.”
Een bedachtzame en verantwoorde inzet van AI is essentieel voor het publieke vertrouwen
Innovatiekracht uit de private sector
AI belooft dus een blijvertje te zijn en het aantal experimenten, pilots en best practices groeit gestaag. De innovatiekracht komt vooral uit de private sector, zegt Dijksterhuis. ” We kunnen heel veel leren van de manieren waarop techbedrijven de wensen en voorkeuren van consumenten analyseren om betere producten en diensten te leveren. Kijk alleen al naar Netflix en online platformen zoals Amazon. Deze ondernemingen weten precies welke technologie ze het beste op welke plek kunnen inzetten – van voice analysis en speech recognition tot deep learning.”
AI maakt menselijk handelen niet overbodig
De Koning vult aan: “Tegelijkertijd laten de ervaringen in de private sector zien dat een bedachtzame en verantwoorde inzet van AI essentieel is voor het publieke vertrouwen. Wat dat betreft zou de term augmented intelligence misschien wel beter werken. Dat roept minder associaties op met science fiction films met robotachtige systemen die menselijk handelen overbodig maken.”
Lynsey Dubbeld is communicatieadviseur, contentstrateeg, trendanalist en copywriter
– Een cyberverzekering is altijd zinvol!
– Ontwrichting van de maatschappij ligt op de loer
– 5G: Kansen en uitdagingen voor veiligheid
Volg Security Management op LinkedIn