Over camera’s, randapparatuur en programmatuur die hierbij gebruikt kan worden, is de laatste maanden veel geschreven. Om het onderwerp nu eens vanuit een ander standpunt te belichten, wordt in dit artikel de combinatie van camera’s en Artificial Intelligence (AI) voor het voetlicht gebracht. Zonder hierbij diep in te gaan op de technische specificaties van camera’s.
Ed Posthumus
Of de Nederlandse politiek en de wetgever het nu willen of niet, cameratoezicht ondersteund door Artificial Intelligence (AI) is niet te stoppen. Doen zij dat wel, dan worden wij wederom het braafste kindje van de klas binnen Europa en zullen we achter de feiten (en de criminelen) aan blijven lopen. Lees daarom het artikel ‘Artificial Intelligence voor veiligheid: de hype voorbij?’ nog maar eens terug.
Wetgeving beperkt inzet van AI
Een voortvluchtig of gezocht persoon kan zich nu nog met redelijk gemak verplaatsen via de kleinere luchthavens in Nederland. Er mag nog geen ‘facial recognition’ of gezichtsherkenning gebruikt worden en al helemaal niet in combinatie met AI.
In de praktijk wordt slechts een klein deel van de capaciteit van camera’s gebruikt
De vraag is waarom wij dan op en rondom de luchthavens camera’s hebben hangen? Hangen die er alleen om te zien hoe druk het is op het parkeerterrein, of waar de langste wachtrijen zijn? Dit is uiteraard een gechargeerde weergave, maar van alle capaciteit van de camera’s en de gekoppelde randapparatuur wordt in de praktijk nog slechts een klein deel gebruikt.
>> LEES OOK: Je camera als computer
Vastleggen van afwijkend gedrag
Niet dat de beveiligings- en politiediensten dit niet zouden willen of kunnen, maar zij mogen het niet gebruiken van de wetgever. Terwijl het hun werk een stuk gemakkelijker zou maken als er bijvoorbeeld patronen konden worden vastgelegd – ook door middel van bijvoorbeeld ‘deep learning’ – van gezochte personen, van personen die afwijkend gedrag vertonen, of van afwijkende patronen van groepen. Afwijkend gedrag kan ook geprogrammeerd worden als schreeuwen, boos kijken, vreemd bewegen en dergelijke; het gaat er niet alleen om of iets afwijkt van het normale patroon, maar of het in lijn is met het meest gangbare.
Interpretatie van camerabeelden blijft mensenwerk
Denk bijvoorbeeld aan het gebruik van een camera met zowel AI als geluidsherkenning. Tijdens een voetbalwedstrijd is het niet opportuun om de optie ‘schreeuwen’ als afwijkend gedrag aan te vinken, terwijl een gooi- of andere armbewegingen juist wel een indicatie hiervan kunnen zijn. Dit laatste zou dan bij voorkeur in combinatie met gezichtsherkenning moeten zijn, waarbij die persoon direct met een bestaande database gelinkt kan worden. Een laatste controle van een toezichthouder is hier wel op zijn plaats. Zoals hierna beschreven is de interpretatie van camerabeelden voor een mens wel te doen maar voor een machine niet.
Gezichtsherkenning gekoppeld aan AI
In de meeste Aziatische landen is gezichtsherkenning gekoppeld aan AI gemeengoed. Nergens ben je ‘veilig’ en er heerst ook een Big Brother 1984 gevoel als je daar als bijvoorbeeld Europeaan over straat loopt. Feit is wel dat de meeste handhavingsdiensten er teveel gebruik van mogen maken. Denk aan China waar je bij verkeerd oversteken van de straat zowel sociale minpunten krijgt, als publiekelijk aan de schandpaal wordt genageld, doordat je op een groot videoscherm wordt weergegeven.
Aanvulling op bestaand cameranetwerk
Toch is het op de lucht- en zeehavens en bij alle grensovergangen een welkome aanvulling op het bestaande cameranetwerk. Zo wordt het in Singapore in de havens voornamelijk ingezet tegen diefstal (registreren en vastleggen van afwijkende patronen van bijv. trucks) en detectie van illegalen die ongemerkt aan land willen komen vanaf een tanker of vrachtschip.
Geen ultiem middel
Dit zou in Nederland ook een toegevoegde waarde kunnen hebben op de parkeerplaatsen in de buurt van Hoek van Holland bij het tegengaan van illegalen die naar Engeland willen. Doordat zij afwijkend gedrag vertonen, is eenvoudig na te gaan waar zij heen gaan om zich te verschuilen, waarop actie ondernomen kan worden. Let wel, het zou een aanvulling kunnen zijn op de bestaande controles door de politie en de Koninklijke Marechaussee en geen ultiem middel.
>> LEES OOK: Bedreigingen en kansen 2020
AI maakt de kans op aanhouding aanmerkelijk groter
Een kanttekening is echter wel op zijn plaats: het gebruik van AI zal nooit elke misdaad voorkomen of alle gezochte criminelen herkennen. Maar de kans op herkenning – en dus aanhouding – wordt aannemelijk groter. Op zich blijft het dan ook een wedloop tussen de crimineel enerzijds en de techniek in combinatie met de securitybranche anderzijds.
Kloof tussen mens en machine wordt steeds kleiner
Maar er is sprake van nog een wedloop: die tussen de mens en AI. Want hoe meer regels wij bedenken en schrijven voor bijvoorbeeld ‘recognition software’, des te makkelijker leert het systeem van ons en wordt de kloof tussen mens en machine kleiner en kleiner. Het zal alleen nooit zo zijn dat een machine de mens geheel kan vervangen. Wij hebben nu eenmaal een onderbewustzijn dat ervoor zorgt dat mensen dingen doen zonder dat vooraf te beredeneren, zoals ademhalen.
Bovendien kunnen wij als mens conclusies trekken uit een beeld of voorval, iets wat een machine niet kan. Die vergelijkt aan de hand van een algoritme de input met bestaande, opgeslagen en bewerkte data en komt tot de slotsom dat er al dan niet een overeenkomst is en handelt daarnaar.
Regels en richtlijnen over toepassing van AI
Inmiddels heeft de Europese Commissie een voorgenomen besluit voor een tijdelijk verbod op gezichtsherkenning in (semi-)openbare ruimtes ingetrokken. Daarmee krijgen beleidsmakers de kans om de regels aan te scherpen en vooral eenduidig te maken. De achterliggende gedachte hierbij is dat er een sluitend systeem moet worden ontwikkeld, waarbij niet alleen de impact van gezichtsherkenning beoordeeld moet worden, maar dat tegelijkertijd de rechten van de burgers waarborgt. Het stuk van de Commissie spreekt ook over de toepassing van AI en de regels en richtlijnen die daarvoor opgesteld moeten worden.
>> LEES OOK: Gezichtsherkenning: waar moet je op letten?
Opslag in de cloud
De opslag van camerabeelden en streams in de cloud is niet meer weg te denken in onze digitale wereld. Het scheelt veel opslagruimte op de eigen pc’s en servers. Echter, er schuilt ook een risico in. Namelijk dat de opslag niet binnen het fysieke bereik van de securitymanagers ligt, daar waar het gaat om eigendom van de beelden. De data is uiteraard wel van jou, maar de server waarop de cloud draait niet.
Wie kan de beelden zien en wie is eigenaar?
Vragen die daarom gesteld moeten worden, zijn onder andere: Wie kan er bij de beelden? Wie is de fysieke eigenaar van de beelden? Waar staan de servers? Hoe is de fysieke toegang geregeld? En (heel belangrijk) onder welke wetgeving valt de locatie waar de servers staan? Dit laatste is van belang als er beslag wordt gelegd op de locatie of gebouwen op die locatie. Want kan je dan nog bij de servers? Zorg er daarom voor dat er ergens anders een back-up staat. Dat moet dan niet in een ander deel van het betreffende pand zijn. Dat heeft weinig zin in geval van bijvoorbeeld een brand.
Securitymanagers, operators, toezichthouders en AVG-functionaris in één team
Dit neemt niet weg dat securitymanagers zouden moeten voorsorteren op deze ontwikkelingen. Als morgen het licht op groen gaat, dan moet alles wel direct en goed werken. En neem operators en toezichthouders hierin mee, want zij hebben er in de eerste lijn mee te maken. Let erop dat ook de functionaris belast met de AVG deelt uitmaakt van het team.
Koudwatervrees
Gebruik van camera’s met AI heeft binnen de securitywereld bijna overal zijn intrede gedaan. Echter, de BV Nederland maakt als het gaat om regelgeving nog pas op de plaats. Dit lijkt – al dan niet terecht – een vorm van koudwatervrees.
Ed Posthumus is werkzaam bij PSC Advies
– Civis Sollicitus: Diep lerende camera’s
– Kritische kanttekeningen bij cameratoezicht
– Slim hekwerk weert onbevoegden van haventerreinen
Volg Security Management op LinkedIn