Vroeger was uw camera precies dat: een camera. Die schoot de beelden, en die beelden werden vaak doorgesluisd naar een grote server waar ze werden geanalyseerd. Maar nogmaals, dat was vroeger. Want anno 2019 zien we een nieuwe ontwikkeling: edge computing.
Peter Passenier
Op het terrein liggen gevaarlijke stoffen opgeslagen. En dus mag er na 18:00 uur ’s avonds niemand meer komen. Maar om 21:10 uur… detecteert een van de bewakingscamera’s een beweging. Een indringer misschien. Of gaat het toch om een schaduw, veroorzaakt door de koplampen van een passerende auto?
>> LEES OOK: Beveiliging wordt ook gezien als cruciale beroepsgroep
Wat er vervolgens gebeurt, hangt af van het type camera. “Vroeger, bij veel oudere modellen, ging er dan direct een melding naar de alarmcentrale”, zegt Edwin Beerentemfel, manager Business Development Middle Europe bij Axis. “Maar aangezien er meer auto’s langskomen dan indringers, kwamen de security-jongens dan vaak voor niks. Dat nam iedereen voor lief.”
Streamen van camerabeelden naar een server versus edge computing
Natuurlijk was er ook een andere mogelijkheid: de beelden streamen naar een centrale server. “Die heeft veel meer rekenkracht”, zegt Beerentemfel, “en dus kan die de gegevens analyseren, met artificial intelligence. Zo’n algoritme is in staat schaduwen te onderscheiden van een mens, en dus kon de bewaker vaak blijven zitten waar hij zat. Echter, zo’n server inhuren voor één camera… dat is natuurlijk een kostbare grap.”

Edwin Beerentemfel: “Binnen afzienbare tijd worden er camera’s gefabriceerd met kunstmatige intelligentie en machine learning. En dan zal edge computing pas echt een grote vlucht nemen.”
Maakt edge computing een server overbodig?
Een lastig dilemma dus: geef ik mijn geld uit aan een server of aan een securitybedrijf? Maar gelukkig schoot de techniek te hulp. Want de laatste jaren zagen we een nieuwe ontwikkeling: edge computing. De hardware van camera’s wordt steeds geavanceerder, en dus is er voor veel berekeningen geen server meer nodig. Die berekeningen vinden gewoon plaats in de camera zelf. En het wordt nog mooier: die slimme camera weet ook efficiënter om te springen met de beschikbare opslagcapaciteit. “Zo’n camera draait bijvoorbeeld niet de hele nacht”, zegt Beerentemfel. “Hij begint pas op te nemen als er iets beweegt. En omdat hij gebruikmaakt van een pre-buffer, kan hij ook de beelden leveren van de seconden net voordat die beweging plaatsvond.”
Camera transformeren tot rookmelder
Natuurlijk, ook de meest geavanceerde camera legt het qua rekenkracht af tegen een server. Maar toch kan de gebruiker volgens Beerentemfel veel foute detecties voorkomen, bijvoorbeeld door verschillende sensoren te combineren. “Kijk naar een camera en een rookmelder. Die vullen elkaar mooi aan. Die rookmelder detecteert de rook op het moment dat hij de melder bereikt, maar de camera ziet diezelfde rook natuurlijk al veel eerder. Aan de andere kant, voor zo’n camera is het niet makkelijk om verschil te maken tussen die rook en een paar toevallige schaduwen. En dat kan die rookmelder weer beter. Als je het aantal valse meldingen wil terugbrengen, kun je beide systemen dus combineren. Dat kan door een camera te voorzien van rookdetectie-analysesoftware. Dan wordt die camera tot rookmelder getransformeerd.”
Gezichtsherkenning met edge computing nu nog een stap te ver
Werkt iedere camera in 2019 dus geheel zelfstandig? Volgens Beerentemfel is dat nog een stap te ver. “Tot nu toe hebben we het gehad over bewegingsdetectie. Die is gebaseerd op een relatief simpele analyse. Veel ingewikkelder wordt het bij bijvoorbeeld gezichtsherkenning. Een vliegveld wil weten of die ene bezoeker te boek staat als terrorist. Of dat casino wil mensen herkennen met een casinoverbod. Of, een positieve variant, een organisatie wil weten wanneer die topklant binnenkomt die vorig jaar verantwoordelijk was voor een aanzienlijke omzetstijging. Voor de huidige camera’s is dat een brug te ver. Het is nu nog niet mogelijk om voldoende rekenkracht toe te voegen zonder dat je de basisfunctionaliteit in gevaar brengt. Dus kunnen die camera’s wel de relevante gezichtspunten detecteren, maar om die vervolgens te matchen met een enorme databank, daarvoor gaan die gegevens toch naar een centrale server.”
Kunstmatige intelligentie en machine learning
Echter, volgens Beerentemfel zou dat wel eens snel kunnen veranderen. “Binnen afzienbare tijd worden er camera’s gefabriceerd met kunstmatige intelligentie en machine learning. En dan zal edge computing pas echt een grote vlucht nemen. Want besef wel, een intelligente camera kan niet alleen betere analyses uitvoeren, hij kan ook de benodigde opslag enorm terugbrengen. Bijvoorbeeld door een slimme manier van comprimeren. Maar ook – we zagen het al eerder – door nog scherper te bepalen wanneer hij bepaalde beelden moet opnemen en wanneer hij ze moet bewaren.”
Wanneer kiezen voor edge computing?
Terug naar 2019. Wanneer kan een bedrijf kiezen voor edge computing, en wanneer moet het toch denken aan analyse of opslag in de cloud? Volgens Beerentemfel is cloudopslag nog steeds het beste bij zogenoemde multi-site surveillance. “Heb jij een winkelketen van 100 vestigingen? En hangt er in iedere vestiging een camera? Dan is edge computing en opslag niet zo’n goed idee. Want als er dan iets aan de hand is in vestiging 67, moet je daar heen om de beelden te bekijken. Maar staan die beelden op een cloudserver, dan heb je natuurlijk direct toegang.”
In de camera’s van tegenwoordig zit edge computing standaard ingebouwd
Aan de andere kant, hangen die 100 camera’s in één locatie, dan kun je volgens hem beter kiezen voor lokale opslag. “Want de beelden van 100 camera’s opslaan in de cloud, dat is een dure grap. Maar in de camera’s van tegenwoordig zit edge computing standaard ingebouwd, en dat maakt die camera’s nauwelijks duurder. En let wel, voor die edge-technologie hoef je niet te kiezen voor de high end camera’s. Die zit ook al in de instapmodellen.”
Fog
Kies ik voor edge computing of toch voor de cloud? Volgens Beerentemfel is er een tussenweg: de fog. “Als je geen gebruik kunt maken van de cloud, en de edge niet krachtig genoeg is voor de noodzakelijke berekeningen, is het mogelijk om die berekeningen te laten uitvoeren op een lokale server. Dit noemen we de ‘fog-laag’. Wat je steeds meer zult gaan zien, is dat de berekeningen worden verdeeld tussen de camera (edge), een centrale server (fog) en de cloud.”
Peter Passenier is freelance journalist