Anno 2025 vliegen drones over dijken, op zoek naar mogelijke zwakke plekken. Ondertussen doen robothonden hun rondes over het bedrijfsterrein. Maar niet altijd zijn technologische ontwikkelingen zo zichtbaar. Als crisismanager krijg je nu ruggensteun van iets relatief nieuws: het large language model, zoals ChatGPT.
Door Peter Passenier
Een cyberaanval. In 2024 werd maar liefst 20 procent van de Nederlandse organisaties hiermee geconfronteerd. Heel vervelend natuurlijk, maar volgens Marcel van Berlo, senior project- en programmamanager bij TNO, zijn die organisaties hier vaak op voorbereid. “Dikwijls beschikken ze over een hele stapel handboeken, crisisplannen en beleidsstukken die uitleggen wat er in noodgevallen moet gebeuren. Welke documenten zijn dan leidend? Wie moet precies wat doen? En in welke volgorde? Daar is allemaal lang over nagedacht en dat is ook prima opgeschreven.”
Niet gestroomlijnd
Maar helaas, volgens hem garandeert dit geen gestroomlijnd crisismanagement. “Niet alle medewerkers weten wat er allemaal in die documenten staat. En als er echt op korte termijn moet worden gehandeld, is er ook geen tijd om alles na te lezen. Natuurlijk, in het ideale geval is er een safety officer of een facilitair manager die de procedures wel kent. Maar zo iemand is niet altijd beschikbaar. Die mensen kunnen ziek zijn, met vakantie, of misschien al uit dienst getreden. En dus is het lang niet altijd duidelijk wat er precies in welke volgorde moet worden gedaan, en door wie. Het is te uitgebreid en te gedetailleerd.”
Een mogelijk probleem dus – althans, tot enkele jaren geleden. Want nu beschikken we over zogenoemde LLM’s, large language models zoals ChatGPT, Gemini of Perplexity. Volgens Van Berlo kunnen die de crisismanager ruggensteun bieden. “Dat zie je bij een cyberaanval: alle documenten, richtlijnen en beleidsplannen die er zijn, kun je daarin invoeren. En dan krijgt ook een minder goed ingewijde collega meteen antwoorden op vragen als: ‘Geef mij de acties met de hoogste prioriteit die ik binnen nu en twee uur moet uitvoeren.’ En: ‘Geef mij vervolgens de vijf acties die ik moet uitvoeren in de uren drie tot en met acht, en wie ik daarbij moet betrekken.’ Let wel: dat is zelfs een goed traject als de crisismanager wél aanwezig is. Mensen staan op zo’n moment onder stress, en dus is het belangrijk dat die LLM’s ze wat structuur aanreiken.”
> LEES OOK: Vers van de pers: Security Management nummer 4
Overvallen
Dat is niet het enige waarmee een large language model kan helpen. Want volgens Van Berlo kan die ook heel nuttig zijn als de crisis nog niet is uitgebroken, bij de voorbereiding dus. “Wat je niet wilt, is dat je op het moment zelf door de omstandigheden wordt overvallen: ‘O nee, we hebben nog maar één computer, hoe kunnen we nog bij onze klantgegevens en afspraken met de leveranciers?’ Het is heel belangrijk om daarop te anticiperen: ‘Wat gebeurt er als wij onze ICT niet meer kunnen gebruiken?’”
Van Berlo vervolgt: “Bedenk verder dat je met behulp van een LLM ook beter gebruik kunt maken van geleerde lessen uit het verleden, van andere crises bij andere organisaties. Ook dat is heel nuttig, want je kunt zelf heel goed hebben nagedacht over je procedures, maar je kan ook iets vreemds ervaren, een onbekende crisisvorm waar je toch niet op hebt geanticipeerd.”
Privacy
Een in potentie bruikbaar hulpmiddel dus. Maar iedereen die zich in AI heeft verdiept, komt nu met twee bezwaren: hoe zit het met de hallucinaties en de privacy? Om met dat laatste te beginnen: data die je aan large language models verstrekt, kunnen worden gebruikt als trainingsdata en worden dus opgeslagen in grote databases. Wil je dat je crisisbeheersingsplannen daar ook terechtkomen? Waarschijnlijk niet. “Daarom kiezen veel organisaties voor een AI-protocol”, zegt Van Berlo. “Dat geldt ook voor mijn werkgever TNO: wij hebben een eigen beleid over welke AI-support wij wel en niet mogen gebruiken.”
Maar misschien lijkt het probleem groter dan het is. “Je kunt LLM’s ook lokaal binnen je eigen organisatie gebruiken”, vertelt Van Berlo. “Je kunt bijvoorbeeld eerst informatie van buiten verzamelen, die lokaal opslaan en combineren met de documentatie van je eigen organisatie. Vervolgens verstrek je die aan een LLM die alleen lokaal draait, en niet is verbonden met het internet. Zo vermijd je dat je eigen data op het web terecht komen. Dat proces wordt Retrieval Augmented Generation (RAG) genoemd.”
> LEES OOK: Bijna kwart Nederlanders gebruikt kunstmatige intelligentie zoals ChatGPT
Hallucinaties
Dan de hallucinaties. LLM’s kunnen nogal eens hele onderzoeken verzinnen, en die dan presenteren met zo’n overtuigingskracht dat het probleem niet onmiddellijk zichtbaar is. Lastig natuurlijk, maar Van Berlo denkt dat dit wel is te ondervangen. “Wat ik altijd doe, is de vraag meerdere keren stellen. Als het model hallucineert, zie je dan inconsistente resultaten. Een andere optie is om dezelfde vraag ook te stellen aan andere LLM’s. Dus niet alleen aan ChatGPT, maar ook aan bijvoorbeeld Gemini of Perplexity. Ook die kunnen hallucineren, maar vast niet op dezelfde manier. Bovendien, als je een LLM voedt met alleen de eigen crisisdocumenten, dwing je het om antwoorden op die broninformatie te baseren. Het model kan dan alleen nog maar hallucineren als de broninformatie zelf vaag of tegenstrijdig is.”
Alles is nog steeds mensenwerk en dat zal het ook voorlopig blijven
Probaat middel
Natuurlijk is er nog een ander probaat middel tegen hallucinaties: de large language models niet blind geloven. Die menselijke maat is volgens Van Berlo heel belangrijk. “Stel, je krijgt van ChatGPT een vijfstappenplan: ‘Dit moet je de komende twee uur gaan doen.’ Dan moet je daar met je hele team kritisch naar kijken. Is dit, gegeven de werkelijkheid waarin we ons nu bevinden, wel de meest logische eerste stap? Of moeten we uitwijken naar stap twee en die naar voren schuiven? Logisch, want zo’n model is niet op de hoogte van alle specifieke omstandigheden in je organisatie en het heeft ook geen SWOT-analyse gemaakt van al je collega’s. Alle inschattingen die bij crisisbeheersing komen kijken, het stellen van prioriteiten, en het nemen van de uiteindelijke beslissingen en de verantwoordelijkheid daarover: dat alles is nog steeds mensenwerk. En dat zal het ook voorlopig blijven.”
Goed beeld van de situatie
Stel, over een paar weken begint er een groot muziekfestival. Dan wil je natuurlijk een goed overzicht krijgen van alle risico’s. Welke indicatoren zijn relevant, hoe meet je die en hoe kunnen die eventueel op elkaar inwerken? Volgens Van Berlo kijk je dan niet alleen naar het weer en het aantal mensen, maar je combineert dat ook met andere factoren.
“Zijn er bijvoorbeeld wegwerkzaamheden gepland, en zijn er andere evenementen die misschien ook de inzet van brandweer of politie vragen? En welk type bezoekers komen er? Zijn dat bijvoorbeeld families met kinderen? Al deze gegevens kun je invoeren in een LLM. Die kan de informatie niet alleen snel naar boven halen, maar wordt ook steeds beter in het analyseren ervan, zodat die zelf conclusies kan trekken. Zo kun je weken van tevoren al een redelijk beeld krijgen van de risico’s.”
Volg Security Management op LinkedIn






