We kunnen er haast niet meer omheen: DeepSeek. Een Chinese artificial intelligence start-up die met drie miljoen downloads sinds de publiekelijke lancering op 20 januari, razendsnel aansloeg. Toch brengt deze plotse populariteit ook bezorgdheid mee, blogt Siegfried Huijgen, Cybersecurity Expert Benelux bij Proofpoint.
Naast dat de livegang een koersdaling in de Nederlandse chipindustrie veroorzaakte, zijn er meer zorgen. Op 4 februari maakte de Australische regering zelfs bekend dat het een verbod legt op het gebruik van DeepSeek voor overheidsinstanties.
De opkomst van DeepSeek roept een complexe reeks cybersecurityvragen rondom dataprivacy, ethiek, nationale veiligheid en het lekken van gegevens op. Dit moet worden aangepakt naarmate AI-technologie zich verder ontwikkelt en zich steeds beter laat toepassen. Volgens de Nederlandse Autoriteit Persoonsgevens doen gebruikers er verstandig aan om voorzichtig en terughoudend te zijn met het invoeren van gegevens in de chatbot.
Een veilige implementatie van generatieve AI (GenAI) en Large Language Models (LLM’s) vormt tot op de dag van vandaag nog steeds een uitdaging. Er is nog geen specifieke, allesomvattende wetgeving voor het gebruik van GenAI. Wel zijn er initiatieven die toepasbaar zijn op de ontwikkeling, zoals de AVG, het auteursrecht, sectorspecifieke regelgeving voor bijvoorbeeld de financiële sector of zorg en de Europese Act AI. Ondanks het feit dat de Nederlandse overheid de ontwikkeling en toepassing van AI stimuleert, blijft het een veilig en verantwoord gebruik benadrukken. De NL AIC (Nederlandse AI Coalitie) speelt hierin een belangrijke rol.
De toenemende betrokkenheid tussen mensen, GenAI, LLM’s en andere geavanceerde toepassingen vraagt om flexibele, mensgerichte en op maat gemaakte cybersecurity. 47% van de Nederlandse CISO’s ziet volgens het Voice of the CISO GenAI-tools als grootste risico voor de organisatie. De meerderheid van de GenAI-gebruikers past dergelijke tools toe, omdat ze zoeken naar productiviteitswinst. Grote kans dus dat zij bedrijfs- en cyberrisico’s als bijzaak beschouwen. Het gevolg hiervan is dat organisaties hun huidige preventie van gegevensverlies (Data Loss Prevention, DLP) moeten aanpassen aan gedrag en zich richten op het centraal stellen van de mens. Deze human centric-platformen ondersteunen organisaties bij het beschermen tegen onzorgvuldige, kwaadwillende en gecompromitteerde gebruikers die via allerlei communicatiekanalen kunnen binnendringen.
> LEES OOK: Rob T. Lee: AI-security is niet langer optioneel
Privacy-uitdagingen van GenAI
Het grootste punt van zorg is dus databescherming en –privacy. Een vereiste voor het gebruik van DeepSeek is dat de gebruiker, net zoals bij ChatGPT, gegevens invoert. Dit kan via een prompt of vraag die vervolgens als ruwe data wordt verwerkt.
De tool analyseert dit vervolgens met behulp van technieken zoals natuurlijke taalverwerking (natural language processing, NLP) en semantische analyse voordat het de output levert.
Gebruikers van DeepSeek kunnen teksten kopiëren in het promptvak van de tool. Met de zogenaamde ‘promptsplitters’ zijn ze zelfs in staat een nog grotere input mogelijk te maken. Een veelvoorkomend voorbeeld is het kopiëren van een e-mail voor het maken van een reactie, voor het nalopen van de spelling- en grammatica, of zelfs het verbeteren van de toon. Als de mail gevoelige informatie bevat, dan vormt dat een enorm risico. De kans op dataverlies, -misbruik en blootstelling neemt zo namelijk nog meer toe.
Het invoeren van data is niet de enige zorg. De output van GenAI-tools is namelijk net zo beladen. Wanneer medewerkers LLM’s en andere AI-tools gebruiken voor het ontwikkelen van code of content, dan is het ongelooflijk moeilijk om ervoor te zorgen dat de output vrij is van plagiaat, kwetsbaarheden en onnauwkeurigheden. Hierdoor ontstaat de kans dat organisaties worden blootgesteld aan mogelijke beveiligingslekken.
Cybercriminelen profiteren ook van GenAI
Jammer genoeg profiteren cybercriminelen ook van het potentieel om efficiëntie te verhogen. NLP- en LLM-modellen stellen dreigingsactoren en andere kwaadwillenden namelijk ook in staat hun aanvallen te verfijnen. Zo trainen ze bijvoorbeeld op enorme datasets, zoals social mediafeeds en chatlogs. Op die manier maken ze de aanvallen nog persoonlijker en overtuigender.
Daarnaast helpen GenAI-tools cybercriminelen bij het opsporen van fouten in de vertaling bij spelling en grammatica. Cyberaanvallen worden dus steeds geavanceerder en geraffineerder. OpenAI maakte in oktober 2024 bekend dat het wereldwijd meer dan twintig ‘operaties en misleidende netwerken had verstoord. Dit deed het bedrijf naar aanleiding van rapportage over dergelijke activiteiten. Het was de eerste reguliere bevestiging dat AI-tools ingezet kunnen worden voor het verbeteren van offensieve cyberoperaties.
> LEES OOK: Vaardigheden cruciaal voor succesvolle AI implementatie
Vind de juiste balans
GenAI heeft dus zowel positieve als negatieve kanten. Het brengt verschillende risico’s mee, maar het vergroot ook het vermogen om de verdediging te verbeteren en cyberaanvallen de kop in te drukken. Hoewel nieuwe technologieën het dataverlieslandschap veranderen, blijven mensen de kern vormen. Hoe beter het inzicht in AI-interacties is, hoe makkelijker het wordt om potentiële risico’s te beperken. Hierbij is het hebben van context van belang, want alleen zo achterhaal je de intentie en verzamel je bewijs tegen overtredende gebruikers. Organisaties kunnen het zich namelijk niet veroorloven om een medewerker te beschuldigen van het lekken van bedrijfsgegevens zonder onderbouwend bewijs.
Een gemengde en gelaagde aanpak die dreigingsintelligentie, gedrags-AI, detectie-engineering en semantische AI combineert, stelt organisaties in staat tot het blokkeren van meer geavanceerde dreigingen en incidenten met betrekking tot dataverlies. Ook helpt het bij het detecteren van en reageren op dergelijke incidenten. Deze holistische, human centric-aanpak waarschuwt voor afwijkend gedrag dat niet wordt opgemerkt door traditionele, uitsluitend op inhoud gerichte systemen. Dit zorgt voor een betere accuraatheid, operationele efficiëntie en veel minder, of helemaal geen, valse meldingen.
Daarbij komt dat, hoe belangrijk de tools ook zijn, ze weinig betekenen als de gebruiker zich onbewust is van onveranderd gedrag. Het opnemen van AI-risico’s in het DLP-beleid is cruciaal. Organisaties doen er verder verstandig aan duidelijke parameters in te stellen voor het gebruik ervan. Ook doorlopende cybersecurity awareness-trainingen, afgestemd per kwetsbaarheid, dragen bij aan het vergroten van het bewustzijn van de medewerkers. Zo vormen zelfs de meest technologisch geavanceerde cyberrisico’s geen partij meer.
Siegfried Huijgen, Cybersecurity Expert Benelux bij Proofpoint
Volg Security Management op LinkedIn