De opkomst van generatieve AI-systemen versterkt bekende risico’s van digitalisering, zoals discriminatie en onveiligheid. Daarnaast brengt de technologie nieuwe risico’s met zich mee voor intellectueel eigendom en menselijke ontwikkeling. Het huidige en aangekondigde beleid moeten worden doorgelicht en aangescherpt. Organisaties, bedrijven en burgers moeten zich afvragen of ze generatieve AI verantwoord kunnen gebruiken. Dat concludeert het Rathenau Instituut uit nieuw onderzoek dat op 6 december is verschenen.
Het is een reële mogelijkheid dat het huidige en aangekondigde beleid, waaronder de aanstaande Europese AI-verordening, niet voldoende zijn om de risico’s van generatieve AI-systemen tegen te gaan. Het Rathenau Instituut beveelt beleidsmakers en politici aan om nationaal en Europees beleid door te lichten en aan te scherpen, en met de AI-verordening de mogelijkheid te creëren om risicovolle generatieve AI-systemen van de markt te halen. In de tussentijd zijn ondersteuning van toezicht, afspraken met ontwikkelaars en maatschappelijk debat nodig over de wenselijkheid van generatieve AI-systemen zoals ChatGPT, Bard en DALL-E.
Democratische processen onder druk door AI
De opkomst van generatieve AI-systemen versterkt en compliceert bekende risico’s van digitalisering. De productie van desinformatie wordt eenvoudiger en bescherming van data wordt ingewikkelder. En terwijl het al lastig was om transparantie te verkrijgen over de werking van AI-systemen, is dat bij de complexere generatieve AI-systemen vrijwel onmogelijk. Ook brengt generatieve AI nieuwe risico’s met zich mee, zoals voor de bescherming van intellectueel eigendom. De invloed van enkele grote technologiebedrijven was al groot in maatschappelijke domeinen als de zorg of het onderwijs, maar breidt zich verder uit naar de wetenschap. Al met al zet generatieve AI druk op democratische processen zoals de toegang tot kennis, de nieuwsvoorziening en het publieke debat, en wordt het nog lastiger om democratische zeggenschap te krijgen over de technologie.
Beleid ontwikkelen om risico’s tegen te gaan kost tijd
“Politici en beleidsmakers moeten nu aan de slag om de risico’s van generatieve AI tegen te gaan, maar het kost tijd voordat beleid effect zal hebben”, aldus onderzoekscoördinator Linda Kool. “Tot die tijd staat iedere burger en organisatie voor de vraag of zij de technologie op dit moment verantwoord kunnen gebruiken.”
Soorten toepassingen en risico’s van AI in kaart gebracht
De Rathenau-publicatie Generatieve AI biedt overzicht van de soorten toepassingen van generatieve AI en de maatschappelijke impact ervan. Generatieve AI-systemen vormen een doorbraak in de digitalisering, omdat ze in tegenstelling tot andere AI-systemen veel verschillende taken kunnen uitvoeren en kunnen werken met verschillende modaliteiten: tekst, beeld en geluid, maar ook met eiwitstructuren of chemische verbindingen. De technologie is aanzienlijk beter in taal dan andere AI-systemen, waardoor mensen door een chatbot kunnen worden aangesproken, vermaakt of verleid, en een AI-systeem ook niet-routinematige taken kan overnemen.
Het Rathenau Instituut ontwikkelde de publicatie op verzoek van het ministerie van Binnenlandse Zaken en Koninkrijksrelaties. Het onderzoek is gebaseerd op literatuurstudie, werksessies en interviews met deskundigen.
Bron: Rathenau Instituut
Lees meer over AI:
- De echte meerwaarde van AI in security
- AI op de werkvloer: DTC en politie delen tips
- Cybersecurity in 2024: opmars van AI-gedreven hacks
- Voorspellingen over impact AI en post-kwantumcryptografie
- AI steeds belangrijker directieonderdeel, maar juiste kennis ontbreekt nog
Volg Security Management op LinkedIn