Geplaatst 10-12-24
De digitalisering van onze samenleving gaat razendsnel. Van webformulieren voor vergunningen tot slimme AI-systemen: we worden steeds meer afhankelijk van technologie. Maar hoe zorgen we ervoor dat deze innovaties eerlijk, veilig en verantwoord blijven? Tijdens onze recente partnerbijeenkomst heeft Mark Zijlstra van ICTRecht uitgelegd hoe de AI Act en de bredere Digital Decade strategie van de EU deze uitdagingen aanpakken. Hieronder een korte samenvatting.
Wat is de Digital Decade?
De Digital Decade is een ambitieus programma van de Europese Unie om iedereen mee te nemen in de digitale transformatie. Het doel is om onze maatschappij digitaal vaardiger en efficiënter te maken via vier pijlers:
- Digitale vaardigheden: mensen de kennis geven om met nieuwe technologieën te werken.
- Digitale infrastructuur: investeren in snelle netwerken en veilige systemen.
- Digitalisering van bedrijven: MKB en grote organisaties helpen innoveren met digitale tools.
- Digitalisering van overheid en publieke diensten: Denk aan digitale identiteiten waarmee je overal kunt inloggen.
Het motto? Wat offline geldt, moet ook online gelden. Maar de digitalisering roept nieuwe juridische vragen op. Bijvoorbeeld: wie is verantwoordelijk voor schade in augmented reality (zoals bij Pokémon GO), en hoe reguleren we bedrijven die 'te groot' lijken om regels op te leggen? De EU probeert grip te krijgen via verschillende wetgevingen. Denk aan de GDPR voor privacy en nu de AI Act, specifiek gericht op kunstmatige intelligentie.
Wat is de AI Act?
De AI Act is de eerste Europese wetgeving die specifiek gericht is op kunstmatige intelligentie. Het doel is duidelijk: AI moet veilig, eerlijk en transparant zijn, en burgers moeten beschermd worden.
Hoe pakt de EU dit aan?
1. Risicogebaseerde aanpak
AI-toepassingen worden ingedeeld in risicocategorieën:
- Verboden AI: systemen die rechten van mensen schenden, zoals sociale scoring.
- Hoogrisico AI: denk aan AI voor kredietbeoordelingen of veiligheidssystemen. Hier gelden strenge eisen, zoals CE-markeringen, menselijke toetsing en robuustheid.
- Laagrisico AI: bijvoorbeeld chatbots. Hier gelden lichtere eisen, zoals verplichte transparantie (je moet zeggen dat je met een bot praat).
2. Zeven eisen voor betrouwbare AI
De AI Act stelt eisen aan alle AI-systemen:
- Menselijke controle en menselijk toezicht
- Technische robuustheid en veiligheid
- Privacy en datagovernance
- Transparantie
- Diversiteit, non-discriminatie en rechtvaardigheid
- Maatschappelijk en milieuwelzijn
- Verantwoording
3. Verantwoordelijkheid van ontwikkelaars en gebruikers
Als jouw organisatie AI implementeert, moet je nagaan of jouw toepassing onder de AI Act valt. Zelfs simpele toepassingen, zoals een chatbot, kunnen al regels triggeren.
Wat betekent dit concreet voor jou?
Stel: jouw bedrijf ontwikkelt een AI-toepassing of importeert er één. Dan heb je verschillende verantwoordelijkheden afhankelijk van je rol.
- Aanbieder: jij brengt het systeem op de markt.
- Gebruiksverantwoordelijke: de organisatie die de AI inzet.
Voor hoogrisico AI-systemen moet je voldoen aan specifieke eisen, zoals:
- Training voor gebruikers (dit geldt overigens voor iedere organisatie die AI inzet).
- Veilige en robuuste systemen met menselijke controle.
- Risicobeoordelingen en CE-markeringen.
- Het op orde hebben van de betreffende documentatie.
De AI Act wordt pas in augustus 2026 volledig van kracht, maar systemen die vóór die datum in gebruik zijn, vallen nog niet onder de verplichtingen. Dit geeft organisaties tijd om zich aan te passen.
Waarom is dit belangrijk?
AI wordt al meer gebruikt dan veel mensen denken. Het zit in chatbots, kredietbeoordelingen, gezondheidszorg en zelfs drones. Maar niet alle AI-systemen zijn veilig of ethisch verantwoord. De AI Act zorgt ervoor dat de rechten van burgers beschermd blijven.
Praktische tip: ga na of jouw AI-toepassing compliant is. Gebruik daarbij tools en adviezen, zoals de blogs van ICTRecht. Weet je niet zeker of jouw toepassing onder de AI Act valt? Begin dan met een bewustwordingssessie in jouw organisatie.
AI Act is een wake-up call
Mark benadrukt dat de scope van de AI Act niet zo breed is als de AVG, maar wel grote impact heeft. De AI Act heeft vooral impact op bedrijven met een hoog risico en daarmee is het voor minder bedrijven zorgwekkend. Vooral voor bedrijven die met hoogrisico AI werken, is het slim om nu al te starten met voorbereidingen. De kern van de AI Act draait om vertrouwen. Door compliance serieus te nemen, laat je zien dat jouw organisatie AI verantwoord gebruikt en dat je het belang van je klanten en gebruikers vooropstelt. Heb jij al nagedacht over wat de AI Act betekent voor jouw organisatie?
De AI Act reguleert het gebruik van algoritmes en Artificial Intelligence (AI) en eist dat risico’s voor mens en maatschappij worden geminimaliseerd. Wat is er nu afgesproken en hoe zorg je ervoor dat je aantoonbaar gaat voldoen aan die AI Act? De eerste vervolgstappen zijn al gezet om hier samen met ICTRecht wat duidelijkheid en houvast in te gaan aanbrengen. Tot die tijd kun je ook de speciale AI-Act webpagina van ICTRecht bezoeken en onder andere de gratis AI Act checklist doen.
Benieuwd naar de andere sessies?
Lees hier de verslagen van de andere sessies van de Partnerbijeenkomst van 26 november in Kasteel Woerden: