Wist je dat de AI Act de allereerste uitgebreide wetgeving ter wereld is die specifiek gericht is op kunstmatige intelligentie (AI)? Deze wetgeving van de Europese Unie (ook wel de EU AI Verordening of simpelweg de AI Act genoemd) is een belangrijke stap in de regulering van AI. De AI Act heeft als doel de ontwikkeling en het gebruik van AI binnen de EU in goede banen te leiden, met aandacht voor veiligheid, transparantie en ethische verantwoording.
Wat is de AI Act precies?
De AI Act regelt de ontwikkeling, het gebruik en de toepassing van AI-systemen binnen de Europese Unie. Het belangrijkste doel van deze wet is het waarborgen van fundamentele rechten, veiligheid en ethische principes.
Voor organisaties die AI inzetten of ontwikkelen, brengt dit specifieke verplichtingen met zich mee. Denk aan het uitvoeren van risicobeoordelingen, het implementeren van transparantiemaatregelen en het waarborgen van menselijke controle over kritieke beslissingen. Dit geldt niet alleen voor grote technologiebedrijven, maar ook voor start-ups, softwareontwikkelaars, inkopers van AI-technologie en organisaties die AI gebruiken in hun dagelijkse bedrijfsvoering, zoals in de gezondheidszorg, financiële dienstverlening of marketing.
De wet is ontworpen om een evenwicht te vinden tussen innovatie en risicobeheer. AI biedt aanzienlijke kansen, maar kan ook risico’s met zich meebrengen, zoals bias in algoritmes, gebrek aan transparantie en veiligheidsproblemen. De AI Act beoogt deze risico’s te beperken zonder technologische vooruitgang te belemmeren.
De AI Act: een risicogebaseerde benadering
Hoewel de AI Act op 1 augustus 2024 in werking is getreden, wordt deze stapsgewijs ingevoerd. Dit betekent dat bedrijven en overheden geleidelijk aan moeten voldoen aan de nieuwe regels. Voor bedrijven die actief zijn in de AI-sector is het van belang om tijdig voorbereid te zijn om nalevingsproblemen te voorkomen.
De risicogebaseerde aanpak houdt in dat AI-systemen worden ingedeeld in verschillende risicocategorieën, afhankelijk van de mogelijke impact op de samenleving:
- Verboden AI-systemen: Systemen die een onaanvaardbaar risico vormen, zoals AI die mensen manipuleert, gebruikt wordt voor sociale scoring door overheden of biometrische surveillance zonder duidelijke rechtvaardiging;
- AI met hoog risico: AI die wordt gebruikt in kritieke sectoren zoals gezondheidszorg, transport of rechtshandhaving. Voor deze systemen gelden strenge eisen op het gebied van transparantie, data governance, menselijke controle en continue monitoring;
- Beperkt risico: AI-systemen waarvoor minder strenge verplichtingen gelden, zoals transparantie-eisen (bijvoorbeeld de verplichting om aan te geven dat men communiceert met een AI-systeem);
- Minimaal risico: Voor de meeste AI-toepassingen, zoals spamfilters of videogames, zijn er nauwelijks regels omdat de risico’s beperkt zijn.
Wat betekent dit voor uw organisatie?
Voor bedrijven die AI ontwikkelen, inkopen of gebruiken, is de AI Act meer dan een juridische verplichting. Het naleven van deze regelgeving biedt ook de mogelijkheid om het vertrouwen van klanten en stakeholders te versterken. Door te voldoen aan regels op het gebied van AI-veiligheid en ethiek, kan uw organisatie zich onderscheiden als een betrouwbare en toekomstgerichte speler in de markt.
Bij Guldemond Advocaten ondersteunen wij bedrijven bij de implementatie van de vereisten van de AI Act, denk aan juridische advisering, compliance-audits, risicobeoordelingen of contractbeheer binnen uw organisatie.
Wat kunt u verwachten in De AI Act: wist je dat… (Deel 2)?
In het volgende deel van deze serie bespreken we hoe de AI Act impact heeft op zes belangrijke deelnemers in de AI-waardeketen, zowel binnen als buiten de EU. We gaan in op de verantwoordelijkheden van deze partijen en hoe zij zich kunnen voorbereiden op de naleving van de nieuwe regelgeving