Eerste Europese regels voor artificiële intelligentie

De AI-verordening, de allereerste uitgebreide AI-wet ter wereld, bevat regels voor het gebruik van artificiële intelligentie in de EU.

Lees hier hoe deze verordening u zal beschermen.

Als onderdeel van haar digitale strategie wil de EU regels voor artificiële intelligentie (AI) vaststellen om beter vat te krijgen op de voorwaarden voor de ontwikkeling en het gebruik van deze innovatieve technologie. AI kan veel voordelen opleveren, zoals betere gezondheidszorg, veiliger en schoner vervoer, efficiëntere productiemethoden en schonere en duurzamere energie.

In april 2021 maakte de Europese Commissie haar voorstel bekend met de allereerste EU-regels voor AI. Hierin wordt voorgesteld de diverse AI-toepassingen te analyseren en in te delen volgens het risico dat zij inhouden voor gebruikers. Afhankelijk van het risiconiveau zouden er meer of minder regels gelden. Als dit voorstel wordt goedgekeurd, wordt de EU de eerste plek ter wereld waar AI aan regels gebonden zal zijn.

Lees meer over wat artificiële intelligentie is en hoe het wordt gebruikt

Wat volgens het Parlement in de AI-wetgeving moet komen

De prioriteit van het Parlement is ervoor te zorgen dat AI-systemen die in de EU worden gebruikt veilig, transparant, traceerbaar, niet-discriminerend en milieuvriendelijk zijn. Het Parlement vindt dat AI-systemen nooit volledig geautomatiseerd mogen zijn, maar altijd onder menselijk toezicht moeten staan om schadelijke gevolgen te kunnen voorkomen.

Het Parlement pleit daarnaast voor een technologieneutrale, uniforme definitie van AI die geldt voor alle toekomstige AI-systemen.

Lees meer over de voorstellen van het Parlement over AI en zijn visie voor de toekomst van AI

AI-verordening: verschillende regels naargelang het risico

De nieuwe regels houden bepaalde verplichtingen voor aanbieders en gebruikers in, afhankelijk van het risico van de AI-toepassing. Bij veel AI-systemen is het risico minimaal, maar toch moeten ook die worden beoordeeld.

Onaanvaardbaar risico

AI-systemen met een onaanvaardbaar risico zijn systemen die als een gevaar voor de mens worden beschouwd. Deze zullen worden verboden. Het gaat hier onder meer om:

  • cognitieve gedragsmanipulatie van personen of specifieke kwetsbare groepen: bijvoorbeeld speelgoed dat reageert op een stem en dat bij kinderen gevaarlijk gedrag uitlokt;

  • sociale scoring: het classificeren van mensen op basis van hun gedrag, sociaal-economische status of persoonlijke kenmerken;

  • Biometrische identificatie en categorisering van natuurlijke personen

  • biometrische systemen voor identificatie op afstand in real time, zoals gezichtsherkenning

Toch is er ook ruimte voor uitzonderingen voor rechtshandhavingsdoeleinden. Biometrische systemen voor identificatie op afstand in real-time zullen slechts in een beperkt aantal ernstige gevallen worden toegestaan. Aan de andere kant worden systemen voor identificatie op afstand 'achteraf', waarbij de identificatie met aanzienlijke vertraging plaatsvindt, wel toegestaan bij de vervolging van ernstige misdrijven, maar alleen met toestemming van de rechter.

Hoog risico

AI-systemen die een negatief effect hebben op de veiligheid of de grondrechten worden als systemen met een hoog risico beschouwd en worden onderverdeeld in twee categorieën:

1) AI-toepassingen in producten die onder de EU-wetgeving op het gebied van productveiligheid vallen. Voorbeelden hiervan zijn speelgoed, luchtvaartuigen, auto’s, medische hulpmiddelen en liften.

2) AI-systemen op acht verschillende gebieden, die in een EU-databank moeten worden geregistreerd:

  • beheer en exploitatie van kritieke infrastructuur;

  • onderwijs en beroepsopleiding;

  • werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid;

  • toegang tot en gebruik van essentiële particuliere diensten en openbare diensten en uitkeringen;

  • rechtshandhaving;

  • migratie, asiel en beheer van grenscontroles;

  • ondersteuning van rechterlijke instanties bij het uitleggen van feiten en toepassing van het recht.

Alle AI-systemen met een hoog risico krijgen een beoordeling voor zij in de handel worden gebracht en worden tijdens de volledige levensduur van het systeem gevolgd.

Algemeen doel en generatieve AI

Generatieve AI, zoals ChatGPT, zal moeten voldoen aan een aantal transparantievereisten:

  • de toepassingen moeten de vermelding bevatten dat de inhoud is gegenereerd door AI;

  • het model moet zodanig worden ontworpen dat er geen illegale inhoud kan worden gegenereerd;

  • er moet een overzicht worden gegeven van auteursrechtelijk beschermde gegevens die voor het trainen van het systeem zijn gebruikt.


AI-modellen met een grote impact die een systeemrisico kunnen vormen, zoals het meer geavanceerde AI-model GPT-4, zouden grondig moeten worden geëvalueerd en alle ernstige incidenten aan de Commissie moeten rapporteren.

Beperkt risico

AI-systemen met een beperkt risico moeten voldoen aan minimale transparantievereisten om gebruikers in staat te stellen weloverwogen beslissingen te nemen. Na interactie met een toepassing is het dan aan de gebruikers om te beslissen of zij de toepassing willen blijven gebruiken. Het moet aan de gebruikers duidelijk worden gemaakt dat zij interageren met een AI-systeem. Dit geldt onder meer voor AI-systemen die beeld-, audio- of videomateriaal genereren, zoals deepfakes.

Volgende stappen

Op 9 december 2023 bereikte het Parlement een voorlopig akkoord met de Raad over de AI-wet. De overeengekomen tekst moet nu formeel worden aangenomen door zowel het Parlement als de Raad om EU-wetgeving te worden.

De commissie interne markt en de commissie burgerlijke vrijheden van het Parlement zullen tijdens een volgende vergadering over het akkoord stemmen.

Meer over de digitale maatregelen van de EU

Meer informatie over artificiële intelligentie


Apps, Cloud & DigitalF.F.F.Politiek akkoord over verordening artificiële intelligentie : ja, maar ...

Mots clés

Articles recommandés

Een bedrijf oprichten of een bedrijf overnemen? zoek de 7 verschillen

Enorme demografische uitdaging voor China en Europa

Federale staatsschuld per einde februari 2024 : berekening ?