Het gebruik van kunstmatige intelligentie in de EU wordt gereguleerd door de AI-wet, ‘s werelds eerste alomvattende AI-wet. Ontdek hoe het u zal beschermen.
Als onderdeel van zijn digitale strategiewil de EU artificiële intelligentie (AI) reguleren om betere voorwaarden te scheppen voor de ontwikkeling en het gebruik van deze innovatieve technologie. AI kan veel voordelen opleveren, zoals betere gezondheidszorg; veiliger en schoner vervoer; efficiëntere productie; en goedkopere en duurzamere energie.
In april 2021 heeft de Europese Commissie de eerste voorgesteld EU regelgevingskader voor AI. Er staat dat AI-systemen die in verschillende toepassingen kunnen worden gebruikt, worden geanalyseerd en geclassificeerd op basis van het risico dat ze vormen voor gebruikers. De verschillende risiconiveaus zullen meer of minder regulering met zich meebrengen. Na goedkeuring zijn dit ‘s werelds eerste regels voor AI.
Wat het Parlement wil in AI-wetgeving
De prioriteit van het Parlement is om ervoor te zorgen dat AI-systemen die in de EU worden gebruikt, veilig, transparant, traceerbaar, niet-discriminerend en milieuvriendelijk zijn. AI-systemen moeten worden gecontroleerd door mensen, in plaats van door automatisering, om schadelijke resultaten te voorkomen.
Het Parlement wil ook een technologieneutrale, uniforme definitie van AI vaststellen die kan worden toegepast op toekomstige AI-systemen.
Leer meer over Het werk van het Parlement op het gebied van AI en zijn visie op de toekomst van AI
AI Act: verschillende regels voor verschillende risiconiveaus
De nieuwe regels stellen verplichtingen vast voor aanbieders en gebruikers, afhankelijk van het risiconiveau van kunstmatige intelligentie. Hoewel veel AI-systemen een minimaal risico vormen, moeten ze worden beoordeeld.
Onaanvaardbaar risico
Onaanvaardbaar risico AI-systemen zijn systemen die als een bedreiging voor mensen worden beschouwd en zullen worden verboden. Ze bevatten:
- Cognitieve gedragsmanipulatie van mensen of specifieke kwetsbare groepen: bijvoorbeeld spraakgestuurd speelgoed dat gevaarlijk gedrag bij kinderen aanmoedigt
- Social scoring: mensen classificeren op basis van gedrag, sociaal-economische status of persoonlijke kenmerken
- Biometrische identificatiesystemen in realtime en op afstand, zoals gezichtsherkenning
Er kunnen enkele uitzonderingen worden toegestaan: Zo zullen biometrische identificatiesystemen op afstand « post » waarbij de identificatie na een aanzienlijke vertraging plaatsvindt, worden toegestaan om ernstige misdrijven te vervolgen, maar alleen na goedkeuring door de rechtbank.
Hoog risico
AI-systemen die een negatieve invloed hebben op de veiligheid of fundamentele rechten, worden als een hoog risico beschouwd en worden in twee categorieën verdeeld:
1) AI-systemen die worden gebruikt in producten die hieronder vallen de productveiligheidswetgeving van de EU. Denk hierbij aan speelgoed, vliegtuigen, auto’s, medische hulpmiddelen en liften.
2) AI-systemen vallen in acht specifieke gebieden die geregistreerd moeten worden in een EU databank:
- Biometrische identificatie en categorisering van natuurlijke personen
- Beheer en exploitatie van kritieke infrastructuur
- Onderwijs en beroepsopleiding
- Werkgelegenheid, werknemersbeheer en toegang tot zelfstandig ondernemerschap
- Toegang tot en genot van essentiële particuliere diensten en openbare diensten en voordelen
- Politie
- Beheer van migratie, asiel en grenscontrole
- Hulp bij juridische interpretatie en toepassing van de wet.
Alle AI-systemen met een hoog risico worden beoordeeld voordat ze op de markt worden gebracht en ook gedurende hun levenscyclus.
Generatieve AI
Generatieve AI, zoals ChatGPT, zou moeten voldoen aan transparantievereisten:
- Openbaar maken dat de inhoud is gegenereerd door AI
- Het model ontwerpen om te voorkomen dat het illegale inhoud genereert
- Samenvattingen publiceren van auteursrechtelijk beschermde gegevens die worden gebruikt voor training
Beperkt risico
AI-systemen met een beperkt risico moeten voldoen aan minimale transparantievereisten die gebruikers in staat stellen weloverwogen beslissingen te nemen. Na interactie met de applicaties kan de gebruiker beslissen of hij deze wil blijven gebruiken. Gebruikers moeten bewust worden gemaakt wanneer ze interactie hebben met AI. Denk hierbij aan AI-systemen die beeld-, audio- of videocontent genereren of manipuleren, bijvoorbeeld deepfakes.
Volgende stappen
Het parlement zal naar verwachting in juni 2023 zijn onderhandelingsstandpunt bepalen, waarna de besprekingen met de EU-landen in de Raad over de definitieve vorm van de wet zullen beginnen.
Het streven is om eind dit jaar tot een akkoord te komen.