AI-Act
Afgelopen week heeft de Europese Unie een voorlopig akkoord bereikt over de AI Act. In dit artikel bespreekt VIA-jurist Guido Grevink de act.
Afgelopen week heeft de Europese Unie een voorlopig akkoord bereikt over de AI Act. Waarom voorlopig? De laatste puntjes moeten nog op de i worden gezet en vervolgens moet het Europees Parlement een definitief akkoord geven. Dit is in principe slechts een formaliteit, waarbij normaal gesproken een wet inhoudelijk niet meer op belangrijke punten wordt aangepast.
De verschillende risiconiveaus
De AI Act regelt, zoals de naam al doet vermoeden, het gebruik van AI-systemen in de Europese Unie. Het maakt hierbij een onderscheid tussen verschillende soorten risiconiveaus:
Er zijn AI-systemen die een onacceptabel hoog risiconiveau vormen. Dit zijn systemen die een dermate hoog risico vormen voor de samenleving dat ze worden verboden. Hierbij kan bijvoorbeeld worden gedacht aan bepaalde vormen van gezichtsherkenningstechnieken in de openbare ruimte. Een stap lager bevinden zich de hoog risico AI-systemen. Het gaat hierbij om AI-systemen die mogelijk een gevaar vormen voor de gezondheid, veiligheid, grondrechten of het milieu. Deze zijn toegestaan, mits ze aan strenge regels voldoen. Zo mogen deze AI-systemen alleen beslissingen maken onder menselijk toezicht en dienen ze te voldoen aan allerlei kwaliteitswaarborgen. Een voorbeeld hiervan is een algoritme dat sollicitanten beoordeelt. De laatste twee soorten AI-systemen zijn die met een beperkt risico en die met een minimaal risico. Het enige verschil tussen deze twee varianten is dat systemen met een beperkt risico aan verschillende transparantieverplichtingen moeten voldoen. Dit betekent dat duidelijk moet worden gecommuniceerd dat het om een AI-systeem gaat, bijvoorbeeld in het geval van deepfakes. De laatste categorie kan behoudens andere wetgeving vrij worden gebruikt.
Bron: Europese Commissie
AI in de advertentiebranche
In welk risiconiveau toepassingen van AI in de advertentiebranche moeten worden ingedeeld, dient door partijen zelf te worden beoordeeld. Let wel op: de verplichtingen uit de AI Act gelden niet alleen voor partijen die de systemen ontwikkelen, maar ook organisaties die AI toepassen moeten deels aan de verplichtingen voldoen. Daarnaast kunnen niet alle toepassingen direct binnen een risiconiveau worden ingedeeld. Foundation modellen zoals ChatGPT en Bard kunnen binnen een breed scala van scenario's worden toegepast, waardoor het afhangt van de toepassing welk risiconiveau het systeem heeft. Partijen die bijvoorbeeld ChatGPT gebruiken om sollicitanten te beoordelen, dienen dan ook zelfstandig ervoor te zorgen dat er bijvoorbeeld mensen toezicht houden op het proces, wat een van de verplichtingen is bij hoog risico AI-systemen.
Desalniettemin zullen de meeste toepassingen van AI binnen de advertentiebranche binnen een van de laatste twee risiconiveaus vallen en kunnen deze zonder al te veel verplichtingen worden gebruikt.
Privacywet en regelgeving spreekuur
Heb je vragen over de AI-Act of andere juridische zaken? Meld je dan aan voor het Privacywet & Regelgeving spreekuur. Tijdens deze maandelijkse call kan je alle relevante vragen stellen over privacywet en regelgeving. Check de VIA agenda voor de eerst volgende sessie. Van tevoren al een vraag delen? Dat kan; neem dan contact op met [email protected]