Overslaan en naar de inhoud gaan Overslaan en naar de footer gaan Overslaan en naar de zoekbalk gaan Overslaan en naar de navigatie gaan

AI-taalmodellen en Europese kernwaarden

Martin van Amersfoorth
Martin van Amersfoorth
8 minuten
10 maart 2025
AI Action Summit in Parijs

Het spanningsveld rond Europa en AI

Recente uitspraken van de Amerikaanse president Donald Trump en vice-president JD Vance benadrukken de spanningen tussen Europa en de Verenigde Staten op het gebied van kunstmatige intelligentie (AI). 

Tijdens de AI Action Summit in Parijs stelde Vance: "Ik ben hier niet om te praten over AI Safety… ik ben hier om te praten over AI Opportunity." Daarmee zette hij de Europese AI-regelgeving, die gericht is op de bescherming van burgers, lijnrecht tegenover de Amerikaanse benadering, waarin economische belangen en winst centraal staan.

Trump ging nog een stap verder en beweerde dat de Europese Unie is "opgericht om de VS een loer te draaien", met als enige doel Amerika te benadelen. Deze retoriek negeert de ware oorsprong en waarden van de EU. De Europese Unie werd na de Tweede Wereldoorlog opgericht om toekomstige conflicten te voorkomen, economische welvaart te stimuleren en kernwaarden zoals menselijke waardigheid, gelijkheid en vrijheid te waarborgen—niet om de VS tegen te werken.

Europese kernwaarden belangrijk voor AI

Vertrouwen in nieuwe technologie is gebouwd op deze kernwaarden. Net zoals de Europese Unie draait om onderling vertrouwen tussen landen, vereist de acceptatie van AI vertrouwen tussen gebruikers, organisaties en technologieaanbieders. Europese organisaties die AI inzetten, moeten erop kunnen rekenen dat hun leveranciers Europese waarden respecteren en voldoen aan de regelgeving. Alleen dan kunnen ze op een duurzame manier profiteren van AI-innovatie.

Daarom zet de EU expliciet in op trustworthy AI als leidend principe. AI-toepassingen in Europa moeten niet alleen veilig zijn, maar ook fundamentele rechten en Europese waarden respecteren.

Betrouwbare AI voldoet aan drie essentiële criteria: ze is wettig, ethisch en robuust. Dit drieluik is vastgelegd in de richtlijnen van de EU-expertgroep voor AI-ethiek:

  • Wettig: AI moet altijd in lijn zijn met de geldende wetgeving, zoals de AVG voor privacybescherming.
  • Ethisch: AI moet de waarden en normen van onze samenleving respecteren.
  • Robuust: AI moet technisch betrouwbaar en veerkrachtig zijn, ook in onvoorziene situaties.

Pas wanneer aan al deze voorwaarden is voldaan, kan AI als echt betrouwbaar worden beschouwd.

Regels voor betrouwbare AI

Om betrouwbare AI in Europa te waarborgen, heeft de Europese Unie een baanbrekende wet aangenomen: de AI Act. Dit is het eerste uitgebreide juridische kader ter wereld voor kunstmatige intelligentie. 

De wet heeft twee hoofddoelen

  1. Het beperken van AI-gerelateerde risico’s.
  2. Het versterken van de Europese positie op dit gebied.

De AI Act (Verordening (EU) 2024/1689) is in augustus 2024 in werking getreden. Na een overgangsperiode zullen de meeste verplichtingen vanaf augustus 2025 gelden voor alle nieuwe AI-systemen binnen de EU. 

AI-systemen op de Europese markt moeten veilig zijn en de fundamentele rechten en waarden van de EU respecteren.

Risico-gebaseerde aanpak

De AI Act deelt AI-systemen in op basis van risico:

  • Verboden AI
    Toepassingen met een onaanvaardbaar risico zijn volledig verboden. Denk aan social scoring en real-time biometrische surveillance, zoals die in sommige landen worden gebruikt.
     
  • Hoog risico
    Strenge regels gelden voor AI-toepassingen die gezondheid, veiligheid of rechten van burgers kunnen beïnvloeden.
     
  • Beperkt risico
    AI-systemen waarvoor transparantie nodig is. Bijvoorbeeld: generatieve AI in klantenservice moet duidelijk herkenbaar zijn, zodat gebruikers geïnformeerde keuzes kunnen maken.
     
  • Laag risico
    Voor alle andere AI-toepassingen gelden geen specifieke verplichtingen.

Vanaf augustus 2025 moeten alle nieuwe AI-systemen aan deze wetgeving voldoen.

Verplichtingen van AI-leveranciers

Bij de totstandkoming van de AI Act hebben leveranciers van grote taalmodellen intensief gelobbyd om hun technologie buiten de regelgeving te houden. Ze stelden voor om zichzelf te reguleren en wilden voorkomen dat Europa sancties kon opleggen als er iets misging. Dit voorstel is echter niet aangenomen. Taalmodellen vallen nu onder de categorie General Purpose AI (GPAI). Tegelijkertijd houdt de wet wel rekening met initiatieven vanuit de industrie om AI veilig te maken.

Wat betekent dat?

Transparantie
Leveranciers van AI-systemen zijn verplicht om inzicht te geven in de ontwikkeling van hun taalmodellen. Dit betekent dat ze gedetailleerde informatie moeten verstrekken over:

  • De gebruikte trainingsdata
  • De toegepaste trainingsmethoden
  • Hoe de modellen tot resultaten komen (mechanistic interpretability)

Deze transparantie stelt afnemers in staat om te beoordelen of een model geschikt en veilig is voor hun gebruik. Veel leveranciers delen deze informatie al vrijwillig, bijvoorbeeld via model cards en wetenschappelijke publicaties.

Compliance
AI-systemen moeten intellectueel eigendom, Europese waarden en fundamentele rechten respecteren. De wet verbiedt expliciet AI-toepassingen die in strijd zijn met democratie, gelijkheid, menselijke waardigheid of andere grondrechten.

Voor taalmodellen betekent dit dat de meeste leveranciers een eigen gedragscode hanteren. Ze passen technieken toe zoals Reinforcement Learning from Human Feedback (RLHF) en systeem-prompts om hun modellen in lijn te brengen met menselijke waarden.

Risicobeheer
Vooral leveranciers van grote taalmodellen, zoals OpenAI’s GPT, moeten regelmatig risicoanalyses uitvoeren. Deze assessments richten zich op:

  • De maatschappelijke impact van hun taalmodellen
  • Het verplicht beperken van eventuele risico’s
  • Het rapporteren over energieverbruik

Door deze maatregelen zorgt de wet ervoor dat AI veiliger en verantwoorder wordt ingezet binnen Europa.

Gevolgen voor leveranciers

De AI Act is ook van toepassing op taalmodellen en dient als juridisch instrument om ervoor te zorgen dat leveranciers zich niet alleen aan hun eigen gedragscode houden, maar ook de Europese kernwaarden respecteren.

Juist bij die kernwaarden kan het misgaan. In de Verenigde Staten wordt onder de huidige president al actief ingezet op het terugdringen van frameworks zoals Diversity, Equity & Inclusion (DEI). Sommige Amerikaanse bedrijven ervaren publieke druk om hun interne inclusieprogramma’s stop te zetten. De vraag is niet zozeer óf dit effect zal doorsijpelen in taalmodellen, maar wanneer en in welke mate – vrijwillig of onder dwang.

Mocht dit gebeuren, dan voorziet de AI Act in strenge sancties. Overtredingen van de wet kunnen leiden tot boetes die vergelijkbaar zijn met die onder de AVG:

  • Voor schending van verboden AI-praktijken kunnen boetes oplopen tot €35 miljoen of 7% van de wereldwijde jaaromzet.
  • Ook bij minder ernstige overtredingen, zoals het ontbreken van transparantiedocumentatie, kunnen boetes worden opgelegd tot €15 miljoen of 3% van de jaaromzet.
  • Daarnaast hebben toezichthouders de bevoegdheid om een niet-conform AI-systeem volledig van de markt te laten verwijderen.

Deze maatregelen onderstrepen het belang van zorgvuldigheid en naleving bij de ontwikkeling en implementatie van taalmodellen in Europa.

Gevolgen voor afnemers

Sancties zijn bedoeld om effectief en afschrikkend te werken – en de verwachting is dat ze ook daadwerkelijk worden opgelegd, zoals eerder gebeurde bij privacy-overtredingen onder de AVG. Maar wat betekent dit voor bedrijven die een gesanctioneerd taalmodel gebruiken?

Organisaties die aanzienlijk hebben geïnvesteerd in een taalmodel, staan voor een lastige keuze. Overstappen op een alternatief brengt kosten en inspanning met zich mee. Blijven werken met een niet-goedgekeurd taalmodel brengt echter risico’s met zich mee: publieke opinie, investeerders of toezichthouders kunnen bedrijven dwingen het systeem alsnog uit te schakelen of te vervangen.

Dit betekent dat bedrijven vooraf goed moeten kijken naar de keuze van het taalmodel. Bedrijven die proactief hun AI-oplossingen afstemmen op de AI Act, behouden flexibiliteit en blijven operationeel, terwijl anderen mogelijk moeten bijsturen.

Hoe kan een organisatie optimaal profiteren van AI zonder in de gevarenzone van regelgeving en desinvestering te belanden? 

3 strategieën

Strategie 1 - Kies voor een open-source taalmodel
De opkomst van open-source AI heeft organisaties nieuwe mogelijkheden geboden om op een transparante en controleerbare manier gebruik te maken van taalmodellen. 

Open-source modellen bieden enkele cruciale voordelen:

  • Meer transparantie en controle
    De modelgewichten en architectuur zijn openbaar, waardoor onafhankelijke experts ze kunnen evalueren op bias, privacyrisico’s en veiligheidsproblemen. Dit in tegenstelling tot gesloten modellen, waarbij gebruikers afhankelijk zijn van de beloften van de aanbieder.
  • Voordeel binnen de AI Act
    Open-source AI-modellen hebben een speciale status binnen de Europese AI-wetgeving. Volgens Artikel 2 van de AI Act vallen AI-systemen die onder een open-source licentie worden vrijgegeven grotendeels buiten de regulering. Hoewel deze uitzondering niet onbeperkt geldt, onderstreept het de intentie van de EU om innovatie via open-source AI te stimuleren.
  • Volledige controle over data
    Open-source modellen kunnen lokaal of binnen een Europese cloudomgeving worden gehost, waardoor organisaties volledige zeggenschap over hun data behouden. Dit past binnen de principes van de Algemene Verordening Gegevensbescherming (AVG) en draagt bij aan gegevenssoevereiniteit.
  • Maatwerk en ethische controle
    Open-source modellen kunnen worden aangepast en verbeterd. Door middel van fine-tuning met eigen data kunnen organisaties biases corrigeren en ervoor zorgen dat de output aansluit bij ethische en beleidsmatige richtlijnen.

Strategie 2 - Kies voor een Europese AI-leverancier
Het Europese AI-ecosysteem groeit snel en biedt steeds meer geavanceerde taalmodellen die voldoen aan de strikte EU-regelgeving en ethische normen. 

Kiezen voor een Europese leverancier biedt diverse voordelen:

  • AI-soevereiniteit en gegevensbescherming
    Data blijft binnen Europa, wat niet alleen goed is voor de AVG-compliance, maar ook voorkomt dat gevoelige gegevens in handen van niet-Europese entiteiten vallen.
  • Modellen afgestemd op Europese talen en cultuur
    Europese AI-leveranciers ontwikkelen modellen met een diepgaand begrip van lokale talen, regelgeving en culturele nuances, wat leidt tot betere prestaties en betrouwbaardere resultaten.
  • Verminderd risico op afhankelijkheid van niet-transparante technologie
    Grote, gesloten AI-modellen uit bijvoorbeeld Silicon Valley kunnen ondoorzichtig zijn of door veranderende regelgeving plotseling ontoegankelijk worden. Europese AI-leveranciers zijn beter afgestemd op de lokale wet- en regelgeving, waardoor organisaties minder afhankelijk zijn van onvoorspelbare externe factoren.

Strategie 3 - Combineer beide strategieën: een open-source taalmodel van een Europese leverancier
De krachtigste aanpak combineert de voordelen van open-source AI met de betrouwbaarheid van een Europese ontwikkelaar. 

Dit betekent:

  • De transparantie en flexibiliteit van open-source modellen
  • De garantie dat het model is ontwikkeld met Europese regelgeving, waarden en talen in gedachten
  • Een bijdrage aan een sterk en onafhankelijk AI-ecosysteem binnen Europa

Steeds meer initiatieven werken aan deze combinatie, wat de weg vrijmaakt voor een AI-toekomst waarin innovatie, compliance en ethiek hand in hand gaan.

Vertrouwen als sleutel tot AI-innovatie in Europa

AI heeft een enorme potentie voor innovatie en efficiëntie. Binnen Europa kan die potentie echter alleen volledig worden benut als AI betrouwbaar is en aansluit bij gedeelde waarden. Door haar geschiedenis begrijpt de EU het belang van technologische vooruitgang zonder concessies te doen aan vrede, vrijheid en burgerrechten.

De aankomende AI Act stelt daarom strikte eisen aan betrouwbare AI. Dat lijkt in eerste instantie een uitdaging voor bedrijven, maar draagt uiteindelijk bij aan een gezonde digitale economie met eerlijke spelregels voor iedereen. Compliance is geen belemmering, maar een essentiële voorwaarde voor duurzame waardecreatie met AI.

Nu is de tijd voor actie!

Voor organisaties is dit hét moment om koers te bepalen. Dit betekent: vaststellen hoe AI binnen de strategie past, de nieuwe regelgeving begrijpen en beoordelen welk taalmodel het meest geschikt is. Door nu actie te ondernemen, voorkomen bedrijven haastwerk en onnodige investeringen in de toekomst.

Wil je meer weten over dit onderwerp? Lees dan mijn techblog over Europe’s Open-Source AI Pioneers!

Je kunt natuurlijk ook direct contact met ons opnemen. We vertellen je graag hoe Finalist jouw organisatie verder kan helpen!

Contactpersoon:

Martin van Amersfoorth / Team principal
Martin van Amersfoorth

Heb je een vraag of wil je met ons overleggen?

Finalist helpt je verder
Bij Finalist draait het allemaal om het opbouwen van verbindingen en het beter leren kennen van jou. Wie weet wat voor prachtige dingen we samen kunnen bereiken dus aarzel niet, Finalist staat voor je klaar!
Neem contact op