EU AI Act en klantenservice: wat moet je regelen vóór augustus 2026?
De AI-verordening is geen toekomstmuziek meer. Dit zijn de verplichtingen, de deadlines en de stappen die jouw organisatie nu moet zetten.
Veel organisaties zetten AI al volop in voor hun klantenservice: automatische antwoorden, slimme routering, chatbots die 24/7 beschikbaar zijn. Wat minder goed is doorgedrongen, is dat de EU AI Act voor een deel van die toepassingen harde verplichtingen meebrengt. En de klok tikt. Vanaf augustus 2026 zijn de regels voor zogenaamde "hoog-risico" AI-systemen volledig van kracht. Een deel van de transparantieverplichtingen geldt bovendien al sinds augustus 2025. Dit artikel legt uit wat de wet van jouw organisatie vraagt, welke klantenservicetoepassingen onder de scope vallen en welke concrete stappen je nu al kunt zetten om niet achter de feiten aan te lopen.
Wat de EU AI Act concreet betekent voor klantcontact
De EU AI Act is de eerste bindende Europese wet die AI-systemen reguleert op basis van het risico dat ze meebrengen. De wet werkt met vier risiconiveaus: onaanvaardbaar, hoog, beperkt en minimaal. Voor de meeste klantenserviceorganisaties zijn met name de categorieën "beperkt risico" en "hoog risico" relevant.
Beperkt risico omvat systemen die direct met mensen communiceren, zoals chatbots en virtuele assistenten. Hier draait alles om transparantie: klanten moeten altijd weten dat ze met een AI-systeem praten. Dat klinkt eenvoudig, maar in de praktijk lopen veel implementaties hier al op vast. Enkele voorbeelden van situaties die nu al niet voldoen:
- Een chatbot die zich met een menselijke naam presenteert zonder duidelijk te maken dat het om AI gaat
- Geautomatiseerde e-mailresponsen zonder vermelding van AI-inzet
- Een virtuele assistent waarbij de "AI-melding" zo klein of verborgen is dat een gemiddelde klant hem mist
Hoog risico is een zwaarder regime. Dit geldt voor AI-systemen die bijdragen aan beslissingen met significante gevolgen voor mensen. In klantenservice-context komt dit minder vaak voor, maar het is zeker niet uitgesloten. Denk aan:
- AI die meebeweegt in kredietbeoordelingen of verzekeringsaanvragen
- Systemen die bepalen of een klant toegang krijgt tot een dienst of bepaalde behandeling
- Geautomatiseerde beslissingen in sectoren als zorg, financiën of overheid
Voor hoog-risico systemen gelden veel verdergaande eisen: uitgebreide documentatie, verplicht menselijk toezicht, een aantoonbaar risicobeoordelingsproces en een heldere verantwoordingsstructuur binnen de organisatie.
Welke klantenservicetoepassingen vallen onder de scope?
Het is verleidelijk om te denken: "wij gebruiken alleen een simpele chatbot, dit geldt niet voor ons." Toch is het verstandig om die aanname kritisch te toetsen. De wet kijkt niet alleen naar hoe jij een systeem gebruikt, maar ook naar het effect ervan op de eindgebruiker.
Dit zijn de toepassingen die je in ieder geval moet beoordelen:
- Chatbots en AI agents Systemen die direct klantvragen beantwoorden, vallen standaard onder de transparantieverplichtingen. Dit geldt ongeacht of je ze zelf hebt gebouwd of afneemt via een platform zoals Zendesk. De verantwoordelijkheid voor naleving ligt bij de organisatie die het systeem inzet, niet uitsluitend bij de leverancier.
- Automatische ticketclassificatie en prioritering Als AI bepaalt hoe snel of op welke manier een klant geholpen wordt, kan dit in bepaalde contexten als hoog-risico worden aangemerkt. Zeker in sectoren als financiële dienstverlening, zorg of andere gereguleerde branches.
- AI-gestuurde sentimentanalyse Systemen die de toon of emotie van een klant analyseren en op basis daarvan de behandeling beïnvloeden, vragen om aandacht voor datakwaliteit, mogelijke bias en documentatieplicht.
- Geautomatiseerde e-mail- en berichtopvolging Ook gedeeltelijk geautomatiseerde communicatie waarbij AI de inhoud of timing bepaalt, valt binnen de scope van de transparantievereisten.
- Voorspellende modellen in klantcontact Denk aan systemen die inschatten of een klant dreigt af te haken, of die automatisch een escalatiepad inzetten. Afhankelijk van de impact op de klant kan ook hier een beoordeling nodig zijn.
De centrale vraag die je jezelf moet stellen: heeft ons AI-systeem een betekenisvolle invloed op de uitkomst voor de klant? Als het antwoord ja is, is verdere beoordeling nodig.
Wat de wet concreet van je vraagt voor augustus 2026
De deadline van augustus 2026 geldt voor de verplichtingen rondom hoog-risico AI-systemen. De transparantievereisten voor beperkt-risico systemen zijn al eerder van kracht geworden, namelijk per augustus 2025. Als je daar nog geen actie op hebt ondernomen, loop je al achter.
Hieronder een overzicht van wat er op je agenda moet staan:
1. Inventariseer al je AI-toepassingen Begin met een volledig overzicht van welke AI-systemen je gebruikt binnen klantenservice. Dat klinkt vanzelfsprekend, maar in de praktijk zijn er vaak meer toepassingen actief dan mensen beseffen. Denk aan ingebouwde AI-functies in je serviceplatform, koppelingen met externe tools en geautomatiseerde workflows die al jaren draaien.
2. Classificeer per toepassing het risiconiveau Gebruik de criteria uit de AI Act om te bepalen welke systemen onder beperkt risico vallen en welke mogelijk als hoog risico moeten worden beoordeeld. Betrek hierbij juridisch advies als je actief bent in een gereguleerde sector.
3. Implementeer transparantiemeldingen Voor alle chatbots en virtuele assistenten: zorg dat klanten direct en duidelijk weten dat ze met AI communiceren. Dit is zowel een technische als een communicatieve aanpassing. Test of de melding ook echt zichtbaar en begrijpelijk is voor de gemiddelde gebruiker.
4. Stel documentatie op voor hoog-risico systemen Hoog-risico toepassingen vereisen een technische documentatie van het systeem, een beschrijving van het doel en de werking, een risicobeoordelingsrapport en een beschrijving van hoe menselijk toezicht is ingericht.
5. Wijs intern verantwoordelijkheid toe De AI Act is geen eenmalige exercitie. Wijs iemand aan die verantwoordelijk is voor AI-governance binnen jouw organisatie. Dit hoeft geen fulltime rol te zijn, maar er moet iemand zijn die wijzigingen bijhoudt, compliance bewaakt en escalatiepaden kent.
6. Stel een beleid op voor continue monitoring Systemen veranderen, integraties worden uitgebreid en de wet heeft uitvoeringsrichtlijnen die nog worden gepubliceerd. Zorg dat je een proces hebt om AI-toepassingen periodiek opnieuw te beoordelen.
Hoe Zendesk omgaat met AI Act-vereisten
Zendesk heeft als groot internationaal platform belang bij het ondersteunen van klanten bij compliance. In hun publieke communicatie erkennen ze de EU AI Act als een relevante ontwikkeling en werken ze aan functionaliteiten die transparantie en controleerbaarheid ondersteunen. Denk aan:
- Metadata over AI-gegenereerde antwoorden, zodat je kunt aantonen wanneer en hoe AI werd ingezet
- Logging van automatische beslissingen en ticketacties
- Configuratieopties voor verplichte disclaimers en meldingen in chatinterfaces
- Rapportagetools waarmee je inzicht krijgt in hoe AI-functies worden gebruikt en wat ze opleveren
Dat neemt niet weg dat de inrichting en het beleid rondom jouw specifieke gebruik jouw verantwoordelijkheid blijft. Zendesk AI biedt de technische basis, maar de organisatorische vertaalslag naar compliance moet je zelf maken. Welke AI-functies zet je aan? Hoe documenteer je dat? Wie is intern verantwoordelijk? Dat zijn vragen die niet door een softwareleverancier voor je worden beantwoord.
Een goed startpunt is een gestructureerde inventarisatie van alle AI-toepassingen binnen je klantenservice-omgeving. Inclusief de AI Agents en geautomatiseerde workflows die je mogelijk al een tijdje draait zonder ze bewust als "AI" te hebben gelabeld.
Veelgemaakte fouten bij AI Act-voorbereiding
Organisaties die nu beginnen met hun voorbereiding, lopen regelmatig tegen dezelfde valkuilen aan. Het is nuttig om die te kennen:
Alleen focussen op de chatbot, en de rest vergeten De chatbot is het meest zichtbare AI-element, maar lang niet het enige. Automatische e-mailafhandeling, interne routeringsalgoritmen en rapportagetools met AI-componenten vallen ook onder de scope.
Compliance als IT-vraagstuk behandelen De AI Act raakt niet alleen techniek, maar ook beleid, communicatie en klantrelaties. Een compliance-traject dat alleen bij IT ligt, mist de bredere organisatorische verankering die nodig is.
Wachten op definitieve uitvoeringsrichtlijnen Sommige organisaties stellen actie uit omdat ze "nog niet alles zeker weten". Dat is begrijpelijk, maar de kernverplichtingen zijn helder genoeg om nu mee aan de slag te gaan. Wie wacht tot alle details vaststaan, heeft te weinig tijd meer.
Denken dat de leverancier het regelt Zendesk, Intercom, Salesforce: geen enkele leverancier regelt compliance voor jou. Ze bieden de tools, jij draagt de verantwoordelijkheid voor hoe je ze inzet.
De volgende stap voor jouw organisatie
De EU AI Act is geen theoretisch risico meer. Voor klantenserviceorganisaties die al werken met chatbots, automatische classificatie of geautomatiseerde communicatie is de vraag niet óf de wet op hen van toepassing is, maar in welke mate en wat dat concreet vraagt.
Organisaties die nu beginnen met een heldere inventarisatie, hebben ruim de tijd om aanpassingen door te voeren voordat de deadline van augustus 2026 geldt voor hoog-risico toepassingen. Wie wacht tot begin 2026, zet zichzelf onder onnodige druk en riskeert implementaties die haastig en onvolledig zijn.
Het goede nieuws: voor de meeste middelgrote klantenservice-organisaties is compliance haalbaar zonder ingrijpende systeemwijzigingen. Het vraagt vooral om helderheid, documentatie en een bewuste keuze over hoe je AI inzet richting klanten. Dat is ook gewoon goed beleid, los van de wet. Klanten waarderen eerlijkheid over hoe je met hun vragen omgaat, en een goed gedocumenteerd AI-gebruik maakt je klantenservice aantoonbaar betrouwbaarder.
Een CX Audit is een effectieve manier om een objectief beeld te krijgen van welke AI-toepassingen je organisatie al gebruikt, waar risico's zitten en welke stappen prioriteit verdienen.
Wil je weten hoe jouw Zendesk-omgeving zich verhoudt tot de AI Act-vereisten en waar de grootste aandachtspunten zitten? Plan een vrijblijvend gesprek met cloudmotion.
Laten we kennismaken
Plan een gesprek
Kies een tijdstip dat je schikt in het venster hiernaast.
Wij horen graag waar wij jullie mee kunnen helpen.
Wil je liever bellen of e-mailen? Dat kan ook.
+31 85 130 58 28













