Werk vanaf iedere locatie op basis van Microsoft 365.
Breng uw bedrijfsapplicaties naar de Cloud.
Bestel zakelijke apparaten in de webshop.
Herstel data binnen uw Microsoft 365 Cloud omgeving.
Beheer e-mailhandtekeningen in uw organisatie centraal.
Bescherm uw gegevens om verlies te voorkomen.
Bescherm uw apparaten tegen malware en andere dreigingen.
Bescherm tegen aanvallen, zoals phishing, malware en spam.
Voorkom identiteitsdiefstal en ongeoorloofde toegang.
Krijg inzicht in uw beveiligingsrisico’s en aanvalsoppervlak.
Creëer cyber-awareness onder uw medewerkers.
Laat Teams, SharePoint en OneDrive voor u werken.
Vergroot creativiteit en productiviteit in uw organisatie met AI.
Zet SharePoint in als krachtig communicatieplatform.
Houdt grip op wildgroei aan unieke rechten in SharePoint.
Verbind iedereen in de organisatie met elkaar in Viva Engage.
Digitale transformatie met de eindgebruiker als middelpunt.
Persoonlijke begeleiding op de werkvloer.
Een zachte landing in uw Microsoft 365 omgeving.
OfficeGrip Adoptie Consultants beschikbaar via Teams.
Centrale hub voor beleid- en kennisdeling.
Geef nieuwe medewerkers een zachte landing.
Optimale bereikbaarheid met vaste telefonie via Microsoft Teams.
Mobiele telefonie van Odido met Hello Business.
Integreer uw vaste en mobiele nummer binnen Teams.
Veilig internetten onderweg op uw tablet of laptop.
Communicatie & conferentie producten
Een volledig en beveiligd netwerk op kantoor.
Veilige glasvezel internetlijn met Firewall.
Zakelijk glasvezel internet.
Houdt uw netwerk in vorm.
Verbeter het WiFi bereik op kantoor.
Niet alle AI-toepassingen zijn hetzelfde onder de EU AI Act. Sommige AI-gebruiksscenario’s worden door de wet aangemerkt als “high-risk” en dat brengt extra verplichtingen met zich mee.
Gebruik je AI of Microsoft Copilot voor HR, financiële beslissingen, klantbeoordeling of compliance-processen, dan kan je organisatie formeel vallen onder de high-risk categorie. Dat betekent o.a. dat je risicoanalyses, documentatie en menselijk toezicht verplicht moet toepassen.
In deze blog leggen we uit wat “high-risk” precies betekent, hoe je erachter komt of je organisatie hieronder valt en wat je nú moet doen.
De EU AI Act deelt AI-systemen op in risiconiveaus. Systemen met aanzienlijke impact op mensen of bedrijfsbeslissingen worden als high-risk bestempeld¹. Bij high-risk AI gelden striktere regels om ongewenste gevolgen zoals discriminatie, financiële schade of onjuiste besluitvorming te voorkomen.
Volgens de wet gaat het niet alleen om bedrijven die AI bouwen, maar óók om bedrijven die AI gebruiken in gevoelige processen². En daar vallen MKB-bedrijven steeds vaker onder, vooral door de inzet van generatieve AI zoals Microsoft Copilot en AI-functies in HR-tools, CRM-systemen en financiële software.
Veel organisaties denken dat high-risk alleen geldt voor banken of grote techbedrijven. Maar dat is een misverstand.
Volgens Annex III van de EU AI Act kunnen bedrijfsprocessen van het MKB al snel onder high-risk vallen, zoals³:
High-risk domein (Annex III) | Voorbeelden uit de praktijk |
|---|---|
HR & werving | Copilot inzetten voor CV-selectie of beoordeling van kandidaten |
Financiële beoordeling | AI gebruiken voor offerte-beoordeling, kredietbeslissingen of pricing |
Toegang tot diensten | AI gebruiken voor klantacceptatie (bv. IT-diensten of abonnementsvormen) |
Compliance en security | AI gebruiken voor risicosignalen of besluitvorming |
Onderwijs/opleidingen | AI in beoordeling van kandidaten of certificeringsprocessen |
Kritieke bedrijfsprocessen | AI-uitvoer gebruiken voor operationele besluitvorming |
Conclusie: gebruik je AI in processen met gevolgen voor mensen of bedrijfsbeslissingen, dan is de kans groot dat je high-risk AI toepast.
Het gebruik van Copilot op zichzelf is niet high-risk. Maar: hoe je Copilot inzet, bepaalt het risico. Dat staat expliciet in Artikel 26 van de EU AI Act²: de verantwoordelijkheid ligt bij de gebruiker (deployer), dus jouw organisatie.
Gebruik van Copilot | Risico-classificatie |
|---|---|
E-mails schrijven, samenvattingen maken | ✅ Normaal risico |
Kennisbank bouwen met AI | ✅ Normaal risico |
Sollicitaties analyseren met Copilot | ⚠️ High-risk (Annex III – HR) |
Kredietbeoordelingen maken met Copilot | ⚠️ High-risk (Annex III – Finance) |
Aannamebeslissing AI laten doen | ❌ Verboden gebruik (Artikel 5) |
Dan gelden vanuit de EU AI Act extra verplichtingen. Deze gelden vanaf 2026, maar je moet je in 2025 al voorbereiden.
✅ FRIA (Fundamental Rights Impact Assessment) uitvoeren
✅ Menselijk toezicht verplicht organiseren
✅ AI-documentatie bijhouden voor audits
✅ Risicobeheersplan opstellen
✅ Logging en monitoring toepassen
✅ Transparantie naar betrokkenen (interne en/of externe communicatie)
Ja, waarschijnlijk wel als je AI inzet in HR, Finance of klantbeslissingen.
Een FRIA (Fundamental Rights Impact Assessment) is verplicht bij high-risk AI⁶.
Het lijkt op een DPIA voor AI (zoals we kennen uit de AVG), maar dan gericht op risico’s als:
oneerlijke behandeling
bias en discriminatie
veiligheid en betrouwbaarheid van AI-uitvoer
transparantie richting medewerkers of klanten
Gebruik je AI in HR of klantacceptatieprocessen? Dan moet je FRIA uitvoeren vóór ingebruikname.
Microsoft benadrukt dat organisaties zelf verantwoordelijk blijven voor hoe AI wordt toegepast:
“Customers remain responsible for the use of AI in their business processes, including meeting regulatory requirements.”⁸
(Bron: Microsoft Trust Center)
Microsoft neemt dus niet jouw AI-risico’s over. Jij als organisatie moet AI governance toepassen en kunt dit niet afschuiven op de leverancier.
Vraag | High-risk ja/nee? |
|---|---|
Gebruiken we AI in HR of werving? | Ja → High-risk |
Gebruiken we AI in krediet- of klantbeoordelingen? | Ja → High-risk |
Gebruikt AI persoonlijke data om mensen te beoordelen? | Vaak high-risk |
Neemt AI bedrijfskritieke beslissingen zonder menselijk toezicht? | High-risk |
Kunnen AI-uitkomsten mensen benadelen? | High-risk |
Twijfel? Volgens de EU AI Act moet je dan voorzichtigheid toepassen en toch governance en FRIA overwegen.
Ja, 100%.
De AI Act maakt NIET alleen regels voor grote bedrijven. Juist MKB-organisaties gaan AI toepassen in HR en klantprocessen – en vallen daardoor onder high-risk als ze niets regelen⁴.
High-risk AI is dichterbij dan veel organisaties denken. Zodra je AI inzet in processen zoals werving, kredietbeoordeling, klantselectie of evaluaties, val je onder Annex III en daarmee onder strenge regels van de EU AI Act. Dit vraagt om voorbereiding in 2025. Met een duidelijke aanpak kun je AI verantwoord en toekomstgericht toepassen zonder innovatie te vertragen.
¹ EU AI Act – Artikel 4 – AI Literacy
https://artificialintelligenceact.eu/article/4/
² EU AI Act – Artikel 26 – Verantwoordelijkheden AI deployers
https://artificialintelligenceact.eu/article/26/
³ EU AI Act – Annex III – High-Risk AI Gebruik
https://artificialintelligenceact.eu/annex/3/
⁴ EU AI Act – Risicogebaseerde benadering
https://artificialintelligenceact.eu/
⁵ EU AI Act – Artikel 3 – Definitie deployer
https://artificialintelligenceact.eu/article/3/
⁶ EU AI Act – Artikel 27 – FRIA verplichting
https://artificialintelligenceact.eu/article/27/
⁷ Guidance AI Literacy – Europese Commissie
https://digital-strategy.ec.europa.eu/en/policies/ai-literacy
⁸ Microsoft – EU AI Act informatie
https://www.microsoft.com/en-us/trust-center/compliance/eu-ai-act
Benieuwd naar de nieuwste updates in Copilot?
Schrijf je dan nu in voor het gratis webinar!
ADRES
Blauwhekken 5b
4751 XD Oud Gastel
CUSTOMER CARE
LINKS