Yellowtail Conclusion is onderdeel van het Conclusion ecosysteem

Director Key Control Dashboard Jochem Snijders over de borging van de AI act

Zo geef je AI een verantwoorde plek in je organisatie

Als GRC-adviseur bij een innovatieve club als Yellowtail zie ik het dagelijks: organisaties die worstelen met nieuwe technologieën. De opkomst van AI roept daarbij niet alleen vragen op over kansen, maar ook over veiligheid, betrouwbaarheid en ethiek. Nu de AI Act definitief is aangenomen, is het duidelijk: dit is geen kwestie van 'later wel regelen', dit vraagt nu om actie. En het goede nieuws? Innovatie en veiligheid sluiten elkaar niet uit. Sterker nog, samen vormen ze de basis voor volwassen en verantwoord AI-gebruik. Benieuwd hoe je dat aanpakt? Dit zijn vijf concrete stappen om de AI Act goed te integreren in je governance-structuur.

2025-02-06 AB2510 Yellowtail portretten hoge resolutie-7703

1. Breng je AI-landschap en risico’s in beeld

Begin met overzicht. Welke AI-toepassingen gebruik je binnen je organisatie? Welke risico’s horen daarbij? En onder welke risicocategorie vallen ze volgens de AI Act? Dit vormt de basis van je GRC-aanpak: wie is waarvoor verantwoordelijk, welke risico’s spelen er en aan welke wet- en regelgeving moet je voldoen?

2. Stel een normenkader en borgingsstructuur op

Nu je weet wat je AI-landschap omvat, kun je het gebruik ervan structureren. Dat kan op twee manieren: Ontwikkel een eigen normenkader met aandacht voor transparantie, datakwaliteit, menselijke controle, privacy, ethiek, auditability en verantwoord gebruik of sluit aan bij bestaande standaarden, zoals ISO/IEC 42001 (AI management system) of ISO/IEC 38507 (AI governance). Verdeel daarnaast de verantwoordelijkheden: wie is proceseigenaar, wie keurt AI-gebruik goed, en hoe loopt de rapportagelijn richting risk, compliance en audit?

3. Leg controle- en rapportageprocessen vast

Beleid is pas wat waard als je het ook kunt aantonen. Zorg daarom voor duidelijke processen rondom risicobeoordelingen, modeldocumentatie, datakwaliteitsreviews en rapportages. Koppel deze processen aan je bestaande risk- en compliance-structuur. Zo wordt AI-borging een geïntegreerd onderdeel van je organisatie, geen los eiland.

4. Laat innovatie en veiligheid elkaar versterken

Veiligheid remt innovatie? Integendeel. Door AI verantwoord in te bedden in je organisatie, creëer je juist ruimte voor veilige experimentatie. Denk aan sandbox-omgevingen, pilot-fases en iteratieve evaluaties. Door vooraf duidelijke ethische én technische kaders te stellen, versnel je vernieuwing zonder risico’s uit het oog te verliezen.

5. Maak van AI-governance een doorlopend proces

AI-governance is geen project met een einddatum. Verwerk AI-compliance in je auditprogramma’s, volg technologische en wettelijke ontwikkelingen en zorg voor continue verbetering. Denk aan jaarlijkse reviews van je normenkader, awareness-sessies voor medewerkers en slimme feedbackloops om te blijven leren van de praktijk.

Tot slot

De AI Act is geen rem, maar een kans. Een kans om AI strategisch én verantwoord in te zetten binnen je organisatie. Of je nu kiest voor een eigen kader of aansluit bij ISO/IEC 42001, het gaat erom dat je AI-gebruik veilig, transparant en toekomstgericht organiseert. Daarmee bouw je aan vertrouwen én versnel je innovatie. En dat is precies waar het om draait.

Hypact Advisor, alles-in-één oplossing voor hypotheekadvies en -bemiddeling

Meer weten over onze diensten?

Neem contact met ons op en duik dieper in de mogelijkheden. Ontdek hoe onze dienstverlening en oplossingen kunnen bijdragen aan jouw organisatie.

Waar kunnen we je mee helpen