Compliance & AI
De inzet van AI brengt baten met zich mee, maar ook risico's. Bij 42 hebben we diverse behandelopties in het leven geroepen om de risico's te mitigeren, zodat we maximaal kunnen inzetten op het verwezenlijken van de belofte van AI.

42 neemt informatieveiligheid serieus. De opkomst van AI brengt een hele reeks van nieuwe risico's met zich mee waarop geacteerd moet worden. Het pakket maatregelen is volop in ontwikkeling, maar een aantal zijn al in gebruik. Elk van deze maatregelen heeft één hoofddoel en dat is verzorgen dat onze klanten en wijzelf geen schade ondervinden van de neveneffecten van de inzet van AI.
Doorlichten AI modellen & tools
Vóór gebruik van een AI model of tools is toegestaan wordt het eerst doorgelicht volgens onze AI compliance regels. Zaken waarop gelet wordt zijn:
- content wordt niet of tenminste zo kort mogelijk opgeslagen bij de verwerkende partij
- indien content wordt opgeslagen, dan is toegang tot deze content in sterke mate beperkt
- content wordt niet gebruikt voor training van het model
- gedragsdata mag niet traceerbaar zijn naar individuele gebruikers, tenzij bekend en akkoord door de gebruiker
- achterliggende modellen zijn AI-compliant
Ieder AI model of tool wordt getoetst door de vrijgegeven documenten – denk aan privacy reglement, data usage, terms of use, inzichten in de security architectuur etc – tegen de criteria te toetsen. Partijen die sowieso niet vertrouwd worden (zoals bv de Communistische Partij in China) worden uitgesloten ongeacht wat hun documentatie stelt. De uitslag van de toetsing wordt intern gepubliceerd en via de maandelijkse nieuwsbrief medegedeeld, zodat medewerkers weten of het model/tool in gebruik genomen kan worden.
De toetsing kost doorgaans een paar uur. Iedere medewerker kan tools en modellen aandragen voor toetsing op AI compliance.
Gedragsregels
Medewerkers weten wat niet mag als gewerkt wordt met een AI modellen en tools en dat is:
- modellen/tools die de toetsing op AI compliance niet hebben doorstaan mogen niet gebruikt worden
- modellen/tools die nog niet getoetst zijn op AI compliance mogen niet gebruikt worden, tenzij nadrukkelijk toestemming is verleend, veelal onder voorwaarden.
- het is ten strengste verboden om klantdata te voeden aan AI tools en modellen
- het is ten strengste verboden om privacy-gevoelige gegevens te voeden aan AI tools of modellen
Uit onze kennistoetsingen blijkt dat onze medewerkers een hoog bewustzijn hebben op het gebied van informatiebeveiliging, wat zich niet zelden uit in pro-actief adviseren waar risico's gezien worden.
Eigen risico-domein
Omdat AI een cross-cutting concern is wat al onze bedrijfsprocessen raakt, hebben we besloten AI te positioneren als eigen risico-domein onder ons ISMS (ISO-27001). Naarmate de technologie meer uitstabiliseert krijgt het mogelijk onderdak bij één van de andere domeinen, maar vooralsnog vinden we een status aparte voor AI een gepaste maatregel om snel te kunnen inspelen op technologie waar bijna wekelijks doorbraken, met bijbehorende risico's, plaatsvinden.
Een voorbeeld van een gevonden risico is massale outage van AI's, waar gedeeltelijk op te mitigeren is door inzet van lokale LLM's, leidend tot graceful degradation van de dienst, dat duidelijk als dusdanig gemeld met een systeembericht. Een ander voorbeeld is als een model-upgrade leidt tot ander gedrag, zoals het geval was bij de upgrade van Sonnet 3.7 naar 4, waarop gemitigeerd kan worden door de modellen te valideren tegen interne benchmarks uitgerust met taakgerichte tests.
Pro-actieve regie
Binnen het bedrijf is een AI taskforce in het leven geroepen die de ontwikkelingen nauwlettend volgen. Geïdentificeerde risico's worden overlegd met het ISMS-team, met mogelijk ad hoc risicoanalyses en bijbehorende behandelopties tot gevolg. Zodra een behandeloptie wordt toegevoegd, valt die onder regie van het ISMS-team, waar toegezien wordt op naleving en opvolging.