Claude Code & You: Wat als de AI er morgen niet meer is?
Het was weer tijd voor onze best practice meeting over Claude Code - wat hebben we geleerd en ontdekt waar onze collega's ook van kunnen leren?
De ontwikkelingen rondom AI blijven elkaar in hoog tempo opvolgen. Deze maand werd Opus 4.7 uitgerold, weer een nieuwe iteratie van Anthropic die net wat eigenwijzer is dan zijn voorganger en dus opnieuw ingezweept moet worden in onze workflow. Reden genoeg voor een nieuwe Claude Code & You-sessie: een informele bijeenkomst waarin collega's laten zien wat ze hebben gebouwd, ontdekt en geleerd. Geen slides en vooral veel "Show what you got." In deze blog praten we je weer bij.
Risico's van wegvallen AI: wat als je account ineens wordt verwijderd?
De sessie opende met een horrorverhaal: een agrarisch bedrijf dat Claude intensief gebruikte, kreeg op een dag te horen dat het hele bedrijfsaccount geblokkeerd was. De reden? Veel vragen over kunstmest, en die kennis wordt nu eenmaal ook gebruikt om explosieven te maken. Het bedrijf kon van de ene op de andere dag niet meer bij hun werk, omdat de API-keys (de digitale sleutels waarmee software toegang krijgt tot de AI) waren ingetrokken. Daardoor kregen ze de toegang ondanks aandringen niet meer terug. Een scenario dat ons aan het denken zette: wat als de AI-assistenten die jij gebruikt er morgen niet meer zijn?
Hoe groot dat risico is, hangt vooral af van hoe diep je werkproces verweven is met één specifieke AI-assistent. Overstappen naar een ander model klinkt simpel, maar in de praktijk is het alsof je halverwege de verhuizing erachter komt dat je nieuwe sleutels alleen op de oude voordeur passen. De belangrijkste les uit de discussie: dit maakt het nog relevanter dat de code die een AI-assistent voor ons schrijft begrijpelijk en onderhoudbaar blijft voor mensen. Want als deze wegvalt, moeten wij er nog wél bij kunnen. Daarnaast experimenteren we met lokale alternatieven die op onze eigen computers draaien, zoals Ollama; minder krachtig dan de grote modellen van Claude en OpenAI, maar genoeg om in nood door te kunnen werken. Voor onze klanten betekent dit vooral één ding: we bouwen geen software waar je in vast komt te zitten.
Multi-agent chatroom: een vergaderzaal vol AI's
Collega Dennis liet zijn nieuwste experiment zien: een chatroom waarin meerdere AI-collega's met elkaar samenwerken. In één scherm kun je verschillende AI-collega's aansturen. Dennis combineert hierin Claude met Codex, een andere AI-assistent van OpenAI die sterk is in het reviewen van code. Het mooie? Ze kunnen elkaar onderling aanspreken en taken doorgeven. Dennis start meestal met Claude, die de vraag analyseert en de code schrijft, waarna Codex de code controleert op fouten en verbeterpunten. De mens zit aan het begin (de opdracht geven) en aan het einde (het eindresultaat beoordelen), maar daartussenin doen de AI's het werk grotendeels zelf.

De toegevoegde waarde zit hem in snelheid en consistentie. Waar je vroeger telkens zelf de schakel was tussen verschillende stappen ("kun je dit even doorsturen?", "kun je dit even controleren?"), nemen de AI's dat overdrachtswerk nu van je over. Slim detail: Dennis kan meerdere chatrooms parallel laten lopen voor verschillende taken en op elk moment ingrijpen als hij ziet dat het de verkeerde kant op gaat. Daarmee verlaagt hij het aantal momenten waarop hij zelf van taak naar taak moet schakelen, een van de grootste energieverslinders in ons werk.
Swarms in de praktijk: meer werk tegelijk
Collega Rob ging dieper in op zijn swarm-aanpak: een werkwijze waarbij meerdere AI-modellen parallel aan verschillende deeltaken werken, in plaats van keurig na elkaar. Hij liet zien hoe een irritante terugkerende fout in een product waar wij aan werken geen losse bugfix werd, maar een complete reeks aan elkaar geschakelde opdrachten. Rob noemt dat zelf een "diamantje": opdrachten die precies in elkaar grijpen en samen het probleem bij de wortel aanpakken. Het resultaat: tot wel vijf taken draaien tegelijkertijd, in plaats van om de beurt.

Een belangrijke les van Rob, en daarna nog eens onderstreept door collega Bas: vertrouw nooit blind op de AI om binnen de lijntjes te kleuren. Vraag je een AI vriendelijk om "geen fouten te maken", dan is dat eerder een suggestie dan een garantie. Guardrails, oftewel geautomatiseerde controles, zijn stukjes software die elke regel code die de AI oplevert systematisch nakijken. Zit er iets niet goed? Dan krijgt de AI-assistent dat direct teruggekoppeld en lost het zelf op, voordat een mens er ook maar naar kijkt. Dat is het verschil tussen hopen op kwaliteit en kwaliteit afdwingen.
Cognitieve bias: ook AI's zijn niet vrij van vooroordelen
Tot slot stond collega Bas stil bij een fascinerend fenomeen: AI's hebben last van dezelfde denkfouten als mensen. Twee voorbeelden. Anchoring bias: het eerste idee dat goed klinkt wordt onbewust de standaard waaraan al het andere wordt afgemeten. En confirmation bias: vervolgvoorstellen bevestigen vooral dat eerste idee, in plaats van het kritisch tegen het licht te houden. Vooral modellen die heel zelfverzekerd overkomen, zijn hier extra vatbaar voor.
Bas' oplossing is verrassend simpel: vraag de AI niet om de oplossing, maar om drie verschillende oplossingsrichtingen, met elk twee voor- en nadelen. Zo dwing je hem om breder te denken en behoud je zelf de regie over de uiteindelijke keuze. Een kleine truc met grote impact, en bovendien direct toepasbaar voor iedereen die zelf met AI werkt: stel niet alleen je vraag, maar vraag ook altijd om alternatieven.
Kortom: de mens blijft de architect
De rode draad door de sessie was glashelder: hoe meer werk we de AI laten doen, hoe belangrijker het wordt dat wij scherp blijven op de kaders. Of het nu gaat om guardrails in de code, een plan B voor wegvallende toegang, of bewust spreiden van oplossingsrichtingen, de mens stuurt aan, de AI voert uit. En zoals altijd na een Claude Code & You: er staat alweer genoeg op de planning voor de volgende keer.
Benieuwd wat AI voor jouw organisatie kan betekenen? Neem contact met ons op en ontdek de mogelijkheden.