Een paar weken terug vroeg ik me af hoe ik slim kon leren van de beste mensen ter wereld over hoe ik mijn Claude Code setup kon verbeteren. Er zijn namelijk overal mensen die ontdekken hoe je slimmer met tokens kunt omgaan (wat geld scheelt), hoe je agents en skills kunt inzetten en ontwerpen, en hoe je je hele workflow robuuster maakt. Ik wil daar graag van leren, maar zonder dat ik naar een workshop moet of uren video's hoef te bekijken.
Ik ontdekte hoe ik een systeem kon maken dat elke week slimmer wordt in het zoeken naar waardevolle bronnen. Steeds meer mensen om me heen zijn zelf aan het bouwen met Claude Code en een eigen server, en een aantal van hen vroeg me hoe ik dit had aangepakt. Vandaar dit blog.
Twintig slimme vragen die gesteld worden terwijl ik slaap
Ik schreef eerder over cronjobs, die krachtige computertool uit de jaren zeventig waarmee je computer op vaste tijdstippen automatisch taken uitvoert. Ik realiseerde me dat mijn computer meestal uitstaat, dus ik had hiervoor een server nodig op internet die dag en nacht aan staat. Dat vormde de basis.
Naast mijn eigen ThetaOS draait inmiddels ook een servervariant die dag en nacht online is. En omdat ik via API's (de digitale stopcontacten waarmee software rechtstreeks met andere software en AI-modellen kan communiceren) kan praten met ChatGPT en Gemini, kan mijn server die modellen aan het werk zetten terwijl ik slaap.
Werken met Claude Code (de command-line tool waarmee je AI rechtstreeks software kunt laten bouwen en verbeteren) kent inmiddels zo'n twintig bouwstenen die bepalen hoe krachtig je workflow wordt. Denk aan commands (opdrachten die je zelf aanroept), hooks (automatische acties die worden uitgevoerd bij bepaalde gebeurtenissen), skills (kennispakketten die Claude kan raadplegen) en agents (zelfstandig opererende AI-processen). Daarnaast zijn er zaken als context- en tokenmanagement, waarmee je bepaalt welke informatie het model meekrijgt en hoeveel dat kost.
Wereldwijd zijn er honderdduizenden mensen met Claude Code aan het werk, en elke week ontdekt iemand weer iets nieuws. Hoe blijf je daar systematisch van op de hoogte zonder zelf elke dag alles te moeten volgen?
Voor elk van die onderdelen heb ik een gespecialiseerde zoekprompt ontwikkeld. Elke prompt heeft één taak: zoek alles wat er de afgelopen week is gepubliceerd over dit specifieke onderwerp. Ik filter op inhoudelijke stukken van meer dan duizend woorden, zodat het oppervlakkige spul eruit valt en alleen de doordachte analyses overblijven.
Dit is bijvoorbeeld de prompt voor kostenoptimalisatie:
You are a research assistant. Your ONLY job is to output structured data in the exact format specified.
TASK: Search the web for articles about Claude Code cost optimization, token reduction, or prompt caching. Only include articles published in the last 7 days.
OUTPUT FORMAT (you MUST follow this exactly): TITEL: [article title] AUTEUR: [author name or Onbekend] BRON: [website] DATUM: [date or recent] BESPARING: [percentage if mentioned] INZICHT: [one Dutch sentence summary]
Zo heb ik er een stuk of twintig, elk gericht op een ander aspect van Claude Code. Eentje zoekt naar security-inzichten, een ander naar workflowontwerp, weer een ander naar hoe je hooks effectiever inzet.
Van een stuk of twintig prompts naar een heel bruikbaar en leesbaar rapport
Elke donderdag om drie uur 's nachts start de cronjob op mijn server.
De zoekprompts gaan via de API naar ChatGPT, die ze uitvoert met deep research (de functie waarmee ChatGPT uitgebreid het web doorzoekt). Per prompt komt er een gestructureerd overzicht terug van wat er die week is verschenen.
Die verzamelde output gaat vervolgens door naar Gemini, dat de opdracht krijgt om te controleren of er nog relevante zaken gemist zijn en of de bronnen kloppen. Met de regelmaat vindt Gemini nog iets extra's of corrigeert het een bron die niet bleek te kloppen. Ik gebruik expres twee modellen, in het kader van better safe than sorry.
Daarna wordt alles vergeleken met drie bestanden op mijn server. Het eerste bevat het volledige ontwerp van mijn systeem. Het tweede beschrijft wat ik al toepas rond die Claude Code-elementen. En het derde is een gewogen index van bronnen, een lijst van denkers, domeinen en blogs die in het verleden waardevolle inzichten opleverden. Bronnen die eerder tot concrete implementaties hebben geleid, hebben daarin een hogere status gekregen. Zo vind ik dus per week steeds meer hoogwaardig materiaal.
Uit die vergelijking wordt een Markdown-rapport gegenereerd met inzichten die ik nog niet toepas en concrete implementatietips. Er zitten ook suggesties bij die bruikbaar zijn voor mensen om mij heen, en instructieblokken in YAML-formaat (een gestandaardiseerde opmaaktaal) die ik rechtstreeks in mijn Claude Code-omgeving kan laden.
Als ik 's ochtends mijn laptop opendoe, ligt het rapport klaar. Dit is een voorbeeld van een stukje output van een van die prompts:
TITEL: Claude Code Best Practices - GitHub Prompting Guide AUTEUR: GitHub Community BRON: github.com DATUM: 2026-02-01 BESPARING: 40-60% INZICHT: Beheer context via CLAUDE.md, gebruik /clear, en ontwerp token-efficiënte tools.
TITEL: Claude Code Context Management: Pro Tips AUTEUR: Eli Chen, Paxton Maeder-York BRON: medium.com DATUM: 2025-09-29 INZICHT: Gebruik # om taken op te slaan, time memory compressie strategisch, laat Claude eerst plannen.
TITEL: Why Your Claude Code Is Instantly Compacting AUTEUR: Dr. Ernesto Lee BRON: dev.to DATUM: 2026-01-02 BESPARING: 30% INZICHT: Context degradatie is de grootste foutbron; gebruik /mcp om MCP servers te auditen.
Dat is de ruwe oogst van één prompt. Vermenigvuldig dat met een stuk of twintig en je snapt waarom er soms negentig voorstellen in het rapport staan.
Ik weeg zelf af wat ik wel of niet implementeer in mijn bestaande codebase
Ik krijg het rapport via OpenClawd binnen in Signal. Die Markdown-file sleep ik naar Claude Code, die ik geleerd heb wat de bedoeling is als hij zo'n bestand tegenkomt. Dan begint het proces. Ik loop handmatig één voor één het hele rapport door, soms liggen er dertig voorstellen en soms wel negentig. Nieuwe dingen leren ging nog nooit zo snel. Bij elk voorstel kan ik met een cijfer antwoord geven: implementeren, overslaan of nader onderzoeken.
Bij elk voorstel stel ik mezelf dezelfde vragen. Maakt dit mijn systeem robuuster? Is het schaalbaar? Gaat het niet ten koste van de veiligheid? Past het bij de architectuur die ik in een half jaar heb opgebouwd? Meestal kan ik op basis van de toelichting bij het voorstel goed inschatten of het een verbetering is. En wat me opvalt na al die maanden is dat ik bij elke volledige audit steeds minder hoef te repareren of aan te vullen.
Maar het meest interessante zit in wat er na elke keuze gebeurt. Wanneer ik een voorstel implementeer, wordt de bron waaruit het kwam automatisch opgenomen in mijn tabel met waardevolle bronnen. Die bron krijgt voortaan extra gewicht in toekomstige zoekrondes. Het systeem wordt daardoor elke week iets slimmer, niet omdat het model verandert, maar omdat mijn ecosysteem leert van de keuzes die ik maak.
Van bronnen volgen naar een semi-automatische leermachine
Deze manier van werken lijkt een beetje op het volgen van RSS-feeds, behalve dat het automatisch gaat en er een lerend mechanisme in zit. Bij RSS bepaal je vooraf welke bronnen je volgt en daar blijf je aan vast. Nieuwe denkers komen pas binnen als je ze al kent, en de kwaliteit van wat je te zien krijgt hangt volledig af van je initiële selectie.
Mijn systeem zoekt in een open ruimte en kan bronnen ontdekken die ik nog nooit ben tegengekomen. Eerder waardevolle bronnen krijgen wel hogere ranking, maar nieuwe bronnen worden nooit uitgesloten. En wat het systeem oplevert wordt niet vergeleken met "wat is er nieuw op het web" maar met "wat is er nieuw ten opzichte van wat ik al weet en doe". Dat is iets wezenlijk anders dan informatie ophalen.
In een blog kwam ik deze tegen:
"Prompts are great for suggestions; hooks are guarantees."
Deze zin raakt precies aan waar ik mee bezig ben, want het verschil tussen een prompt die iets suggereert en een hook die gedrag afdwingt is het verschil tussen hopen dat iets gebeurt en er honderd procent op kunnen vertrouwen.
Ik verzon ook nog een list om search bias te voorkomen
Mijn systeem wordt dus per week slimmer, en elke bron die leidt tot implementatie en actie krijgt meer gewicht bij de volgende keer dat ik zoek. Maar daar zit ook een risico bij dat gelukkig te ondervangen was.
Het nadeel van zo systematisch te werk gaan is dat er ongemerkt een voorkeur ontstaat voor bepaalde content. Stel dat ik vooral technische diepgang implementeer, dan gaat het systeem me vanzelf steeds meer van dat soort stukken aanbieden. En als ik veiligheid zwaar laat wegen, krijg ik steeds meer conservatieve optimalisaties te zien. Het systeem gaat daardoor steeds meer in dezelfde richting zoeken. Dat zou kunnen betekenen dat ik waardevolle inzichten mis die net buiten mijn scope vallen.
Je zou dit een soort architecturale echokamer kunnen noemen. Als je alleen maar optimaliseert wat je al hebt, mis je de echte doorbraken. Die ontstaan juist als je iets fundamenteel nieuws tegenkomt, zoals dat onderscheid tussen prompts en hooks. Je zou het een vorm van gecontroleerde paradigmaverschuivingen kunnen noemen.
Daarom heb ik een paar tegenmaatregelen bedacht die ik aan het inbouwen ben. Een deel van de voorstellen moet elke week uit volledig nieuwe bronnen komen, zonder historische weging. En ik wil een eenentwintigste prompt toevoegen die niet vraagt wat er beter kan, maar welke aannames in mijn huidige architectuur eigenlijk ter discussie zouden moeten staan.
Verder ga ik eens per kwartaal de hele cyclus draaien zonder bronweging om te kijken wat er gebeurt als alle bronnen weer gelijk worden behandeld. Als de uitkomsten dan nauwelijks afwijken van de gewogen versie, zoekt mijn systeem te eenzijdig. Ik ga ook bijhouden hoeveel nieuwe auteurs en domeinen er per week opduiken en of de voorstellen die binnenkomen fundamenteel van aard zijn of dat het alleen nog kleine verbeteringen betreft. Want als dat laatste het geval is, moet ik dus ingrijpen. Of dat allemaal werkt zoals ik hoop, moet nog blijken.
Wat ik hier heb gebouwd is een gestructureerde manier om te leren van de besten die ik kan vinden, zonder dat ik daar zelf elke dag achteraan hoef te zitten. Het is sneller dan zelf zoeken en gerichter dan welke workshop ook, en het wordt elke week een beetje preciezer.
Het leuke van het bouwproces en het nadenken over het slimmer maken was het inzicht dat je je eigen leersysteem zou moeten bevragen en zichzelf moet laten uitdagen, zodat je niet steeds meer van hetzelfde krijgt. Ik ga binnenkort op zoek naar wat ik nog meer zou kunnen laten leren op deze manier, want als hij dit kan, kan er vast meer.