Wat kunnen wij betekenen voor jouw AI case?
Neem contact met ons op.
Blog
februari 18, 2026
Toen de Universiteit Leiden en de provincie Zuid-Holland ons (Smartshore & Ability) benaderden met de uitdaging om wetenschappelijk onderzoek naar geluidsoverlast toegankelijk te maken voor burgers, beleidsmakers en professionals, wisten we dat traditionele CMS-oplossingen niet zouden volstaan. De Geluidshinder Aanpak-gids (https://geluidshinderaanpak.nl/) bevatte waardevolle, wetenschappelijk onderbouwde oplossingen voor stedelijke geluidsoverlast, maar werd gehinderd door toegangsdrempels, technisch jargon en een statische HTML-structuur.
Dit is het verhaal van hoe we Strapi (https://strapi.io/) gebruikten als ruggengraat van een multi-agent AI-systeem dat ontoegankelijke wetenschappelijke kennis omzet in een intelligente, gepersonaliseerde kennisdienst. En belangrijker nog: het is een blauwdruk voor hoe headless CMS-architectuur AI-toepassingen mogelijk maakt die met traditionele, monolithische systemen ondenkbaar zouden zijn.
De originele gids kende zeven kritieke barrieres:
Content vergrendeld achter authenticatie
Geen semantische HTML-structuur of navigatie
Wetenschappelijk jargon onbegrijpelijk voor practitioners
Nul WCAG-compliance
Geen zoekfunctionaliteit
Statische content waarvoor elke update een ontwikkelaar vereist
Geen contextbegrip of personalisatie
Voor een overheidsorganisatie waren deze barrières niet slechts onhandig — ze vertaalden zich in meetbare kosten: hoge helpdeskdruk, verspilde onderzoeksinvesteringen en gemiste maatschappelijke impact. De vraag werd: hoe transformeren we dit naar een levende, intelligente dienst?
Hier is het cruciale inzicht dat we opdeden: AI-toepassingen vereisen gestructureerde, machine-leesbare content met rijke metadata. Traditionele CMS-platformen zoals WordPress zijn ontworpen voor directe websiterendering; ze vermengen content met presentatie, genereren HTML en missen semantische structuur.
Dit is waar Strapi's API-first architectuur essentieel wordt:
Strapi stelt je content automatisch beschikbaar via een RESTful API. Geen maatwerkontwikkeling, geen HTML-parsing-nachtmerries. Onze AI-pipeline haalt gestructureerde JSON rechtstreeks uit Strapi op met een eenvoudig GET-verzoek:
// Schone, gestructureerde data klaar voor AI-verwerking
const response = await fetch('https://cms.example.com/api/articles?populate=*');
const articles = await response.json();We modelleerden content in Strapi met velden die specifiek zijn ontworpen voor AI-gebruik:
Titel en content (vanzelfsprekend)
Auteur en publicatiedatum (voor geloofwaardigheidssignalen)
Categorie en tags (voor semantische classificatie)
Doelgroepmarkeringen (burger, beleidsmaker, architect, wetenschapper)
Bronvermeldingen en referenties
Deze metadata is niet slechts een leuke toevoeging. Het is cruciaal voor ons multi-agent systeem om intelligente routeringsbeslissingen te nemen.
Overheidstoepassingen vereisen volledige traceerbaarheid. Strapi's ingebouwde versiebeheer stelt ons in staat elke contentwijziging bij te houden — essentieel voor compliance en het debuggen van AI-antwoorden.
Onze oplossing gebruikt Strapi als de enige bron van waarheid in een vijflaagse architectuur:
Laag 1: Contentbeheer (Strapi)
Niet-technische wetenschappers en beleidsmakers beheren content in Strapi's intuïtieve editor. Geen ontwikkelaarsbetrokkenheid nodig voor contentupdates — cruciaal voor het actueel houden van wetenschappelijke kennis.
Laag 2: Geautomatiseerde Datapipeline
Hier schittert Strapi's API. We bouwden een volledig geautomatiseerde pipeline die:
// Vereenvoudigde pipelineflow
async function syncContentToAI() {
// 1. Ophalen uit Strapi API
const articles = await fetchFromStrapi();
// 2. Transformeren naar AI-klaar formaat
const chunks = articles.flatMap(article =>
chunkArticle(article, {
maxChunkSize: 500,
preserveMetadata: true
})
);
// 3. Embeddings genereren
const embeddings = await generateEmbeddings(chunks);
// 4. Opslaan in vectordatabase
await pinecone.upsert(embeddings);
}De chunkingstrategie verdient speciale aandacht. Grote documenten verwarren AI-modellen. Onze oplossing: intelligente chunking die artikelen opsplitst in semantische eenheden (alinea's, secties) met behoud van metadata. Elk fragment behoudt zijn bron-URL, auteur en categorie — essentieel voor citaties en geloofwaardigheid.
Waarom dit belangrijk is: wanneer een gebruiker vraagt naar geluidsdemping, haalt de AI alleen de 3-5 meest relevante fragmenten op in plaats van volledige documenten te verwerken. Dit verbetert de nauwkeurigheid, verlaagt de kosten en maakt nauwkeurige citaties mogelijk.
Laag 3: Vectordatabase (Pinecone)
Fragmenten worden omgezet in vectorembeddings en opgeslagen in Pinecone voor semantisch zoeken. In tegenstelling tot zoeken op trefwoorden begrijpt semantisch zoeken de intentie:
Vraag: "Hoe kan ik voorkomen dat mijn nieuwe woningbouwproject te veel lawaai heeft?"
Traditioneel zoeken: Zoekt naar exacte overeenkomsten van "woningbouwproject" en "lawaai"
Semantisch zoeken: Begrijpt de intentie en haalt content op over geluidsisolatie, stedenbouw, groene buffers — ook als deze exacte termen niet in de vraag staan.
Laag 4: Multi-Agent AI (Flowise)
Hier wordt het interessant. In plaats van een monolithische AI bouwden we een multi-agent systeem waarbij vijf gespecialiseerde agents samenwerken:
Agent 1: Scopebepaling - Bepaalt of de vraag binnen het domein van de gids valt. Voorkomt hallucinatie door vragen buiten scope te weigeren.
Agent 2: Buiten-scope-handler - Biedt nuttige doorverwijzingen wanneer vragen buiten scope vallen, met behoud van positieve gebruikerservaring.
Agent 3: Vector Query - Voert semantisch zoeken uit op Pinecone om relevante contentfragmenten op te halen.
Agent 4: Doelgroepanalyse - Analyseert taalpatronen om het gebruikerstype te identificeren (burger, beleidsmaker, architect, wetenschapper) zonder login of expliciete profielen.
Agent 5: Antwoordformulering - Synthetiseert inputs tot gepersonaliseerde antwoorden die aansluiten bij het expertiseniveau van de doelgroep, bronvermeldingen bevatten die teruglinken naar Strapi-content, en de doelgroepveronderstelling expliciet vermelden ("Dit antwoord is gericht op een beleidsmaker…").
Laag 5: WCAG-Conforme Frontend
De laatste laag is een volledig toegankelijke frontend die voldoet aan WCAG 2.1 AA-normen, zodat de dienst bruikbaar is voor iedereen — inclusief mensen met een beperking.
Onze Strapi-contentstructuur voor AI-verwerking:
// Vereenvoudigd Strapi content type
{
"article": {
"title": "String",
"content": "RichText",
"author": "Relation",
"publishedAt": "DateTime",
"category": "Enumeration",
"tags": "Relation (many)",
"targetAudience": "Enumeration (multiple)",
"scientificReferences": "Component (repeatable)",
"metaDescription": "Text",
"seoKeywords": "Text"
}
}Belangrijkste keuzes:
Rich text voor content (behoudt semantische structuur)
Geënumereerde categorieën (voorkomt inconsistentie)
Veel-op-veel tagreaties (flexibele classificatie)
Doelgroepmarkeringen (maakt personalisatie mogelijk)
Aparte wetenschappelijke referenties (voor integriteit van citaties)
De resultaten valideren onze architectuur:
Operationele Efficiëntie:
Contentupdates propageren binnen minuten naar AI (voorheen: weken aan ontwikkeltijd)
40-60% reductie in routinevragen bij de helpdesk
Nul synchronisatieproblemen (single source of truth)
Gebruikerservaring:
100% WCAG 2.1 AA-compliance
Automatische taaladaptatie op basis van gebruikersprofiel
Volledige transparantie met bronvermeldingen
Real-time actualiteit van content
Strategische Waarde:
Wetenschappelijke kennis die jarenlang ontoegankelijk was, is nu bruikbaar
Schaalbaar blauwdruk voor andere kennisdomeinen (luchtkwaliteit, energie, gezondheidszorg)
Herbruikbare infrastructuur verkort de time-to-market aanzienlijk
Als je AI-gedreven kennisdiensten bouwt, dit zijn onze inzichten:
1. Headless CMS Is Geen Optie. Het Is Essentieel! AI-toepassingen vereisen API-first toegang tot gestructureerde content. Strapi's architectuur maakt dit moeiteloos.
2. Ontwerp Contentmodellen voor Machines ÉN Mensen Denk verder dan websiterendering. Structureer je contenttypes met rijke metadata die intelligente AI-beslissingen mogelijk maakt.
3. Omarm de Pipelinementaliteit Je CMS is het begin van een datapipeline, niet het einde. Ontwerp met geautomatiseerde synchronisatie in gedachten.
4. Single Source of Truth Schaalt Één gecentraliseerde contentrepository (Strapi) die meerdere frontends voedt (web, AI, mobiel) voorkomt de synchronisatienachtmerries die traditionele architecturen teisteren.
5. Multi-Agent > Monolithisch Gespecialiseerde agents met duidelijke verantwoordelijkheden leveren betrouwbaardere, beter onderhoudbare systemen op dan monolithische AI-oplossingen.
Deze architectuur is niet geluidsspecifiek. Hetzelfde blauwdruk is toepasbaar op elk domein waar complexe kennis toegankelijk moet worden: beleidsdocumentatie, medische richtlijnen, technische specificaties en educatieve content.
Als je waardevolle content hebt die vastzit in ontoegankelijke formats, overweeg dan dit: Strapi's headless architectuur maakt niet alleen websites mogelijk. Het maakt intelligente, gepersonaliseerde kennisdiensten mogelijk die echte maatschappelijke impact creëren.
De toekomst van content gaat niet alleen over publiceren. Het gaat over het werkelijk toegankelijk maken van kennis via AI. En die toekomst is gebouwd op API-first, headless CMS-platformen zoals Strapi.
Neem contact met ons op.
