Onze AI-Stack: Welke Tools en Frameworks Wij Gebruiken
Een transparante blik op de AI-tools, frameworks en infrastructuur die AVARC Solutions gebruikt om intelligente applicaties te bouwen voor klanten.
Introductie
Klanten vragen ons regelmatig welke AI-tools en frameworks we gebruiken. Het is een terechte vraag — de tools die je ontwikkelpartner kiest, bepalen de betrouwbaarheid, kosten en onderhoudbaarheid van het systeem dat ze bouwen. Proprietary lock-in, onvolwassen bibliotheken en slechte abstractielagen kunnen een project jarenlang achtervolgen.
Hier is een transparante blik op onze huidige AI-stack per eind 2025. We updaten dit regelmatig omdat het AI-toolinglandschap snel evolueert, en vasthouden aan verouderde tools net zo risicovol is als achter elk nieuw framework aanrennen.
Taalmodellen: Provider-Diversiteit by Design
Wij committeren niet aan één enkele LLM-provider. Onze systemen zijn ontworpen om te werken met OpenAI, Anthropic, Google Gemini en open-source modellen via een uniforme abstractielaag. Dit laat ons verschillende taken naar het beste model voor de klus routeren: Claude voor genuanceerd redeneren en lange context, GPT-4o voor multimodale taken en kleinere open-source modellen voor classificatie- en extractietaken waar kosten het meest uitmaken.
De Vercel AI SDK is onze primaire interface voor modelinteractie. Het biedt een consistente API over providers heen, ingebouwde streaming-ondersteuning en gestructureerde outputgeneratie die naadloos integreert met TypeScript. Voor agentworkflows die meerstaps-redenering en tool-gebruik vereisen, leggen we LangChain of custom orkestratielogica erbovenop.
Vectoropslag en Retrieval
Voor vectoropslag kiezen we standaard voor Supabase met pgvector omdat het embeddings samen met applicatiedata in één PostgreSQL-database houdt. Dit elimineert de operationele overhead van het beheren van een aparte vectordatabase terwijl het uitstekende queryprestaties levert voor collecties tot enkele miljoenen vectoren.
Voor deployments op grotere schaal of use cases die geavanceerde features vereisen zoals hybride zoeken met ingebouwde reranking, gebruiken we Pinecone of Weaviate. De keuze hangt af van klantvereisten, maar onze applicatiecode abstraheert de vector store achter een retrieval-interface zodat wisselen van provider een configuratiewijziging is, geen herschrijving.
Ontwikkel- en Deployment-Infrastructuur
Onze AI-applicaties zijn gebouwd met Next.js en TypeScript, gedeployd op Vercel met edge functions voor low-latency inference routing. Achtergrondtaken zoals documentverwerking, embeddinggeneratie en batch-rapportcreatie draaien op dedicated serverless functies met langere timeout-limieten.
Voor observability gebruiken we Langfuse om elke AI-interactie te tracen: inputs, outputs, latency, tokenverbruik en kosten per call. Dit geeft ons productievisibiliteit die essentieel is voor debugging, kostenoptimalisatie en kwaliteitsmonitoring. Evaluatiepipelines draaien elke nacht tegen samengestelde testsets om modelregressies op te vangen voordat ze gebruikers bereiken.
Waarom We Hype-Gedreven Tooling Vermijden
Het AI-ecosysteem lanceert elke week een nieuw framework. De meeste zullen over een jaar niet meer bestaan. Wij evalueren nieuwe tools tegen drie criteria: productiegereedheid (gebruiken echte bedrijven het op schaal?), onderhoudstraject (wordt het ondersteund door een duurzaam team of bedrijf?) en abstractiekwaliteit (vereenvoudigt het zonder essentiële complexiteit te verbergen?).
Deze discipline betekent dat we soms tools later adopteren dan de bleeding edge, maar het betekent ook dat onze klanten nooit software hoeven te onderhouden die gebouwd is op een verlaten framework. Saaie technologiekeuzes die betrouwbaar werken in productie zijn waardevoller dan spannende die kapot gaan.
Conclusie
Onze AI-stack is opinionated maar niet rigide. We kiezen tools die productie-bewezen zijn, goed geabstraheerd en waar mogelijk provider-agnostisch. Het doel is systemen bouwen die onze klanten kunnen onderhouden en doorontwikkelen lang nadat het initiële traject is afgelopen. Neem contact op als je wilt begrijpen hoe onze stack van toepassing zou zijn op jouw specifieke use case.
AVARC Solutions
AI & Software Team
Gerelateerde artikelen
2025 in Review: Wat We Leerden over AI in de Praktijk
Een eerlijke terugblik op een jaar bouwen aan AI-software. De successen, de fouten en de lessen die bepalen hoe we in 2026 werken.
Waarom Wij AVARC Solutions Zijn Gestart
Het verhaal achter AVARC Solutions — waarom vijf developers besloten een AI-first softwarebedrijf te bouwen en wat ons elke dag drijft.
AI-Trends 2026: Wat Je Moet Weten
De belangrijkste AI-ontwikkelingen die software, business en technologie in 2026 vormgeven — van agentic systemen en multimodale modellen tot regulering en open source.
Hybrid AI: Cloud en Edge Combineren voor Slimmere Applicaties
Waarom AI volledig in de cloud draaien niet altijd het antwoord is, en hoe AVARC Solutions hybride systemen ontwerpt die latency, kosten en privacy balanceren.








