Gemma 4 gebruiken met OpenClaude: zo bouw je een lokale AI-coding agent

Google DeepMind lanceerde onlangs Gemma 4 — hun krachtigste open-source AI-modellen tot nu toe. Tegelijkertijd circuleerde er een opvallend open-source project: OpenClaude, een fork van de gelekte Claude Code broncode waarmee je dezelfde terminal-workflow gebruikt met elk model. In deze tutorial combineer je die twee: Gemma 4 lokaal draaien als brein achter jouw lokale AI-coding agent.

Wat is Gemma 4?

Gemma 4 is een familie open modellen van Google DeepMind, gebouwd op de onderzoeksbasis van Gemini. De modellen zijn multimodaal (tekst + afbeeldingen + audio), ondersteunen 140+ talen en zijn geoptimaliseerd voor zowel lokale hardware als cloudinfrastructuur.

VariantParametersGeschikt voor
Gemma 4 E2B2BMobiel / IoT, offline
Gemma 4 E4B4BEdge-apparaten, lage latency
Gemma 4 26B26BLaptop / workstation
Gemma 4 31B31BKrachtige desktop / server

Op benchmarks scoort de 31B-variant indrukwekkend: 85,2% op MMLU meertalig, 89,2% op AIME 2026 wiskunde en 80,0% op LiveCodeBench. Die laatste score is voor codeer-taken het meest relevant. (Google DeepMind, 2026)

Wat is OpenClaude?

OpenClaude (github.com/Gitlawb/openclaude) is een open-source coding-agent CLI, gebaseerd op de structuur van Claude Code maar uitgebreid met multi-provider ondersteuning. In plaats van uitsluitend op Anthropic’s API te vertrouwen, ondersteunt OpenClaude onder andere:

  • OpenAI-compatibele API’s
  • Google Gemini (direct)
  • Ollama (lokale inferentie)
  • GitHub Models
  • Codex

De workflow is identiek aan Claude Code: je praat in de terminal met je codebase, de agent voert bash-commando’s uit, leest en schrijft bestanden en itereert zelfstandig totdat de taak klaar is.

Vereisten voor de lokale AI-coding agent setup

  • Node.js 18+ (node --version)
  • npm
  • ripgrep — verplicht (rg --version)
  • Ollama voor lokale inferentie
  • Minimaal 8 GB RAM voor E4B; 32+ GB RAM aanbevolen voor 26B/31B

Stap 1 — ripgrep installeren

OpenClaude vereist ripgrep. Zonder dit start de tool niet.

# macOS
brew install ripgrep

# Ubuntu / Debian
sudo apt install ripgrep

# Windows (winget)
winget install BurntSushi.ripgrep.MSVC

# Controleer
rg --version

Stap 2 — Gemma 4 downloaden via Ollama

Ollama is de eenvoudigste manier om Gemma 4 lokaal te draaien als basis voor je lokale AI-coding agent. Installeer Ollama via ollama.com en pull daarna het model:

# Kleine variant (4B) — geschikt voor de meeste laptops
ollama pull gemma4:4b

# Middelgrote variant (26B) — aanbevolen voor serieus codeerwerk
ollama pull gemma4:26b

# Start de Ollama server
ollama serve

Controleer of het model beschikbaar is:

ollama list
# Verwachte output: gemma4:4b   ...   4.7 GB

Stap 3 — OpenClaude installeren als lokale AI-coding agent

npm install -g @gitlawb/openclaude

Stap 4 — OpenClaude koppelen aan Gemma 4

Ollama biedt een OpenAI-compatibele API op http://localhost:11434/v1. Stel de omgevingsvariabelen in:

export CLAUDE_CODE_USE_OPENAI=1
export OPENAI_BASE_URL=http://localhost:11434/v1
export OPENAI_MODEL=gemma4:4b
export OPENAI_API_KEY=ollama    # Ollama vereist een waarde, inhoud maakt niet uit

openclaude

Permanent opslaan in ~/.zshrc of ~/.bashrc:

echo 'export CLAUDE_CODE_USE_OPENAI=1' >> ~/.zshrc
echo 'export OPENAI_BASE_URL=http://localhost:11434/v1' >> ~/.zshrc
echo 'export OPENAI_MODEL=gemma4:4b' >> ~/.zshrc
echo 'export OPENAI_API_KEY=ollama' >> ~/.zshrc
source ~/.zshrc

Stap 5 — Provider instellen via de wizard

Je lokale AI-coding agent heeft een ingebouwde wizard voor provider-configuratie. Start openclaude en typ:

/provider

De wizard vraagt om:

  1. Provider type → kies OpenAI-compatible
  2. Base URL → http://localhost:11434/v1
  3. Model naam → gemma4:4b
  4. API key → ollama

Het profiel wordt opgeslagen en automatisch geladen bij de volgende sessie.

Stap 6 — Je eerste taak uitvoeren

cd ~/mijn-project
openclaude

Voorbeeldprompts:

> Geef een overzicht van de structuur van dit project
> Er is een fout in api/users.js op regel 42, fix die
> Schrijf unit tests voor de functies in utils/helpers.js
> Converteer alle callback-functies in src/ naar async/await

Gemma 4 verwerkt de aanvraag, leest de relevante bestanden, voert bash-commando’s uit en schrijft wijzigingen terug — volledig lokaal, zonder dat data naar externe servers gaat.

Welk Gemma 4-model kiezen voor je lokale AI-coding agent?

SituatieAanbevolen model
Laptop met 8-16 GB RAMgemma4:4b
MacBook Pro M3/M4 (32 GB)gemma4:26b
Workstation of server met GPUgemma4:31b
Raspberry Pi / edge-devicegemma4:2b

Alternatieven voor Ollama

Liever geen Ollama? Gemma 4 is ook beschikbaar via:

  • Hugging Face — Inference API of lokaal downloaden
  • Kaggle — gratis GPU-toegang voor experimenten
  • Google AI Studio — via de Gemini API (gratis tier beschikbaar)
  • Vertex AI — voor productieomgevingen op GCP

Voor Google AI Studio:

export CLAUDE_CODE_USE_OPENAI=1
export OPENAI_BASE_URL=https://generativelanguage.googleapis.com/v1beta/openai
export OPENAI_MODEL=gemma-4-31b-it
export OPENAI_API_KEY=jouw-google-ai-studio-key

Conclusie: jouw lokale AI-coding agent is klaar

Met Gemma 4 en OpenClaude heb je een volledig lokale AI-coding agent die vergelijkbaar werkt met Claude Code — maar gratis, privé en zonder afhankelijkheid van externe API’s. Deze lokale AI-coding agent combinatie is bijzonder interessant voor ontwikkelaars die werken met gevoelige codebases, teams zonder budget voor betaalde AI-tools, of iedereen die wil experimenteren met open-source AI in een productieflow. Het 26B-model biedt de beste balans tussen kwaliteit en hardware-eisen voor de meeste situaties.

Wil je meer weten over het inzetten van AI-tools voor jouw bedrijf of development team? Neem contact op met Red Factory — we denken graag met je mee.

Wij helpen jou slimmer groeien met AI!

Van websites die converteren tot AI-automatiseringen die je uren besparen. Ontdek hoe wij jouw online aanpak naar het volgende niveau tillen.