Google DeepMind lanceerde onlangs Gemma 4 — hun krachtigste open-source AI-modellen tot nu toe. Tegelijkertijd circuleerde er een opvallend open-source project: OpenClaude, een fork van de gelekte Claude Code broncode waarmee je dezelfde terminal-workflow gebruikt met elk model. In deze tutorial combineer je die twee: Gemma 4 lokaal draaien als brein achter jouw lokale AI-coding agent.
Inhoudsopgave
Wat is Gemma 4?
Gemma 4 is een familie open modellen van Google DeepMind, gebouwd op de onderzoeksbasis van Gemini. De modellen zijn multimodaal (tekst + afbeeldingen + audio), ondersteunen 140+ talen en zijn geoptimaliseerd voor zowel lokale hardware als cloudinfrastructuur.
| Variant | Parameters | Geschikt voor |
|---|---|---|
| Gemma 4 E2B | 2B | Mobiel / IoT, offline |
| Gemma 4 E4B | 4B | Edge-apparaten, lage latency |
| Gemma 4 26B | 26B | Laptop / workstation |
| Gemma 4 31B | 31B | Krachtige desktop / server |
Op benchmarks scoort de 31B-variant indrukwekkend: 85,2% op MMLU meertalig, 89,2% op AIME 2026 wiskunde en 80,0% op LiveCodeBench. Die laatste score is voor codeer-taken het meest relevant. (Google DeepMind, 2026)
Wat is OpenClaude?
OpenClaude (github.com/Gitlawb/openclaude) is een open-source coding-agent CLI, gebaseerd op de structuur van Claude Code maar uitgebreid met multi-provider ondersteuning. In plaats van uitsluitend op Anthropic’s API te vertrouwen, ondersteunt OpenClaude onder andere:
- OpenAI-compatibele API’s
- Google Gemini (direct)
- Ollama (lokale inferentie)
- GitHub Models
- Codex
De workflow is identiek aan Claude Code: je praat in de terminal met je codebase, de agent voert bash-commando’s uit, leest en schrijft bestanden en itereert zelfstandig totdat de taak klaar is.
Vereisten voor de lokale AI-coding agent setup
- Node.js 18+ (
node --version) - npm
- ripgrep — verplicht (
rg --version) - Ollama voor lokale inferentie
- Minimaal 8 GB RAM voor E4B; 32+ GB RAM aanbevolen voor 26B/31B
Stap 1 — ripgrep installeren
OpenClaude vereist ripgrep. Zonder dit start de tool niet.
# macOS
brew install ripgrep
# Ubuntu / Debian
sudo apt install ripgrep
# Windows (winget)
winget install BurntSushi.ripgrep.MSVC
# Controleer
rg --version
Stap 2 — Gemma 4 downloaden via Ollama
Ollama is de eenvoudigste manier om Gemma 4 lokaal te draaien als basis voor je lokale AI-coding agent. Installeer Ollama via ollama.com en pull daarna het model:
# Kleine variant (4B) — geschikt voor de meeste laptops
ollama pull gemma4:4b
# Middelgrote variant (26B) — aanbevolen voor serieus codeerwerk
ollama pull gemma4:26b
# Start de Ollama server
ollama serve
Controleer of het model beschikbaar is:
ollama list
# Verwachte output: gemma4:4b ... 4.7 GB
Stap 3 — OpenClaude installeren als lokale AI-coding agent
npm install -g @gitlawb/openclaude
Stap 4 — OpenClaude koppelen aan Gemma 4
Ollama biedt een OpenAI-compatibele API op http://localhost:11434/v1. Stel de omgevingsvariabelen in:
export CLAUDE_CODE_USE_OPENAI=1
export OPENAI_BASE_URL=http://localhost:11434/v1
export OPENAI_MODEL=gemma4:4b
export OPENAI_API_KEY=ollama # Ollama vereist een waarde, inhoud maakt niet uit
openclaude
Permanent opslaan in ~/.zshrc of ~/.bashrc:
echo 'export CLAUDE_CODE_USE_OPENAI=1' >> ~/.zshrc
echo 'export OPENAI_BASE_URL=http://localhost:11434/v1' >> ~/.zshrc
echo 'export OPENAI_MODEL=gemma4:4b' >> ~/.zshrc
echo 'export OPENAI_API_KEY=ollama' >> ~/.zshrc
source ~/.zshrc
Stap 5 — Provider instellen via de wizard
Je lokale AI-coding agent heeft een ingebouwde wizard voor provider-configuratie. Start openclaude en typ:
/provider
De wizard vraagt om:
- Provider type → kies OpenAI-compatible
- Base URL →
http://localhost:11434/v1 - Model naam →
gemma4:4b - API key →
ollama
Het profiel wordt opgeslagen en automatisch geladen bij de volgende sessie.
Stap 6 — Je eerste taak uitvoeren
cd ~/mijn-project
openclaude
Voorbeeldprompts:
> Geef een overzicht van de structuur van dit project
> Er is een fout in api/users.js op regel 42, fix die
> Schrijf unit tests voor de functies in utils/helpers.js
> Converteer alle callback-functies in src/ naar async/await
Gemma 4 verwerkt de aanvraag, leest de relevante bestanden, voert bash-commando’s uit en schrijft wijzigingen terug — volledig lokaal, zonder dat data naar externe servers gaat.
Welk Gemma 4-model kiezen voor je lokale AI-coding agent?
| Situatie | Aanbevolen model |
|---|---|
| Laptop met 8-16 GB RAM | gemma4:4b |
| MacBook Pro M3/M4 (32 GB) | gemma4:26b |
| Workstation of server met GPU | gemma4:31b |
| Raspberry Pi / edge-device | gemma4:2b |
Alternatieven voor Ollama
Liever geen Ollama? Gemma 4 is ook beschikbaar via:
- Hugging Face — Inference API of lokaal downloaden
- Kaggle — gratis GPU-toegang voor experimenten
- Google AI Studio — via de Gemini API (gratis tier beschikbaar)
- Vertex AI — voor productieomgevingen op GCP
Voor Google AI Studio:
export CLAUDE_CODE_USE_OPENAI=1
export OPENAI_BASE_URL=https://generativelanguage.googleapis.com/v1beta/openai
export OPENAI_MODEL=gemma-4-31b-it
export OPENAI_API_KEY=jouw-google-ai-studio-key
Conclusie: jouw lokale AI-coding agent is klaar
Met Gemma 4 en OpenClaude heb je een volledig lokale AI-coding agent die vergelijkbaar werkt met Claude Code — maar gratis, privé en zonder afhankelijkheid van externe API’s. Deze lokale AI-coding agent combinatie is bijzonder interessant voor ontwikkelaars die werken met gevoelige codebases, teams zonder budget voor betaalde AI-tools, of iedereen die wil experimenteren met open-source AI in een productieflow. Het 26B-model biedt de beste balans tussen kwaliteit en hardware-eisen voor de meeste situaties.
Wil je meer weten over het inzetten van AI-tools voor jouw bedrijf of development team? Neem contact op met Red Factory — we denken graag met je mee.