# Gemma 4 gebruiken met OpenClaude: zo bouw je een lokale AI-coding agent

*Published:* 2026-04-10
*Author:* Lars Wienbelt

Google DeepMind lanceerde onlangs Gemma 4 — hun krachtigste open-source AI-modellen tot nu toe. Tegelijkertijd circuleerde er een opvallend open-source project: OpenClaude, een fork van de gelekte Claude Code broncode waarmee je dezelfde terminal-workflow gebruikt met *elk* model. In deze tutorial combineer je die twee: Gemma 4 lokaal draaien als brein achter jouw lokale AI-coding agent.

Inhoudsopgave
-------------

- [Wat is Gemma 4?](#wat-is-gemma-4)
- [Wat is OpenClaude?](#wat-is-open-claude)
- [Vereisten voor de lokale AI-coding agent setup](#vereisten-voor-de-lokale-ai-coding-agent-setup)
- [Stap 1 — ripgrep installeren](#stap-1-ripgrep-installeren)
- [Stap 2 — Gemma 4 downloaden via Ollama](#stap-2-gemma-4-downloaden-via-ollama)
- [Stap 3 — OpenClaude installeren als lokale AI-coding agent](#stap-3-open-claude-installeren-als-lokale-ai-coding-agent)
- [Stap 4 — OpenClaude koppelen aan Gemma 4](#stap-4-open-claude-koppelen-aan-gemma-4)
- [Stap 5 — Provider instellen via de wizard](#stap-5-provider-instellen-via-de-wizard)
- [Stap 6 — Je eerste taak uitvoeren](#stap-6-je-eerste-taak-uitvoeren)
- [Welk Gemma 4-model kiezen voor je lokale AI-coding agent?](#welk-gemma-4-model-kiezen-voor-je-lokale-ai-coding-agent)
- [Alternatieven voor Ollama](#alternatieven-voor-ollama)
- [Conclusie: jouw lokale AI-coding agent is klaar](#conclusie-jouw-lokale-ai-coding-agent-is-klaar)



Wat is Gemma 4?
---------------

Gemma 4 is een familie open modellen van Google DeepMind, gebouwd op de onderzoeksbasis van Gemini. De modellen zijn multimodaal (tekst + afbeeldingen + audio), ondersteunen 140+ talen en zijn geoptimaliseerd voor zowel lokale hardware als cloudinfrastructuur.

VariantParametersGeschikt voorGemma 4 E2B2BMobiel / IoT, offlineGemma 4 E4B4BEdge-apparaten, lage latencyGemma 4 26B26BLaptop / workstationGemma 4 31B31BKrachtige desktop / serverOp benchmarks scoort de 31B-variant indrukwekkend: 85,2% op MMLU meertalig, 89,2% op AIME 2026 wiskunde en 80,0% op LiveCodeBench. Die laatste score is voor codeer-taken het meest relevant. ([Google DeepMind, 2026](https://deepmind.google/models/gemma/gemma-4/))

Wat is OpenClaude?
------------------

OpenClaude ([github.com/Gitlawb/openclaude](https://github.com/Gitlawb/openclaude)) is een open-source coding-agent CLI, gebaseerd op de structuur van Claude Code maar uitgebreid met multi-provider ondersteuning. In plaats van uitsluitend op Anthropic’s API te vertrouwen, ondersteunt OpenClaude onder andere:

- OpenAI-compatibele API’s
- Google Gemini (direct)
- Ollama (lokale inferentie)
- GitHub Models
- Codex

De workflow is identiek aan Claude Code: je praat in de terminal met je codebase, de agent voert bash-commando’s uit, leest en schrijft bestanden en itereert zelfstandig totdat de taak klaar is.

Vereisten voor de lokale AI-coding agent setup
----------------------------------------------

- Node.js 18+ (`node --version`)
- npm
- ripgrep — **verplicht** (`rg --version`)
- Ollama voor lokale inferentie
- Minimaal 8 GB RAM voor E4B; 32+ GB RAM aanbevolen voor 26B/31B

Stap 1 — ripgrep installeren
----------------------------

OpenClaude vereist ripgrep. Zonder dit start de tool niet.

```
# macOS
brew install ripgrep

# Ubuntu / Debian
sudo apt install ripgrep

# Windows (winget)
winget install BurntSushi.ripgrep.MSVC

# Controleer
rg --version
```

Stap 2 — Gemma 4 downloaden via Ollama
--------------------------------------

Ollama is de eenvoudigste manier om Gemma 4 lokaal te draaien als basis voor je lokale AI-coding agent. Installeer Ollama via [ollama.com](https://ollama.com) en pull daarna het model:

```
# Kleine variant (4B) — geschikt voor de meeste laptops
ollama pull gemma4:4b

# Middelgrote variant (26B) — aanbevolen voor serieus codeerwerk
ollama pull gemma4:26b

# Start de Ollama server
ollama serve
```

Controleer of het model beschikbaar is:

```
ollama list
# Verwachte output: gemma4:4b   ...   4.7 GB
```

Stap 3 — OpenClaude installeren als lokale AI-coding agent
----------------------------------------------------------

```
npm install -g @gitlawb/openclaude
```

Stap 4 — OpenClaude koppelen aan Gemma 4
----------------------------------------

Ollama biedt een OpenAI-compatibele API op `http://localhost:11434/v1`. Stel de omgevingsvariabelen in:

```
export CLAUDE_CODE_USE_OPENAI=1
export OPENAI_BASE_URL=http://localhost:11434/v1
export OPENAI_MODEL=gemma4:4b
export OPENAI_API_KEY=ollama    # Ollama vereist een waarde, inhoud maakt niet uit

openclaude
```

Permanent opslaan in `~/.zshrc` of `~/.bashrc`:

```
echo 'export CLAUDE_CODE_USE_OPENAI=1' >> ~/.zshrc
echo 'export OPENAI_BASE_URL=http://localhost:11434/v1' >> ~/.zshrc
echo 'export OPENAI_MODEL=gemma4:4b' >> ~/.zshrc
echo 'export OPENAI_API_KEY=ollama' >> ~/.zshrc
source ~/.zshrc
```

Stap 5 — Provider instellen via de wizard
-----------------------------------------

Je lokale AI-coding agent heeft een ingebouwde wizard voor provider-configuratie. Start `openclaude` en typ:

```
/provider
```

De wizard vraagt om:

1. Provider type → kies **OpenAI-compatible**
2. Base URL → `http://localhost:11434/v1`
3. Model naam → `gemma4:4b`
4. API key → `ollama`

Het profiel wordt opgeslagen en automatisch geladen bij de volgende sessie.

Stap 6 — Je eerste taak uitvoeren
---------------------------------

```
cd ~/mijn-project
openclaude
```

Voorbeeldprompts:

```
> Geef een overzicht van de structuur van dit project
> Er is een fout in api/users.js op regel 42, fix die
> Schrijf unit tests voor de functies in utils/helpers.js
> Converteer alle callback-functies in src/ naar async/await
```

Gemma 4 verwerkt de aanvraag, leest de relevante bestanden, voert bash-commando’s uit en schrijft wijzigingen terug — volledig lokaal, zonder dat data naar externe servers gaat.

Welk Gemma 4-model kiezen voor je lokale AI-coding agent?
---------------------------------------------------------

SituatieAanbevolen modelLaptop met 8-16 GB RAMgemma4:4bMacBook Pro M3/M4 (32 GB)gemma4:26bWorkstation of server met GPUgemma4:31bRaspberry Pi / edge-devicegemma4:2bAlternatieven voor Ollama
-------------------------

Liever geen Ollama? Gemma 4 is ook beschikbaar via:

- **Hugging Face** — Inference API of lokaal downloaden
- **Kaggle** — gratis GPU-toegang voor experimenten
- **Google AI Studio** — via de Gemini API (gratis tier beschikbaar)
- **Vertex AI** — voor productieomgevingen op GCP

Voor Google AI Studio:

```
export CLAUDE_CODE_USE_OPENAI=1
export OPENAI_BASE_URL=https://generativelanguage.googleapis.com/v1beta/openai
export OPENAI_MODEL=gemma-4-31b-it
export OPENAI_API_KEY=jouw-google-ai-studio-key
```

Conclusie: jouw lokale AI-coding agent is klaar
-----------------------------------------------

Met Gemma 4 en OpenClaude heb je een volledig lokale AI-coding agent die vergelijkbaar werkt met Claude Code — maar gratis, privé en zonder afhankelijkheid van externe API’s. Deze lokale AI-coding agent combinatie is bijzonder interessant voor ontwikkelaars die werken met gevoelige codebases, teams zonder budget voor betaalde AI-tools, of iedereen die wil experimenteren met open-source AI in een productieflow. Het 26B-model biedt de beste balans tussen kwaliteit en hardware-eisen voor de meeste situaties.

Wil je meer weten over het inzetten van AI-tools voor jouw bedrijf of development team? [Neem contact op met Red Factory](https://redfactory.nl/contact/) — we denken graag met je mee.