

Claude や GPT-4o などのクラウド AI を使い続けていると、API 費用が気になってきます。また「自分のデータを外部サービスに送りたくない」という場面も増えてきました。
2026年4月、Google が Gemma 4 を Apache 2.0 ライセンスでリリースしました。コーディング性能が前世代から劇的に向上し、ローカルで動かしても実用レベルに達しています。
この記事では、Gemma 4 E4B を Ollama 経由でローカル起動し、セルフホスト型 AI エージェント基盤の OpenClaw と接続するまでの手順を解説します。
Gemma 4 E4B の特徴とハードウェア要件
Ollama のインストールと Gemma 4 のダウンロード
OpenClaw を最新バージョンにアップデートする方法
OpenClaw の Ollama プロバイダーを設定してローカルモデルに切り替える方法
有料 API を完全に外して無料・ローカル完結の AI エージェント環境を作る方法
OpenClaw をすでに使っていて、有料 API から脱却したい人
ローカル LLM を AI エージェントのバックエンドとして使いたい人
WSL2 (Ubuntu) 環境で作業している人
| 項目 | 条件 |
|---|---|
| OS | WSL2 (Ubuntu 22.04) |
| GPU | NVIDIA RTX シリーズ(VRAM 6GB 以上推奨) |
| OpenClaw | インストール済み |
| nvidia-smi | WSL2 から GPU を認識できていること |
Gemma 4 は Google DeepMind が 2026年4月2日にリリースしたオープンモデルです。
| モデル | 実効パラメータ | コンテキスト | VRAM (Q4) |
|---|---|---|---|
| E2B | 2.3B | 128K | ~4 GB |
| E4B | 4.5B | 128K | ~6 GB |
| 26B A4B | 3.8B active | 256K | ~17 GB |
| 31B | 31B | 256K | ~20 GB |
E4B は 8GB VRAM の GPU でも動作し、テキスト・画像・音声・動画の入力に対応したマルチモーダルモデルです。今回から Apache 2.0 ライセンスに変更され、商用利用も制限なく可能になりました。
コーディング性能の指標である Codeforces ELO は Gemma 3 の 110 → 2150 と劇的に向上しています。
Ollama プロバイダーは OpenClaw 2026.4.2 以降に同梱されています。まずバージョンを確認します。
openclaw --version
古い場合はアップデートします。
npm install -g openclaw
アップデート後、Ollama プラグインが組み込まれたか確認します。
openclaw plugins list | grep ollama
以下のように loaded と表示されれば OK です。
│ @openclaw/ollama-provider │ ollama │ openclaw │ loaded │
WSL2 のターミナルで実行します(sudo パスワードが必要)。
まず zstd をインストールします(Ollama インストーラーが解凍に使用)。
sudo apt-get install -y zstd
次に Ollama をインストールします。
curl -fsSL https://ollama.com/install.sh | sudo sh
インストール完了後、動作確認します。
ollama --version
ollama pull gemma4:e4b
約 9.6 GB のダウンロードが始まります。完了したらモデル一覧で確認します。
ollama list
# NAME ID SIZE
# gemma4:e4b c6eb396dbd59 9.6 GB
単体テストとして動作確認します。
curl -s http://localhost:11434/api/generate \
-d '{"model":"gemma4:e4b","prompt":"hello","stream":false}' \
| python3 -c "import json,sys; print(json.load(sys.stdin)['response'])"
返答が返ってくれば Ollama は正常に動作しています。
openclaw models set ollama/gemma4:e4b
設定を確認します。
openclaw models status
# Default: ollama/gemma4:e4b
不要になった OpenAI などのモデル設定を外します。
openclaw config set agents.defaults.models --json '{"ollama/gemma4:e4b": {}}'
auth-profiles.json からも有料 API キーを削除します。以下の2ファイルを書き換えます。
~/.openclaw/auth-profiles.json
~/.openclaw/agents/main/agent/auth-profiles.json
{
"profiles": {
"ollama:local": {
"provider": "ollama",
"id": "ollama:local",
"token": "ollama-local"
}
}
}
~/.bashrc に追記します。
echo 'export OLLAMA_API_KEY=ollama-local' >> ~/.bashrc
source ~/.bashrc
systemd サービス経由でも渡るよう、サービスファイルにも追加します。
# ~/.config/systemd/user/openclaw-gateway.service の [Service] セクションに追加
Environment="OLLAMA_API_KEY=ollama-local"
変更を反映します。
systemctl --user daemon-reload
openclaw gateway restart
エージェントにメッセージを送って返答を確認します。
OLLAMA_API_KEY=ollama-local openclaw agent --local --agent main -m "hello"
以下のような返答が返れば成功です。
Hello! I'm ready to help you with whatever you need.
Discord などのチャンネル経由でも同様に動作します。
GPU が認識されない場合: WSL2 で nvidia-smi が通っているか確認する。通っていれば Ollama は自動的に GPU を使用する
メモリ不足の場合: gemma4:e2b(~4GB)に切り替えると軽量になる
速度が遅い場合: ollama show gemma4:e4b で Q4 量子化が適用されているか確認する
Ollama が起動しない場合: systemctl status ollama でサービス状態を確認する
OpenClaw 2026.4.2 から Ollama プロバイダーが標準搭載された
Gemma 4 E4B は Apache 2.0 ライセンスで商用利用可能、8GB VRAM で動作する
openclaw models set ollama/gemma4:e4b の一行でモデルを切り替えられる
有料 API キーを削除すれば完全無料・完全ローカルの AI エージェント環境が完成する