メインコンテンツへスキップ
kt-tech.blog
【設定・環境構築】Gemma 4 を Ollama でローカル起動して OpenClaw と接続する
設定・環境構築
(更新: 2026/4/3)· 約7分で読めます

【設定・環境構築】Gemma 4 を Ollama でローカル起動して OpenClaw と接続する

Share
ℹ️
Google が 2026年4月にリリースした Gemma 4 E4B を Ollama でローカル起動し、セルフホスト型 AI エージェント基盤 OpenClaw と接続する手順を完全解説します。有料 API キーなし・データ外部送信なしで動く AI エージェント環境が完成します。

はじめに

Claude や GPT-4o などのクラウド AI を使い続けていると、API 費用が気になってきます。また「自分のデータを外部サービスに送りたくない」という場面も増えてきました。

2026年4月、Google が Gemma 4Apache 2.0 ライセンスでリリースしました。コーディング性能が前世代から劇的に向上し、ローカルで動かしても実用レベルに達しています。

この記事では、Gemma 4 E4B を Ollama 経由でローカル起動し、セルフホスト型 AI エージェント基盤の OpenClaw と接続するまでの手順を解説します。

この記事でわかること

  • Gemma 4 E4B の特徴とハードウェア要件

  • Ollama のインストールと Gemma 4 のダウンロード

  • OpenClaw を最新バージョンにアップデートする方法

  • OpenClaw の Ollama プロバイダーを設定してローカルモデルに切り替える方法

  • 有料 API を完全に外して無料・ローカル完結の AI エージェント環境を作る方法

対象読者

  • OpenClaw をすでに使っていて、有料 API から脱却したい人

  • ローカル LLM を AI エージェントのバックエンドとして使いたい人

  • WSL2 (Ubuntu) 環境で作業している人

前提条件

項目 条件
OS WSL2 (Ubuntu 22.04)
GPU NVIDIA RTX シリーズ(VRAM 6GB 以上推奨)
OpenClaw インストール済み
nvidia-smi WSL2 から GPU を認識できていること

Gemma 4 E4B とは

Gemma 4 は Google DeepMind が 2026年4月2日にリリースしたオープンモデルです。

モデル 実効パラメータ コンテキスト VRAM (Q4)
E2B 2.3B 128K ~4 GB
E4B 4.5B 128K ~6 GB
26B A4B 3.8B active 256K ~17 GB
31B 31B 256K ~20 GB

E4B は 8GB VRAM の GPU でも動作し、テキスト・画像・音声・動画の入力に対応したマルチモーダルモデルです。今回から Apache 2.0 ライセンスに変更され、商用利用も制限なく可能になりました。

コーディング性能の指標である Codeforces ELO は Gemma 3 の 110 → 2150 と劇的に向上しています。

Step 1: OpenClaw のアップデート

Ollama プロバイダーは OpenClaw 2026.4.2 以降に同梱されています。まずバージョンを確認します。

openclaw --version

古い場合はアップデートします。

npm install -g openclaw

アップデート後、Ollama プラグインが組み込まれたか確認します。

openclaw plugins list | grep ollama

以下のように loaded と表示されれば OK です。

│ @openclaw/ollama-provider │ ollama │ openclaw │ loaded │

Step 2: Ollama のインストール

WSL2 のターミナルで実行します(sudo パスワードが必要)。

まず zstd をインストールします(Ollama インストーラーが解凍に使用)。

sudo apt-get install -y zstd

次に Ollama をインストールします。

curl -fsSL https://ollama.com/install.sh | sudo sh

インストール完了後、動作確認します。

ollama --version

Step 3: Gemma 4 E4B のダウンロード

ollama pull gemma4:e4b

約 9.6 GB のダウンロードが始まります。完了したらモデル一覧で確認します。

ollama list
# NAME          ID              SIZE
# gemma4:e4b    c6eb396dbd59    9.6 GB

単体テストとして動作確認します。

curl -s http://localhost:11434/api/generate \
  -d '{"model":"gemma4:e4b","prompt":"hello","stream":false}' \
  | python3 -c "import json,sys; print(json.load(sys.stdin)['response'])"

返答が返ってくれば Ollama は正常に動作しています。

Step 4: OpenClaw に Ollama を設定する

4-1. Ollama モデルをデフォルトに設定

openclaw models set ollama/gemma4:e4b

設定を確認します。

openclaw models status
# Default: ollama/gemma4:e4b

4-2. 有料 API を削除する

不要になった OpenAI などのモデル設定を外します。

openclaw config set agents.defaults.models --json '{"ollama/gemma4:e4b": {}}'

auth-profiles.json からも有料 API キーを削除します。以下の2ファイルを書き換えます。

  • ~/.openclaw/auth-profiles.json

  • ~/.openclaw/agents/main/agent/auth-profiles.json

{
  "profiles": {
    "ollama:local": {
      "provider": "ollama",
      "id": "ollama:local",
      "token": "ollama-local"
    }
  }
}

4-3. OLLAMA_API_KEY を永続化する

~/.bashrc に追記します。

echo 'export OLLAMA_API_KEY=ollama-local' >> ~/.bashrc
source ~/.bashrc

systemd サービス経由でも渡るよう、サービスファイルにも追加します。

# ~/.config/systemd/user/openclaw-gateway.service の [Service] セクションに追加
Environment="OLLAMA_API_KEY=ollama-local"

変更を反映します。

systemctl --user daemon-reload
openclaw gateway restart

Step 5: 動作確認

エージェントにメッセージを送って返答を確認します。

OLLAMA_API_KEY=ollama-local openclaw agent --local --agent main -m "hello"

以下のような返答が返れば成功です。

Hello! I'm ready to help you with whatever you need.

Discord などのチャンネル経由でも同様に動作します。

Tips

  • GPU が認識されない場合: WSL2 で nvidia-smi が通っているか確認する。通っていれば Ollama は自動的に GPU を使用する

  • メモリ不足の場合: gemma4:e2b(~4GB)に切り替えると軽量になる

  • 速度が遅い場合: ollama show gemma4:e4b で Q4 量子化が適用されているか確認する

  • Ollama が起動しない場合: systemctl status ollama でサービス状態を確認する

まとめ

  • OpenClaw 2026.4.2 から Ollama プロバイダーが標準搭載された

  • Gemma 4 E4B は Apache 2.0 ライセンスで商用利用可能、8GB VRAM で動作する

  • openclaw models set ollama/gemma4:e4b の一行でモデルを切り替えられる

  • 有料 API キーを削除すれば完全無料・完全ローカルの AI エージェント環境が完成する

参考リンク

この記事が役に立ったら共有しよう

Share
Koki

Koki

フルスタックエンジニア / React, Next.js, TypeScript