← Back

open webui で model をpull できなかった

事象

windows11 上の WSL ubuntu 24.04.3 の docker で openwebui を動かしており, それをUpdateしたかったので公式どおりupdateし docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main でrunしたが,過去に使っていたLLMモデルが表示されず,新しく ollama.com から pull することもできなかった(その項目が表示されなかった).

解決方法

この記事にかかれているようにOllama 専用イメージ open-webui:ollama を動かすことで解決.

update 手順は以下.

sudo docker stop open-webui
sudo docker rm -f open-webui
sudo docker pull ghcr.io/open-webui/open-webui:ollama
sudo docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

補足

もしかしたら最初に導入したときにその記事を参照したからかもしれない.

なぜ動くのかChatGPTが説明してくれた

なるほど、やっと動いたのですね!🎉 では今回の違いを整理して、なぜこのコマンドで成功したかを解説します。


1. 違いのポイント

あなたが動かしたコマンド:

docker run -d -p 3000:8080 --gpus=all \
  -v ollama:/root/.ollama \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:ollama

以前の失敗したコマンドとの違いは大きく分けて3つあります:


🔹 ① イメージの違い

違い

→ つまり Ollama 専用のイメージを使うことで、接続設定やネットワーク問題を回避できるようになっている


🔹 ② ボリュームマウントの違い


🔹 ③ GPU オプション

これは接続自体とは直接関係ありませんが、推論性能のために重要です


2. なぜ今回動いたのか


まとめると

項目以前のコマンド今回のコマンド
Docker イメージopen-webui:mainopen-webui:ollama(Ollama 統合済)
Ollama データマウントなし/root/.ollama をマウント
API 接続手動設定必要内部で自動接続
GPUなし--gpus=all
結果Network Problem正常に接続&動作

💡 結論 今回動いたのは 「Ollama 専用イメージ + Ollama データのボリュームマウント」 のおかげです。