Files
dify-docs/ja-jp/development/models-integration/gpt-oss-local-deployment.md
2025-08-13 15:33:58 +08:00

4.3 KiB
Raw Blame History

title
title
OllamaDify による gpt-oss のローカルデプロイ

はじめに

gpt-ossシリーズは、2025年8月にOpenAIからリリースされたオープンソースモデルです。

  • gpt-oss:20b約16GBのメモリを持つシステム向け
  • gpt-oss:120b60GB以上のメモリに対応

ローカルでOllamaを使用して実行できます。クラウド呼び出しは不要で、データは常にローカルに保存され、プライバシー保護と低遅延に貢献します。

DifyはAIエージェントやワークフローを構築するためのオープンソースプラットフォームです。このガイドでは、Ollamaを使ってgpt-ossを実行し、Difyに接続してプライベートかつ高性能な設定を行う方法を示します。

環境のセットアップ

ステップ1Ollamaでgpt-ossを実行する

1. Ollamaをインストール

Ollamaの公式サイトを通してmacOS、Windows、またはLinux用にダウンロードしてインストールしてください。

2. gpt-ossモデルをインストール

# 開発マシン用におすすめ
ollama pull gpt-oss:20b

# 大規模GPUまたはマルチGPUホスト用におすすめ
ollama pull gpt-oss:120b

これらのモデルはすでに混合精度フォーマットMXFP4で量子化されており、ローカルデプロイに適しています。

3. Ollamaの起動

デフォルトのエンドポイントはhttp://localhost:11434です

ステップ2Difyをローカルにインストール

Difyの公式ドキュメントに完全な手順があります。もしくはこちらのシンプルなチュートリアルをご覧ください。

前提条件 Dockerをインストールし、Dockerエンジンが正常に動作していることを確認してください。

1

インストール手順

git clone https://github.com/langgenius/Dify.git
cd Dify/docker
cp .env.example .env
docker compose up -d

2

ローカルDifyインスタンスを開き、初期設定を完了させてください。

3

モデルの追加とチャットのテスト

  1. 設定 > モデルプロバイダー > Ollama に移動し、**「Ollamaモデルタイプを追加」**をクリックしてください。

4

  1. 基本URLをhttp://localhost:11434に設定し、モデル名にgpt-ossを選択し、必要なフィールドを埋めてください。

5

  1. 空のテンプレートを作成します。

6

  1. 構築したいアプリのタイプを選択してください。

7

検証と使用

  • Difyのモデルテストページでプロンプトを送信し、応答が期待通りであることを確認してください。
  • ワークフローにLLMードを追加し、gpt-oss:20bを選択してノードをエンドツーエンドで接続してください。

8

9

よくある質問

  1. モデルのダウンロードが遅い ダウンロードを高速化するために、Dockerプロキシを設定するか、イメージミラーを使用してください。

  2. GPUメモリ不足 gpt-oss:20bを使用してください。CPUオフローディングを有効にすることもできますが、その場合は応答が遅くなります。

  3. ポートアクセスの問題 接続を確認するために、ファイアウォールのルール、ポートのバインディング、およびDockerネットワーク設定を確認してください。