メインコンテンツへスキップ
OpenAI互換プロトコルでアクセスするモデルサービスに適用します:
  • サードパーティAPIプロキシ:統一APIベースで複数モデルを呼び出し
  • ローカルモデル:Ollama、vLLM、LocalAIなどでローカルにデプロイされたモデル
  • プライベートデプロイ:組織内でホストされたモデルサービス
openai プロバイダーとの違い:カスタムプロバイダーでは /config model でモデルを切り替えてもプロバイダータイプは自動切り替えされず、カスタムAPIアドレスが常に保持されます。

設定方法

サードパーティAPIプロキシ

{
  "bot_type": "custom",
  "model": "deepseek-chat",
  "custom_api_key": "YOUR_API_KEY",
  "custom_api_base": "https://{your-proxy.com}/v1"
}
パラメータ説明
bot_typecustom に設定必須
modelモデル名、プロキシサービスがサポートする任意のモデル名
custom_api_keyプロキシサービスが提供するAPIキー
custom_api_baseAPIアドレス、OpenAI互換プロトコルが必要

ローカルモデル

ローカルモデルは通常APIキー不要で、APIベースのみ設定します:
{
  "bot_type": "custom",
  "model": "qwen3.5:27b",
  "custom_api_base": "http://localhost:11434/v1"
}
一般的なローカルデプロイツールとデフォルトアドレス:
ツールデフォルトAPIベース
Ollamahttp://localhost:11434/v1
vLLMhttp://localhost:8000/v1
LocalAIhttp://localhost:8080/v1

モデル切り替え

カスタムプロバイダーではモデル切り替え時に model のみ変更され、bot_type やAPIアドレスは変わりません:
/config model qwen3.5:27b