メインコンテンツへスキップ

ソースコードによるデプロイ

1. プロジェクトをクローン

git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/
ネットワークに問題がある場合は、ミラーを使用してください: https://gitee.com/zhayujie/chatgpt-on-wechat

2. 依存パッケージをインストール

コア依存パッケージ(必須):
pip3 install -r requirements.txt
オプション依存パッケージ(推奨):
pip3 install -r requirements-optional.txt

3. 設定

設定テンプレートをコピーして編集します:
cp config-template.json config.json
config.json にモデルの API キー、チャネルタイプ、その他の設定を入力します。詳細はモデルのドキュメントを参照してください。

4. 実行

ローカルで実行:
python3 app.py
デフォルトではWebサービスが起動します。http://localhost:9899/chat にアクセスしてチャットできます。 サーバーでバックグラウンド実行:
nohup python3 app.py & tail -f nohup.out

Docker によるデプロイ

Docker デプロイでは、ソースコードのクローンや依存パッケージのインストールは不要です。Agent モードを使用する場合は、より広範なシステムアクセスが可能なソースコードによるデプロイを推奨します。
Docker と docker-compose が必要です。
1. 設定ファイルをダウンロード
curl -O https://cdn.link-ai.tech/code/cow/docker-compose.yml
docker-compose.yml を編集して設定を行います。 2. コンテナを起動
sudo docker compose up -d
3. ログを確認
sudo docker logs -f chatgpt-on-wechat

主要な設定項目

{
  "channel_type": "web",
  "model": "MiniMax-M2.5",
  "agent": true,
  "agent_workspace": "~/cow",
  "agent_max_context_tokens": 40000,
  "agent_max_context_turns": 30,
  "agent_max_steps": 15
}
パラメータ説明デフォルト値
channel_typeチャネルタイプweb
modelモデル名MiniMax-M2.5
agentAgent モードを有効化true
agent_workspaceAgent のワークスペースパス~/cow
agent_max_context_tokens最大コンテキストトークン数40000
agent_max_context_turns最大コンテキストターン数30
agent_max_stepsタスクごとの最大判断ステップ数15
すべての設定オプションはプロジェクトの config.py に記載されています。