メインコンテンツへスキップ

Documentation Index

Fetch the complete documentation index at: https://docs.cowagent.ai/llms.txt

Use this file to discover all available pages before exploring further.

ソースコードによるデプロイ

1. プロジェクトをクローン

git clone https://github.com/zhayujie/CowAgent
cd CowAgent/
ネットワークに問題がある場合は、ミラーを使用してください: https://gitee.com/zhayujie/CowAgent

2. 依存パッケージをインストール

コア依存パッケージ(必須):
pip3 install -r requirements.txt
オプション依存パッケージ(推奨):
pip3 install -r requirements-optional.txt

3. Cow CLI をインストール

サービスとスキルを管理するためのコマンドラインツールをインストールします:
pip3 install -e .
インストール後、cow コマンドが使用可能になります:
cow help
このステップは推奨です。インストール後、cow startcow stopcow update でサービスを管理でき、cow skill でスキルを管理できます。CLI をインストールしない場合は、./run.sh または python3 app.py で実行できます。

4. 設定

設定テンプレートをコピーして編集します:
cp config-template.json config.json
config.json にモデルの API キー、チャネルタイプ、その他の設定を入力します。詳細はモデルのドキュメントを参照してください。

5. 実行

Cow CLI を使用して実行(推奨):
cow start
またはローカルでフォアグラウンド実行:
python3 app.py
デフォルトでは Web コンソールが起動します。http://localhost:9899 にアクセスしてチャットできます。 サーバーでバックグラウンド実行(CLI 未使用時):
nohup python3 app.py & tail -f nohup.out
サーバーにデプロイする場合は、ファイアウォールまたはセキュリティグループでポート 9899 を開放して Web コンソールにアクセスできるようにしてください。セキュリティのため、特定の IP のみにアクセスを制限することを推奨します。

Docker によるデプロイ

Docker デプロイでは、ソースコードのクローンや依存パッケージのインストールは不要です。Agent モードを使用する場合は、より広範なシステムアクセスが可能なソースコードによるデプロイを推奨します。
Docker と docker-compose が必要です。
1. 設定ファイルをダウンロード
curl -O https://cdn.link-ai.tech/code/cow/docker-compose.yml
docker-compose.yml を編集して設定を行います。 2. コンテナを起動
sudo docker compose up -d
3. ログを確認
sudo docker logs -f chatgpt-on-wechat
サーバーにデプロイする場合は、ファイアウォールまたはセキュリティグループでポート 9899 を開放して Web コンソールにアクセスできるようにしてください。セキュリティのため、特定の IP のみにアクセスを制限することを推奨します。

主要な設定項目

{
  "channel_type": "web",
  "model": "deepseek-v4-flash",
  "deepseek_api_key": "",
  "agent": true,
  "agent_workspace": "~/cow",
  "agent_max_context_tokens": 40000,
  "agent_max_context_turns": 30,
  "agent_max_steps": 15
}
パラメータ説明デフォルト値
channel_typeチャネルタイプweb
modelモデル名deepseek-v4-flash
agentAgent モードを有効化true
agent_workspaceAgent のワークスペースパス~/cow
agent_max_context_tokens最大コンテキストトークン数40000
agent_max_context_turns最大コンテキストターン数30
agent_max_stepsタスクごとの最大判断ステップ数15
すべての設定オプションはプロジェクトの config.py に記載されています。