Documentation Index
Fetch the complete documentation index at: https://docs.cowagent.ai/llms.txt
Use this file to discover all available pages before exploring further.
ソースコードによるデプロイ
1. プロジェクトをクローン
2. 依存パッケージをインストール
コア依存パッケージ(必須):3. Cow CLI をインストール
サービスとスキルを管理するためのコマンドラインツールをインストールします:cow コマンドが使用可能になります:
このステップは推奨です。インストール後、
cow start、cow stop、cow update でサービスを管理でき、cow skill でスキルを管理できます。CLI をインストールしない場合は、./run.sh または python3 app.py で実行できます。4. 設定
設定テンプレートをコピーして編集します:config.json にモデルの API キー、チャネルタイプ、その他の設定を入力します。詳細はモデルのドキュメントを参照してください。
5. 実行
Cow CLI を使用して実行(推奨):http://localhost:9899 にアクセスしてチャットできます。
サーバーでバックグラウンド実行(CLI 未使用時):
Docker によるデプロイ
Docker デプロイでは、ソースコードのクローンや依存パッケージのインストールは不要です。Agent モードを使用する場合は、より広範なシステムアクセスが可能なソースコードによるデプロイを推奨します。Docker と docker-compose が必要です。
docker-compose.yml を編集して設定を行います。
2. コンテナを起動
主要な設定項目
| パラメータ | 説明 | デフォルト値 |
|---|---|---|
channel_type | チャネルタイプ | web |
model | モデル名 | deepseek-v4-flash |
agent | Agent モードを有効化 | true |
agent_workspace | Agent のワークスペースパス | ~/cow |
agent_max_context_tokens | 最大コンテキストトークン数 | 40000 |
agent_max_context_turns | 最大コンテキストターン数 | 30 |
agent_max_steps | タスクごとの最大判断ステップ数 | 15 |
