Performance Notice: Models below 30 billion parameters have shown significantly lower performance on agentic coding tasks. While smaller models (7B, 13B) can be useful for experimentation and learning, they are generally not recommended for production coding work or complex software engineering tasks.
ローカル Ollama
インターネット接続不要で、マシン上で完全にモデルを実行します。設定
~/.factory/settings.json に追加:
セットアップ
- ollama.com/download からOllamaをインストール
- 必要なモデルをプル:
- 追加のコンテキストでOllamaサーバーを開始:
- Factory設定に構成を追加
おおよそのハードウェア要件
| モデルサイズ | 必要RAM | VRAM (GPU) |
|---|---|---|
| 3B params | 4GB | 3GB |
| 7B params | 8GB | 6GB |
| 13B params | 16GB | 10GB |
| 30B params | 32GB | 20GB |
| 70B params | 64GB | 40GB |
Ollama Cloud
ローカルハードウェア要件なしで、Ollamaのクラウドサービスを使用してホスト型モデル推論を利用推奨クラウドモデル
エージェント型コーディングに最適なパフォーマンスは qwen3-coder:480b で観測されています。 利用可能なクラウドモデルの完全なリストについては:ollama.com/search?c=cloud設定
クラウドモデルを始める
- Ollamaがインストールされ、ローカルで実行されていることを確認
- クラウドモデルはローカルOllamaインスタンス経由でアクセス - APIキー不要
- 上記の設定をFactory設定に追加
- 要求時にモデルが自動的にクラウドコンピュートを使用
トラブルシューティング
ローカルサーバーが接続できない
- Ollamaが実行中であることを確認:
ollama serve - ポート11434が利用可能かチェック
- テストには
curl http://localhost:11434/api/tagsを試行
モデルが見つからない
- 最初にモデルをプル:
ollama pull model-name ollama listで正確なモデル名を確認
注意事項
- ローカルAPIは認証不要(
api_keyには任意のプレースホルダーを使用) - モデルは
~/.ollama/models/に保存されます
