メインコンテンツへスキップ
Ollamaを使用してローカルハードウェアでモデルを実行するか、ホスト型推論にはOllama Cloudを使用してください。
Performance Notice: Models below 30 billion parameters have shown significantly lower performance on agentic coding tasks. While smaller models (7B, 13B) can be useful for experimentation and learning, they are generally not recommended for production coding work or complex software engineering tasks.

ローカル Ollama

インターネット接続不要で、マシン上で完全にモデルを実行します。

設定

~/.factory/settings.json に追加:
{
  "customModels": [
    {
      "model": "qwen2.5-coder:32b",
      "displayName": "Qwen 2.5 Coder 32B [Local]",
      "baseUrl": "http://localhost:11434/v1",
      "apiKey": "not-needed",
      "provider": "generic-chat-completion-api",
      "maxOutputTokens": 16000
    },
    {
      "model": "qwen2.5-coder:7b",
      "displayName": "Qwen 2.5 Coder 7B [Local]",
      "baseUrl": "http://localhost:11434/v1",
      "apiKey": "not-needed",
      "provider": "generic-chat-completion-api",
      "maxOutputTokens": 4000
    }
  ]
}

セットアップ

Context Window Configuration: For optimal performance with Factory, ensure you set the context window to at least 32,000 tokens. You can either:
  • Use the context window slider in the Ollama app (set to 32k minimum)
  • Set environment variable before starting: OLLAMA_CONTEXT_LENGTH=32000 ollama serve
Without adequate context, the experience will be significantly degraded.
  1. ollama.com/download からOllamaをインストール
  2. 必要なモデルをプル:
    # Recommended models
    ollama pull qwen2.5-coder:32b
    ollama pull qwen2.5-coder:7b
    
  3. 追加のコンテキストでOllamaサーバーを開始:
    OLLAMA_CONTEXT_LENGTH=32000 ollama serve
    
  4. Factory設定に構成を追加

おおよそのハードウェア要件

モデルサイズ必要RAMVRAM (GPU)
3B params4GB3GB
7B params8GB6GB
13B params16GB10GB
30B params32GB20GB
70B params64GB40GB

Ollama Cloud

ローカルハードウェア要件なしで、Ollamaのクラウドサービスを使用してホスト型モデル推論を利用

推奨クラウドモデル

エージェント型コーディングに最適なパフォーマンスは qwen3-coder:480b で観測されています。 利用可能なクラウドモデルの完全なリストについては:ollama.com/search?c=cloud

設定

{
  "customModels": [
    {
      "model": "qwen3-coder:480b-cloud",
      "displayName": "qwen3-coder [Online]",
      "baseUrl": "http://localhost:11434/v1/",
      "apiKey": "not-needed",
      "provider": "generic-chat-completion-api",
      "maxOutputTokens": 128000
    }
  ]
}

クラウドモデルを始める

  1. Ollamaがインストールされ、ローカルで実行されていることを確認
  2. クラウドモデルはローカルOllamaインスタンス経由でアクセス - APIキー不要
  3. 上記の設定をFactory設定に追加
  4. 要求時にモデルが自動的にクラウドコンピュートを使用

トラブルシューティング

ローカルサーバーが接続できない

  • Ollamaが実行中であることを確認:ollama serve
  • ポート11434が利用可能かチェック
  • テストには curl http://localhost:11434/api/tags を試行

モデルが見つからない

  • 最初にモデルをプル:ollama pull model-name
  • ollama list で正確なモデル名を確認

注意事項

  • ローカルAPIは認証不要(api_key には任意のプレースホルダーを使用)
  • モデルは ~/.ollama/models/ に保存されます