メインコンテンツへスキップ
Hugging Faceの推論プロバイダーでホストされている数千のモデルに接続できます。詳細はInference Providers documentationをご覧ください。
Model Performance: Models below 30 billion parameters have shown significantly lower performance on agentic coding tasks. While HuggingFace hosts many smaller models that can be useful for experimentation, they are generally not recommended for production coding work. Consider using models with 30B+ parameters for complex software engineering tasks.

設定

~/.factory/settings.jsonに追加してください:
{
  "customModels": [
    {
      "model": "openai/gpt-oss-120b:fireworks-ai",
      "displayName": "GPT OSS 120B [HF Router]",
      "baseUrl": "https://router.huggingface.co/v1",
      "apiKey": "YOUR_HF_TOKEN",
      "provider": "generic-chat-completion-api",
      "maxOutputTokens": 32768
    },
    {
      "model": "meta-llama/Llama-4-Scout-17B-16E-Instruct:fireworks-ai",
      "displayName": "Llama 4 Scout 17B [HF Router]",
      "baseUrl": "https://router.huggingface.co/v1",
      "apiKey": "YOUR_HF_TOKEN",
      "provider": "generic-chat-completion-api",
      "maxOutputTokens": 16384
    }
  ]
}

はじめに

  1. huggingface.coでサインアップしてください
  2. huggingface.co/settings/tokensからトークンを取得してください
  3. huggingface.co/modelsでモデルを閲覧してください
  4. 希望するモデルを設定に追加してください

注意事項

  • モデル名は正確なHugging Faceリポジトリ IDと一致する必要があります
  • 一部のモデルはHFウェブサイトで最初にライセンス契約に同意する必要があります
  • 大きなモデルは無料ティアでは利用できない場合があります