メインコンテンツへスキップ
Fireworks AIの最適化されたサービングインフラストラクチャを使用して、オープンソースモデルの高性能推論にアクセスできます。

設定

~/.factory/settings.jsonに追加してください:
{
  "customModels": [
    {
      "model": "accounts/fireworks/models/glm-4p5",
      "displayName": "GLM 4.5 [Fireworks]",
      "baseUrl": "https://api.fireworks.ai/inference/v1",
      "apiKey": "YOUR_FIREWORKS_API_KEY",
      "provider": "generic-chat-completion-api",
      "maxOutputTokens": 16384
    },
    {
      "model": "accounts/fireworks/models/deepseek-v3p1-terminus",
      "displayName": "Deepseek V3.1 Terminus [Fireworks]",
      "baseUrl": "https://api.fireworks.ai/inference/v1",
      "apiKey": "YOUR_FIREWORKS_API_KEY",
      "provider": "generic-chat-completion-api",
      "maxOutputTokens": 20480
    }
  ]
}

はじめに

  1. fireworks.aiでサインアップしてください
  2. ダッシュボードからAPI keyを取得してください
  3. model catalogで利用可能なモデルを閲覧してください
  4. 設定に希望するモデルを追加してください

注意事項

  • ベースURLの形式:https://api.fireworks.ai/inference/v1
  • モデルIDは通常accounts/fireworks/models/で始まります
  • 対応モデルではストリーミングレスポンスとfunction callingをサポートしています