メインコンテンツへスキップ
モデル品質は迅速に進化しており、エコシステムが変化するにつれてCLIのデフォルト設定を調整しています。このガイドは、現在の主要なオプションの比較のスナップショットとして活用し、更新版を公開する際には再確認することをお勧めします。本ガイドの最終更新日は2026年3月11日(水曜日)です。

1 · 現在のスタックランキング(2026年3月)

ランクモデル選ぶ理由
1Claude Opus 4.6Max推論機能を搭載したAnthropic最新フラッグシップ;複雑な作業における最高の深度と安全性。
2Claude Opus 4.6 Fastより高速な応答時間に調整されたOpus 4.6;12倍のマルチプライヤー。
3Claude Opus 4.5実証された品質と安全性のバランス;TUIとexecの強固なデフォルト。
4Claude Sonnet 4.6Sonnet価格帯(1.2倍)でMax推論を搭載;計画と実装のための強力な日常使いモデル。
5GPT-5.4922Kコンテキスト、128K出力、冗長性サポート、Extra High推論を搭載した最新OpenAIモデル;大規模コンテキストタスクに最適。
6Claude Sonnet 4.5コスト/品質のバランスが取れた優秀な日常使いモデル;Opusレベルの深度が不要な場合の優れた汎用選択肢。
7GPT-5.3-CodexExtra High推論と冗長性サポート搭載の最新OpenAIコーディングモデル;実装重視のタスクに強力。
8GPT-5.2-CodexExtra High推論搭載の実証済みOpenAIコーディングモデル;実装重視のタスクに堅実。
9GPT-5.2冗長性サポートとExtra Highまでの推論を備えたOpenAIモデル。
10Claude Haiku 4.5日常的なタスクと大量自動化のための高速で費用効率の良いモデル。
11Gemini 3.1 Pro構造化出力に強く、研究重視のタスク用の混合推論制御を持つ新しいGemini Pro世代。
12Gemini 3 Flash完全な推論サポートを持つ高速・安価(0.2倍マルチプライヤー);速度が重要な大量タスクに最適。
13Droid Core (MiniMax M2.5)オープンソース、推論サポート(Low/Medium/High)付きの0.12倍マルチプライヤー;利用可能な最安価モデル。画像サポートなし。
14Droid Core (GLM-5)大量自動化とエアギャップ環境用の更新されたGLM機能を持つオープンソース、0.4倍マルチプライヤー;画像サポートなし。
15Droid Core (GLM-4.7)大量自動化やエアギャップ環境用のオープンソース、0.25倍マルチプライヤーの安定した選択肢;注:画像サポートなし。
16Droid Core (Kimi K2.5)画像サポート付きオープンソース、0.25倍マルチプライヤー;コスト重視の作業に適している。
モデルの更新は定期的に行われます。新しいリリースが上記のリストを超えた場合、このページとCLIのデフォルトを更新します。

2 · ジョブに適したモデルの選択

シナリオ推奨モデル
深い計画、アーキテクチャレビュー、曖昧な製品仕様最高の深度と安全性にはOpus 4.6、またはより高速なターンアラウンドにはOpus 4.6 Fastから始める。バランスの取れたコスト/品質にはSonnet 4.6またはSonnet 4.5、大規模コンテキスト推論にはGPT-5.4を使用。
フル機能開発、大規模リファクタリング深度と安全性にはOpus 4.6またはOpus 4.5。速度とExtra High推論が必要な場合はGPT-5.4GPT-5.3-Codex、またはGPT-5.2-Codex;バランスの取れたループにはSonnet 4.6またはSonnet 4.5
反復可能な編集、要約、定型文生成速度とコストのためにHaiku 4.5またはDroid Core(0.12倍のMiniMax M2.5含む)。より高い品質や構造化出力が必要な場合はGPT-5.2
CI/CDまたは自動化ループ予測可能で低コストなスループットのためにHaiku 4.5またはDroid Coreを優先。自動化により強い推論が必要な場合はGPT-5.3-CodexまたはGPT-5.4を使用。
大量自動化、頻繁な迅速ターン迅速なフィードバックにはHaiku 4.5。コストが重要またはエアギャップ展開が必要な場合はDroid Core(特に推論付き0.12倍のMiniMax M2.5)。
Claude Opus 4.6は、極めて複雑なアーキテクチャの意思決定や、最大限の推論機能が必要な重要な作業に最適なオプションです。Opus 4.6 Fastはより高いコストでより高速な応答に調整されています。ほとんどのタスクにOpusレベルのパワーは不要です。Sonnet 4.6またはSonnet 4.5から始め、必要な場合のみエスカレートしてください。
ヒント:/modelまたは設定パネル(Shift+TabSettings)でセッション中にモデルを切り替えることができます。

3 · セッション中のモデル切り替え

  • /model(またはShift+Tab → Settings → Model)を使用してチャット履歴を失うことなく交換。
  • プロバイダーを変更する場合(例:AnthropicからOpenAI)、CLIはセッション記録をAnthropicとOpenAI形式間で変換します。変換では情報が失われます(プロバイダー固有のメタデータが削除)が、実際の使用では精度の低下は見られません。
  • 最良のコンテキスト継続性のために、自然なマイルストーンでモデルを切り替えてください:コミット後、PR着陸時、または失敗したアプローチを放棄して計画をリセットする時。
  • 急速に切り替えを繰り返すと、アシスタントが再接地に1ターン使うことが予想されます;切り替え時は最近の進捗を要約することを検討してください。

4 · 推論努力設定

  • Opus 4.6 / Opus 4.6 Fast: Off / Low / Medium / High / Max(デフォルト:High)
  • Sonnet 4.6: Off / Low / Medium / High / Max(デフォルト:High)
  • Opus 4.5 / Sonnet 4.5 / Haiku 4.5: Off / Low / Medium / High(デフォルト:Off)
  • GPT-5.4: None / Low / Medium / High / Extra High(デフォルト:Medium)
  • GPT-5.2: Off / Low / Medium / High / Extra High(デフォルト:Low)
  • GPT-5.2-Codex: None / Low / Medium / High / Extra High(デフォルト:Medium)
  • GPT-5.3-Codex: None / Low / Medium / High / Extra High(デフォルト:Medium)
  • Gemini 3.1 Pro: Low / Medium / High(デフォルト:High)
  • Gemini 3 Flash: Minimal / Low / Medium / High(デフォルト:High)
  • Droid Core (GLM-5): Noneのみ(デフォルト:None;画像サポートなし)
  • Droid Core (GLM-4.7): Noneのみ(デフォルト:None;画像サポートなし)
  • Droid Core (Kimi K2.5): Noneのみ(デフォルト:None)
  • Droid Core (MiniMax M2.5): Low / Medium / High(デフォルト:High)
推論努力は遅延とコストを増加させます。単純な作業には低く開始し、必要に応じてエスカレートしてください。MaxはClaude Opus 4.6とSonnet 4.6で利用可能。Extra HighはGPT-5.4、GPT-5.2、GPT-5.2-Codex、GPT-5.3-Codexで利用可能。
/modelReasoning effort、または設定メニューから推論努力を変更できます。

5 · Bring Your Own Keys (BYOK)

Factoryは管理されたAnthropicとOpenAIアクセスを提供しています。独自のアカウントで実行することを希望する場合、BYOKはオプトイン制です。セットアップ手順、サポートされているプロバイダー、請求に関する注記についてはBring Your Own Keysを参照してください。

オープンソースモデル

Droid Core (GLM-5)Droid Core (GLM-4.7)Droid Core (Kimi K2.5)、**Droid Core (MiniMax M2.5)**は、CLIで利用可能なオープンソースの代替モデルです。これらは以下の用途に有用です:
  • エアギャップ環境 外部API呼び出しが許可されていない場合
  • コスト重視プロジェクト 無制限のローカル推論が必要な場合
  • プライバシー要件 コードがインフラストラクチャから離れてはいけない場合
  • 実験 オープンソースモデル機能での実験
注: GLM-5、GLM-4.7、MiniMax M2.5は画像添付をサポートしていません。Kimi K2.5は画像をサポートしています。MiniMax M2.5は利用可能な最安価モデル(0.12倍マルチプライヤー)で、Droid Coreモデルの中で唯一推論(Low/Medium/High)をサポートしています。画像ベースのワークフローには、Claude、GPT、またはKimiモデルを使用してください。 オープンソースモデルを使用するには、ローカル推論サーバー(Ollamaなど)またはホストされたプロバイダーでBYOK経由で設定する必要があります。セットアップ手順についてはBYOK documentationを参照してください。

6 · 効果的な方法をメモする

  • 高インパクトなワークフロー(例:仕様生成対迅速編集)と、どのモデル+推論努力の組み合わせが最適に感じるかを追跡する。
  • モデルの後退に気づいた場合は、コミュニティまたはFactoryの担当者に連絡して、迅速にベンチマークを取り、このガイダンスを更新できるようにする。