
OpenAIが小型モデルの新バージョンとして、GPT-5.4 miniとGPT-5.4 nanoを公開しました。
両モデルは、高速処理と高スループットを重視する用途に向けて設計されています。
特にminiは、従来のGPT-5 miniから性能を大きく引き上げつつ、応答速度も改善したとされています。
GPT-5.4 miniの位置付け
GPT-5.4 miniは、コーディング、推論、マルチモーダル理解、ツール利用で性能を伸ばした小型モデルです。
OpenAIは、SWE-Bench Proで53.40%、OSWorld-Verifiedで70.60%を記録し、より大きいGPT-5.4に近い場面があると説明しています。
用途としては、応答性が重要なコーディング支援、サブエージェント、スクリーンショット理解を含むコンピュータ操作、リアルタイムのマルチモーダル処理が挙げられています。
nanoの特徴と提供条件
GPT-5.4 nanoは、分類、抽出、ランキングなど、速度とコストの優先度が高い処理向けの最小モデルです。
API専用で提供され、価格は入力100万トークンあたり0.20ドル、出力100万トークンあたり1.25ドルと案内されています。
一方のGPT-5.4 miniはAPI、Codex、ChatGPTで利用でき、ChatGPTでは無料版とGoユーザー向けのThinking機能やフォールバック用途でも使われます。
価格とSNS上の受け止め
OpenAIは、GPT-5.4 miniの入力価格を100万トークンあたり0.75ドル、出力価格を4.50ドルとしています。
SNSでは、miniやnanoが実運用で安価かつ高速な選択肢になるという前向きな評価が見られました。
その一方で、GPT-5 miniからの値上がりを懸念する声や、ChatGPT上での利用方法が分かりにくいという指摘も出ています。
今回の更新は、単一の大型モデルだけでなく、役割分担した小型モデルを組み合わせる運用をさらに後押しする動きと言えそうです。
参考リンク:


