概要
GPT-2は、OpenAIによって開発された大規模な英語の因果言語モデリング(CLM)タスクで自己教師あり学習されたトランスフォーマーモデルです。
与えられたプロンプトに基づいて自然なテキストを生成することに優れており、特にテキスト生成を目的とした開発者や研究者に適しています。
Hugging FaceのTransformersライブラリを通じてPython環境(PyTorch, TensorFlow)で簡単に利用可能です。
インターネット上のデータで学習されているため、モデルにはバイアスが含まれる可能性があり、生成されたテキストの事実確認が必要です。
最小バージョンのGPT-2 (124Mパラメータ)が利用可能です。
互換性・特徴
- Python
- Hugging Face Transformers
- PyTorch
- TensorFlow
- テキスト生成
基本情報
| ライセンス | mit |
| Likes | 3,228 |
| Downloads | 15,932,835 |
| Pipeline | text-generation |
| カテゴリ | LLM |
| アクティビティ | mid |
HuggingFace: https://huggingface.co/openai-community/gpt2
