252 repos · 11 categories · GitHub上のAI関連OSSを日本語で早見 · 毎日自動更新

gpt2

★ 3.2k mit 更新: 2024-02-19 GitHubで見る →

概要

GPT-2は、OpenAIによって開発された大規模な英語の因果言語モデリング(CLM)タスクで自己教師あり学習されたトランスフォーマーモデルです。

与えられたプロンプトに基づいて自然なテキストを生成することに優れており、特にテキスト生成を目的とした開発者や研究者に適しています。

Hugging FaceのTransformersライブラリを通じてPython環境(PyTorch, TensorFlow)で簡単に利用可能です。

インターネット上のデータで学習されているため、モデルにはバイアスが含まれる可能性があり、生成されたテキストの事実確認が必要です。

最小バージョンのGPT-2 (124Mパラメータ)が利用可能です。

互換性・特徴

  • Python
  • Hugging Face Transformers
  • PyTorch
  • TensorFlow
  • テキスト生成

基本情報

ライセンスmit
Likes3,228
Downloads15,932,835
Pipelinetext-generation
カテゴリLLM
アクティビティmid

HuggingFace: https://huggingface.co/openai-community/gpt2