概要
Ollamaは、GemmaやQwenなどのオープンモデルをローカル環境で手早く実行・管理できるツールです。
macOS/Windows/Linux/Dockerに対応し、CLIでモデル実行やチャットを行えるほか、REST APIやPython/JavaScriptライブラリ経由で既存アプリや開発フローにも組み込めます。
CodexやCopilot系連携、各種Web UIやデスクトップクライアントとの接続先として使いたい開発者や、自前環境でAIを動かしたい個人・チーム向けです。
互換性・特徴
- CLI
- REST API
- Python
- JavaScript
- Windows/macOS/Linux
- Docker
基本情報
| ライセンス | MIT |
| Stars | 170,990 |
| Forks | 16,031 |
| カテゴリ | LLM |
| アクティビティ | high |
最新のissue
- Claude Desktop Cowork 3P GatewayでLegacy Modelしか表示されず、/v1/modelsは39件返すが使用可能モデルが0件 (更新: 2026-05-08 / Claude Desktop Cowork 3P Gateway shows only Legacy Model; /v1/models returns 39 models but 0 usable)
- nvfp4モデルがApple M3で動作しなくなった (更新: 2026-05-08 / nvfp4 models stopped working on Apple M3)
- 翻訳機能を図形化プログラムに追加してほしいという要望 (更新: 2026-05-08 / Request to add translation在图形化程序中添加语言翻译)
- 0.23.1でmlx runnerが失敗する (更新: 2026-05-08 / 0.23.1 : mlx runner failed)
最新リリース: v0.23.2 (2026-05-07)
GitHub: https://github.com/ollama/ollama
