モデル名 | 開発元 | パラメータ数 | トレーニングデータ量 | 主な特徴 | 使用可能な言語 | 精度・性能 | 推論速度 | 量子化対応 | 主な用途 | 利点 | 欠点 | 備考 |
GPT-4 | OpenAI | 数千億〜数兆 | 数百億から数兆トークン | 最新の高性能LLM、幅広いタスクに対応 | 多言語対応 | 高い | 中程度 | 部分対応 | 自然言語処理全般、生成タスク、会話AI | 多用途で汎用的な性能、言語理解が深い | 高性能だが計算資源を多く消費 | |
LLaMA(ラマ) | Meta | 70億〜650億 | 数百億トークン | 軽量で効率的、研究用途やカスタマイズに適している | 英語 | 中程度 | 高速 | 対応 | 研究開発、軽量推論、カスタマイズ | ローカル環境での動作に適している | 精度が最新のモデルに比べてやや低い | |
Alpaca | Stanford | 70億 | 約5万のデータセット | LLaMAベースのファインチューニングモデル | 英語 | 中程度 | 高速 | 対応 | 軽量な学習、特定タスクのチューニング | 軽量で小規模なデータセットに最適 | 精度は高くない | |
GPT-NeoX | EleutherAI | 200億〜600億 | 数百億トークン | オープンソース、高いカスタマイズ性 | 英語 | 中程度 | 中程度 | 対応 | 研究開発、カスタマイズ、生成タスク | カスタマイズが容易、オープンソース | トレーニングに高い計算リソースが必要 | |
Mistral | Mistral AI | 70億 | 数十億トークン | コンパクトかつ高効率、専門領域に強い | 英語 | 高い | 高速 | 対応 | エッジデバイス、専門領域向け推論 | コンパクトで計算資源の効率が良い | 多言語対応が限定的 | |
Vicun(ビクーナ) | LMSYS | 130億 | 約70億トークン | LLaMAベース、ユーザー対応の最適化モデル | 英語 | 中程度 | 高速 | 対応 | 会話型AI、ユーザーインタラクション | 会話タスクに特化、軽量 | 高度なタスクには不向き | |
Falcon | TII (UAE) | 40億〜180億 | 数兆トークン | 中東で開発された高性能モデル、オープンソース | 多言語対応 | 高い | 中程度 | 対応 | 多言語対応タスク、自然言語生成 | 高性能で多言語対応が優れている | トレーニングが難しい | |
Elyz(イライザ) | Elyza Inc. | 非公開 | 非公開 | 日本語特化、オープンソース、軽量で高速なモデル | 日本語 | 高い | 高速 | 対応 | 日本語の自然言語処理、生成タスク | 日本語対応に非常に優れ、軽量で効率的 | 日本語以外の対応が限定的 | ・2018年9月に東京大学松尾研究室からスピンアウトする形で創業したAIスタートアップ ・「Llama 2」ベースの商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」 |
Phi3 | Microsoft |
[戻る]