Local LLM の比較表




モデル名 開発元 パラメータ数 トレーニングデータ量 主な特徴 使用可能な言語 精度・性能 推論速度 量子化対応 主な用途 利点 欠点 備考 
GPT-4 OpenAI 数千億〜数兆 数百億から数兆トークン 最新の高性能LLM、幅広いタスクに対応 多言語対応 高い 中程度 部分対応 自然言語処理全般、生成タスク、会話AI 多用途で汎用的な性能、言語理解が深い 高性能だが計算資源を多く消費  
LLaMA(ラマ) Meta 70億〜650億 数百億トークン 軽量で効率的、研究用途やカスタマイズに適している 英語 中程度 高速 対応 研究開発、軽量推論、カスタマイズ ローカル環境での動作に適している 精度が最新のモデルに比べてやや低い  
Alpaca Stanford 70億 約5万のデータセット LLaMAベースのファインチューニングモデル 英語 中程度 高速 対応 軽量な学習、特定タスクのチューニング 軽量で小規模なデータセットに最適 精度は高くない  
GPT-NeoX EleutherAI 200億〜600億 数百億トークン オープンソース、高いカスタマイズ性 英語 中程度 中程度 対応 研究開発、カスタマイズ、生成タスク カスタマイズが容易、オープンソース トレーニングに高い計算リソースが必要  
Mistral Mistral AI 70億 数十億トークン コンパクトかつ高効率、専門領域に強い 英語 高い 高速 対応 エッジデバイス、専門領域向け推論 コンパクトで計算資源の効率が良い 多言語対応が限定的  
Vicun(ビクーナ) LMSYS 130億 約70億トークン LLaMAベース、ユーザー対応の最適化モデル 英語 中程度 高速 対応 会話型AI、ユーザーインタラクション 会話タスクに特化、軽量 高度なタスクには不向き  
Falcon TII (UAE) 40億〜180億 数兆トークン 中東で開発された高性能モデル、オープンソース 多言語対応 高い 中程度 対応 多言語対応タスク、自然言語生成 高性能で多言語対応が優れている トレーニングが難しい  
Elyz(イライザ) Elyza Inc. 非公開 非公開 日本語特化、オープンソース、軽量で高速なモデル 日本語 高い 高速 対応 日本語の自然言語処理、生成タスク 日本語対応に非常に優れ、軽量で効率的 日本語以外の対応が限定的 ・2018年9月に東京大学松尾研究室からスピンアウトする形で創業したAIスタートアップ
・「Llama 2」ベースの商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」
Phi3 Microsoft                       





 

 


[戻る]