Local LLM の比較表




モデル名 提供元 パラメータ数 推論速度 メモリ要件 使用例 ライセンス  備考
GPT-4 (Local) OpenAI 非公開 非公開 約32GB以上 テキスト生成、QA 商用ライセンス  
LLaMA 2 Meta 7B, 13B, 70B 中速 約16GB〜128GB 文書要約、翻訳、QA オープンソース(非商用)  
GPT-J EleutherAI 6B 中速 約16GB コード生成、QA MITライセンス  
GPT-NeoX EleutherAI 20B 遅め 約40GB クリエイティブ文章生成 Apache 2.0  
BLOOM BigScience 176B 遅め 約350GB 多言語翻訳、QA RAILライセンス  
Mistral Mistral.ai 7B 高速 約12GB コンテンツ生成 オープンライセンス  
Elyz(イライザ) Elyza 非公開 高速 約16GB〜32GB 日本語テキスト生成 不明 ・2018年9月に東京大学松尾研究室からスピンアウトする形で創業したAIスタートアップ<br>
・「Llama 2」ベースの商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」
Dify(ディファイ) Dify 非公開 高速 約16GB〜32GB アプリケーション向けAI 不明 ・オープンソースのLLMアプリ開発プラットフォーム
・豊富なテンプレートと構築サポート
・使いやすいUIと柔軟な拡張性をもつノーコードツール
・RAGエンジンで出力カスタマイズできる
・公開と分析が手軽にできる
Phi-3 Unknown 非公開 高速 約16GB〜64GB 対話型AI、テキスト生成 不明  





 

 


[戻る]