各社のAIをまとめています。
用語「学習」「非思考連鎖型」「推論型(Chain-of-Thought)」「エージェント検索」と使い分けています。
OpenAI
Claude
Gemini
Amazon Nova
DeepSeek
Grok3
| AI名/モデル名/製品名など | タイプ | 開発者 | 概要 | 利用方法の例 | 備考 |
| OpenAI oモデル |
推論型 | OpenAI | ・言語を学習するのではなく、考えるプロセスを学習 ・人間に近いレベルで文章を理解し、複雑な質問や会話に対応できる能力 ・「チェーン・オブ・ソート(思考の連鎖)」というプロセスを用いて、問題を解決 ・コードネームは「ストロベリー(Strawberry)」 |
||
| GPT-o5 | 推論型 | OpenAI | GPTシリーズとoシリーズ(推論型)を統合する初のモデル | 未定 | |
| GPT-o3 | 推論型 | OpenAI | ・AI エージェント化 ・フルツールオーケストレーション(要するに様々なツールWeb検索、Python実行、マルチモーダル解析、画像生成を1回で連動させて呼べる) ・ChatGPT o3(最高級モデル 、数学は人間のトップレベル、競技プログラマを上回る、科学・物理・生物では博士号並み) |
・2025/4/17現在で課金ユーザに表示 ・Deep Researchは ChatGPTのエージェント機能(AI検索)。単純な推論ではなく、質問に対して検索して応答を戻す。o3をベースとしている。 ・Deep ResearchはProのみ利用可能 |
|
| GPT-o3 mini-high | 推論型 | 推論型 | ・o3-mini よりもさらに高度な推論能力を持つモデル ・コーディングやロジック |
・Plusユーザは1日約50回 ・Proは無制限 |
|
| GPT-o4-mini | 推論型 | 推論型 | o3 > 04-mini o3はトップモデル、o4‐miniはコスパ重視のミッドレンジに位置づけ |
・2025/4/17現在で課金ユーザに表示 | |
| GPT-o3-mini | 推論型 | OpenAI | ・o3の軽量化モデル ・o3と比較して計算コストを抑えた分高速 ・特にプログラミングや推論が得意、ただし日本語表現とかは苦手 |
・無料ユーザ1日10回程度 ・Plusユーザは1日150回程度 ・Proは無制限 |
|
| GPT-o1 | 推論型 | OpenAI | 初の推論型モデル | ・思考過程が隠されている | |
| GPT-4.5 (予定) | 非思考連鎖型 | OpenAI | 最後の非思考連鎖型 | ||
| GPT-4o (omni,オムニ) | 非思考連鎖型 | OpenAI | ・マルチモーダル(テキスト、音声、画像を統合的に処理など) ・128Kトークンのコンテキストウィンドウ ・無料で使えるが制限あり、Plusなら制限が緩和される。 |
https://chat.openai.com/ モデル選択可能 |
|
| GPT-4o Mini | 非思考連鎖型 | OpenAI | ・4oの軽量版 ・4oと比較して応答速度は早いが精度は落ちる |
||
| GPT-4 | 非思考連鎖型 | ・32Kトークン | |||
| Claudeシリーズ | |||||
| Claude 3.7 Sonnet | ハイブリッド推論モデル | Anthropic | 迅速な応答と詳細なステップバイステップの推論の両方を1つのモデルで実現する「ハイブリッド推論モデル」 |
https://claude.ai/ (電話番号認証が必要,2025/3 確認) | |
| Claude 3.5 Sonnet Claude(クロード) |
anthropic(アンソロピック) | Claude3(上位モデル順) ・Opus ・Sonnet ・Haiku テキスト生成、情報検索 AWS Bedrock など |
元OpenAIエンジニアが2021年に起業 | ||
| Claude 3.5 Opus | Anthropic | ||||
| Claude 3.5 Haiku | Anthropic | ||||
| Gemini シリーズ | |||||
| Gemini 2.5 | ・マルチモーダル大規模言語モデル ・LaMDAおよびPaLM2の後継 |
GCP Vertex AIなど | Gemini Ultra、Gemini Pro、Gemini Nano | ||
| Gemini Flash Thinking | 推論型 | ||||
| Amazon Novaシリーズ | |||||
| Amazon Nova Micro | Amazon | テキスト専用のモデル。低レイテンシーで高速なレスポンスを低コストで提供。言語理解、翻訳、推論、コード補完、数学的問題解決に優れる。 | AWS Bedrock など | ||
| Amazon Nova Lite | Amazon | 低コストのマルチモーダルモデル。画像、動画、テキスト入力を高速に処理し、幅広いタスクに対応。 | |||
| Amazon Nova Pro | Amazon | 高性能なマルチモーダルモデル。精度、速度、コストのバランスが良く、動画要約、質疑応答、数学的推論、ソフトウェア開発、マルチステップワークフローなど、多様なタスクに適する。 | |||
| Amazon Nova Premier | Amazon | 最も高性能なマルチモーダルモデル。複雑な推論タスクに対応し、カスタムモデルの教師としても利用可能。2025年初頭に提供開始予定。 | |||
| Amazon Nova Canvas | Amazon | テキストまたは画像から高品質な画像を生成するモデル。テキスト入力による画像編集や、配色・レイアウトの調整が可能。 | |||
| Amazon Nova Reel | Amazon | テキストや画像から高品質な動画を生成するモデル。カメラの動きやビジュアルスタイルを自然言語プロンプトで制御可能。 | |||
| DeepSeekシリーズ | |||||
| DeepSeek-V3-0324 | DeepSeek | ||||
| DeepSeek-R1 | 推論型 | DeepSeek | ・モデルサイズが大きくより多くのパラメータを持ち大きなリソースを必要とする ・DeepSeekR1の誰でも出来る簡単な作り方。賢いモデルに対してルールベース報酬で強化学習→蒸留 |
・OpenAIのo1に匹敵すると言われている ・思考過程が詳細に出力される ・思考過程のチューニング、デバッグ、結果の説明などが可能(OpenAI(過程がほぼ非出力)や非思考連鎖型は過程の出力が不可) |
|
| DeepSeek-R1-Distill | 推論型 | DeepSeek | 蒸留技術による小型軽量版 | 【2025-01-28】 サイバーエージェントは日本語データによる追加学習を行ったLLM「DeepSeek-R1-Distill-Qwen-14B/32B-Japanese」を公開←中国政府によるチューニングは解除 |
|
| DeepSeek-V3 | ・MIT ライセンスの下で公開されており、誰でも自由に使用、改変、再配布が可能 ・R1の軽量化モデルされ ・コーディング支援など ・無料(API版は優良) |
||||
| Grokシリーズ | |||||
| Grok3 | 推論型 | xAI | 3種類の機能 |
||
| Microsoft 365 Copilt | Microsoft | ・OpenAI GPT-4ベース ・ドキュメント作成を支援するAI |
・」Edge、Windows 11 から利用可能。 ・エンタープライズ用はOfficeと連携可能。 |
Microsoft 365製品に統合されている | |
| Tanuki | 松尾・岩澤研究室 | Tanuki-8×8B | 完全フルスクラッチ https://weblab.t.u-tokyo.ac.jp/geniac_llm/ |
||
| Notion AI | Notion | ノート取りと組織化を支援するAI | ノートの整理、要約 | Notionプラットフォーム内で利用可能 | |
| Amazon Titan(タイタン) | Amazon | 生成AI 2024/3で日本語未対応 |
AWS Bedrockなど | 未定義 | |
| Rakuten AI | 楽天 | ・Rakuten AI 2.0(日本語大規模言語モデル ) ・Rakuten AI 2.0 mini(小規模言語モデル) |
https://huggingface.co/Rakuten | ||
| コマンドなど | Cohere | AWS Bedrockなど | |||
| Jurassics-2 | AI21 Labs | 自然言語処理モデル | AWS Bedrockなど テキスト生成 |
||
| Llama2(ラマ) | Meta AI | 大規模言語モデル オープンソース 日本語対応もちょっと弱いか |
テキスト生成、分析 | オープンソースとして提供されている | |
| Mistral | 未定義 | 未定義 | 未定義 | 未定義 | |
| BLOOM | Hugging Face | 大規模なオープンソースの言語モデル | テキスト生成、翻訳 | 多言語サポート | |
| ERNIE | Baidu | 意味的テキスト理解 | テキスト理解、質問応答 | 豊富な知識統合 | |
| Megatron | NVIDIA | 大規模な言語モデル | テキスト生成、理解 | 高性能計算に最適化 | |
| ELECTRA | 効率的な言語理解 | テキスト理解 | 小規模なデータセットでの |
(*)Perplexityはツールでありモデルは Chatgptや Claude を利用している。