項目 | 非思考連鎖型モデル | 推論型モデル |
概要 | 文章生成や予測をパターンに基づいて行う トークンベース |
逐次的な推論や論理的な思考を重視する Reasoning 、推論戦略モデルとも呼ばれる。考えて回答する。 |
代表的なモデル | GPT-3、GPT-4 など | ChatGPT with Chain of Thought (CoT)、Elyza-7B (推論強化) など |
動作原理 | ・訓練データを模倣 ・入力データに基づき統計的に最適な単語を選択 |
・「強化学習」により、報酬とペナルティを通じ問題を解決するように訓練 ・段階的に思考プロセスを展開し、論理的に回答を導く |
出力の特徴 | 直感的で流暢な文章を生成しやすい | 複雑な推論や数学的問題に強い |
適したタスク | 一般的な文章生成、会話、要約 | 数学、プログラミング、論理推論が必要なタスク |
弱点 | 複雑な推論や長い因果関係を考慮するのが苦手 | 計算コストが高く、処理速度が遅くなることがある |
学習方法 | 大規模データを使い、統計的パターンを学習 | 思考過程を明示的に学習し、段階的に問題を解決する |
例 | 「日本の首都はどこですか?」→「東京です。」 | 「5個のリンゴがあり、2個食べました。残りはいくつ?」→「5-2=3。答えは3個です。」 |
処理 | 短い | 場合によっては長時間 よって昼は人間が仕事をし、夜はAIに仕事を投げて帰宅するというスタイルが定着するかも |
今後 | 丸暗記モデルなのでこれ以上スケールしない | |
例 | 「むかしむかしあるところに → おじいさんとおばあさんがいました。」 | 問題: 「もし3つのりんごがあり、さらに2つのりんごを買ったら、全部で何個になりますか?」 「まず、最初に3つのりんごがあります。次に、2つのりんごを足すと、合計は3+2で5になります。したがって、全部で5個になります。」 こちらの例では、どうしてその答えになるのか、具体的な計算過程が明確に示されています。 |