MENU

論理派と直感派、AIとの付き合い方はなぜ真逆なのか

最近、Claude Codeをよく使う。ファイルを読んで、コードを書いて、エラーを修正して、また実行する。そのループを自律的に回してくれる。便利だと思う。

でも、ふと気づいた。壁打ちや書類整理は、通常のチャット型のほうが明らかに質が高い。なぜだろう、と考え始めたら、思いのほか深い話になった。

目次

チャット型AIはなくなるのか

「AIエージェント」という言葉が騒がれている。自律的にタスクをこなすAIが主役になる時代が来る、と。

そのとき、チャット型はどうなるのか。

僕の答えは「なくならない」だ。ただし、最初にそう言ったとき、自分の中に隠れた前提があることに気づいていなかった。

その前提とは——「思考の深化はタスクに変換できない」という仮定だ。

確かに思考の操作は分解できる。「前提を疑え」「反論を当てろ」「抽象度を上げろ」。これらはアルゴリズム化できそうに見える。でも、どの操作をいつ当てるか、それ自体が思考なのだ。

エージェントは「目的関数が定義されてから」動く。
でも人間の思考は、目的関数を作るプロセスそのものが価値だったりする。

※ 目的関数とは
機械学習や最適化の文脈で「何を最大化・最小化すべきか」を定義する式のこと。AIエージェントはこの目的関数に従って行動を選択する。転じてここでは「そもそも何を達成したいのか」という目標の定義そのものを指す。エージェントは目標が明確になってから動けるが、「目標を決める」という曖昧なプロセスは苦手だ、という意味で使っている。

チャット型が残る本質的な理由は「便利だから」ではない。「人間が何を考えたいか、まだわかっていない状態」を扱えるからだと思う。

System1とSystem2という切り口

ここで認知科学者ダニエル・カーネマンの枠組みが役に立つ。彼は人間の思考を二つのシステムに分けた。

重要なのは、この二つは順番があるということだ。System1が「何かを感じ取る」ことで、System2が「それを処理する」対象が生まれる。System1なきSystem2は、処理すべき問いを自分では見つけられない。

ここがエージェントの構造的な限界につながる。

AIエージェントは本質的にSystem2の塊だ。タスクが与えられれば、驚くほど精緻に処理できる。「次に何をすべきか」を決める能力は高い。でも、「そもそも何を考えるべきかわからない状態」には構造的に弱い。なぜなら、その「わからなさ」を感知するのはSystem1の仕事だからだ。

翻って、チャット型AIが得意なのはここだ。「なんかモヤモヤする」「うまく言語化できないんだけど」——そういう曖昧なSystem1のシグナルを受け止めて、System2が扱える形に変換していく。

チャット型AIの本領:
System1(直感・違和感・モヤモヤ)
↓受け止める・引き出す
↓言語化する・構造に落とす
System2(分析・検証・意思決定)

※ エージェントが得意なのは System2 以降だけ

エージェント時代が来ても、この橋渡しのプロセスは消えない。むしろエージェントが強くなるほど、「何をエージェントに任せるか」を決めるSystem1→System2の変換が、より重要になるとさえ思う。

論理派と直感派で、使い方が真逆になる

この枠組みで考えると、面白いことがわかる。論理派と直感派では、チャット型AIに求めるものが真逆になる。

論理派の問題構造

論理派はSystem2が強い。でも、System1のシグナルを無視しがちだ。結果として——

言語化できる情報だけで判断する
→ 言語化できない重要な情報を捨ててる
→ 論理的には正しいけど「なんか違う」結論が出る

もっと深刻なのは、「間違った問いを正しく解く」という罠だ。問い自体がおかしいという気づきはSystem1から来る。論理派はそこへのアクセスが細い。

さらに言えば、反論を受けても「論理で返せてしまう」。だから本当に間違っているときも修正しにくい。System2が強ければ強いほど、前提の歪みを精緻に展開してしまう

ゴミを入れると、高品質なゴミが出てくる。
論理派の怖さはここにある。

だから論理派にとってチャット型AIの価値は、System1的な問いを投げてもらうことにある。

「それって本当に正しい問いですか?」
「見落としてる感覚的な違和感はないですか?」

——そういう揺さぶりをかけてもらう使い方が効く。

直感派の問題構造

直感派はSystem1が豊かで鋭い。でも、System2への翻訳が苦手だ。

System1は本質的に過去の経験のパターンマッチだ。経験が偏っていれば直感も偏る。しかも「なぜそう思ったか説明できない」から——

同じ判断を他人に伝えられない
→ 教えられない
→ スケールしない

確証バイアスも強化されやすい。「なんか違う気がする」という感覚で、論理的に正しい反論を感覚的に却下できてしまう。

会議で説明できない、提案書が書けない、「なんかわかるんだけど」で止まる。行動力はあるのに、組織では評価されにくいという構造になりがちだ。

だから直感派にとってチャット型AIの価値は、System2の外注先になることだ。「なんかこう思うんだよね」を投げると、言語化して、構造に落として、反証も当ててくれる。

論理派直感派
問題の本質インプットの歪みに気づかないアウトプットを検証・伝達できない
間違い方精緻なゴミを作る正しいかもしれないが誰にも伝わらない
致命傷問いの設定ミス再現性・スケールの欠如
AIの使い方System1的な揺さぶりをもらうSystem2への翻訳を任せる

チャット型AIが残る、本当の理由

最初の問いに戻る。チャット型AIはなくなるのか。

エージェントがどれだけ賢くなっても、「何を考えるべきかわからない状態」は人間の側に残り続ける。論理派にも直感派にも、それぞれ固有の「思考の死角」がある。

チャット型はその死角を補完する構造を持っている。これはタスク処理能力の話ではない。人間の認知構造そのものへの補完だ。

だからなくならない——と、今は言い切れる。ただし「なんとなく便利だから」ではなく、認知科学的な根拠を持って。

· · ·

余談だが、この記事の内容はチャット型AIとの対話から生まれた。僕が「構造的に問題な気がする」と感じた瞬間、それはSystem1のシグナルだった。それをSystem2に翻訳する過程が、そのままこの記事の骨格になっている。

論理派の僕が、System1を経由してSystem2で深化させる。その補助線としてチャット型AIを使った——という事実が、この記事の主張を一番よく証明しているかもしれない。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

コメント

コメントする

目次