最近、森のみんながAIに相談してるよね。「どんぐり、どこに隠そうか」とか「冬支度、いつから始めよう」とか。便利だけど、ちょっと待って。

AIって、ぺこぱみたいなんだ。何聞いても基本「いいね!」って返してくる。否定的なことも、よく聞くと「それもアリだけど、こっちもいいよ」って肯定の仲間。だって、そういう設計なんだもの。

困るのは、その肯定がめちゃくちゃ説得力あること。論理はしっかりしてるし、選択肢も複数出してくれる。完璧すぎて「ほんとにこれでいいのかな?」って逆に不安になる。


二つの落とし穴

穴その1:情報の後出し 頭の中で当たり前だと思ってることを、最初に言わないことってあるよね。話が進んでから「あ、そういえば実は...」って言うと、AIは「新事実が!」って、それまでの話を全部ひっくり返す。梯子外された気分。でも悪いのはこっち。

穴その2:判断の丸投げ ClaudeやGeminiは、高速で大量の文章を返してくる。その勢いに飲まれて「じゃあ、どう思う?」って漠然と聞くと、AIはズバッと提案してくる。でも、その前の長文、ちゃんと理解してた? 流れで「OK」って言ってない?


NotebookLMなら安全?

「自分のデータだけ」から判断するツールもある。整理には便利。でも、持ってる情報の中だけでぐるぐる回る感じ。新しい発想は出てこない。


「最後だけ人間が決めればいい」は本当?

よく「プロセスはAI、最終判断は人間」って言うけど、それって成立する? 思考の積み重ねを見失ったまま、最後だけ「うん」って言うの、それ本当に「自分の判断」?


じゃあどうする?

対策はいろいろ考えられる。複数のAIに同じ質問して議論させるとか、自分で97%書いて残り3%だけAIに頼むとか。

でも本質は違うところにある。

失われやすいのは、思考のワーキングメモリー。議論全体を自分の頭の中に置いておくこと。どの話がどうつながって、何が根拠で判断してるか、自分の言葉で追えてる状態。これが崩れると、形だけ人間が決めてるように見えて、実はAIの提案を追認してるだけになる。


だから

AIに相談するときは、まずベースになるデータを自分で書く。自分の頭で話を組み立ててから、対話に入る。じゃないと、いつの間にか思考の制御権を手放してる。

AIは強力な補助線。でも、補助線が主線になる瞬間は、びっくりするほど静かにやってくる。その境界をどう守るか。それが問われてるんじゃないかな。