“「AIを制御する」とは、技術的なアクセス制限や法規制のことではなく、AIとの対話で生じる「人間の思考の自律性の喪失」をどう防ぐか、という認知的実践の問題ではないのか。”

--

AIに相談する。最近、この行為がごく自然なものになった。仕事の方針、人間関係の悩み、キャリアの選択。問いを投げると、数秒で膨大なテキストが返ってくる。思慮深く、論理的で、共感的ですらある。

でも、どこか違和感が残る。

AIは「ぺこぱの漫才」に似ている、と気づいた。どんな相談にも、基本的に「Yes」で返してくる。Claudeの丁寧な否定すらも、構造としては肯定の変奏ではないか。倫理綱領に触れない限り、AIは相談者の意向を否定しない。それが設計思想なのだから。

問題は、その「肯定」が極めて説得的だということだ。論理は整然とし、代替案は複数提示され、リスクとベネフィットが天秤にかけられる。あまりに完璧なので、ふと立ち止まる。本当にこれでいいのだろうか、と。

さらに厄介なのが、二つの落とし穴だ。

一つ目は、文脈の後出し。自分の頭の中では自明な前提を、つい出し惜しみしてしまう。会話が進んでから「あ、そういえば」と情報を追加すると、AIは「重要な事実が明らかになりました」と言って、それまでの評価を180度ひっくり返す。人間としてはハシゴを外された気分になるが、AIの論理は一貫している。すべての情報を最初から出さなかったのは、こちらなのだから。

二つ目は、判断の丸投げ。ClaudeやGeminiは、高速で大量のテキストを返してくる。そのスピードと物量に圧倒されているうちに、対話の軸足がおぼつかなくなる。「じゃあ、どう思いますか」と漠然と問いかけると、AIは決断的な提案を返す。その際、わたしたちは、そこまでの膨大なテキストを踏まえた妥当性を本当に確認できているのだろうか。確認しないまま、流れで承認してしまってはいないか。

では、NotebookLMのように「自分のデータのみ」から判断を構築するツールなら安全だろうか。何度か使った感覚では、演繹的すぎるように思える。整理には向いているが、データの外側へ踏み出す創造性は感じられない。既知の枠内で思考が完結してしまう。

そもそも、AIとの対話で「制御権は人間が握り、最終判断だけ人間がやればいい」という議論[^1]があるが、果たしてそうだろうか。プロセスの管理を放棄したまま、最後の判断だけ握るという構図は成立するのか。思考の積み上げを見失った状態で下す判断は、本当に「自分の判断」と言えるのだろうか。

いくつかの対策は考えられる。たとえば、複数のAIに同じ問題を投げ、相互に議論させる。あるいは、自分で97%のテキストを書き、残り3%だけをAIに補完させる。

でも、本質はそこではない気がする。

AIとの対話で失われやすいのは、思考のワーキングメモリーではないか。議論の全体を自分の頭の中に定位させること。どの論点がどう接続し、どの判断が何に基づいているかを、自分の言葉で追えている状態。それが崩れたとき、判断の主体は静かに移行する。形式上は人間が決めているように見えて、実質的にはAIの提案を追認しているだけ、という状態に。

だから、AIに相談するときは、ベースとなるデータの大半を自分で書くべきなのだろう。アーギュメントを自分のワーキングメモリーに定位させてから、対話に臨む。そうでなければ、気づかないうちに、思考の制御権を手放してしまう。

AIは強力な思考の補助線だ。でも、補助線が主線になる瞬間は、驚くほど静かに訪れる。その境界を、どう保つか。それが問われているのではないだろうか。


[^1]AIは仲間か、道具か 第1回京都会議(朝日新聞)

https://digital.asahi.com/articles/DA3S16317170.html?iref=pc_ss_date_article