「嘘を嘘と見抜ける」——かつてのインターネット文化が前提としていたこの能力は、いま機能しているのだろうか。人間が書くにせよAIが書くにせよ、何をもって「事実」とするのか。その基準が揺らいでいる。

峻別可能性の喪失

従来、嘘を見抜くことが重要だとされてきた。これは、何が嘘で何が本当かを峻別できるという前提があったからだ。

しかしAI時代になると、この前提そのものが崩れる。出典が明記されていない文章を前に、「それらしさ」だけで真偽を判断することが困難になってきている。人間とAIの生成物を区別する従来の基準が、もはや通用しないのではないか。

認知負荷という壁

そもそも、自分が知らない事柄について事実判断を行うことは、認知負荷が極めて高い。

紙の百科事典の時代には、著名な執筆者の「責任」がその担保となっていた。Wikipediaでも、編集履歴や出典が信頼性の根拠になる。だがAIが生成した文章には、この種の責任の所在がない。では、誰が、何が、その真偽を保証するのだろうか。

「自分の意見」という聖域の侵食

学術的な文章では、自分の意見と他人の著作を明確に分けることが求められてきた。この原則はAI時代でも有効だ——表面的には。

ただ、問題は「自分の意見」を書くべき領域にAI生成物が巧妙に入り込めることにある。匿名の議論空間では出典を示すことが難しく、このジレンマはより深刻になる。「これは私が考えたことだ」という主張自体が、検証不可能になりつつあるのではないか。

創作という最後の砦

創作の領域でも、AIの侵入は避けられない。ラノベ的なテンプレートナラティブであれば、AIによる生成は容易だろう。

芥川賞作家の九段理江氏は、受賞作の5%が生成AIの文章だと明かした。「人生の機微のシミュレーター」としての文学に、AIはどこまで入り込めるのか。いや、そもそも「入り込む」という表現自体が適切なのだろうか。AIが書いた部分と人間が書いた部分を区別する意味は、まだ残っているのだろうか。

生の思考プロセスを見せること

この状況への対抗策として考えられるのは、連想に基づく「生」の思考プロセスを見せることかもしれない。意識の流れを断片的に提示する——整理された結論ではなく、考えている最中の軌跡を。

でも、これも完全な解決にはならない。思考プロセスすらAIは模倣できるだろう。

実践としてのゲートキーピング

それでも、できることはある。

AIに何かを書かせる際、必ずファクトチェックをさせる。出典のリンク付きで検証を求める。出典が提示できない情報は削除する——自分の中の「ゲートキーパー」が疑わしいと警告した内容について、裏が取れるまで掲載を保留する。

このラインを守る人と、ラインを越える人、あるいはそもそもラインが存在しない人。その比率が、今後のウェブ空間の質を決定するのだろう。

二つの力学

一方で、ウェブは「ゴミを共食いして生まれたデータ」で氾濫するかもしれない。

他方で、人間がAIと対話を続けることで、「シャドウテキスト」として事実がAIに供給され続けている現実もある。

この二つの力学は、どちらが優勢になるのだろうか。それとも、両者は並存し続けるのか。

開かれた問い

AI時代における事実の担保は、技術的な問題であると同時に、倫理的な問題でもある。

情報の真偽を見極める責任は、ツールに委ねることができない。最終的には人間が負うしかない——そう言うのは簡単だ。

ただ、その「人間」の境界線さえも、いま曖昧になりつつあるのではないだろうか。