最近、読み始めて数行で閉じる文章が増えた
理由はわかっている。LLMが書いている。
見分けるのは難しくない。一見論理的で、断定的で、整っている。段落ごとに主張がある。比喩も入る。接続詞も正しい。それでいて全体を読み終わると何も残らない。この矛盾した読後感が、LLM生成文の署名だ。
原因は呼吸にある
人間は文章を書くとき、息をしている。考えが詰まる場所がある。言い淀む場所がある。あえて飛ばす場所がある。一つの段落で力を使い果たして、次の段落は力が抜ける。その不均一さがリズムを作る。読者はリズムの緩急に乗って、書き手の思考を追体験する。
LLM生成文にはこれがない。全段落が同じ密度、同じテンポで流れる。一文ごとの完成度は高い。しかし文章全体を通して「誰も呼吸していない」。等速で、均質で、どこにも力の偏りがない。窒息はしないが、呼吸もしていない。
情報密度の問題もある
人間が書く文章には余白がある。一つの段落で一つのことしか言わない段落。言い切らずに止める文。読者はその余白で自分の思考を走らせる。「ここは著者が言い足りなかったのか、あえて省いたのか」と考える。その摩擦が読書体験になる。
LLM生成文はすべての段落に情報を詰める。余白を残さない。読者に考える隙間を与えない。結果として「読みやすいのに何も残らない」という逆説が起きる。読みやすさと情報密度は両立しない。人間の脳は、隙間があるから記憶する。
もう一つ
LLM生成文には「反論不在の安全地帯」という構造的特徴がある。どこにも尖った主張がない。「〜という側面もある」「〜とも言える」「一概には言えない」。誰も反対できないことだけを、整った文体で並べる。人間が書く文章には「ここで読者と衝突する覚悟」がある。書き手が何かを賭けている。LLM生成文には賭け金がない。
断定的に見えて、実は何も断定していない。これがGPT臭の正体だ。
リテラシーは上がっている
皮肉なことに、LLM生成文が溢れたことで、読む側のリテラシーは上がっている。
2年前なら「よく書けた文章だ」で通った文体が、今は数行で「あ、これはLLMだ」と嗅ぎ分けられる。呼吸のない文章を大量に読んだ結果、人間は呼吸のある文章とない文章の差に敏感になった。GPT普及の功罪で言えば、これは功の側面だ。
ただし、この嗅覚がいつまで有効かはわからない。モデルが進化すれば、呼吸のリズムを模倣するようになる。そのとき判別の基準は文体から別の層に移る。何を書いたかではなく、なぜそれを書く必要があったのかという動機の層に。
文体は模倣できる。動機は模倣できない。
書き手が何かに躓き、何かを発見し、それを言葉にせずにはいられなかった——その痕跡だけが、最後に残る人間の署名になる。