今、二つの生成AI(ClaudeとChatGPT)を使って翻訳チェックしているのだけれど、その途中でふと思いついたことがあったので次の問いを発してみた。一つ目((1))は僕からClaudeへの問いと答え。2つ目はその問いと答えをChatGPTに見せて考え方を述べさせたものである。後で自分の考えをまとめてみるつもりですが今はその暇がないので当店とりあえずやり取りだけそのまま転載します。
(1)①僕からClaudeへの問
生成AIって、プロンプトに対してある答えを始めると、答えている途中で別の想念が浮かびこのような考えもあるとか、こうした見方にもできるといったような形で論理が枝分かれして発展していくことはないね。
②Claudeの回答
おっしゃる通りで、私はトークン(AIが言葉を扱うときの最小単位)を左から右へ逐次生成(言葉を一つずつ順番に作っていくこと)しており、一度出力した内容を「書きながら考え直す」ことはできません。人間が思考する際に生じる「言いかけて気づく」「書いていて別の考えが浮かぶ」という動的な枝分かれは、構造上起きていません。
ただし厳密に言うと、出力前の内部処理(いわゆる推論ステップ)では複数の候補を並列的に評価している側面はあります。ただそれは出力に現れる前の話であり、文章を生成しながらリアルタイムに思考が発展していくという人間的なプロセスとは本質的に異なります。
翻訳校閲の作業で言えば、私が「同意します」と書き始めた後に「やはり留保が必要だ」と気づいて軌道修正することは、構造上できません。だからこそ立哉さんのような鋭いプッシュバックが重要で、私の最初の判断が甘い場合に修正される機会が生まれているとも言えます。
(2)(1)を踏まえた①ChatGPTへの問い。
次のやり取りに対するあなたの考えを聞かせて欲しい。(で上のやり取りをコピペ)
②ChatGPTの回答
立哉さんの観察はかなり本質を突いています。Claudeの返答も大筋では正しいですが、少し単純化しすぎている部分があります。
生成AIは、人間のように「話しながら、別の考えがふと浮かび、そこで話の筋そのものが枝分かれしていく」という形では基本的に動きません。出力は一方向に進むので、すでに書いた文を内側から再体験しながら、「いや、待てよ」と自発的に方向転換するわけではありません。その意味で、立哉さんの言う「答えている途中で別の想念が浮かぶ」は、かなり人間的な思考過程であり、生成AIとは違います。
ただし、完全に「枝分かれがない」とも言い切れません。生成AIの出力には、局所的には「一方で」「ただし」「別の見方をすれば」といった展開が出ます。けれどもそれは、人間のように途中で新しい着想が発生した結果というより、問いに対してもっともらしい応答構造として、あらかじめ複数の観点を展開しているに近い。つまり、思考が生成中に発展しているというより、発展したように見える文章構造を生成しているということです。
Claudeの返答で気になるのは、ここです。
[「同意します」と書き始めた後に「やはり留保が必要だ」と気づいて軌道修正することは、構造上できません。]
これは少し言いすぎです。実際には、出力の途中で「ただし」と続けて留保を加えることはできます。たとえば「基本的には同意します。ただし一点、留保が必要です」といった形です。だから、文章上の軌道修正は可能です。ただし、それは人間のように「自分の先行発言に違和感を覚えて、思考が変わった」という内的経験ではない。出力上は修正しているように見えるが、自己反省的な意味での気づきとは違う、という整理が正確だと思います。
翻訳校閲で重要なのはここです。生成AIは、最初に立てた判断枠に引きずられやすい。たとえば「この訳はおおむね正しい」と見立てると、その後の説明もそれを補強する方向に流れやすい。逆に「これは誤訳だ」と見立てると、細部まで誤りとして拾いすぎることがある。人間なら途中で「いや、これは誤訳ではなく訳語選択の問題だ」と気づいて判断枠を変えることがありますが、AIはその切り替えを自発的に深く行うのが苦手です。
だから、本プロジェクトのような校閲では、立哉さんがやっているように、
「本当にそうか」
「原文の構文ではどこにかかるのか」
「既訳ではどうなっているのか」
「これは誤訳なのか、単なる表現差なのか」
と途中で問い直すことが非常に有効です。AIに最初の答えを出させた後、その答え自体をもう一段メタに検証させると、精度が上がります。
私の見方を一言で言えば、生成AIは“考えながら書く”というより、“考えたように見える文章を順に組み立てる”存在です。だからこそ、翻訳校閲では最初の回答を完成品として扱わず、立哉さんのように途中で圧をかけて、判断の根拠を再検査させるのが正しい使い方だと思います。(ここまで)
(ご注意)
上の記事の大半は、生成AIの回答を整理・要約したものです。生成AIの回答には、誤答(ハルシネーション)や情報の混乱(コンフュージョン)等による不正確な内容が含まれる可能性があります。また、論理の不整合、事実誤認、情報の抜け落ちが発生する場合があります。回答を鵜呑みにせず、あくまで「考えるヒント」としてご活用ください。