トップページ > コラム

なぜおかしな答が返ってくるのか


2023.6.18


イメージ写真

 チャットGPTなどの生成AIに対して様々な質問をして、おかしな回答、間違った回答が出てくるのを面白がるということが流行っている。私も実は色々試して、まだ人間は越えられていないと密かにほっとすることが結構ある。文章のみで質問の意図までAIに伝えることはかなり難しいようだ。人間に質問してもこちらの意図とはかけ離れたおかしな回答が返ってくることは珍しくはない。それでも人間同士のコミュニケーションが何とかうまくいっているのは、共通の知識をあらかじめ持っていたり、言葉以外の様々な方法で情報交換ができていたりするからである。

 例えばAという前提条件においてBという事象が起きることで生ずる問題とその解決策を相談した場合を想定する。もちろん難しい問題であることが前提である。私の見るところ、生成AIはまずAについての情報を、次にBについての情報を世界中から集める。そしてAとBの関係を必死で探し出す。AとBの情報量に差があったり、AとBの関係性が乏しかったりする場合、何とか関連をひねりだし、つじつま合わせをするようだ。一見正しく答えているように見えて、はぐらかしや嘘が含まれていることがある。

 人間も実は同じような行動をする。A(前提条件)について知っている情報を絞り出すかネットで検索をする。Bについても同じような行動をする。人間の場合は、自分に身近な理解できる情報だけが取り出される。AとBの関連について考えることに時間がかかると考えることを止めてしまい、質問の意図から外れた回答を作り上げる。姑息なはぐらかしをしてこない分、質問に答えていないことはすぐわかる。騙されることは少なくなる。

 実際は、人間はそれほどストレスなく情報交換できている。その理由は、かなり共通的な知識を持っているからである。つまり、多くの場合A(前提条件)について調べる必要はない。共通の「場」で会話しているからである。小さなコミュニティであるほど阿吽の呼吸で事は済む。職場、学校、家庭などにおいては、そこにしか通じない特殊な言葉もある。さらに言えば、そういった環境に慣れてしまうと、会話の相手の意図を掴む努力などしなくなってしまう。それは決して望ましいことではない。楽な会話だけをしていると、その先にある発見や想像、さらには新たなものを生み出すことができなくなるのではないか。

 人間に期待されるのは、A(前提条件)において起きるB(問題点)の現在見つかっていない解決策(C)を創造することである。それには本来問われている問題を明らかにして正しく表現することが必要である。言い換えれば質問を作るということである。他人の質問の意図を読み取る努力をしない人間が質問を作ることなどできない。

 生成AIは2つの方向に進んでいる。一つ目はできるだけ多くの情報を学んで賢くなることによりはぐらかしや嘘をなくしていこうとするものである。もう一つは、専門分野(利用する環境)を限定して深い知識を学習させることにより正しい情報が出せるようにするものである。いずれもかなりの成果があがることが期待され、ますます人間にとって強力なツール(武器)になることだろう。人間は良い質問を作れるようにならなければならない。

コラム一覧へ