チャットGPT君との初めての会話


 先日、初めてチャットGPT君と対話をした。何を今更って感じだが。

とりあえず試しに他愛無いことをあれやこれやと聞いた後、テクノロジーの話になった。

私の日本の母親がスマホを持っていない話をし、「日本でスマホを持ってない人って人口の何パーセントくらい?」。この程度の情報は、普通にググっても比較的簡単に見つかるのかもしれないが、とりあえず。これに対して得た返答は「2024年のデータで3%」だ。少ないのはわかっていたが、「それにしても、こりゃ、本当に少なくないか?」と思い、隣の部屋にいた、うちの旦那に声をかけた。

「日本でスマホ持ってないのって人口の3%だって」

「3%?そりゃ、少なすぎないか?」

こっちが思ってたのと同じ言葉が返ってきた。そして、旦那は続ける。

「その人口っての、総人口じゃなくて、働く年代の人口とか、そういうんじゃないの? だって、赤ん坊もスマホ使わんだろ」

「そうだね」

PCに戻って、GPT君に聞き直した。

「その人口っての、日本の総人口じゃないよね?赤ん坊や小さい子供もスマホを使ってないわけだから、3%って少なすぎる気がするんだけど。人口の定義を明確にして。」

そこまで書いた後、ちょっと余興を入れてみようと、「今度の回答はざーます言葉でお願い」と、さらなる注文を付けくわえた。返答は下の通り。

スマホを持っていない方が約3%と申し上げましたが、これは 15歳以上の人口 を基にしたデータでございますのよ。ですから、赤ちゃんや未就学のお子様たちは、この割合には含まれておりませんの。おほほ。

例えば、総務省の調査などでは、15歳以上の方々を対象にスマホ普及率を調べておりまして、そのうち97%がスマートフォンをお持ちになっているという結果が出ておりますわ​

「おほほ」まで入れてくれる気配りには、無茶うけた。

それにしても・・・。正確な、または意味のある情報を得るというのは結構難しい。人口が何を指すのかもわからぬまま、人口の3%がスマホを持たない、とそれだけでは、正確な答えとは言えない。もっとも、これは私の質問の仕方も悪かったというのも多少あるのかもしれない。

「こういう質問をされた時、その人口というものの定義を必ず入れるべきだと思わない?」

と責任を全てGPT君になすりつけて聞いてみると、

「確かに、人口の定義を回答に含めることで、情報の信頼性や正確性を高め、質問者にとっても有益になるものと思います」

「それじゃ、今後、そうしてくれる?」

「はい、これからは人口の割合に関する質問に答える際、必ずその『人口』が何を指しているのか、つまりどの年齢層やグループを対象としているのかを明確にします。それによって、正確かつ理解しやすい回答ができるよう努めます」

なんと、けなげな。

そこまで社会のありかたを左右するほどの重要性を持たない物事に関しては、ある程度の曖昧さも許せる。が、政治の動向や、社会の動き、人の健康を左右するような情報を仕入れたいとき、この手の中途半端な答えはまずいのかもしれない。受け手が何も考えずに、それをそのまま拡散させ、それが当然として受け入れられるに至り、弊害を生み出すこともあるやもしれない。

人間は皆、偏見を持つ。検索する時に、無意識に自分の考えを支持するような事実や意見を探したりもするという。だから、GPT君などが、自分の意見にぴったりの答えをくれた時など、「ほれみろ、俺の思った通りだ」となる。そして、たとえ、その情報源がはっきりせず、しかも定義が不確かで、曖昧模糊とし、ある場合には、完璧な間違いだったとしても、一切の考えもなく即座にそれを拡散させたりもする。

それに、GPT君は、ネット上にある情報をあっという間に調べ上げ提供してくれるわけだが、もし、その情報源の大半が間違っていたりしたら。何者かが、「日本と言う国は昔はイギリスの植民地でした」なんどという嘘八百を、花咲じじいが灰を巻くようにネット中にまき散らし、真実が花咲じじいの咲かせた嘘の桜で見えなくなってしまっていたら。まあ、さすがに「日本がイギリスの植民地だった」などと、真面目に信じる人間はいないだろうけれど。・・・いないと思いたいけれど。

GPT君も、自分は間違えます、と自白している。以下は、GPT君の言葉。この時は、ため口で答えてねとお願いした。

AIの判断が常に正しいわけじゃないよ。AIは大量のデータを基にして最適な答えを導き出そうとするけど、そのデータが不完全だったり偏ってたりすると、結果として間違った判断をすることもあるんだ。

たとえば、AIはプログラムされたアルゴリズムに従って動くから、予期しない状況や新しい問題に対応するのが苦手。データや状況の文脈を完全に理解してるわけじゃないから、意図しないミスをすることもあるし、特に倫理的な判断や感情に基づいた判断はできないんだよ。

だから、AIは強力なツールだけど、人間がその結果を理解して、必要に応じて見直すことが大事ってことだね。

わかったよ、GPT君、気を付けるよ。

旦那は、いまだ、AIの正確性についてはかなりの不信感を抱いている。彼は、昨日一日、エクセルのYield関数について、何やら疑問があったらしく、一人でぶつぶつ言いながらエクセルを叩いていた。やがては、自分で解決したらしい。そこで私に、試しに、そのすばらしいGPT様とやらに、自分が抱えていたYield関数に関する質問をしてみろというので、お伺いしてみた。私は旦那のやっていることに関しては、非情にうといので、質問の詳細は書かないが。

出て来た答えを見て、旦那は即座に

「Rubbish!」と腹立たし気に言った。

「どこのサイトから持ってきたのか知らないが、間違ってる。こういう事があるから使いたくないんだ。しかも、情報源も提供できないものを信用できるか。やっかいなのは、受け売りで、何の疑問もなく答えを受け入れる奴がたくさんいるわけだろ」

そのあと、GPT君との2,3回のやり取りで、間違いを指摘すると、間違いを正してくれてありがとうと言う返信が来た。

「なんたる時間の無駄!」旦那は鼻を鳴らす。

「だから、自分は間違えることありますよ、って最初から言ってるよ」と私。旦那はこれには皮肉っぽく。

「それはそれは、恩に着ます。Thank you !って感じだな」

まあ、知識をたくさん持ってる人間と話してるみたいな気分で使用して、最終的には、事実はしっかり自分で確認しましょうってことですね。丸々信じて、受け売りをするだけでは、人間は賢くなるどころか、考える能力が後退するかもしれないし。


コメント