他人がするchat aiの回答の転載と自分がchat aiに訊く回答への納得感の差異について

podhmo
·
公開:2024/11/7

なぜか他者のした転載とは異なり自分がしたChatGPTへの質問には納得感があるみたいな話があったのでそれについて考えたりなどしてた。

x/twitterのスレッドにダラダラと繋げていたのだけれどせっかくなのでここにメモとして残しておくことにする。

なんとなく自分でChatGPTに訊く場合には納得感がある理由

なんとなく自分でChatGPTに訊く場合には納得感がある理由は単純には以下のような理由がありそうだと思った(ここでの単純とはjust ideaの意味)。

  • プロンプトの一部の切り貼りではなく履歴を把握してる

  • 気になった部分を追加で質問できる

  • 気になった部分を検索などで調べる正誤チェックをやる気になってる

  • 自分が意図や背景の文脈を暗黙に保持してるが他人の転載はその文脈が憶測になる

ここからスレッドをダラダラと繋げていったけれど振り返ってみると気持ちの問題的なものでもあるし、情報量の非対称性によるものなのかもしれない。

(ここからはダラダラと繋げたスレッドにタイトルを付けたメモ)

人間は自身の換言が不完全なことに自覚的

人間は問いかけたい質問の裏に暗黙の文脈を保持していて、つまり自分の頭の中を正確に換言できていないのだけれど、実際のところ欲しいのは質問への回答ではなくこの暗黙の文脈の解決だからみたいなところはあるかもしれない。

そして納得感がなければchatに自分が問いかけてるときにはそれを棄却出来るのだけれど伝聞のときはそれを押し付けられる感じになる。

つまり以下のような部分の本質的に同じというのが実は嘘という話なのかもしれない(あとで読み返してみると大差ないと言ってるが同じとは言ってない…)。

なぜか「自分でChatGPTに聞いて出てきた返答」は信頼できる(かのように)感じがちなのに、「他人がChatGPTに聞いて出てきた返答を転載したもの」は急に信頼できなく感じるの不思議。大差は無いはずなのに。

この暗黙の文脈をロスレスで換言できるという前提に立つと同じなのだけれど多くの人は自分の換言能力に自信が持てない。

なので実際の質問への字句通りの解釈のもとの回答には納得感がなかったりするのかもしれない。

正誤チェックのコストの肩代わりへの不快感

でもwikipediaなどのコピペと何が違うのか?というのが焦点でコピペに説得力を感じることもあったのに不思議という話

「その場で聞いてみた」という体でコピペされがちなので、その人が自身で行う筈の真偽チェックを省いてるニュアンスも同時に受け取ってしまいそのコストを受け手側が支払わされるような感覚を受ける。

つまりそのコピペをする人の回答からもう少し雑なニュアンスを感じ取ってしまいそれも加味して信頼できなくなるのではないか?というような仮説。

不確かなものへの灰色のマーキング

(ここから自分の情報への取り扱い方の話に派生した)

とはいえ、wikipediaコピペも「なんかそう書いてあったよ」みたいな台詞と一緒だとそうらしい程度で受け取る気もする。

逆に専門家への又聞きに一定の正当性を感じるのは何でだろう?

なんというかwikipediaのコピペも同様で知ってたら便利な豆知識的なニュアンスの箱に詰められるので一定の説得力があるというよりはとりあえず精査せず「へー」と格納して置くだけな気もする。(後に何故か信じてたりする)

保持しておく場所というか箱というかが異なるイメージ。

ただ、その後の保証の有無やそれが仮に不誠実な回答であった場合のリスクを元に回答を一定鵜呑みにしておくみたいなことはしてる気もする。

後に真偽がわかったとき(わかることは少ないかもしれない)その伝書鳩への信用度と共に又聞き先の人の怪しさランクを上下させるみたいなところはあるかも。

この信頼の輪が事実と異なる感じになっているとエコーチェンバーが完成する…

まぁでもwikipediaの内容も専門分野の話ならすぐに信用はせずにあとで精査する用の白黒に対する灰色の状態でマーキングしておく気がする。

伝聞に関しても基本はそうなので追試は大切という価値観を持ってはいる。

(とはいえ元気がない時には手が動かせないし追試の一つもできない。余裕がなければ思考実験もどこか歪んだ新規性のあるものを排除するための方法を考えるみたいになりがちだったりはする)

デフォルトの判断基準と信頼の連鎖の利用

そんなわけで全部の真偽を調べるのは無理なのでデフォルトは権威主義に寄ってる(ここを親しいにする人もいる)。

権威主義と言っても完全な権威主義というわけではなく、自分の知ってる専門知識の隣接部分への問いかけと回答からの正誤チェック的なところで怪しさを判定してる面はある。

そしてその流れで信用してる人が信用してる人は信用して良いだろうみたいな認識では居そう。

情報が少ない人への判断は基本保留みたいな状態になる。保留状態のときにはどうするかというとその立場でのロールを元に役割をこなす感じになるかも。あんまりその人本人を見たりしてない。

そのロールとしての行動を見て不意に現れる人間味から徐々に人として認識してくみたいなことをしてそう。

あと逆パターンもあってこの人のことは全く信用してないからこの人がハマってるということはたぶんfakeだろうなみたいに見てる人も居たりはする。申し訳ないけれど。

(ある種のネガティブプロンプト?として使ってる面はあるかも)

文脈

この話の文脈はこの辺の話。なぜか他者のした転載とは異なり自分がしたChatGPTへの質問には納得感があるみたいな話。

なぜか「自分でChatGPTに聞いて出てきた返答」は信頼できる(かのように)感じがちなのに、「他人がChatGPTに聞いて出てきた返答を転載したもの」は急に信頼できなく感じるの不思議。大差は無いはずなのに。

これは以下のつぶやきへの言及になっている。wikipediaとChatGPTへの類似性とwikipediaの信頼性の話への言及のつぶやき。

Wikipediaがこうだった時代が懐かしい

Wikipediaに対して「辞典業界」が「自分たちよりも怪しく不公正なものを許すな」と運動してた時代があったんだよなぁ…。

今でも「Wikipediaの情報を鵜呑みにするのはアホ」「ソースはWikipediaと言い張ったら馬鹿にされる」というネットリテラシーはおそらく常識として残ってると思うが、「じゃあWikipediaなんか読まない方が良くない? 辞典や図鑑で調べるべきじゃない?」と学者でもない一般人に言ったところで、やっぱりなんだかんだでWikipediaを頼りにするんだろう。

ここから考えると、たぶん「AIの言ったことを鵜呑みにするな」とか「ソースはAI、は恥ずかしいこと」と言い続けることは可能だが、その結果は「AIを知識源として使わずにダブルチェックする人」に教育されるのではなく、ただ単に人前でソースがAIであることを意識的にも無意識的にも話さなくなる社会になっていくだけだと思われる。

さらに大元の話はChatGPTの回答をコピペしてくる人への葛藤の呟きだった。

最近、真偽を推論する必要のある専門知識を、何でもかんでもまずchatGPTに訊いて、「chatGPTに訊いたらこう言ってました」と言ってくる人が多すぎて辟易してる

数年後、ハルシネーションが少なくなったであろう時にこの投稿を見たら懐かしく思えるようになるんだろうか

これも程度問題だけど、込み入った専門知識に関してchatGPTに訊いたことはない

真偽の判定こそ認知負担であるか

参考