ChatGPTにあえて嘘をついてもらう実験をして気づいたこと


さらっと嘘をつくことが多い、ChatGPT。

自分自身も対話を重ねる中で、うっかりと信用してしまいそうになるときがあります。

あえて本当っぽい嘘をついてもらう実験

最初から嘘をついてもらう前提で文章をつくってもらったらどうなるのでしょうか。

試しにちょっとやってみましょう。

鳩が日本で話しかけてきて、宇宙人だった、というもの。

いやいや、ちょっと非現実的ですね。

ただこれは聞き方がわるくて、いかにも嘘っぽいことですから間違ってないですね。

うーん、面白い話ではありますが、いかにも本当っぽくはないですね。

意外と融通が利きませんね。

まぁそりゃそうだろう。

本当っぽいものがいいのですが、なかなか難しいものです。

嘘は狙ってつけない仕様なのかも?

いろいろ試してみましたが、理想とする嘘はでてきませんでした。

もしかしたらなんですが、ChatGPTはあえて嘘をつくような文章(誤解をわざわざ生む文章)を出力しないようにしているのかなと思いました。

詐欺など悪用されることを懸念しているのかもしれません。

なんか2番とかわりといい感じではありますけどね!