ディープフェイクという技術があります。
まだあまり聞きなれない言葉ですが、使い方によってはなかなか恐ろしい可能性も秘めているものです。
ディープフェイクとは
ディープフェイクというのは画像加工の技術ですが、1枚の画像を人工知能が手を加えることにより、動画にしてしまうという技術です。
もうすでに亡くなった人でも、写真があればこのように動かすことができます。何も知らないで見たら、こういう動画だと思っちゃいそうですね。
技術としてはとても面白いものです。
フェイクニュースを防げるか
といっても、これまでも画像だけでしたらかなり精巧な偽画像を作ることもできますね。
画像加工を使ったフェイクニュースも実際に多くあります。
まぁ報道機関が取り上げているものは少ないかもしれないですが、例えばネット上に誰かが面白がって投稿した偽画像が広まってそういった印象を植え付けるといったことはよくあることです。
悪質な画像加工については、今の段階ではそれを否定することはたやすいかもしれません。
ですが、それが動画にまでなっていたらどうでしょう。かなりリアリティがありますね。
音声も技術的にはサンプルからそれなりのその人っぽい声を合成することはできるでしょうし、これで動画まで作れてしまったら…
果たして、否定しきることはできるでしょうか。報道機関はともかく、ネット上の情報としては画像以上のパワーを秘めていそうですね。
芸能人関係も怖いところでしょうが、一番怖いのは政治家かもしれません。
こんなこと言ってないのに、っていうようなことを講演会などの写真を使ってしゃべってる動画なんかが出回れば、たとえ否定したとしても心象は悪くなります。
確実に選挙に影響します。
というか、やりようによってはテロや戦争だって起こせてしまいそう。
人間は真偽の判別はできない
そういったフェイクニュースに騙されない、強い注意力を持ち続けるというのは大事なことです。
とはいえ、人間というのは真偽の判別はできない生き物です。
テレビだったり、周りの人がこうだといっていると、なんとなくそうだと思っちゃいます。
そして情報というのは、非常にあいまいなもの。それで、さらにこんな動画まで見せられたら、コロっと騙されてしまいますね。
コンピュータの発展は、人間を取り巻く情報量を増やしました。その一方で、人間の情報処理能力が上がっているわけでもありません。
身の回りの情報が多いのに、その真偽の判別が追い付かなくなったとき、いったいどんな社会になってしまうのでしょうか。
実はこれって、けっこう恐ろしい話ですね。