これはスタエフの配信をブログ化したものです。
AppleのAIがBBCニュースを誤って要約し、大きな問題となっています。ニューヨークでの保険会社トップ殺害事件について、事実と全く異なる「容疑者が自殺した」という見出しを配信してしまったのです。このような、AIが事実に基づかない情報を事実のように回答する現象は「ハルシネーション」と呼ばれ、偽情報拡散の観点から問題視されています。
AIハルシネーションへの実践的な対策
データ処理の現場では、AIのハルシネーション対策として実践的なアプローチが取られています。一つは、AIにデータを直接処理させるのではなく、Excelのマクロやpythonのプログラムを作らせ、実際のデータ処理は人間が管理する方法です。もう一つは、AIの出力結果を別のAIにクロスチェックさせる方法です。時には意図的にミスを含めたデータを投げかけ、AIの判断精度を確認することで、より信頼性の高い結果を得ることができています。
メディアとAIの関係における課題
BBCのような信頼性の高いメディアにとって、AIによる誤った情報配信は深刻な問題です。現在はAIに詳しい人々が慎重に利用している段階ですが、今後AIの利用が一般化するにつれて、このような誤報のリスクは増大する可能性があります。例えば、メールの要約機能などでも、実際には書かれていない内容を勝手に作り出してしまう可能性があるのです。
将来的な展望と課題
AI技術の発展により、画像生成の品質も向上し、フェイクニュースの精度も上がっています。存在しない会社や場所についての記事が、まるで実在するかのように描写される可能性も出てきました。悪意の有無に関わらず、虚偽の情報が現実味を帯びて拡散されるリスクは無視できません。来年以降、AIの活用における信頼性の確保は、より重要な課題となっていくでしょう。複数のAIによるクロスチェックシステムの構築など、具体的な対策の検討が必要とされています。