参考イメージ dlxmedia.hu | Unsplash
報道機関がAI生成の写真や動画を“本物”と誤認して報じるケースが国内外で相次いでいる。
日本では11月2日、共同通信が過去に配信した「子ガメをくわえるタヌキ」の写真を取り消した。写真はウミガメ保護団体の協力者が監視カメラの映像をもとにAIで鮮明化したもの。同社は「報道用の写真、グラフィックス、動画、音声作成に生成AIを原則使用しない」社内指針に反するとして、配信を撤回した。
アメリカでは10月31日、Foxニュースが「食料支援(SNAP)受給者が政府閉鎖を理由に店舗を荒らすと脅迫」とする記事を掲載し、AI生成の疑いがある動画を紹介した。読者から「偽動画ではないか」と指摘を受けて、Foxは記事内容を修正。見出しを「SNAP受給者の不満を語るAI動画が拡散」に変更し、「AIによって生成されたと思われる動画について、その旨を明記せずに報じていました」と注記を加えている。
現在、報道各社ではAI生成物の扱いに関する社内ガイドラインの整備が進んでいる。画像・動画の真偽を自動検出するシステムの開発も進みつつある。専門機関によるファクトチェックの重要性も高まっており、AI時代の報道倫理が問われている。






