News

お知らせ

2026年3月6日 投稿:swing16o

AIがフェイクを真実より6倍速く拡げる構造と騙されないための唯一の処方箋

妖言惑衆(ようげんわくしゅう)
→ 怪しげなことを言いふらし、多くの人を惑わせること。

古代中国の賢者たちは、2000年以上前にこの問題を見抜いていた。

「妖言惑衆(ようげんわくしゅう)」。怪しげなことを言いふらして、多くの人を惑わせる。

出典は漢書。「妖言」という言葉自体は史記にも登場するほど古く、人類が文明を持った瞬間から、この問題は繰り返されてきた。

だが、2025年に生きる私たちが直面している「妖言惑衆」の規模と速度は、古代の賢者が想像したものを完全に超えている。

いまや1日に約411件のディープフェイクが新たに生成され、フェイクニュースは真実より6倍速く拡散する。

そしてその根底には、人間の脳に刻まれた原始的な本能が関係している。

本稿では、なぜフェイクは真実に勝り続けるのか、そしてAIがその構造をどう加速させているのかを、データと歴史から徹底的に解説する。

このブログで学べること

四字熟語「妖言惑衆」の歴史的背景と現代への直結性。

フェイクが真実より速く広まる科学的・心理学的な理由。

AIとディープフェイク技術が「妖言惑衆」を産業規模に引き上げたデータ。

人間の脳のネガティビティ・バイアスとSNSアルゴリズムの共犯関係。個人・企業・社会が取るべき具体的な対策。

2000年前から続く「惑わす者」の本質

「妖言惑衆」の出典は中国の歴史書『漢書』にある。

「妖言」とは妖しい作り話や不吉なデマのことを指し、「惑衆」は多くの人を惑わせるという意味だ。

この言葉が誕生した背景には、権力者に都合の悪い真実を語る者を弾圧するために「妖言の罪」が使われた歴史がある。

『史記』孝文紀にも「誹謗妖言の罪」という記述が残っており、デマを流す者だけでなく、権力者が気に入らない言論を「妖言」として封殺した事実も記録されている。

つまり「妖言」には二重の構造がある。

一つは、意図的に嘘を流して人を操る者の行為。

もう一つは、真実を語る者が権力によって「妖言」とレッテルを貼られる逆転。

この二重性は、2026年の現代においても本質的には変わっていない。

情報を「事実」と「フェイク」に分類する権限は、常に誰かの手に握られており、その判断基準が揺らぎ始めたとき、社会は混乱する。

日本書紀(720年)にも「誣妄・妖偽を禁断す」という記述がある。

日本においても1300年前から、でたらめな言葉と怪しげな偽りを禁じることの必要性が認識されていた。

それでも今日、「妖言惑衆」はかつてないほどの規模で社会を侵食している。

技術が問題の本質を変えたのではなく、問題の速度と規模を変えた。それだけで十分に、事態は深刻だ。

フェイクは真実より6倍速く100倍広く届く事実

2018年、科学誌Scienceに衝撃的な論文が掲載された。

マサチューセッツ工科大学(MIT)のSinan Aralらが、Twitterの300万ユーザーの間で拡散した12万6,000件のニュースを10年間にわたって分析した研究だ。

結論は明快だった。

フェイクニュース vs 真実ニュース 拡散比較(MIT研究 / Science 2018年掲載)
  • 真実が1,500人に届くまでにかかる時間:フェイクの6倍。
  • フェイクの到達人数の上限:最大10万人。
  • 真実の到達人数の上限:1,000人程度。
  • フェイクがリツイートされる確率:真実より70%高い。
  • フェイクが10回リツイートされる速度:真実の10倍。

さらに、この研究が示したもう一つの重要な事実がある。

フェイクニュースの拡散の主役は、ボットではなく人間だ、ということだ。

ボットを除去してもフェイクは真実より速く広まった。

つまり、AIが問題の根本なのではなく、人間の行動そのものが問題の構造を生み出している。

別のデータを加えると事態はさらに鮮明になる。

MITの研究を引用した複数の解説では、フェイクの拡散力は真実の100倍にも達するという分析がある。

1人から1,000人へ拡散するのが真実だとすれば、フェイクは最大10万人へ届く。

この差は、情報リテラシーの高低で説明できる問題ではない。人間の脳の構造に起因している。

フェイクが勝つ根本理由:「人の不幸は蜜の味」の科学的根拠

なぜ人はフェイクをシェアするのか。

その答えは心理学が解明している。「ネガティビティ・バイアス」だ。

ノーベル経済学賞受賞者のダニエル・カーネマンらが明らかにしたこの現象は、人間の脳がポジティブな情報よりネガティブな情報に強く反応し、より長く記憶に残すという心理的傾向を指す。

これは個人の性格や知性の問題ではなく、人類が数万年の進化の過程で「生き残るために」獲得した本能だ。

原始時代において、目の前の危険(猛獣、毒草、敵族)に素早く反応できた個体だけが生き残った。

ポジティブな情報を先に処理する個体よりも、ネガティブな情報に瞬時に反応する個体の方が、子孫を残せた。

その結果として、現代人の脳にも「ネガティブな情報を優先処理する」回路が深く刻み込まれている。

カーネマンらの研究では、ポジティブ・ニュートラル・ネガティブの3種類の写真を被験者に見せたとき、脳が最も強く反応したのはネガティブな写真だった。

また、別の実験では「手術が成功する確率は70%」と伝えたグループより「失敗する確率は30%」と伝えたグループの方が手術に対してより強い不安を持ち、後でその情報を訂正しても不安は消えなかった。

ネガティブな印象はポジティブな情報で上書きすることが非常に難しい。

この本能が、SNSと組み合わさったとき何が起きるか。

中国版Twitterと呼ばれるWeiboの約28万ユーザー・7,000万件のデータを分析した研究では、「怒り」「喜び」「嫌悪」「悲しみ」の四つの感情のうち、最も拡散されやすい感情は「怒り」だということが明らかになった。

さらに別の研究では、SNSでニュースをシェアする動機の67%が「特定のイデオロギーや怒りの主張のため」だったと報告されている。

フェイクニュースは恐怖、嫌悪、驚きといった強い感情を植え付けるように設計されている。

一方、真実のニュースは「悲しみ」「喜び」「信頼」などの感情を生じさせることが多く、拡散エネルギーとして弱い。

人間の脳の設計と、フェイクの感情設計が完璧に噛み合っている。

だから「人の不幸は蜜の味」という本能がある限り、フェイクは真実に勝ち続ける。

AIがそれを産業規模に引き上げた「withフェイク2.0時代」の到来

ここまでの話は、ある意味で2018年以前から存在していた問題だ。

人間の本能とSNSの組み合わせによるフェイク拡散は、技術的な問題ではなく構造的な問題として認識されていた。

しかし2023年以降、事態は次元が変わった。

生成AIとディープフェイク技術の急速な普及が、「妖言惑衆」を個人の行為から産業規模の問題へと引き上げたからだ。

AI登場によるディープフェイク被害の急拡大(主要データ)
  • 2023年のディープフェイクコンテンツ増加率:前年比3,000%増(Sumsub調査)。
  • 2023年フィンテック業界でのディープフェイク事案増加率:700%増。
  • 2024年の全世界ディープフェイク事案予測:前年比60%増・15万件超。
  • 2024年ディープフェイクを経験した企業の割合:49%(音声・動画の両方)。
  • 2027年のディープフェイク被害額予測:400億ドル(約6兆円)(デロイト試算)。
  • 2025年第1四半期のディープフェイク詐欺被害:2億ドル(約300億円)超。

さらに深刻なのは、生成AIによるフェイクニュースサイトの急増だ。

PwCが引用したNewsGuardのデータによれば、生成AIが作成した記事を掲載するニュース・情報サイトの件数は、2023年5月から2024年4月のわずか1年間で約16倍に増加した。

また、生成AIで作られたフィッシングメールの71%が悪性のものとして検出されておらず、AIが生成した人間の顔の画像を正確に見分けられる人は60%にとどまらない。

地域別のディープフェイク増加率(2023年・前年比)
  • 北米:1,740%増。
  • アジア太平洋(APAC):1,530%増。
  • 欧州:780%増。
  • 中東・アフリカ(MEA):450%増。
  • 中南米:410%増。

日本も例外ではない。

2024年7月の東京都知事選では、生成AIが本格的に使われた初の選挙となり、候補者の声や映像を模倣したディープフェイクが拡散された。

能登半島地震(2024年1月)でも、フェイク画像がSNSに拡散して被災者への支援活動を混乱させた。

日本ファクトチェックセンター(JFC)は、こう警告している。

「今の生成AIにできるのは本物っぽいコンテンツを作ることだ。まだ、人が見たいコンテンツを作ることはできない。しかし、あともうしばらくしたら、人が見たいコンテンツを生成AIが作り始める。その時に、本当の意味での偽情報の氾濫が始まる。これから4年間で事態は確実に悪化する」

つまり、現在はまだ序章に過ぎない。

AIは今後、ネガティビティ・バイアスを最大限に刺激するように最適化されたフェイクを、自動的に大量生成するようになる。

その段階に入れば、フェイクの拡散速度は6倍どころではなくなる。

まとめ

フェイクニュースによる世界全体の経済損失は少なくとも780億ドル(約12兆円)に達している(InfoCom研究所)。

健康関連の誤情報によってワクチン接種率が低下し、その経済損失だけで米国において年間170億ドル(約2.7兆円)という試算もある。

数字として見れば途方もない規模だが、その被害は金銭にとどまらない。

民主主義の機能不全、社会の分断、個人の精神的損害にまで及ぶ。

現状を整理すると、次のことが言える。

フェイクニュースを騙されない自信がある人は全体の41.7%。

騙されると自覚している人は49.7%に達する(2025年調査)。Z世代(18〜28歳)でフェイクニュースを信じた経験がある人は58.4%と過去最多で、全体平均36.8%の約1.6倍にあたる(同調査)。

SNS上では4〜6割の利用者が週1回以上の頻度で偽情報に接触している(総務省)。

教育を最も受けた世代が最も騙されている。

この逆説が示すのは、知識だけでは対策にならないということだ。

では何をすべきか。私の持論を三つにまとめる。

第一は「感情が高まったときほど、立ち止まる習慣」だ。怒りや恐怖、驚きを感じた情報こそ、フェイクに設計されている可能性が高い。

拡散したい衝動が生まれた瞬間が、最も危険な瞬間だ。

ネガティビティ・バイアスは消えないが、それが作動していることに気づく訓練はできる。

第二は「一次情報に戻る癖をつける」ことだ。

SNSで流れてきた衝撃的な情報は、必ず発信元を確認する。

官公庁のウェブサイト、査読済み論文、信頼できるメディアのオリジナル記事まで遡ることで、ほとんどのフェイクは崩れる。

日本ファクトチェックセンター(JFC)のようなファクトチェック機関のデータベースを活用することも有効だ。

第三は「情報の来歴(プロビナンス)を問う習慣」を持つことだ。

誰が、いつ、何の目的で作ったのか。生成AIが作った画像にはC2PA(Content Provenance and Authenticity)という国際規格の電子署名を付与する動きがAdobeやMicrosoftを中心に進んでいる。

近い将来、コンテンツの来歴を確認することが、情報との付き合い方の基本になる。

最後に、一つのことだけ言い切っておきたい。

2000年前の漢書の賢者たちが「妖言惑衆」という言葉を残したのは、この問題が時代を超えて繰り返されることを知っていたからだ。

技術は変わった。

メディアも変わった。

しかし人間の脳に刻まれたネガティビティ・バイアスは変わっていない。

そしてその本能を利用して人を惑わそうとする者は、常に存在し続けてきた。

問題は「フェイクが存在すること」ではない。

「フェイクに気づかないこと」だ。気づきさえすれば、選択肢は生まれる。

それだけで、個人の情報環境は劇的に変わる。

私はstak, Inc.のCEOとして、IoTとスマートライティングを通じて「見えないものを見える化する」技術に関わり続けている。

情報の世界においても、「見えないものを見える化する」力こそが、この時代の最も重要なリテラシーだと確信している。

 

【X(旧Twitter)のフォローをお願いします】

植田 振一郎 X(旧Twitter)

stakの最新情報を受け取ろう

stakはブログやSNSを通じて、製品やイベント情報など随時配信しています。
メールアドレスだけで簡単に登録できます。