本の概要
ディープフェイクとは本物と見分けがつかない人物や物の画像、音声、映像やそれらを作る技術のことです。
大統領が敵国への降伏を呼びかける動画や企業のCEOの偽音声を用いた詐欺事件が発生するなど大きな問題になっています。
その一方で、アートや創造性を発揮する可能性もある技術であり、マイナス面を抑え、プラスを引き出すことができれば大きな利益になります。
計算社会科学の専門家である筆者の視点からディープフェイクについて知ることができる本になっています。
この本がおすすめの人
・ディープフェイクとは何か知りたい人
・ディープフェイクにどんな害があるか知っておきたい人
・SNSなどの情報に騙されないためにどうすればよいのか知りたい人
本の要約
人間は視覚から得た情報に大きな信頼をもっています。
しかし、AIや機械学習など技術の発展で本物と見分けのつかない画像や動画といったディープフェイクがインターネット上で拡散し始めており、見たものを信じられない時代が到来しています。
ディープフェイクによって誤った情報が拡散したり、何が本物か見極めることが、難しくなれば社会に混乱と分断をもたらす可能性もあります。
偽物の情報に騙せれることも深刻ですが、都合の悪い真実が偽物扱いされてしまうことで社会の対立や分断はより深刻なものとなる懸念も非常に深刻な問題です。
ディープフェイクを目にする機会が最も多いのはSNSになるため、ディープフェイクの対策にはSNSの特徴を理解することが重要です。
SNSは自分と近い考えの人しか目に入らないようになっているため、すべての人が自分と同じように考えていると思いがちです。
SNSにそのような特徴があることを理解し、多様な意見に触れることを意識することや画像や動画を見ても必ずしも本物ではないのでは?と考えてみることが重要です。
多様な考え方に触れたり、多様な人とつながることで柔軟性と適応力を持つことができ、フェイクによるかく乱からもすぐに回復できるようになります。
ディープフェイクも技術の一つであり、AIと人間が共創し、上手に利用すれば、大きな可能性を持つものです。
柔軟性と適応力を持つことで、ディープフェイクの負の側面を防ぎ、創造性を発揮することが可能になります。
見たものを信じることにどんな問題が出ているのか?
百聞は一見にしかずという言葉があるように視覚に対して人間は大きな信頼感を持っています。
しかし、本物と見分けのつかないような偽画像や動画といったディープフェイクがインターネット上で見られるようなったことで、自分の見たものが信じられなくなってきています。
映像や音声の加工の精度が上がり、専門的な技術が必要でなくなったことでディープフェイクの問題が大きくなっています。
ポルノ女優の顔を他の人の顔にすり替える、ある人が話した内容を別の人が話しているかのように見せる、合成音声によって詐欺を行う、顔認証のハッキングなど広範囲での悪用が問題となっています。
直近でもウクライナのゼレンスキー大統領のディープフェイクが拡散しており、戦争に利用されることすら考えられます。
映像や音声加工の技術の向上と簡略化、普及で偽画像や動画といったディープフェイクがWeb上で見られるようになったことで自分の見たものを信じられなくなっています。
ディープフェイクとは何か?
ディープフェイクはディープラーニング(深層学習)とフェイク(偽物)を組み合わせた造語であり、AIや機械学習によって生成、編集された本物っぽい画像や動画のことです。
インターネット上のディープフェイク動画は2017年に登場し、2020年には8万5000本と半年で2倍になるペースで増加しています。
人間の視覚はありそうにないものであっても、自分の中で意味づけして、存在する真実であると錯覚しがちなため、本物らしさが増したディープフェイクを疑うことは難しくなっています。
人々がディープフェイクを信じることで誤った情報が拡散したり、何が本物か見極めることが難しくなれば、社会に混乱と分裂をもたらす可能性があります。
一度拡散した情報は後で偽物であることが証明されても、影響を完全になくすことは困難です。
個人の嫌がらせから選挙への悪用、プロパカンダの道具としての利用などの社会的な悪影響まで広範囲で悪用される恐れがあります。
ディープフェイクとはAIや機械学習によって生成、編集された本物っぽい画像や動画のことです。
多くの社会的な悪影響が懸念されています。
ディープフェイクはどこにあるのか?
ディープフェイクを目にする機会が最も多いのはSNSとなります。
SNSでは、同じ価値観や興味関心を持つ人とばかりつながるエコーチェンバーや情報のフィルタリングによって自分と異なる価値観や意見に触れることが少なくなるフィルターバブルの存在もあり、ディープフェイクが拡散しやすい状況がそろっています。
ディープフェイクの拡散を防ぐためにも、SNSの特徴の理解とそれに応じた対応が不可欠になっています。
ディープフェイクはSNSで閲覧、拡散されるため、SNSの特徴を理解し、対応することが必要です。
ディープフェイクはどのようにして生まれたのか?
脳の情報処理に着想を得たニュートラルネットワークはディープラーニングへ進化し、AIの汎用性と応用性は大きく進歩してきました。
ディープラーニングでAIが行うタスクには何かを生成するものと識別するものがあります。
生成は入力データの特徴を捉え、本物のような偽物を作る作業、識別は入力されたデータをカテゴリーに分類されるとなります。
ディープラーニングで重要なAI技術にオートエンコーダとGANです。
オートエンコーダは入力データの特徴を潜在変数として取り出し、再度同じデータを出力する機械学習モデルです。
入力データを再現するために重要な特徴を問えることができることに加え、潜在変数を変更することで新しい画像を作り出すことも可能になります。
GANは生成モデルの一種でデータから特徴量を学習し、実在しないデータを作成する技術です。
識別器に本物のデータを入力し、真贋判定の能力を学習させます。のちに、生成器から偽物のデータを作成させ、判別機に真贋を判定させます。
この作業を繰り返すことで生成器と判別機のレベルが向上し、精度の高い出力情報を生成することが可能になります。
ほかにも、画像にノイズを加えたのちに除去することを繰り返すことで、ノイズから画像を作成する拡散モデルも精度の高い手法として注目されています。
ディープフェイクはディープラーニングの発展で大きく普及しています。
我々はディープフェイクを見極めることが可能なのか?
人がGANなどで作成した顔データの真贋を見極めることは難しく、顔から信頼性を評価してもらうと作成データのほうが実在する人の顔よりも信頼されやすいというデータもあります。
そのため、ディープフェイクに騙されてしまう可能性は非常に高くなっています。
人が人工物の見た目や動きが人間らしくなるにつれて、人工物に好意を抱きます。しかし、さらに人間に似てくるとある時点で嫌悪感を感じるようになります。
嫌悪感を感じる状態は不気味の谷と呼ばれ、谷を越えさらに人間ににてくることで再び行為を感じるようになります。
人間にかなり似ている画像でもこの谷存在するデータであれば、見破ることができますが、ディープフェイクの技術に中にはすでに谷を越えるようなレベルになっているものもみられます。
技術の発展によってすでに人がディープフェイクを見極めることは難しくなっています。
ディープフェイクを見抜くにはどうすればよいのか?
ディープフェイクを見抜くには以下のような場所に不自然なところがないか確認することが有効です。
・背景に注目しゆがみやうねり
・洋服や装飾品
・顔の形や光の当たり具合
また、怪しい画像と思ったら、画像の出展を調べることでディープフェイクかどうかわかる場合もあります。
動画であれば、まばたきに注目することも有効です。
また、AIにディープフェイクでないか見極めてもらうことも検討されています。
また、カメラでの撮影時に電子浮かしを入れておき、オリジナルであることを示すことでディープフェイクを防ぐことも検討されています。
ディープフェイクの被害を防いだり、リスク管理するには見極めるだけでなく、下記のREALを考えておくことも重要です。
Record:記録 オリジナルコンテンツを記録し、否定権を確保する
Expose:摘発 ディープフェイクを摘発する
Advocate:主張 法的保護を主張する
Leverage:活用 信頼を強化し、ディープフェイクを信じないようにしてもらう
動画に不自然な場面がないか、怪しい画像であれば出典を調べることも有効です。
カメラでの撮影時に電子浮かしを入れておき、オリジナルであることを示すことでディープフェイクを防ぐことも検討されています。
被害にあわないためにも記録、摘発、主張、活用のREALを考慮することも重要です。
ディープフェイクを社会にどんな被害をもたらすのか?
ディープフェイクによる被害には下記の二つが挙げられます。
1.真実のような偽物があふれる
2.都合の悪い真実が偽物扱いされてしまう
ディープフェイクの真の怖さは2つ目のうそつきの配当にあるという意見もあり、うそつきの代償を払わせるような仕組みを作ることが重要です。
ディープフェイクを作り出すことへの刑罰は存在していませんが、欧米ではディープフェイクを対象とした法律の整備が進んでいます。
ディープフェイクによる被害には下記の二つが挙げられます。
1.真実のような偽物があふれる
2.都合の悪い真実が偽物扱いされてしまう
特に後者の影響は非常に大きく、うそをつく代償を払わせる仕組みが必要になってきます。
ディープフェイクとどのように向き合うべきか?
データは21世紀の石油ともいわれ、AIの学習にも様々なデータは不可欠です。
AIの訓練に使われるデータには大きな3つの問題があります。
1.バイアス データに偏りがあれば差別を助長するようなコンテンツが作成されてしまう
2.著作権 データを勝手にAIの訓練に利用してもよいのか
3.データの汚染 バイアスのあるデータが一部にあると、さらに増幅されてしまう
また、多量のデータを扱うことは多くのエネルギーを使用するため、温暖化を後押ししてしまう可能性も指摘されています。
その一方で、AIと人間が共創できれば、これまでにないものを生み出したり、効率化できるようになる可能性もあります。AIが導き出したものを人間が判断するような形であれば有意義な使用が可能です。
多様な考え方や多様な人とつながることも、ディープフェイクを信じて分断につながらないためには重要です。人と多様なつながりを作ることをマイルドにユーザーに提案する仕組みを持つSNSなども検証されています。
多様なつながりによってレジリエント=柔軟性、適応力ある状態にできれば創造性を発揮し、フェイクによるかく乱にも短時間で回復できます。
ディープフェイクは使いから次第で現実を破壊する剣にも、現実を創造するペンにもなりえるものです。
ディープフェイクは使い方によってはAIと人間の協働で創造性を高める可能性を秘めています。
ディープフェイクの負の面を防ぐためにも多様な人とつながりをもち、柔軟性と適応力を持つことが重要です。
コメント