近年、ニュースやドラマなどでも「ディープフェイク」という言葉が聞かれるようになりました。
ディープフェイクとは、AI(人工知能)技術を用いて映像や音声を合成し、元の映像とは異なるコンテンツを作成する高度な技術です。
本物と見間違えるほどのクオリティをもつ映像を作れるため、一般的には誰かを騙すのを目的とした「フェイク(偽)動画を作る技術」としてのイメージが強く、実際に犯罪行為に利用されてしまったケースも存在します。
ディープフェイクは、世界中のセキュリティ関連企業が「今後流行する可能性がある脅威」として名前を挙げており、私たち個人のプライバシーや社会の安全へ深刻な影響を与える可能性を秘めているのです。
この記事では、ディープフェイクの概要や考えられるリスク、そしてディープフェイクによる被害を防ぐ4つの対策をご紹介します。
ディープフェイクとは?
ディープフェイク技術は、ディープラーニング(深層学習)を活用して、複数の画像や動画を合成したり入替えたりする技術です。
昔からある画像合成の技術と混同されがちですが、画像を切り貼りして作る合成画像と、AI技術を活用してより精巧な合成画像や動画を作るディープフェイクは、似て非なるものといえるでしょう。
AI技術を活用し2つ以上の要素を合わせて作るため、唯一無二のオリジナル作品を作れるのがメリットです。実在しない架空の人物モデルを作れるので、著作権や肖像権を気にせず様々な用途へ活用できます。
ディープフェイク技術は、2017年から2018年にかけて流行し始めました。
AI技術の発展によって、顔の交換や口の動きの合成(リップシンク)がよりスムーズになり、昔とは比較にならないほどリアリティのある映像を作れるようになりましたが、その技術は犯罪行為へも悪用されているのが現状です。
特に近年では海外の大統領や有名IT企業CEOだけでなく、日本の総理大臣のフェイク動画が作られるなど、国内のニュースでも大きく取り上げられようになりました。
本来であれば手軽にオリジナル作品を作れる素晴らしい技術なのですが、便利であるからこそ犯罪行為にも利用されてしまう状況です。
ディープフェイクに使われる技術
様々なAI技術が活用されているディープフェイク。
ディープフェイクをより進化させたと言われる「GAN」を初めとした、ディープフェイクに使われている技術について解説します。
GAN(敵対的生成ネットワーク)
ディープフェイク技術の発展に欠かせなかったのが、GAN(Generative Adversarial Network)です。日本語では「敵対的生成ネットワーク」と訳されます。
GANはAI技術の一種であり、対象となるデータ(画像や動画など)の特徴を学習し、実在するデータや存在しないデータを掛け合わせて、対象データの特徴を変換させる技術です。
通常、AI(人工知能)を成長させるには、学習させるデータ内容について「何が正しいか、何が誤りか」も一緒に学習させますが、GANでは正誤を学習させなくていいという特長があります。
下記はGANの仕組みを活用して、新たな画像を生成する流れの一例です。
- 1.本物の画像データ(A)の特徴を学習して、本物に似た画像データ(A’)を作る
- 2.本物に似た画像データ(A’)は「偽物である」とデータベースに記録する
- 3.本物の画像(A)と偽物の画像(A’)の特徴を学習して、より本物へ近づけた画像データ(A”)を作る
- 4.より本物へ近づけた画像データ(A”)は「偽物である」とデータベースに記録する
上記1~4のサイクルを繰り返し行い、より本物へ近づけるといった技術となっています。
敵対的逆強化学習
敵対的逆強化学習とは、前述したGANの特徴に強化学習を組み合わせたものです。
強化学習とは、AIを自律的に学ばせるための技術。いわば「最適な行動ができるようにAIが試行錯誤を繰り返す」仕組みであり、AIの成長に欠かせない技術です。
GANと組み合わせることでAIは自己学習を続け、本物と遜色ない画像を生成しています。
ブロックチェーン
便利であるが故に悪用されるケースも多いディープフェイクですが、その対策として期待されている技術が「ブロックチェーン」です。
ブロックチェーンとは、データの信頼性や透明性を確保するためにデータの改ざん履歴を保管する仕組みであり、ビットコインなどの暗号資産に用いられる技術としてもよく知られています。
ディープフェイクはいくら本物と見分けがつかないといっても、何かしら変更を加えて作ったデータです。ブロックチェーン技術を活用すればデータの改ざん履歴が確認できるため、本物かディープフェイクで作られた偽物かの見極めが可能となります。
ディープフェイクを検知するAI
ディープフェイクが精巧な偽物を作れるAI技術であれば、それを見破るためのAI技術も開発されています。
これは、本物の画像とAI自らが作る本物から少しだけ変えた画像を合成させて学習を行い、偽物の検出に特化したAI技術です。2022年に日本の東京大学が技術の実現に成功しています。
ディープフェイクの3つのメリット
犯罪行為に悪用されたニュースを目にする機会の多いディープフェイクですが、本来なら画像・動画・音声などのデータを結合させ、元とは異なるデータを作成できる有用なAI技術です。
ここでは、本来ディープフェイクが持つ3つのメリットに着目してご紹介します。
CG制作の負担が軽くなる
従来、キャラクターや特殊効果といったCGを作成する際は、CG自体や制作ソフトウェアに関する知識が必要なのに加え、完成までに多大な時間と労力が必要でした。
そこでディープフェイク技術を活用すれば、CG制作にかかる負担を軽くできます。
例えば実在の人物ならば、その人物を撮影した映像にディープフェイク技術を使えばその人物のCGを生成できますし、爆発や炎といった派手な特殊効果なども実写映像があればCGの生成が可能です。
ディープフェイク技術を活用すれば、CG制作に必要なモデリングやアニメーションの作成時間が大幅に削減できます。
再撮影の手間を減らせる
映画やドラマ、そしてYouTubeへ投稿する動画の撮影などで、予期せぬ問題が発生すると再撮影が必要となるケースもあるのではないでしょうか。
このような場合でも、ディープフェイク技術を活用すると大幅に手間を減らせます。
例えば、撮影セットや衣装に問題があった場合、別の映像を素材にしてディープフェイクで補正すれば、再撮影したものと遜色ない仕上がりが可能です。
他にも、映像の編集や修正作業も迅速に行えるようになるため、ディープフェイク技術を活用すれば制作スケジュール短縮が期待できます。
架空のキャラクターを使える
既に存在するキャラクターをテレビ番組や投稿動画などで使いたいと思っても、著作権や使用料に関する問題があるので気軽に使用できません。
ディープフェイク技術を利用して架空のキャラクターを作れば、何の問題も気にせずに使用可能です。
2つ以上の素材を掛け合わせて新たなモノを作るのがこの技術の真骨頂でもあるため、まさにディープフェイクを活用できる場面だといえます。
ディープフェイクに潜む3つのリスク
簡単に新しいモノを生成できるディープフェイクですが、便利な技術にはリスクも潜んでいます。
ここではディープフェイクに潜む3つのリスクについて解説しますので、これらのリスクを理解した上で活用するようにしてください。
なりすまし動画が制作される
ディープフェイク技術が世界中で話題になったキッカケとも言えるのが、なりすまし動画です。
本人の実写映像などを素材にしてディープフェイクによってなりすまし動画を作成し、本人が行っていないこと・発言していないことを、あたかも本人がやっているかのように見せかけて騙す被害が実際に発生しています。
近年のAI技術の発展によってディープフェイク技術もより高度化しており、かつては粗さが目立って誰が見ても偽物だと分かるなりすまし動画も、今では本物と見分けがつかないレベルにまで達成しつつあるのが現状です。
ポルノ分野に転用されてしまう
なりすまし動画とも似ていますが、ディープフェイク技術の悪用によってポルノ動画が作成されているのも社会問題となっています。
この問題は有名人だけに起きているのでなく、日本の学生がイタズラ目的でディープフェイクを使って同級生のポルノ動画を作成し、周囲の人間にまるで事実かのように広めた結果、被害者本人が心を病んでしまったといった事例も発生しているおり、決して他人事ではありません。
良くも悪くもディープフェイク技術との親和性が高いポルノ分野への転用は、日本だけでなく全世界で被害者が続出しています。
詐欺メールが増える
ディープフェイク技術は、画像や動画だけで悪用されているのではありません。それは、文章にも悪用されているケースです。
ディープフェイクによって独特の文体や言い回しを模倣させ、誰もが知る有名企業の経営者が作ったかのようなフィッシングメールを作成し、社員や自分の支持者に送付して個人情報の抜き出しも可能となっています。
画像や動画だけにディープフェイクが悪用されていると思いこんでいると、思わぬ被害に遭ってしまう可能性もあるため、様々な分野において注意を払わなければなりません。
ディープフェイクが悪用された事例
今やディープフェイクが実際に悪用された事例は数多く存在しており、世界中でも問題視されているのが現状です。
ここでは、ディープフェイクが悪用された例として特に有名な2つの事例をご紹介します。
ゼレンスキー大統領の偽動画
2022年3月にウクライナのゼレンスキー大統領が、戦争中のウクライナ兵士に対してメッセージを送ったかのように見える偽動画がSNSへ拡散されたのが話題となりました。
動画では「もう領土は取り戻せないだろう」「武器を置いて家族の元へ帰って欲しい」といったロシアへの降伏を促すものであり、世界中が騒然とする内容となっています。
不幸中の幸いか、実際のゼレンスキー大統領の映像と比較するとこの偽動画は作りが粗く、誰もが不自然だと感じる点が多かったため、本物だと受け止める人はほとんどいませんでした。
しかし、この動画がもっと精巧に作られていたり、数年後の技術ではもっと手軽に違和感なく作れるかもしれないと想像すると恐怖を覚える事例だといえます。
CEOになりすまし約2,600万円の詐欺
ディープフェイク技術を悪用して被害が出た事例は、動画だけではありません。
2019年、英国を拠点とするエネルギー企業(社名は非公開)のCEOは、親会社のCEOと電話で会話していたところ、外国の企業へ22万ユーロ(約2,600万円)を至急送金して欲しいと頼まれました。
電話相手であるこの親会社のCEO、実はディープフェイクで作成された偽物の音声だったのです。
手口としては、音声をリアルタイムで変換して、あたかも本人が発声しているかのように思わせるディープフェイク技術の応用といえます。
疑う素振りすら見せなかったエネルギー企業のCEOは、実際に約2,600万円を送金してしまったという事例です。
動画に関してはまだ粗さが垣間見えるディープフェイク技術ですが、音声に関しては本人と寸分違わぬクオリティが実現できているため、注意しておきたい事例といえます。
ディープフェイクの4つの対策
AI技術の発展によって、本物との見極めがより困難になってしまうディープフェイク。偽物に騙されないためにも、私たちにはどのような対策ができるでしょうか。
ここでは、ディープフェイクの4つの対策についてご紹介します。
ツールを活用する
より精巧なディープフェイク画像・動画が作られてしまうと、人間の目だけで判断するのは困難となります。高度なAI技術に対抗するには同じく高度なAI技術を活用するしかありません。
画像や動画にディープフェイクが含まれているか判別できるツールを様々な企業が研究を進めており、中には実用化されているツールも存在しています。以下はそのツールの一例です。
- Microsoft社:Video Authenticator
- Sensity社:DEEPFAKE DETECTION
ツールの開発に加え、2020年にはセキュリティ企業として有名な「マカフィー」が、ディープフェイクの脅威に対抗する専門組織を設立するなど、研究も進められています。
情報源を確認する
ディープフェイクに騙されないための最も簡単な対策として「情報源を確認する」という方法があります。
真偽が分からない画像や動画を見たとき、「情報の発信元はどこなのか?」「本当に公式が正式公開している情報なのか?」などを確認する習慣づけが大切です。情報源を確認する方法はいくつかあります。
- 公式サイトを確認する
- 公式が開設している問合せ窓口に聞く
- 企業が出したプレスリリースを確認する
個人のSNSへ書かれている情報や、まとめサイトなどの情報は真偽の判別がつかず、場合によって自らが誤った情報を広めてしまうキッカケにもなりかねません。
最も重要なのは、公式から出される正式な情報(発表)を確認することです。
公式以外から出されている情報は「嘘かもしれない」という考えを頭の片隅に置いておき、冷静な判断で情報の取捨選択を行う必要があります。
セキュリティリテラシーを高める
自分自身はもちろん、社員全体のセキュリティリテラシーを高めるのも有用なディープフェイク対策になり得ます。
ディープフェイク技術の説明や事例の紹介、他にも情報の真偽を確かめる方法など、社内のセキュリティリテラシー意識を向上させるためには定期的な教育が必要です。
社員によってセキュリティリテラシーに差があると感じるのであれば、まずは基礎的なセキュリティ研修から始めてみるのもいいかもしれません。
IT技術に疎い社員にいきなり高度なセキュリティ知識を説明しても身にならないため、まずは社内のセキュリティ知識レベルを確認する段階から取り組むのをおすすめします。
脆弱性管理を行う
AI技術はいまだ成長途中の技術であり、欠点が100%存在しないシステムではありません。
ディープフェイクに限らず、AIが思わぬ脆弱性をもつ可能性も十分に考えられます。そのため、サイバー攻撃やAI技術の悪用などに備えて、常に脆弱性管理を行っていくのが重要です。
普段から交流しているシステム担当者から「あなたのパスワードを確認する必要がある」という電話がかかってきたとき、それがディープフェイクによって作られた音声である可能性はゼロではありません。
あらゆる可能性を想定し、システムや運用に脆弱性が無いかどうかを確認する体制づくりが重要です。
ディープフェイクは法律で罰せられるか?
ディープフェイク技術を使い、新しいモノを作る行為自体、もしくはディープフェイクで作られた動画を見ただけならば何の問題もありません。
しかし、ディープフェイク技術を悪用し、以下に一例として挙げる行為をした場合は、法律で罰せられる可能性が高いといえます。
- 個人のプライバシーを侵害したり名誉を毀損する行為
- 偽の映像や音声を作成しての詐欺行為
- 著作権や商標権などの知的財産権を侵害する行為
- データや情報を改ざんする
- ディープフェイクで作成したポルノ動画を不特定多数の人が目にする場所で公開する
特にネットの世界では、軽いイタズラの気持ちで行った行為が大問題になってしまう事例が跡を絶ちません。ネット上の情報は日本国内だけでなく、海外へも簡単に拡散されてしまう時代です。
世界中の国で同じ法律が適用されるわけではありませんが、国によっては「ディープフェイクポルノ動画は所持しているだけで罪」といった国も存在するため、いずれにしても技術を悪用などせず、純粋にディープフェイク技術のメリット部分だけを活用するのをおすすめします。
まとめ:ディープフェイクの技術力とリスクは両輪で考えよう
今回はディープフェイク技術の基礎知識や潜在的なリスク、そしてディープフェイクの被害に遭わないための対策について解説しました。
ディープフェイクは悪用されてしまうケースが目につきがちですが、本来はAI技術を代表する技術の一つであり、正しく活用すれば大きなメリットを得られるのもまた事実です。
その他のAI技術もここ十数年で急速に発展しており、これからも様々な分野への活用が期待されています。
弊社では、要件定義を書くだけでアプリ・システムを開発できるAI技術を活用したプラットフォーム「JITERA」を展開しております。
新たにシステム開発を行いたいが社内にリソースや体制がないとお困りの場合は、ぜひ株式会社Jiteraへご相談ください。
弊社の経験豊富なプロジェクトマネージャーやエンジニアが、御社が抱える課題に解決するお手伝いをさせて頂きます。