ディープフェイクの主な危険性とそれらを見つける方法

あなたのオンラインアイデンティティがあなたに直接リンクしている世界では、完全な複製の可能性が心配されています。しかし、それこそが、ディープフェイクテクノロジーの出現で私たちが直面していることです。

テクノロジーが安価で使いやすくなるにつれて、ディープフェイクの危険性は何ですか?さらに、本物とのディープフェイクをどのように見つけることができますか?

ディープフェイクとは何ですか?

ディープフェイクは、ビデオまたは画像内の人物が他の人物の肖像に置き換えられるメディアに付けられた名前です。この用語は「ディープラーニング」と「フェイク」のかばん語であり、機械学習アルゴリズムと人工知能を使用して、現実的でありながら合成的なメディアを作成します。

最も基本的には、別のモデルに顔が重ねられている場合があります。急速に発展している最悪の場合、ディープフェイクテクノロジーは、疑いを持たない犠牲者を偽のポルノビデオ、偽のニュース、デマなどに結び付けます。

テクノロジーの起源について詳しくは、ディープフェイクの説明者をご覧ください

ディープフェイクの危険性は何ですか?

偽の画像は常に存在していました。何が偽物で何がそうでないかを理解することは、特にデジタル化されたメディアの台頭後、人生の一般的な部分です。しかし、ディープフェイクテクノロジーが生み出す問題は異なり、偽の画像や偽のビデオに比類のない精度をもたらします。

より多くの視聴者を襲った最初のディープフェイク動画の1つは、目前の問題について話し合っている動画で、ジョーダンピールがバラクオバマになりすましたことです。

ビデオは粗雑に見え、クローンされた顔に奇妙な声と粒子の粗いアーティファクトがあります。それにもかかわらず、それはディープフェイク技術を示しています。

それとも、スミスがキアヌ・リーブスの代わりにマトリックスでネオを演じたらどうなるだろうと思ったことはありますか(つまり、誰が演じていませんか?!)?もう不思議ではありません:

これらの2つのビデオは悪意のあるものではなく、コンパイルに数百時間の機械学習が必要です。しかし、同じテクノロジーは、学ぶのに十分な時間とそれに伴う計算能力を持っている人なら誰でも利用できます。ディープフェイクテクノロジーを使用することへの障壁は、当初はかなり高かった。しかし、テクノロジーが向上し、参入障壁が大幅に低下するにつれて、人々はディープフェイクの否定的で有害な用途を見つけます。

ディープフェイクのダークサイドを掘り下げる前に、シャイニングでジャック・ニコルソンの代わりにジム・キャリーを紹介します。

1.有名人をフィーチャーした偽のアダルト素材

ディープフェイクテクノロジーによる主な脅威の1つは、合成アダルトマテリアル、または知られているディープフェイクポルノです。エマ・ワトソン、ナタリー・ポートマン、テイラー・スウィフトなどの著名な女性有名人の顔をフィーチャーした何万もの偽のアダルトビデオがあります。

いずれもディープフェイクの機械学習アルゴリズムを使用して、有名人の顔を女性の成人女優の体に縫い付けており、多数の成人向けコンテンツWebサイトで数千万回の視聴を集めています。

しかし、これらのサイトはいずれも有名人のディープフェイクについては何もしていません。

「彼らがそれらを削除してフィルタリングしようとする強い理由があるまで、何も起こりません」、ディープフェイクの検出および分析会社であるセンシティのCEO兼チーフサイエンティストであるジョルジオパトリーニは言います。 「何億人もの人々が閲覧しているこれらのウェブサイトに影響を与えることなく、人々はこのタイプの資料を自由にアップロードできます。」

一部のディープフェイククリエイターが主張しているように、動画は搾取的であり、被害者がいないわけではありません。

2.一般の人々をフィーチャーした偽のアダルト素材

有名人をフィーチャーした合成ポルノよりも悪いことは何ですか?そうです:無防備な女性をフィーチャーした偽のアダルト素材。 Sensityの調査では、ソーシャルメッセージングアプリTelegramで、100,000を超えるディープフェイクヌード画像を作成したディープフェイクボットが発見されました。画像の多くは、友人、ガールフレンド、妻、母親などをフィーチャーしたソーシャルメディアアカウントから盗まれています。

画像アップローダーはディープフェイク、機械学習、AIに関する既存の知識を必要としないため、ボットはディープフェイクテクノロジーの大きな進歩です。これは、単一の画像を必要とする自動化されたプロセスです。さらに、Telegramボットは女性の画像でのみ機能するようであり、プレミアムサブスクリプション(より多くの画像、削除された透かし)は途方もなく安価です。

有名人のディープフェイクと同様に、Telegramボットのディープフェイク画像は搾取的で虐待的で非道徳的です。彼らは、夫、パートナー、家族、同僚、または上司の受信トレイへの道を簡単に見つけることができ、その過程で命を破壊しました。恐喝やその他の形態の恐喝可能性は非常に高く、リベンジポルノなどの既存の問題からの脅威を増大させます。

Telegramにディープフェイクを投稿すると、別の問題も発生します。 Telegramはプライバシーに重点を置いたメッセージングサービスであり、ユーザーの邪魔をしすぎません。アダルトコンテンツに関連するポルノボットやその他のボットを削除するポリシーはありますが、この場合は何もしていません。

3.デマ素材

ジョーダン・ピールがオバマを演じているのを見たことがあります。そのビデオでは、彼はディープフェイクの危険性について警告しています。ディープフェイクテクノロジーに関する主な懸念の1つは、誰かがビデオを作成して公開することで、何らかの形の悲劇につながるほどリアルなものになることです。

スケールの最も極端な端では、人々はディープフェイクのビデオコンテンツが戦争を引き起こす可能性があると言います。しかし、他にも大きな影響があります。たとえば、大手企業や銀行のCEOが有害な発言をしているディープフェイク動画は、株式市場の暴落を引き起こす可能性があります。繰り返しますが、それは極端です。しかし、実際の人々はビデオをチェックして検証することができますが、グローバル市場はニュースに即座に反応し、自動販売が行われます。

考慮すべきもう1つのことはボリュームです。ディープフェイクコンテンツの作成がますます安価になるにつれ、異なるトーン、場所、スタイルなどで同じフェイクメッセージを配信することに焦点を当て、同じ人物の大量のディープフェイクコンテンツの可能性が高まります。

4.実際の資料を拒否する

デマ素材の拡張として、ディープフェイクが信じられないほどリアルになることを考慮する必要があります。内容に関係なく、ビデオが本物かどうかを人々が疑問視し始めるほどです。

誰かが犯罪を犯し、唯一の証拠がビデオである場合、「それは偽物であり、偽の証拠です」と彼らが言うのを止めるにはどうすればよいでしょうか。逆に、誰かが見つけられるようにディープフェイクのビデオ証拠を植えるのはどうですか?

5.偽の思想的指導者と社会的接触

ソートリーダーを装ったディープフェイクコンテンツを含むいくつかの事例がすでにあります。 LinkedInとTwitterのプロファイルでは、戦略的組織における上位の役割について詳しく説明していますが、これらの人々は存在せず、ディープフェイクテクノロジーを使用して生成されている可能性があります。

とはいえ、これはディープフェイク固有の問題ではありません。時代の幕開け以来、政府、スパイネットワーク、および企業は、偽のプロファイルとペルソナを使用して、情報収集し、議題をプッシュし、操作してきました

6.フィッシング詐欺、ソーシャルエンジニアリング、およびその他の詐欺

セキュリティに関しては、ソーシャルエンジニアリングがすでに問題になっています。人々は他の人を信頼したいと思っています。それは私たちの本質です。しかし、その信頼は、セキュリティ違反、データ盗難などにつながる可能性があります。ソーシャルエンジニアリングでは、電話やビデオ通話など、個人的な連絡が必要になることがよくあります。

誰かがディープフェイクテクノロジーを使用してディレクターを模倣し、セキュリティコードやその他の機密情報にアクセスできるとします。その場合、それはディープフェイク詐欺の大洪水につながる可能性があります。

ディープフェイクを見つけて検出する方法

ディープフェイクの品質が向上しているため、ディープフェイクを見つけることが重要です。初期の頃は、ぼやけた画像、ビデオの破損やアーティファクト、その他の欠陥など、簡単な説明がいくつかありました。ただし、これらの明らかな問題は減少しており、テクノロジーの使用コストは急速に低下しています。

ディープフェイクコンテンツを検出する完璧な方法はありませんが、次の4つの便利なヒントがあります。

  1. 詳細。ディープフェイクテクノロジーが進歩しているのと同じくらい、それが苦労しているビットがまだあります。特に、髪の毛の動き、目の動き、頬の構造と発話中の動き、不自然な表情など、ビデオ内の細部。目の動きは大きな違いです。ディープフェイクは効果的に点滅できるようになりましたが(初期の頃は、これは大きな問題でした)、目の動きは依然として問題です。
  2. 感情。詳細に結びつくことは感情です。誰かが強い発言をしている場合、彼らが詳細を伝えるとき、彼らの顔はさまざまな感情を示します。ディープフェイクは、実在の人物と同じ深さの感情を伝えることはできません。
  3. 矛盾。ビデオ品質は史上最高です。ポケットの中のスマートフォンは4Kで録画して送信できます。政治指導者が発言している場合、それは一流の録音機器でいっぱいの部屋の前にあります。したがって、視覚的および聴覚的の両方での録音品質の低下は、顕著な不一致です。
  4. ソース。ビデオは検証済みのプラットフォームに表示されていますか?ソーシャルメディアプラットフォームは、検証を使用して、世界的に認識されている人々が模倣されていないことを確認します。確かに、システムには問題があります。しかし、特に悪質なビデオがどこからストリーミングされているか、またはホストされているかを確認すると、それが本物かどうかを判断するのに役立ちます。また、画像を使用して検索を実行して、インターネット上で画像が見つかった他の場所を明らかにすることもできます。

ディープフェイクを発見して防止するためのツール

ディープフェイクの発見との戦いに参加しているのはあなただけではありません。いくつかの主要なテクノロジー企業がディープフェイク検出用のツールを開発していますが、他のプラットフォームはディープフェイクを永続的にブロックするための措置を講じています。

たとえば、Microsoftのディープフェイク検出ツールであるMicrosoft Video Authenticatorは数秒以内に分析し、ユーザーにその信頼性を通知します(例については以下のGIFを確認してください)。同時に、アドビでは、コンテンツをデジタル署名して、操作から保護することができます

FacebookやTwitterなどのプラットフォームはすでに悪意のあるディープフェイクを禁止しています(マトリックスのウィルスミスのようなディープフェイクは依然として公正なゲームです)が、Googleは偽のオーディオスニペットに対抗するためのテキスト読み上げ分析ツールに取り組んでいます。

偽のメディア検出スキルを磨きたい場合は、発見と学習のため偽の検出テストのリストを確認してください。

ディープフェイクが登場し、さらに良くなっています

問題の真実は、ディープフェイクが2018年に主流になったため、その主な用途は女性を虐待することであるということです。それが有名人の顔を使って偽のポルノを作成する場合でも、ソーシャルメディアで誰かから服を脱ぐ場合でも、それはすべて、世界中の女性を搾取し、操作し、品位を落とすことに焦点を当てています。

ディープフェイクの反乱が地平線上にあることは間違いありません。そのような技術の台頭は一般大衆に危険をもたらします、それでもその前進を止めるための手段はほとんどありません。