情報セキュリティ (全143問中3問目)
No.3
ディープフェイクを悪用した攻撃に該当するものはどれか。
出典:令和6年秋期 問39
- AI技術によって加工したCEOの音声を使用して従業員に電話をかけ,指定した銀行口座に送金するよう指示した。
- 企業のPCをランサムウェアに感染させ,暗号化したデータを復号するための鍵と引き換えに,指定した方法で暗号資産を送付するよう指示した。
- 企業の秘密情報を含むデータを不正に取得したと誤認させる電子メールを従業員に送付し,不正に取得したデータを公開しないことと引き換えに,指定した方法で暗号資産を送付するよう指示した。
- ディープウェブにて入手した認証情報でCEOの電子メールアカウントに不正にログインして偽りの電子メールを従業員に送付し,指定した銀行口座に送金するよう指示した。
分類
テクノロジ系 » セキュリティ » 情報セキュリティ
正解
ア
解説
ディープフェイクは、ディープラーニングによって学習した生成AIが作る、本物と見まごうほど精巧にできた偽の画像、動画、音声などの生成物のことです。
ディープフェイクは、適切な方向に使用すれば映画製作やAIによるテレビニュースの読み上げなど、大きな利便性をもたらす技術である反面、政治的・宗教的対立をもたらす目的で作成された各国要人に見せかけた動画や音声、有名アーティストを模倣した作品による権利侵害、個人を傷つける目的で作成された性的な画像や動画、投資詐欺を目的とした著名人の偽の音声、生体認証を用いたセキュリティを欺くための偽画像、など多くの問題も抱えています。
情報セキュリティの面からみれば、ディープフェイク技術で生成された実在人物のリアルな顔や声を模倣したコンテンツは、CEO詐欺やフェイクニュースの拡散、さらにはソーシャルエンジニアリングを助長するなどの深刻な脅威となりえます。
ディープフェイクは、適切な方向に使用すれば映画製作やAIによるテレビニュースの読み上げなど、大きな利便性をもたらす技術である反面、政治的・宗教的対立をもたらす目的で作成された各国要人に見せかけた動画や音声、有名アーティストを模倣した作品による権利侵害、個人を傷つける目的で作成された性的な画像や動画、投資詐欺を目的とした著名人の偽の音声、生体認証を用いたセキュリティを欺くための偽画像、など多くの問題も抱えています。
情報セキュリティの面からみれば、ディープフェイク技術で生成された実在人物のリアルな顔や声を模倣したコンテンツは、CEO詐欺やフェイクニュースの拡散、さらにはソーシャルエンジニアリングを助長するなどの深刻な脅威となりえます。
- 正しい。ディープフェイク技術を使用したビッシング(ボイスフィッシング)の事例です。AI技術を利用して特定の人物の音声をリアルに再現し、それを悪用して不正な指示を伝える行為は、ディープフェイクを悪用した典型的な攻撃例です。
- 暗号化型ランサムウェアに該当します。
- スケアウェアに該当します。
- ビジネスメール詐欺(BEC)の一種であるCEO詐欺に該当します。