偽造した音声データを偽造!AIを悪用した詐欺「ディープフェイクボイス」とは

The Wall Street Journalの報道からイギリスを拠点にしているエネルギー事業社(社名非公開)が、偽の音声を利用した詐欺により金銭被害が発生したと判明しました。
この件について、被害を受けたエネルギー事業社が利用している保険会社「Euler Hermes Group」が説明をしました。

概要

当該エネルギー事業社のCEOが、ドイツにある親会社のCEOとの電話において、ハンガリーの業者に22万ユーロ(約2600万円)を至急送金するよう頼まれたとのことです。
その後、3度にわたり同様の電話があったとのことで、2回目は送金せず、3回目の電話でオーストラリアの番号から電話がかかってきていることに疑問を抱き問題が浮上しました。
Euler Hermes Groupの調べで、一連の電話は詐欺師がAI音声生成ソフト利用し、ドイツの親会社のCEOになりすましたものであることがわかりました。

AIを悪用した詐欺攻撃「ディープフェイクボイス」

この手法は、「ディープフェイクボイス攻撃」と呼ばれており、AIを使って作られる偽の動画や音声であるディープフェイクを応用したものです。
企業のCEOは、会見やメディアといった公の場に露出する機会も少なくないことから、音声データを入手しやすく、ディープフェイクボイスの攻撃に利用されやすいとのことです。

また、セキュリティベンダー企業のSymantecからも、今回の事例に酷似した、AIソフトで音声を偽造しての事件が3件確認されているとして情報を発信しております。
 

【参考URL】
CEOになりすましたディープフェイクの音声で約2600万円の詐欺被害か

最新情報をチェックしよう!