・「オレオレ詐欺」にAI製クローン音声を用いる事例が急増、被害額は年間15億円近くに
(GIGAZINE)
・〔解説〕
既に、詐欺にもAIが使われ始めました。しかも、音声にです。この記事は、アメリカやカナダでのものですが、日本でも遠くないうちに似たような被害が起きるでしょう。
「オレオレ詐欺」の被害でAI技術を用いて作った音声が利用されたと報告されました。本人の声に近いクローン音声は、YouTubeなどから簡単に作られる危険性があるようです。以前は、大量の音声データが必要でしたが、技術の進歩によりYouTubeやFacebook、TikTokなどから30秒ほどの音声が入手できれば、クローン音声を簡単に生成できるようです。勇退した声優の代わりに、AI音声を活用して声を再現することもできます。しかし、詐欺などの犯罪に使われる危険性も増していきます。