AIで
生成したとみられる
音声を
使って、
著名な
投資家になりすました
偽の
動画広告が「YouTube」で
表示される
ケースが
相次いでいることが
分かりました
It has been found that there have been a series of cases on YouTube where fake video ads, using audio that appears to have been generated by AI to impersonate famous investors, are being displayed.
詐欺広告の
新たな
手口とみられ、なりすまされた
投資家などが
注意を
呼びかけています
It appears to be a new method of scam advertising, and impersonated investors and others are warning people to be cautious.
今月に入って著名な投資家などになりすました偽の動画広告が、動画投稿サイト「YouTube」で表示されたという報告がSNSなどで相次いでいます
Since the beginning of this month, there have been numerous reports on social media and other platforms about fake video ads impersonating famous investors being displayed on the video sharing site YouTube.
このうち、YouTubeのチャンネル登録者数が63万人余りいる投資家の女性のもとには、偽の広告を見たという人からメールやコメントなどで問い合わせが100件以上寄せられているということです
Of these, a female investor with over 630,000 YouTube subscribers has reportedly received more than 100 inquiries via email and comments from people who saw the fake advertisements.
偽の広告では、本人の映像にAIで生成したとみられる音声を合成して「私の投資ノウハウを直接シェアします」などとかたって、LINEグループに誘導しているということです
In the fake advertisements, AI-generated audio is apparently combined with footage of the person, claiming things like I will personally share my investment know-how, and leading people to join a LINE group.
著名な投資家の音声を合成した偽の動画広告はほかにも複数確認されていて、金銭をだまし取る詐欺広告の新たな手口とみられます
Fake video ads that use synthesized voices of famous investors have also been confirmed in several other cases, and they are considered to be a new method of scam ads aimed at defrauding people of money.
なりすまされた投資家の節約オタクふゆこさんは「LINEでの活動は一切やっていないし、SNSやYouTubeの広告も出していません
The frugal investor Fuyuko, who was impersonated, said, I dont do anything on LINE, and I dont run any ads on social media or YouTube.
率直に
許せない
し、
自分の
顔が
勝手に
使われ、
嫌な
気持ちです
Frankly, I cant forgive this, and I feel bad that my face was used without my permission.
プラットフォーム
事業者には
詐欺被害にあう
人が
出ないよう
対策を
しっかりしてほしい」と
話していました
I want platform operators to take proper measures so that no one falls victim to fraud, they said.
YouTubeを運営する「グーグル」は「著名人へのなりすましは明確に禁止しています
Google, which operates YouTube, clearly prohibits impersonation of celebrities.
継続的に
広告を
審査し、
問題の
ある広告が
検出された
場合は
直ちに削除する
措置を
講じています」と
コメントしています
We continuously review advertisements and take immediate action to remove any problematic ads detected, they commented.
専門家 “事前審査や削除の体制強化を”
著名人や投資家になりすました偽の広告はこれまではフェイスブックやインスタグラムなどのSNSで表示されるケースが目立っていました
Experts: “Strengthen systems for pre-screening and removal.” Until now, fake ads impersonating celebrities and investors have mainly appeared on social media platforms such as Facebook and Instagram.
ネット広告の問題に詳しい慶応大学メディア・コミュニケーション研究所の水谷瑛嗣郎准教授は、AIを悪用することでなりすまし広告が巧妙化しているとして、プラットフォーム事業者は事前審査や削除の体制をより強化することが必要だと指摘しています
Associate Professor Eijiro Mizutani of Keio Universitys Institute for Media and Communications, who is well-versed in issues related to online advertising, points out that the misuse of AI is making impersonation ads more sophisticated, and that platform operators need to further strengthen their systems for pre-screening and removal.
その上で、水谷准教授は「プラットフォーム事業者にはかなり重い責任があり、より一層対策を強化しないと詐欺の被害を防げない
On top of that, Associate Professor Mizutani said, Platform operators have a considerable responsibility, and unless they further strengthen their countermeasures, it will be impossible to prevent fraud damage.
事業者は
国内外の
法執行機関と
最新情報を
共有する
などして
連携して
対応して
いく必要が
ある」と
話していました
The operator said, It is necessary to work in cooperation, such as sharing the latest information with law enforcement agencies both in Japan and abroad.
また、水谷准教授は「生成AIの普及で多くの人がディープフェイクの手法を使えるようになり、今後は見た目では偽広告を見抜けなくなっていく危険もある
Associate Professor Mizutani also said, With the spread of generative AI, many people are now able to use deepfake techniques, and there is a risk that in the future, it will become impossible to spot fake advertisements just by their appearance.
広告に
知っているインフルエンサーや
著名人が
写っていても
安易にクリックしない、
信じないことも
必要になってくると
思う」と
話していました
I think its also necessary not to easily click on or believe ads even if you see influencers or celebrities you know in them, they said.