サンプルの音声をもとにAIがその人の声を再現するという「クローン音声」技術によって、「AIオレオレ詐欺」が世界的に流行

スポンサーリンク
AIツール AI

サンプルの音声をもとにAIがその人の声を再現するという「クローン音声」技術によって、「AIオレオレ詐欺」が世界的に流行

以前は大量の音声サンプルが必要だったが、今は3秒あれば、声を正確に再現できる

竹下雅敏氏からの情報です。
 “続きはこちらから”を先にご覧ください。サンプルの音声をもとにAIがその人の声を再現するという「クローン音声」技術によって、「AIオレオレ詐欺」が世界的に流行しており、「以前は大量の音声サンプルが必要だったが、今は3秒あれば、声を正確に再現できる」ことから、AI詐欺グループはSNSなどの動画から音声を入手するのだということです。
 次のタカラトミーの動画は、コエを合成して読みきかせをしてくれるスピーカー「coemo(コエモ)」の宣伝です。「コエモはあなたそっくりの声でおはなしを読み聞かせてくれるスピーカー。はじめにアプリで声を登録するだけ。…声の登録は一度だけでOK。最新AIがあなたそっくりに音声を合成。…安心する身近な人の声で、毎日お話を変えて読み聞かせ。あなたの代わりに、そっくりな“コエ”で。」と言っています。
 スマホに子守りをさせていれば、子供はまともに育ちません。AIがおはなしを読み聞かせてくれるようになり、最後にはロボットが子育てをするようになるのでしょうか。人類は確実に滅びますね。幼い頃にきちんと両親が抱いて、話しかけながら育てないと、落ち着きのある聡明な子供になりません。地球の再生はここから始めなければなりません。
 冒頭の動画は、読者の方からの情報提供です。非常に面白く、よくできた動画です。2倍速でご覧ください。
 「こういったAIで、人の声をクローンする技術と言うのは随分と昔からあってですね、前から精度はそこそこ良かったんですよね。しかし、この音声を作るのに少し時間がかかったんですね! それがホントごく最近、このリアルタイム変換ですね! この僕が今喋っているこの声をリアルタイムでサンプリングした第3者の他人の声に変えてしまうと言う事が出来るようになってしまったので、これが悪用されるようになってしまったと言う事です!…今までのオレオレ詐欺はお年寄りを狙った犯行が殆どでしたよね!…AIで人の声を盗むことが出来るのであれば、もっともっと普段距離が近い人! 両親や友人などいとも簡単に騙せてしまえる訳ですよね。」と言っています。
 科学技術が発達して便利になっても、誰も幸せになりません。便利になれば、それが犯罪に利用されるようになる。人類の心が成熟し、意識が高くならなければ、技術の進歩は逆に人類の生存を脅かすようになるだけです。
 頭が良いことと幸福は無関係です。私は、何が本当に大切なことなのかを、まったく分かっていない人を「アホ」と分類しています。私の定義では、頭の良いアホが存在することになります。この3年でたくさん見てきました。
 幸福の鍵は、自分自身の思考と想念を批判なしに見つめることにあります。これを瞑想と呼びます。瞑想はいつでも出来ます。仕事をしながら行えば、カルマ・ヨーガになります。重要なポイントは、”批判なしに見つめること”です。
(竹下雅敏)

【世界的大流行】AIを使った超危険な詐欺が日本上陸 ・AIが貴方の声を盗む【たった3秒で・・・】

new: AIによるボイスクローニング技術で、電話詐欺が恐ろしいほど信じられるようになりました。

騙された人たちに話を聞いてみた。彼らは高齢者で、愛する人が今すぐ現金が必要だと聞いていました。詐欺かもしれないと思ったが、その声はあまりにもリアルで無視できなかったという。

ある人は21,000ドルを失いました。

AI技術を悪用 米国で“AI詐欺”電話…クローン音声使用 “3秒のサンプル”で再現(2023年4月25日)

【coemo(コエモ)】あなたそっくりのコエで読み聞かせ

マイコメント

いや~なんともはや、すごい時代になりましたね。

身代金詐欺やオレオレ詐欺に自分の家族や友人、あるいは親族の声を使って電話がかかって
きたら、当然見分けがつかないわけですから信じてしまいますね。

最近のAIの進歩は驚異的なスピードで進んいてビジネスにAIを活用しようという動きも
かなり盛んになってきました。

それぞれが生活の利便性向上に使われるのはいいのですが、こうした犯罪に使われると厄介
な問題が生じてきます。

犯罪に悪用される危険性をこのブログでも取り上げてきましたが、その実態が次第に表に出て
きていることから今後社会的な問題を引き起こすことが予想されます。

自分が悪用しなくとも他人が悪用して自分に被害を及ぼしてくる可能性があります。

そもそもこうした声によるものは本人かAIか判別できないところに問題があるのです。
誰かが自分の声を利用して犯罪を起こし、自分が犯人だと疑われ警察の捜査を受ける可能性
だってあり得るわけです。

ChatGPTは大変便利なAIです。
質問をするとたいていのことに答えてくれます。
しかし、マイクロソフトのBingAIは質問しても詳細な回答は返してくれないようです。
一般的な内容にとどまります。
これはおそらく犯罪防止の為だろうと思います。

もし、爆弾の作り方を聞かれて(あり得ませんし、ChatGPTが拒否するでしょう)ヒント
になる回答から作ることが出来たらそれこそ大変なことになります。

利便性と犯罪は紙一重です。
くれくれも悪用しないように、そして騙されないようにしましょう。

コメント

タイトルとURLをコピーしました