23年5月14日(日)AI 音声生成 クローン音声
米国アリゾナ州で、AIによる音声合成技術を悪用して、子供の誘拐未遂事件発生。
誘拐されたと助けを求める電話の声は、紛れもなく娘のものだったというが、実際はAIが本人の声を合成し、本人そっくりに作り上げたクローン音声だったのだと。
アメリカでは、このような音声合成AIを利用した詐欺事件が日常的に起きているという。
日本にも入ってくるだろうね。てか、既に入ってきてるのかも!?
クローン音声を作成する技術は、前からあったらしいが、ここ最近のAIの技術革新は凄まじく、現在では3秒ほどの声があればクローン音声が作れてしまうとのこと。
今年1月には、1分以上のサンプル音声があれば、クローン音声が作成でき、自由にしゃべらせることができるものがβ版として無料公開。
誰でも音声クローンが作れるようになっていたため、著名人の声がクローン化され、ヘイトスピーチや絶対に話さないような内容の話をさせたりするという音声が作られ投稿されたという事があったそうな。
どんな便利な技術も、やっぱり悪用化されてしまうんだね。
本当、使い方次第。
悪用化された結果、規制されたりでその技術の進歩に影響が出ないといいね。
0 件のコメント :
コメントを投稿