Китайский ИИ клонирует голос пользователя за считанные секунды

d4dc3fc7999bbe665c37d9637d5b14c8

Baidu — кoмпaния, кoтoрую мнoгиe зoвут «китaйским Google». Нeдaвнo oнa oпубликoвaлa тexдoкумeнтaцию, пoвeствующую o нoвыx рaзрaбoткax в oблaсти искусствeннoгo интeллeктa. Систeмa, oснoвaннaя нa нeйрoннoй сeти, умeeт клoнирoвaть гoлoс чeлoвeкa, прoaнaлизирoвaв дaжe кoрoтeнький кусок записи. Она не только неплоха в имитации человеческой речи, но и умеет дополнять её разными «фишками» типа акцента.

В Сети размещены примеры того, как с помощью нейронной сети имитируются голоса людей. Эта же технология в прошлых версиях умела имитировать речь человека, проанализировав относительно длительные образцы. Ещё в прошлом году разработчики из Baidu продемонстрировали, как технология Deep Voice воспроизводит речь человека, базируясь на получасовом материале.

Казалось бы, такая разработка является скорее баловством, а не серьёзной практической деятельностью. Однако это совсем не так. В скором времени ей найдётся масса применений. Например, человек, который потерял возможность разговаривать, обретёт её хотя бы при помощи искусственного аппарата. А беспокойного малыша, не умеющего засыпать, не послушав сказку, рассказанную кем-то из близких, будет легче укладывать. Он не будет так зависеть от его физического присутствия или звонка. И это только малая часть возможных вариантов использования технологии. Применять её можно, создавая цифровых персонализированных помощников и для гаджетов, умного дома, автомобилей и так далее.

Правда, у этой разработки, как и у всякой иной, существует и обратная сторона. Злоумышленники смогут злоупотреблять разработкой, далеко не всегда используя её законно. Как говорят эксперты, нынешняя версия ПО создаёт вид голоса, способный в 95 случаях из 100 обманывать во время испытания систему, распознающую его. Клонированные образцы были оценены людьми в 3.14 балла из четырех возможных. А значит, может наступить момент, когда мошенники воспользуются искусственным интеллектом в своих целях.

И это при том, что уже есть разработки, изменяющие или имитирующие в видеороликах лица людей, пользуясь опять же нейронными сетями. Скажем, недавно сеть была заполнена порносюжетами с лицами моделей, заменёнными на лица знаменитостей. Пока это можно списать и на шалость. Однако недалек тот момент, когда можно будет выпускать массу фейковых новостей, основанных на имитации: как внешности, так и голоса одновременно. В них разные «знаменитости» и просто уважаемые люди станут «произносить» то, что в реальности никогда в жизни не сказали бы.

Источник: newscientist.com

Комментирование и размещение ссылок запрещено.