Компьютер подделывает голос. Придумали украинцы

Фото: ferra.ru

Опасны ли такие технологии?

Украинская компания уже два года работает над искусственным интеллектом, способным синтезировать голос любого человека.

Искусственный интеллект подделывает любой голос? Ничего удивительно, украинцы из Respeecher освоили технологию и уже даже заключили контракт с голливудской студией.

Но технологию можно использовать не только в индустрии развлечений, но и для мошенничества.

Как это работает

Respeecher может научиться имитировать любой голос. Для начала нужны две аудиодорожки: на одной — запись оригинального голоса, на другой — запись актера, который слово в слово повторяет произнесенный текст.

На этом этапе программа тренируется: сравнивает обе записи и обнаруживает, чем один голос отличается от другого.

Теперь, когда искусственный интеллект понимает разницу, он способен превращать голос актера в требуемый — какой бы текст он не зачитывал.

Чтобы программа сработала эффективно, ей нужно проанализировать по крайней мере час записи целевого голоса — того, который надо сымитировать. С высокой вероятностью за это время она услышит достаточное разнообразие слов и звукосочетаний, проанализирует особенности целевого голоса и поймет, как их следует воспроизводить.

Примеры

Недавно в сети появилось видео, на котором Ричард Никсон, президент США в 1969-1974 годах, рассказывает о гибели астронавтов миссии Аполлон-11, которая в 1969 году доставила людей на Луну.

В реальности миссия прошла успешно, ни один из астронавтов не погиб. Видео создали в Массачусетском институте технологий. Никсона «заставили» зачитать речь, текст которой когда-то была написано на случай провала космической миссии, но с которой президент так никогда и не вышел на публику.

Для создания вида понадобились две основные технологии: искусственный интеллект от Respeecher, который синтезирует голос Никсона, и искусственный интеллект от компании Canny AI, который изменил архивную видеозапись одной из настоящих речей президента США так, чтобы движения губ и мимика Никсона совпадали с тем текстом, который он произносит благодаря Respeecher.

Мошенничество

Однако, технология подделки голоса с помощью искусственного интеллекта служит не только для научных и развлекательных целей.

В сентябре 2019 года генеральный директор одной британской энергетической компании поговорил по телефону со своим начальником — руководителем головного офиса в Германии. Тот попросил его срочно перевести венгерскому поставщику почти 250 тысяч долларов. Деньги ушли на счет венгерского банка, а британский топ-менеджер даже не заподозрил, что все это время разговаривал с роботом.

Голос на другом конце линии был так похож на голос его начальника: искусственный интеллект имитировал не только манеру общения, но и легкий немецкий акцент. Афера вскрылась, лишь когда мошенники попытались провернуть этот трюк во второй раз.

Деньги киберпреступники отправили сначала в Мексику, а затем распределили их по разным счетам. Пока полиция не смогла их найти.

«Опасения не беспочвенны, но люди всегда склонны несколько преувеличивать. Пока реалистичное синтезирования голоса — это процесс, требующий довольно значительных ресурсов. Есть серьезные требования к качеству записей, есть большой объем работы, который нужно выполнить, есть немало других аспектов, влияющих на результат. Технология пока не на том уровне, когда кто-либо из легкостью может ее использовать в каких-то нехороших целях «, — говорит основатель Respeecher Александр Сердюк в интервью BBC News Украина.

Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии