иллюстративное фото

Преступники в восторге: создана программа, копирующая голос любого человека 0

Авторы самого известного бота в мире (ChatGPT) создали программу, имитирующую любой голос по 15-секундному звуковому образцу. Все страшные последствия такого изобретения даже трудно представить.

Читать другие новости

Крики про необходимость поставить нейросети под строжайший контроль пока остаются пустым сотрясением воздуха. Пользуясь этим, компания OpenAI, известная успешными опытами в развитии искусственного интеллекта (их детище — популярнейший ныне ChatGPT), создала программу, копирующую любой голос на Земле — и озвучивающую потом этим голосом речи, которые не собирался говорить его обладатель.

Сказать, что открыли ящик Пандоры, это ничего не сказать. И речь не только об угрозе свободным выборам и опасениям, что в предвыборной агитации недобросовестные политики смогут использовать сгенерированные искусственным интеллектом материалы, чтобы осознанно дезинформировать потенциальных избирателей и влиять на их мнение.

Отныне преступникам достаточно заполучить всего лишь 15-секундный образец чужого голоса, чтобы творить, что угодно. Например, заманивать детей в нужное место голосом их родителей. Требовать деньги от подчиненных голосом их руководителя. Имитировать просьбу родственников о помощи, оставляя людей без средств. Отдавать фальшивый приказ голосом настоящего офицера, отправляя его подразделение на верную гибель…

Про ложные сообщения в полицию о бомбе, которые лоботрясы-двоечники смогут озвучивать голосом учителя, и говорить не стоит, это так — хихоньки.

Зато сразу вспоминается, что по образцу голоса сегодня банки во многих странах уже клиентов распознают и доступ к их счетам предоставляют! Что теперь? Плакали денежки? Ведь раздобыть 15-секундный звуковой образец — плевое дело. Допустим, позвонят вам с каким-нибудь придуманным опросом, и даже если вы откажетесь в нем участвовать, пока отнекиваетесь да объясняете, что у вас не времени, образец уже готов.

Зачем же OpenAI подложил человечеству такую свинью? Voice Engine (так называется эта программа) предлагает, по мнению авторов, следующие преимущества. Озвучивать книги естественными голосами (вообще-то с этим прекрасно сегодня справляются актеры). Еще — сохранять местные акценты при автоматическом переводе (как будто мы без этого страдаем). Также — помочь людям, у которых есть проблемы с общением, предоставляя им персонализированные варианты речи (неразговорчивых сделают болтливыми?). Наконец, она обещает пациентам восстановить их собственный голос после проблем, которые влияют на речевые способности (неужто такая распространенная проблема?).

Эти корявые аргументы, мучительно высосанные из пальца, никак не перекрывают тот колоссальный вред, который способна нанести Voice Engine.

Прекрасно это понимая и заранее страшась возможных обвинений, компания OpenAI пока тянет с запуском своего детища (сотворенного, как оказалось, еще в 2022-м) в широкие народные массы. И изобретает правила, которые якобы должны этот вред предотвратить.

Они вызывают горький смех. Чтобы использовать Voice Engine, предлагает OpenAI, каждый партнер компании должен согласиться с условиями, которые запрещают «выдавать себя за другое лицо или организацию без согласия или законного права». Партнеры также должны получить информированное согласие от людей, чьи голоса клонируются. Компании обязаны предупреждать, что голоса, которые они производят, генерируются искусственным интеллектом.

В общем, высоколобые инженеры компании явно живут в своем придуманном мире розовых пони, где все друг другу улыбаются и спрашивают «как дела?».

Правда, OpenAI еще пообещала добавлять некий «водяной знак» в каждый образец голоса, который помогает отследить происхождение любого отрывка, сгенерированного Voice Engine. Ну да, ну да… Несколько хакерских набегов — и ваша программа утечет из-под вашего носа, чтобы зажить собственной жизнью под присмотром фартовых ребят.

Еще одно из предложений OpenAI — чтобы банки постепенно отказались от голосовой аутентификации для клиентских счетов. Кроме того, можно создать список голосов, которые нельзя клонировать, например, принадлежащих знаменитостям или политикам.

То есть ребята создали некую штуку, которая максимально осложнит всем жизнь, и чтобы на ней заработать, предлагают переделать под нее мир.

В общем, срочное внедрение законов о полном контроле над созданием любых продуктов на основе искусственного интеллекта не просто назрело — оно уже перезрело.

Читать другие новости
Алкоголиков будут пугать калориями
На склонных к насилию наденут электронные браслеты
Их нельзя трогать во время войны! Пять зданий крепости отмечены табличками
У Бикерниекской школы создают парк скульптур из мусора
Принимайте душ вдвоем: мэр Боготы умоляет экономить воду из-за засухи
Нарушителей ПДД в Даугавпилсе помогут ловить камеры LMT
Ирония судьбы: Кариньш может занять место главы комиссии по госрасходам и аудиту
Ученики смогут отказаться от изучения русского как второго иностранного
Центр посетителей Крепости приглашает на экскурсии
Возможные изменения налогов на рабочую силу: подготовлено 15 сценариев
Как после праздников восстановить форму и не потерять ее?
Новый год – лучший ты! Актуальные процедуры для фигуры мечты
Волшебные процедуры красоты с мгновенным эффектом
Объявлен конкурс на должность руководителя детсада № 24
Сейм рассмотрит запрос об отставке министра культуры
Странный приговор: медик, не оказавший помощь умирающей, через 4 года сможет снова практиковать
«Прямой эфир с Думой»: Юлия Семенова, гид Инженерного арсенала (на лат. яз.)
Заберут ли муниципальное жилье у тех, кто не подпишет новый договор с ПЖКХ?