Man
Professional
- Messages
- 2,963
- Reaction score
- 486
- Points
- 83
Дэвид Аттенборо среди известных людей, чьи голоса были использованы мошенниками.
Это новый знак статуса знаменитости, который никому не нужен. Мошенники клонировали голоса Дженнифер Энистон, Опры Уинфри и Кайли Дженнер . Онлайн-блогеры использовали искусственный интеллект, чтобы подделать тигриный тон Мартина Льюиса, телевизионного финансового консультанта. А в эти выходные Дэвид Аттенборо назвал себя «глубоко встревоженным», обнаружив, что его клонированный голос использовался для передачи партийных новостных бюллетеней США.
Теперь эксперты предупреждают, что клонирование голоса опережает закон, поскольку технологи совершенствуют некогда неуклюжие генераторы голоса, превращая их в модели, способные имитировать тончайшие паузы и дыхание человеческой интонации.
Доктор Доминик Лис, эксперт по искусственному интеллекту в кино и телевидении, консультирующий парламентский комитет Великобритании, заявил в понедельник изданию Guardian: «Наши законы о конфиденциальности и авторских правах не соответствуют тому, что представляет собой эта новая технология, поэтому Дэвид Аттенборо мало что может сделать».
Лис консультирует комитет по культуре, СМИ и спорту Палаты общин в расследовании, которое будет рассматривать этическое использование ИИ в кинопроизводстве. Он также созывает Synthetic Media Research Network, в состав которой входит фирма, создающая версию ИИ покойного интервьюера ток-шоу Майкла Паркинсона, что приведет к восьмисерийному незаписанному сериалу Virtually Parkinson с новыми гостями. Этот проект по клонированию голоса осуществляется с согласия семьи и наследников Паркинсона.
«Правительству определенно нужно обратить внимание на [клонирование голоса], потому что это серьезная проблема для мошенничества», — сказал Ли. «Нужна палка государственного регулирования, чтобы предотвратить [неправомерное использование]… мы не можем позволить, чтобы это стало всеобщим достоянием».
Согласно исследованию банка NatWest в этом месяце, в Великобритании за последний год число случаев мошенничества с клонированием голоса с помощью ИИ выросло на 30%. Другой кредитор, банк Starling, обнаружил, что 28% людей хотя бы раз за последний год стали жертвами мошенничества с клонированием голоса с помощью ИИ.
Сообщается также, что мошенники используют клонирование голоса для совершения версии текстового мошенничества «привет, мама», в котором мошенники выдают себя за детей, которым срочно нужны деньги от родителей. На и без того нечетких телефонных линиях может быть сложно определить, что умоляющий ребенок — это клон мошенника. Потребителям рекомендуется проверить это, повесив трубку и перезвонив на доверенный номер.
Люди, чьи голоса клонируются без их согласия, считают это более чем досадной неприятностью. Аттенборо сказал BBC в воскресенье: «Потратив всю жизнь на попытки говорить то, что я считаю правдой, я глубоко обеспокоен тем, что в эти дни мою личность крадут другие, и я решительно возражаю против того, чтобы они использовали ее, чтобы говорить то, что они хотят».
Когда новая голосовая опция в последней модели искусственного интеллекта OpenAI, ChatGPT-4o, показала тона, очень похожие на тона актрисы Скарлетт Йоханссон, она сказала, что была шокирована и возмущена, поскольку голос «звучал так пугающе похоже на мой, что мои самые близкие друзья и новостные агентства не заметили разницы».
Рост популярности клонированных голосов поднимает вопрос о том, что они упускают из виду в настоящих человеческих тонах. Лис сказал: «Большая проблема в том, что ИИ не понимает эмоции и то, как это меняет то, как слово или фраза могут иметь эмоциональное воздействие, и как вы меняете голос, чтобы это передать».
Индустрия озвучивания, которая предоставляет голоса для рекламы, анимации и обучения, должна быстро реагировать на технологические достижения. Джо Льюис, руководитель аудио в Voiceover Gallery в Лондоне, которая предоставила настоящие человеческие голоса для рекламы для Specsavers и National Express, сказал, что уже клонировала голоса некоторых своих артистов.
Он сказал, что ИИ, по-видимому, лучше всего работает с английскими мужскими голосами, возможно, потому, что это отражает предвзятость в типе записей, которые использовались для обучения алгоритма, но он предупредил, что в целом «есть что-то в способе его генерации, что делает вас менее внимательными».
«Когда [голос] ИИ дышит, это очень повторяющееся дыхание», — сказал он. «Дыхание происходит в правильном месте, но оно не ощущается естественным… [Но] может ли оно достичь точки, когда оно будет действительно идеальным? Я не вижу причин, почему бы и нет, но до полного эмоционального спектра еще далеко».
Источник
Это новый знак статуса знаменитости, который никому не нужен. Мошенники клонировали голоса Дженнифер Энистон, Опры Уинфри и Кайли Дженнер . Онлайн-блогеры использовали искусственный интеллект, чтобы подделать тигриный тон Мартина Льюиса, телевизионного финансового консультанта. А в эти выходные Дэвид Аттенборо назвал себя «глубоко встревоженным», обнаружив, что его клонированный голос использовался для передачи партийных новостных бюллетеней США.
Теперь эксперты предупреждают, что клонирование голоса опережает закон, поскольку технологи совершенствуют некогда неуклюжие генераторы голоса, превращая их в модели, способные имитировать тончайшие паузы и дыхание человеческой интонации.
Доктор Доминик Лис, эксперт по искусственному интеллекту в кино и телевидении, консультирующий парламентский комитет Великобритании, заявил в понедельник изданию Guardian: «Наши законы о конфиденциальности и авторских правах не соответствуют тому, что представляет собой эта новая технология, поэтому Дэвид Аттенборо мало что может сделать».
Лис консультирует комитет по культуре, СМИ и спорту Палаты общин в расследовании, которое будет рассматривать этическое использование ИИ в кинопроизводстве. Он также созывает Synthetic Media Research Network, в состав которой входит фирма, создающая версию ИИ покойного интервьюера ток-шоу Майкла Паркинсона, что приведет к восьмисерийному незаписанному сериалу Virtually Parkinson с новыми гостями. Этот проект по клонированию голоса осуществляется с согласия семьи и наследников Паркинсона.
«Правительству определенно нужно обратить внимание на [клонирование голоса], потому что это серьезная проблема для мошенничества», — сказал Ли. «Нужна палка государственного регулирования, чтобы предотвратить [неправомерное использование]… мы не можем позволить, чтобы это стало всеобщим достоянием».
Согласно исследованию банка NatWest в этом месяце, в Великобритании за последний год число случаев мошенничества с клонированием голоса с помощью ИИ выросло на 30%. Другой кредитор, банк Starling, обнаружил, что 28% людей хотя бы раз за последний год стали жертвами мошенничества с клонированием голоса с помощью ИИ.
Сообщается также, что мошенники используют клонирование голоса для совершения версии текстового мошенничества «привет, мама», в котором мошенники выдают себя за детей, которым срочно нужны деньги от родителей. На и без того нечетких телефонных линиях может быть сложно определить, что умоляющий ребенок — это клон мошенника. Потребителям рекомендуется проверить это, повесив трубку и перезвонив на доверенный номер.
Люди, чьи голоса клонируются без их согласия, считают это более чем досадной неприятностью. Аттенборо сказал BBC в воскресенье: «Потратив всю жизнь на попытки говорить то, что я считаю правдой, я глубоко обеспокоен тем, что в эти дни мою личность крадут другие, и я решительно возражаю против того, чтобы они использовали ее, чтобы говорить то, что они хотят».
Когда новая голосовая опция в последней модели искусственного интеллекта OpenAI, ChatGPT-4o, показала тона, очень похожие на тона актрисы Скарлетт Йоханссон, она сказала, что была шокирована и возмущена, поскольку голос «звучал так пугающе похоже на мой, что мои самые близкие друзья и новостные агентства не заметили разницы».
Рост популярности клонированных голосов поднимает вопрос о том, что они упускают из виду в настоящих человеческих тонах. Лис сказал: «Большая проблема в том, что ИИ не понимает эмоции и то, как это меняет то, как слово или фраза могут иметь эмоциональное воздействие, и как вы меняете голос, чтобы это передать».
Индустрия озвучивания, которая предоставляет голоса для рекламы, анимации и обучения, должна быстро реагировать на технологические достижения. Джо Льюис, руководитель аудио в Voiceover Gallery в Лондоне, которая предоставила настоящие человеческие голоса для рекламы для Specsavers и National Express, сказал, что уже клонировала голоса некоторых своих артистов.
Он сказал, что ИИ, по-видимому, лучше всего работает с английскими мужскими голосами, возможно, потому, что это отражает предвзятость в типе записей, которые использовались для обучения алгоритма, но он предупредил, что в целом «есть что-то в способе его генерации, что делает вас менее внимательными».
«Когда [голос] ИИ дышит, это очень повторяющееся дыхание», — сказал он. «Дыхание происходит в правильном месте, но оно не ощущается естественным… [Но] может ли оно достичь точки, когда оно будет действительно идеальным? Я не вижу причин, почему бы и нет, но до полного эмоционального спектра еще далеко».
Источник