По информации радио Sputnik мошенники усовершенствовали схемы обмана, научились с помощью искусственного интеллекта воровать голоса людей.

Исполнительный директор Ассоциации лабораторий развития искусственного интеллекта Вячеслав Береснев отметил, что мошенники активно взяли в работу направление по совершенствованию инструмента подделки голоса. В последние пару лет не нужно быть технически подкованным специалистом, чтобы подделать голос с помощью программ на базе технологий искусственного интеллекта, достаточно иметь небольшой фрагмент записи голоса человека:
 
— Если речь о популярном человеке, то он выступает на радио и телевидении, ведет стримы в интернете, его голос записать совсем несложно. Если речь о не медийном человеке, то найти круг его общения и записать голос тоже не составит труда, допустим, пройдя мимо, либо спарсить с аккаунта через голосовые сообщения, которые человек отправил в ВК. Можно взломать телеграмм и сохранить голосовые сообщения оттуда.
 
По мнению эксперта, в зоне риска находятся финансово обеспеченные люди, их голоса, голоса их друзей и родственников могут стать предметом интереса мошенников:
 
— Кажется, что деньги можно спрятать, однако в современных реалиях это практически невозможно. По многим критериям можно понять, какой у вас доход и как вы живёте.
 
Эксперт отметил, что сама по себе технология не нова и достаточно проста в освоении:
 
— Избежать такого рода мошенничества довольно сложно. Если вам звонит родственник и просит денег, положите трубку и перезвоните ему по тому номеру, который у вас записан, либо задайте звонящему вопрос, ответ на который может знать только ваш родственник.
 
Вячеслав уверен, что в эпоху цифровых двойников нельзя быть уверенным в том, что позвонивший собеседник действительно тот, за кого себя выдает:
 
— К примеру, вам по видео связи позвонила мама и попросила перевести деньги, вполне возможно, что это были мошенники, поскольку сгенерировать ее голос и аватар, который будет с вами разговаривать, при этом, понимая общий контекст происходящего, отвечать на вопросы — это не так сложно, как кажется.
 
Эксперт считает, что на данный момент технология еще не растиражирована и, скорее всего, рядовых граждан посягательства мошенников пока не коснутся:
 
— Но в будущем технология станет более доступной. В некоторых штатах США и в Китае за дипфейки уже сейчас введена уголовная статья.
 
По мнению эксперта, в текущих реалиях сложно понять, живой человек звонил или нет, шансов не попасть на уловки мошенников становится меньше:
 
— Сейчас ценность offline-общения, как никогда, возрастает. Предлагаю всем соблюдать цифровую гигиену, никому не сообщать логины и пароли, никому не переводить деньги, не убедившись, что их попросил настоящий человек. А лучше договориться о встрече и передать деньги лично.
 
Эксперт считает необходимым мошенничество с использованием технологий искусственного интеллекта выделить в отдельную статью Уголовного кодекса с более жестким наказанием, ограничить создание дипфейков, прописав в законе перечень задач, для решения которых они могут быть созданы:
 
— Кроме того, необходимо ввести принудительную маркировку аудио и видеоконтента, созданного с использованием искусственного интеллекта. Также необходимо постоянно информировать население о новых видах мошенничества.

© 2022 Фонтанка Ньюс | Сетевое издание. Все права защищены.
Учредитель Кацман К.М.
Главный редактор Кацман К.М.
Зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций. Запись в Реестре № ФС77-84892 от 31 марта 2023 года
Телефон: +7(901)509-28-08
Электронный адрес: mediarustribuna@gmail.com
МЕДИАГРУППА MOS.NEWS
Использование материалов разрешено только с предварительного согласия правообладателей. Все права на тексты и иллюстрации принадлежат их авторам. Сайт может содержать материалы, не предназначенные для лиц младше 18 лет.
Яндекс.Метрика