Общество  •  24 сентября 2024, 11:02, последнее обновление 24 сентября 2024, 11:40

Деньги Здесь: зачем мошенники создают цифровые копии реальных людей

Вместе с Банком России разбираемся, как мошенники используют в своих целях искусственный интеллект.

Аферисты стали чаще выманивать деньги в соцсетях и мессенджерах с помощью поддельных видеосообщений. Они создают виртуальные копии реальных людей и рассылают сообщения от их имени.

Мошенники взламывают чужой аккаунт, берут из него фотографии, видео- и аудиозаписи человека и загружают их в нейросеть. Искусственный интеллект анализирует черты лица, движения, голос и создает дипфейк - цифровой образ, максимально похожий на свой прототип.

Затем преступники записывают ролик с виртуальным двойником. Он говорит, что оказался в беде, например серьёзно заболел, попал в аварию или лишился работы, и просит помочь ему деньгами. Это фальшивое видео обманщики рассылают родным, друзьям и коллегам человека и добавляют свои реквизиты для перевода денег.

Иногда мошенники создают дипфейки известных людей, популярных блогеров и отправляют видеосообщения всем их подписчикам.

Дипфейк-технологии пока ещё несовершенны, к тому же для создания реалистичной копии требуется большое количество данных. Поэтому подделку можно распознать по некоторым признакам: монотонному голосу, несвойственной человеку мимике или интонациям, дефектам звука и изображения.

Но даже если видео не вызывает сомнений, стоит настороженно относиться к просьбам о деньгах и помнить, что аккаунт могли взломать. Прежде чем переводить какие-то суммы, лучше позвонить знакомому и убедиться, что ему действительно нужна помощь. Если нет возможности поговорить по телефону или лично, в сообщении задайте человеку вопрос, ответ на который знает только он.

Ещё больше о финансовой грамотности и тонкостях финансовой сферы читайте в нашей еженедельной рубрике, которую мы создаём совместно с Банком России, - "Деньги Здесь".

Читайте также