Технология deepfake: насколько реальна угроза финансовым системам?

17.01.2022 в 13:23 | Алена Дегрик Шевцова, «Facenews»

Технологии развиваются, делая жизнь людей проще и комфортнее, но вместе с тем развиваются и способы обмана. Прогресс в сфере искусственного интеллекта позволяет использовать алгоритмы для новых форм мошенничества.

Сейчас с помощью сервисов и приложений можно заменить лицо киноактера в отрезке видео своим или даже оживить фотографию, сделав ее анимированной. Это общедоступные технологии для развлечения, но есть и другая сторона медали, пишет Алена Дегрик Шевцова для investgazeta. Создание поддельных фото-, аудио- и даже видеоматериалов, неотличимых от оригинальных в совокупности с неограниченными возможностями СМИ вызывают опасения. Одновременно с этим существует угроза влияния на финансовые системы с помощью новых технологий deepfake.

Deepfake (дипфейк) — это технология, в основе которой лежат искусственный интеллект и машинное обучение. Она использует найденные изображения, аудио- и видеофайлы для создания схожего визуального и голосового изображения человека. Главная персона в дипфейк-видео может говорить и действовать, выдавая себя за другого человека. Такие видео становятся более реалистичными с каждым годом. Например, в социальных сетях стал популярен аккаунт, где дипфейк Тома Круза играет в гольф и показывает фокусы. После того как видео стало вирусным, оно привлекло широкое внимание к технологии, но также сделало акценты на возможные проблемы, связанные с фальсификацией личности. Сильная сторона технологий на основе искусственного интеллекта в том, что со временем они собирают все больше данных и становятся умнее. Стоит вспомнить, как в 2019 году киберпреступники смогли подделать голос генерального директора британской энергетической компании и похитить €220 000.

Существует множество сценариев применения дипфейк технологий — от кибервымогательства до подделки правительственных заявлений. Но есть и способы, которые могут нанести вред финансовым системам. Среди наиболее распространенных — вход в личные учетные записи на финансовых онлайн-сервисах, банковских аккаунтах, оформление кредитов с помощью идентификации с технологией замены лица и голоса в реальном времени. С распространением и улучшением искусственного интеллекта, такой способ становится более доступным для мошеннических действий в финансовых учреждениях.

Мошенничество с новыми учетными записями. Обычно такой вид махинации доступен в приложениях. Существует возможность использовать украденные удостоверения личности для открытия новых банковских счетов с помощью дипфейков и обхода технологий идентификации. Если злоумышленники получат возможность создавать поддельные удостоверения личности — такая атака может стать глобальной проблемой для финансовых сервисов.

Мошенничество с помощью искусственной идентификации. Как правило, этот способ крайне сложно обнаружить, поскольку вместо кражи или подделки личности, злоумышленники объединяют реальную и поддельную информацию для “создания” полностью нового человека. После этого можно, аналогично с предыдущим методом, создавать учетные записи в финансовых учреждениях и получать деньги благодаря открытию кредитных линий.

Технология deepfake помогает обойти систему безопасности при идентификации личности. Именно поэтому сейчас многие банковские сервисы используют многоуровневую защиту, где недостаточно только биометрических данных. Некоторые сервисы определяют “подвижность” человека: вас просят повертеть головой или сделать простые жесты. Пример использования такой технологии — украинский сервис для самоизолированных людей “Вдома”.

Технологии искусственного интеллекта — оружие для мошенников, специализирующихся на финансовых преступлениях. Однако это не означает, что махинации стали легкой наживой для злоумышленников. Технология дипфейк основывается на системе генеративно-состязательных сетей или GAN (Generative Adversarial Network), где одна нейросеть генерирует подделки, а вторая учится их распознавать. Поэтому решение проблемы сокрыто в ее создании, как бы парадоксально это не было. Управление перспективных исследовательских проектов Министерства обороны США (DARPA) уже создает новые способы противодействовать дипфейкам, поэтому подготовило две программы для их обнаружения. Они находят несоответствия в изображениях людей и анализируют контент на предмет цифровой, физической и семантической целостности. Подделку может выдать различие парных украшений, нехарактерные черты лица или даже фон. Такие детали сложно заметить с помощью анализа, проводимого человеком.

Deepfake-технологии развиваются и в Украине, ведь именно украинские стартаперы создали одно из самых популярных приложений для замены лица. Однако про массовые угрозы для финансовых сервисов говорить пока рано, ведь если на западе технологии с биометрической идентификацией широко распространены, то к нам эта тенденция только приходит.

Читайте FaceNews в Google Новости

Популярные видео на YouTUBE

Ніколов заявив, що санкції проти російських власників обленерго не зупинили їхній вплив на енергетику
Народ-привид Європи: хто такі баски і чому їх вважають унікальними
Як у Китаї готують ґрунт для поглинання московитських територій
Скарб у надрах Землі: чому світ почав полювання на білий водень
НАБУ вийшло на слід «двушки в Москву» Міндіча: слідство розглядає ознаки державної зради
«Брудний секрет» цифрового світу: автор YouTube-каналу заявив, що індустрія дорослого контенту прискорила розвиток VHS, онлайн-платежів і комп’ютерного зору
Вашингтон змінює правила місячних перегонів: NASA обере того, хто першим підготує посадковий модуль — SpaceX Маска чи Blue Origin Безоса
Гонка за штучний інтелект: чому битва точиться не лише за чіпи, а й за електрику та дата-центри
Все видео

Лента новостей

На Одещині знову атаковано 2 енергооб'єкти, просто зараз авіабомби на Затоку-Чорноморськ
🕑 17 хвилин тому
Росія вже підготувала до атаки від 2000 шахедів: стало відомо, коли будуть запускати по Україні
🕑 15 годин 58 хвилин тому
Киянин виростив яблуко у 1,28 кг, обхватом в 50 см і встановив рекорд України: фото гіганта
🕑 16 годин 25 хвилин тому
У Сан-Франциско стався масштабний блекаут (відео)
🕑 17 годин 3 хвилини тому
Запаси соняшникової олії женевської компанії розбомбили на Одещині, дорогами течуть річки олії (відео)
🕑 19 годин 38 хвилин тому
Журналісти знайшли Міндіча в Ізраїлі, з’явилось фото
🕑 20 годин 22 хвилини тому
Ядерна Японія? Заява радника прем’єра сколихнула Азію
🕑 22 години 47 хвилин тому
Росіяни зайшли у Грабовське на кордоні та викрали понад 50 цивільних
🕑 вчора
Авіаатака на Ізюм: загинуло подружжя, у місті значні руйнування (відео)
🕑 вчора
Буданов розкрив плани Росії на країни Балтії та Польщу
🕑 вчора
Другий день поспіль: у Туреччині знову впав російський розвідувальний дрон
🕑 вчора
Українські розвідники вивели з ладу магістральний газопровід у Росії
🕑 вчора
"А бил лі мальчік?": вже кажуть, що Зеленському не дарували "Документи Волинських злочинів" (фото)
🕑 вчора
Понад 10 ударів по мосту в Маяках за добу: Україна й Молдова готують об'їзні маршрути (відео)
🕑 вчора
У порту "Південний" на Одещині горять резервуари, висота заграви 200 м​етрів, загиблих більшає (відео)
🕑 вчора
Все новости