Технология deepfake: насколько реальна угроза финансовым системам?

17.01.2022 в 13:23 | Алена Дегрик Шевцова, «Facenews»

Технологии развиваются, делая жизнь людей проще и комфортнее, но вместе с тем развиваются и способы обмана. Прогресс в сфере искусственного интеллекта позволяет использовать алгоритмы для новых форм мошенничества.

Сейчас с помощью сервисов и приложений можно заменить лицо киноактера в отрезке видео своим или даже оживить фотографию, сделав ее анимированной. Это общедоступные технологии для развлечения, но есть и другая сторона медали, пишет Алена Дегрик Шевцова для investgazeta. Создание поддельных фото-, аудио- и даже видеоматериалов, неотличимых от оригинальных в совокупности с неограниченными возможностями СМИ вызывают опасения. Одновременно с этим существует угроза влияния на финансовые системы с помощью новых технологий deepfake.

Deepfake (дипфейк) — это технология, в основе которой лежат искусственный интеллект и машинное обучение. Она использует найденные изображения, аудио- и видеофайлы для создания схожего визуального и голосового изображения человека. Главная персона в дипфейк-видео может говорить и действовать, выдавая себя за другого человека. Такие видео становятся более реалистичными с каждым годом. Например, в социальных сетях стал популярен аккаунт, где дипфейк Тома Круза играет в гольф и показывает фокусы. После того как видео стало вирусным, оно привлекло широкое внимание к технологии, но также сделало акценты на возможные проблемы, связанные с фальсификацией личности. Сильная сторона технологий на основе искусственного интеллекта в том, что со временем они собирают все больше данных и становятся умнее. Стоит вспомнить, как в 2019 году киберпреступники смогли подделать голос генерального директора британской энергетической компании и похитить €220 000.

Существует множество сценариев применения дипфейк технологий — от кибервымогательства до подделки правительственных заявлений. Но есть и способы, которые могут нанести вред финансовым системам. Среди наиболее распространенных — вход в личные учетные записи на финансовых онлайн-сервисах, банковских аккаунтах, оформление кредитов с помощью идентификации с технологией замены лица и голоса в реальном времени. С распространением и улучшением искусственного интеллекта, такой способ становится более доступным для мошеннических действий в финансовых учреждениях.

Мошенничество с новыми учетными записями. Обычно такой вид махинации доступен в приложениях. Существует возможность использовать украденные удостоверения личности для открытия новых банковских счетов с помощью дипфейков и обхода технологий идентификации. Если злоумышленники получат возможность создавать поддельные удостоверения личности — такая атака может стать глобальной проблемой для финансовых сервисов.

Мошенничество с помощью искусственной идентификации. Как правило, этот способ крайне сложно обнаружить, поскольку вместо кражи или подделки личности, злоумышленники объединяют реальную и поддельную информацию для “создания” полностью нового человека. После этого можно, аналогично с предыдущим методом, создавать учетные записи в финансовых учреждениях и получать деньги благодаря открытию кредитных линий.

Технология deepfake помогает обойти систему безопасности при идентификации личности. Именно поэтому сейчас многие банковские сервисы используют многоуровневую защиту, где недостаточно только биометрических данных. Некоторые сервисы определяют “подвижность” человека: вас просят повертеть головой или сделать простые жесты. Пример использования такой технологии — украинский сервис для самоизолированных людей “Вдома”.

Технологии искусственного интеллекта — оружие для мошенников, специализирующихся на финансовых преступлениях. Однако это не означает, что махинации стали легкой наживой для злоумышленников. Технология дипфейк основывается на системе генеративно-состязательных сетей или GAN (Generative Adversarial Network), где одна нейросеть генерирует подделки, а вторая учится их распознавать. Поэтому решение проблемы сокрыто в ее создании, как бы парадоксально это не было. Управление перспективных исследовательских проектов Министерства обороны США (DARPA) уже создает новые способы противодействовать дипфейкам, поэтому подготовило две программы для их обнаружения. Они находят несоответствия в изображениях людей и анализируют контент на предмет цифровой, физической и семантической целостности. Подделку может выдать различие парных украшений, нехарактерные черты лица или даже фон. Такие детали сложно заметить с помощью анализа, проводимого человеком.

Deepfake-технологии развиваются и в Украине, ведь именно украинские стартаперы создали одно из самых популярных приложений для замены лица. Однако про массовые угрозы для финансовых сервисов говорить пока рано, ведь если на западе технологии с биометрической идентификацией широко распространены, то к нам эта тенденция только приходит.

Читайте FaceNews в Google Новости

Популярные видео на YouTUBE

Інвестор звинуватив Kernel у «недружніх» діях проти міноритаріїв і заявив про позови в Люксембурзі
«Хрещений батько на “удальонці”»: УП оприлюднила розслідування про пересування й контакти Андрія Єрмака
Утеплення будинків на Дарниці за 250 млн грн: журналісти заявляють про можливі переплати і незавершені роботи
SpaceX заблокувала використання Starlink російськими військами: Україна повертає технологічну перевагу
Файли Епштейна спровокували політичну кризу на Заході: суспільство вимагає повного розкриття імен і відповідальності
У Міністерстві оборони виявили ризик масштабного дефіциту дронів через провалені закупівлі попереднього керівництва
Після призначення Кирила Буданова в Офісі президента змінився стиль роботи — Железняк
Зеленський заявив, що розглядає можливість балотування на другий термін після завершення війни
Все видео

Лента новостей

Зупинилася Бурштинська ТЕС, яка забезпечує світлом 3 мільйони користувачів
🕑 2 години 5 хвилин тому
Генерал ГРУ Алексєєв вижив після замаху: він у штучній комі, двох підозрюваних затримали у Дубаї
🕑 2 години 21 хвилину тому
Україна дізналася про економічний проєкт Росії та США на 12 трлн доларів
🕑 2 години 49 хвилин тому
Ракет Х-55 та Х-101 поменшає: дрони атакували Редкінський дослідний хімзавод поблизу Твері (відео)
🕑 3 години 56 хвилин тому
40000 кв. м у вогні: російський обстріл знищив склади "Рошен" у Яготині, з’явились відео
🕑 4 години 59 хвилин тому
Пекельні наслідки масованої атаки по Україні: куди влучили ворожі дрони та ракети (фото)
🕑 5 годин 12 хвилин тому
Трамп вимагає нове енергетичне перемир'я, РФ тут же вдарила по найбільшій електропідстанції в Європі
🕑 5 годин 37 хвилин тому
Росіяни влучили у Бурштинську та Добротвірську ТЕС, "Укренерго" просить аварійної допомоги у Польщі
🕑 6 годин 4 хвилини тому
14 підпалів і двоє загиблих: чому серійний палій у Дніпрі досі на волі
🕑 8 годин 7 хвилин тому
Ексвійськові з досвідом БПЛА з України знаходять роботу за кордоном
🕑 19 годин 4 хвилини тому
Загроза вильоту стратегічної авіації цієї ночі: є бойова активність ТУшок, повертаються морози до −25°
🕑 21 годину 59 хвилин тому
У Пакистані стався найсмертоносніший теракт за понад 10 років: подробиці та фото
🕑 22 години 30 хвилин тому
США закликали американців терміново тікати з Ірану, формують резервний уряд, напоготові 450 Tomahawk
🕑 23 години 28 хвилин тому
Військовий, який підірвався в Одесі в авто, міг працювати на ФСБ: нові подробиці та відео
🕑 вчора
Шлюбу з 14 років в Україні не буде: скандальний законопроект вирішили змінити
🕑 вчора
Все новости