МОШЕННИКИ ОСВОИЛИ ИИ: ДИПФЕЙКИ, ПОДДЕЛЬНЫЕ ГОЛОСА И ИЗОБРАЖЕНИЯ
Чтобы  обмануть людей, теперь мошенникам не приходится ежедневно изворачиваться и демонстрировать актерские способности и таланты по подделке голоса. В современном мире и в эту сферу пришел искусственный интеллект. Какими цифровыми достижениями пользуются злоумышленники, чтобы организовать новые аферы в Казахстане?

Кибермошенники активно применяют новые технологии, используя ИИ, чтобы создать фальшивые голоса, фотографии, дипфейки и подобраться ближе к финансовым данным казахстанцев, а значит – к их деньгам.

Ввиду доступности инноваций мошенники стали чаще использовать дипфейки (deepfake), умело создавая реалистичные видеоизображения людей и накладывая на них сгенерированные голоса с помощью нейросетей, отметил директор Департамента по противодействию мошенничеству Halyk Bank Азамат Сыздыков.
Дипфейки (deepfake) – это изображения или видео, созданные искусственным интеллектом для создания максимально реалистичного контента.
Основные виды deepfake, которые используют мошенники:
  • Клонирование голоса (voice cloning, «vishing» – голосовой фишинг)

    Мошенники синтезируют голос человека и звонят или отправляют голосовое сообщение с экстренной просьбой перевести деньги, сообщить код и т.п. 
  • Видео-deepfake/поддельные видеозвонки

    Поддельные записи или даже «живые» deepfake-видео используются для убеждения при видеозвонке на службы поддержки, что перед ними реальный человек (например, для снятия ограничителей, разблокировки доступа). Отдельно фиксируются попытки подмены видеопотока прямо в устройстве в рамках онлайн-онбординга для получения банковских услуг.
  • Комбинированные атаки (audio + video + социнженерия)

    Мошенники объединяют deepfake-голос, поддельный видеопоток и реальные данные жертвы из соцсетей, чтобы повысить доверие – например, инсценировать «совещание» или «приказ» от руководителя. Такие сценарии привели к крупным попыткам хищения средств.
©1999-2025 СИ "Zakon.kz"