CyberCube: преступники все чаще интересуются технологией дипфейк

Опубликовано: 11 Январь 2021

Artificial Intelligence

Научная фантастика становится реальностью. Аудио- и видеотехнологии дипфейк стремительно развиваются, и их используют преступники. (Фото: Герд Альтман, Pixabay)

На прошлой неделе кибераналитик из Сан-Франциско предупредил, что в ближайшие пару лет использование аудио- и видеотехнологий дипфейк (от английского deepfake – методика синтеза изображения, основанная на искусственном интеллекте) может стать серьезной киберугрозой для предприятий.

Технология дипфейк позволяет создать правдоподобный вымышленный видео- или аудиоконтент, который легко использовать с целью дезинформации. В основном на таких видео цифровые образы известных людей говорят или делают то, что эти люди на самом деле никогда не говорили и не делали.

В недавнем докладе «Социальная инженерия: стирая границы реальности» сотрудники компании CyberCube подчеркнули, что «появляется все больше возможностей создавать реалистичные аудио- и видеофейки с использованием искусственного интеллекта и машинного обучения».

Они напомнили, что технический прогресс и возросшая зависимость предприятий от видеосвязи повлияли на темпы развития этой технологии, и теперь преступники инвестируют в нее, чтобы в итоге воспользоваться ситуацией.

«Новые и развивающиеся методы социальной инженерии, такие как дипфейк-видео и аудио, коренным образом изменят ландшафт киберугроз. Постепенно эти методы становятся технически и экономически доступными для преступных организаций любого размера», — предупреждает Даррен Томсон, автор доклада CyberCube и глава отдела стратегии кибербезопасности.

Благодаря техническому прогрессу и тому, что пандемия COVID-19 спровоцировала более широкое использование технологий, сейчас в интернете публикуют все больше видео с предпринимателями и аудиозаписей их речи. Таким образом, по словам сотрудников CyberCube, у киберпреступников «появляется огромный запас данных для создания фотореалистичных имитаций. Преступники смогут использовать эти образы, чтобы оказывать воздействие на людей и манипулировать ими».

Сотрудники аналитической платформы также напомнили о технологии «топография рта», созданной Вашингтонским университетом: ее можно использовать для «точнейшей имитации движений рта человека во время речи».

«Представьте, что видео, на котором Илон Маск дает советы по торговле внутренней информацией, становится вирусным — только это не настоящий Илон Маск. Или политик объявляет о новом политическом курсе — только вот видео опять же ненастоящее», — поясняет Даррен Томсон из CyberCube.

По его словам, в политических кампаниях уже использовали видео, созданные на основе технологии дипфейк.

«Со временем преступники начнут применять те же методы против предприятий и обеспеченных частных лиц», — предупредил Томсон.

Он добавил, что махинации могут быть «очень простыми: например, фальшивое голосовое сообщение от руководителя, который просит сотрудников обработать мошеннический платеж или перевести средства на счет, созданный хакером».

Помимо дипфейк видео и аудио сотрудники CyberCube изучают «растущую популярность традиционных методов социальной инженерии, когда преступники используют человеческие слабости, чтобы получить доступ к личной информации и системам защиты».

«Один из аспектов — социальное профилирование. Это метод сбора информации, необходимой для создания фальшивой личности. В ход идут данные, доступные в интернете и на физических носителях, таких как выброшенные документы или украденные медкарты», — говорится в докладе.

Там же сказано, что «пандемия размыла границы домашних и корпоративных ИТ-систем, а онлайн-платформы используются все чаще, что упрощает манипуляции преступников».

Поэтому CyberCube предупреждает страховщиков, что бороться с развитием технологий дипфейк бесполезно, но отбор рисков будет приобретать все большее значение для киберстраховщиков.

«Нет универсального средства, которое поможет избежать потерь. Однако страховщики должны попытаться понять, как этот риск соотносится с принципами информационной безопасности», — сказал автор доклада Даррен Томсон.

По его словам, решением проблемы, по крайней мере на начальном этапе, может стать обучение и подготовка сотрудников к Deepfake-атакам.

В CyberCube подчеркнули, что технология Deepfake может привести к значительным убыткам, ведь ее можно использовать для дестабилизации политических систем или финансовых рынков.

По данным CyberCube, подобное уже произошло в 2019 году: «Используя программное обеспечение на основе искусственного интеллекта, киберпреступники сымитировали голос руководителя и незаконно потребовали перевести 243 тысячи долларов».