Использование ИИ в сетевых технологиях
В современном цифровом мире все большую популярность набирают технологии ИИ. Проникая все глубже и глубже, системы ИИ затронули и такой важный в цифровом мире аспект, как информационная безопасность и защита данных, причем практически одновременно с двух сторон: «светлые» силы используют технологии ИИ для сканирования обнаруженных зловредных программ, для выявления новых уязвимостей и методов их перекрытия, а также противостояния различным сетевым угрозам. «Темные» силы, в свою очередь, используют ИИ для создания новых угроз, выявления методов проникновения в пользовательские системы, а также для углубленного применения техник социальной инженерии.
Давайте начнем с популярного – все чаще в Сети появляются различные сообщения о том, что злоумышленники вовсю используют нейросети для своих темных делишек. Например, генерируют с их помощью видеоролики, на которых крупные бизнесмены или известные личности завлекают наивных людей в финансовые пирамиды, подделывают голоса людей для обмана их окружения, а также позволяют монтировать достаточно реалистичные фото и видеоматериалы, которые можно впоследствии использовать для шантажа.
К примеру, буквально во время написания этой книги на страницах одной социальной сети мне попалось видео, на котором известный инвестиционный магнат рассказывал, как он любит свой народ и готов практически безвозмездно одарить всех любыми суммами денег, главное – войти в его инвестиционный проект, вложиться – и получишь просто баснословные прибыли. Лично мне, человеку, привыкшему к любой рекламе относиться критически и со значительной долей скепсиса, практически сразу пришла в голову мысль – а ему-то это зачем? Если он считает, что денег у него слишком много, почему не пожертвует кому-то адресно? Зачем устраивать непонятно что, чтобы раздать накопленное? Тогда я стал «копать» – как оказалось, никогда такой проект не существовал под эгидой выступавшего на видео товарища, а при ближайшем рассмотрении выяснилось, что видео сгенерировано при помощи нейросети.
Также в Сети есть множество подтверждений того, что злоумышленники могут использовать ваши же голосовые сообщения, «кружочки» из одного популярного мессенджера и прочие медиафайлы для создания «нужных» медиаданных. Есть случаи, когда мошенники обучали нейросети создавать голосовые сообщения нужным голосом – загружали в ее память десятки аудиодорожек с голосом будущей жертвы, после чего писали необходимый текст и запускали его в Сеть. К примеру, в том самом пресловутом мессенджере с «кружочками» в свое время прокатилась полноценная операция «армии клонов», в ходе которой мошенники подделанным при помощи нейросети голосом обычных людей обращались к списку контактов выбранного пользователя и просили дать в долг некоторую сумму, переведя на определенную карту. Чаще всего использовалась фраза типа: «Я тут задолжал, не можешь перезанять мне ХХХХ денег? Я тебе попозже скину обратно». В итоге пользователи искренне верили, что общаются с человеком, голос которого звучал в записи, и переводили суммы на указанный счет. После чего чат зачищался «на всякий случай», а обладатель голоса оставался в долгах как в шелках. Причем даже не взяв ни копейки из этих денег…
Используется ИИ и в промышленных масштабах – к примеру, основанные на ИИ технологии используются для сканирования и выделения базовых параметров потоков веб-трафика приложений и определенных страниц, а следовательно, и выявления и оповещения о любых аномалиях трафика, прямо говорящих о случаях применения DoS-атак, различных попытках взлома и даже о применении ботов для проведения определенных манипуляций с сетевой инфраструктурой предполагаемой жертвы.