Применяют ИИ и в современных версиях антивирусных систем – не только для выявления соответствующих вирусным угрозам аномалий, но и для того чтобы находить похожие сигнатуры даже для не выявленных ранее угроз. К примеру, некий злоумышленник написал вирус, который внедряется в компьютер при помощи одной из редких уязвимостей, а после установки начинает «сливать» данные об учетных записях пользователя. Производители антивирусного ПО рано или поздно заметят этот вирус, исследуют его и выпустят соответствующие обновления баз сигнатур. Но и автор вируса, не будь дураком, будет выпускать его новые версии. Или еще хуже, «обрастет» подражателями, которые будут делать примерно такие же вирусы. ИИ могут выявлять похожие сигнатуры не методом эвристики (предполагающим довольно заметный процент ложных срабатываний), а методом изучения поведенческих факторов вируса в системе – где располагается, как себя ведет, какие процессы задействует. На основании этих данных ИИ позволяет выявлять различные вирусы с большей точностью в сжатые сроки, практически избегая ложных срабатываний на схожие угрозы.

Существуют модели ИИ, которые предназначены для замены целого штата специалистов по кибербезопасности – их используют для комплексного тестирования заданной инфраструктуры, что позволяет выявить малейшие уязвимости Сети или программного обеспечения. Таким образом, выявление и устранение различных слабых мест заданной системы будет проходить быстрее, а следовательно, общий уровень защищенности будет расти в арифметической прогрессии.

К сожалению, ИИ не выбирают, к какой стороне примкнуть – к темной или светлой. Созданные, чтобы служить человеку, они должны лишь успешно выполнять возложенные задачи, без разделения на плохое и хорошее. Именно этой особенностью систем искусственного интеллекта пользуются различные киберпреступники – с помощью ИИ они выявляют новые уязвимости, пишут вирусы, которые не подконтрольны ни одному антивирусу, даже проводят целые атаки ботнет-устройств. При этом они умеют имитировать действия человека в Сети, склонны к самообучению (в определенных рамках, разумеется), что дает им возможность слияния с легальным трафиком или поведением человека в среде операционной системы.

Не так давно один программист устроил довольно курьезную ситуацию на рабочем месте. Он написал простенькую нейросеть (это, кстати, доступно почти каждому), обучил ее и оставлял ее «работать» на его компьютере в конторе, а сам тем временем бродил по помещениям, гонял чаи и всячески саботировал возложенные на него рабочие задачи. Выяснить это помогли системы видеонаблюдения, а также установленные тайком программы для контроля рабочего времени сотрудников. Они зафиксировали и запуск обманки, которая весьма эффективно изображала действия человека – писала какой-то код, запускала программу проверки, переписывала, вносила правки и вновь проверяла, и так по кругу. А помогла банальная случайность и внимательность сотрудника отдела информационных технологий. Он заметил, что на скриншотах с компьютера нерадивого работника вот уже несколько дней появляется очень странный программный код, а действия по устранению ошибки плохо связаны с тем, что есть в коде. Понаблюдав еще несколько дней, он понял: что-то тут нечисто. И затребовал разрешения руководства проверить компьютер хитрого программиста. Там он и обнаружил написанную сотрудником простенькую нейросеть, имитирующую его действия.

ИИ-системы опасны и для простых людей – мало того, что они могут имитировать поведение любого из нас в Сети, так еще и несут сразу две угрозы: