Попробовать бесплатно
    Информационная безопасность
    24.03.2025
    9 мин.

    Кибербезопасность и искусственный интеллект

    В этой статье мы расскажем о том, как связаны кибербезопасность и искусственный интеллект, какие опасности представляют ИИ-технологии для организаций и что нужно учитывать, внедряя ИИ-инструменты в системы защиты данных.

    Темы, затронутые в статье:

    1. Основные угрозы кибербезопасности, связанные с использованием технологий искусственного интеллекта

    2. Возможности ИИ для обеспечения кибербезопасности

    3. Ограничения и вызовы при использовании ИИ

    4. Как DLP-система Falcongaze SecureTower использует нейронные сети для защиты данных организаций?

    Определения и понятия, которые мы разберем в этой статье.

    Кибербезопасность — это состояние информационной системы, при котором  обеспечены целостность, конфиденциальность и доступность ее цифровых информационных активов: документов, файлов, систем и сервисов, персональных данных партнеров, сотрудников и клиентов, интернет-ресурсов и проч.

    Кибербезопасность - целостность, конфиденциальность и доступность

    Искусственный интеллект (далее — ИИ) — совокупность технологических решений, позволяющих машинам выполнять задачи, для которых обычно требуется человеческий интеллект. В частности, обучение, рассуждение и поиск оптимального решения проблем.

    Нейронные сети — математическая модель, воплощенная программно или технически. Воспроизводит принцип работы нейронных связей человека. Понятие не тождественно искусственному интеллекту и является его составляющей частью. Возможность обучаться — важнейшее преимущество нейросетей.

     Основные угрозы кибербезопасности, связанные с использованием технологий искусственного интеллекта

    Беспрецедентно быстрое развитие технологий ИИ существенно изменило многие стороны жизни современного человека, привнеся в нее удобство и открыв практически безграничные возможности для работы, обучения и творчества.

    Однако, по мере того как технологии ИИ усложнялись и при этом становились доступнее для широких масс, усложнялся и ландшафт киберугроз, как для каждого пользователя в отдельности, так и для целых организаций. Далее мы рассмотрим наиболее распространенные киберугрозы для организаций, связанные с искусственным интеллектом. 

    Вредоносное программное обеспечение на базе ИИ

    Сегодня технологии искусственного интеллекта используются для разработки сложных вредоносных программ, которые в свою очередь могут изучать особенности работы информационной системы организации и ловко обходить традиционные меры безопасности. Также киберпреступники могут использовать ИИ для автоматизации процессов поиска и выявления ИБ-уязвимостей и целевых атак.

    Тревожная тенденция заключается в возможности ИИ генерировать огромное количество вариантов вредоносного ПО и перегружать системы безопасности — и ИБ-специалистов в частности. При этом, искусственный интеллект как инструмент не требует глубоких знаний в области информационных технологий, что значительно снижает порог входа для киберпреступников — и это тоже будет способствовать увеличению числа угроз.

    Вредоносное ПО, созданное с помощью искусственного интеллекта, обладает рядом особенностей.

    1. Способность имитировать известные семейства вредоносных программ — и с очень высокой точностью. Подражание может ввести в заблуждение службы безопасности, затрудняя выявление угрозы.
    2. Полиморфизм. Вредоносное ПО на основе ИИ может автоматически изменять свой код при каждой репликации или заражении. Непрерывные «мутации» затрудняют распознавание и блокировку вредоносного ПО традиционными методами обнаружения на основе сигнатур.
    3. Адаптация в реальном времени. Вредоносное ПО на основе ИИ способно в реальном времени адаптировать свое поведение под условия среды.

    Еще одно важное обстоятельство, которое стоит учитывать при организации системы информационной безопасности, это относительная новизна атак с использованием ИИ. Согласно последним опросам, у большинства организаций все еще не разработаны планы реагирования на инциденты, связанные с кибербезопасностью и затрагивающие системы ИИ.

    Дипфейки

    Как показывает практика, даже самая устойчивая и надежная система информационной безопасности будет неэффективной, если сотрудники организации не осведомлены о правилах безопасного поведения в сети. 

    С развитием технологий искусственного интеллекта широкое распространение получили дипфейки — и их количество ежедневно растет. 

    Используя эту ИИ-технологию, киберпреступники могут создавать убедительные видео, изображения или записи голоса ключевых лиц.

    Угроза стала настолько очевидной, что в сентябре 2024 года в Госдуму РФ внесли законопроект об уголовной ответственности до шести лет лишения свободы за совершение преступлений с использованием дипфейков.

    Согласно данным Human Constanta, в период с 2019 по 2023 год число зафиксированных дипфейковых видео увеличилось на 550%. При этом важно понимать: масштабы атак с использованием дипфейков могут быть значительно шире указанной цифры, ведь далеко не каждый факт атаки реально зафиксировать.

    ДипфейкиЧто важно знать? Технология дипфейков может представлять угрозу для отдельных пользователей, для организаций и даже для национальной безопасности целых государств — особенно в условиях текущей геополитической ситуации. 

    Цели атак с использованием дипфейков могут быть разными: распространение дезинформации, шантаж, разжигание межнациональной розни, нагнетание паники среди общественных масс, создание компрометирующих изображений и видео, хищение конфиденциальных данных, выдача себя за высокопоставленное лицо с целью получения финансовой выгоды и проч.

    Обнаружение дипфейков сегодня — сложная задача. Алгоритмы ИИ постоянно улучшают способность генерировать высокореалистичный контент, что подчеркивает необходимость обучения сотрудников организаций способам распознавания подделок, а также внедрения программных средств для борьбы с поддельным контентом.

    Социальная инженерия

    Методы социальной инженерии уже давно используются преступниками, а с широким распространением ИИ-технологий кибермошенничество вышло на новый, беспрецедентно высокий уровень.

    Алгоритмы ИИ могут собирать и обрабатывать огромные объемы данных пользователей из социальных сетей, новостных ресурсов, персональных веб-сайтов и использовать полученную информацию для создания целевых фишинговых атак, то есть направленных на конкретного человека. 

    Процент успешности атак может быть очень высоким, поскольку ИИ может автоматизировать процесс создания убедительных сообщений, подкрепленных личной информацией о пользователях. При этом, чат-боты или голосовые помощники на базе ИИ могут выдавать себя за доверенных лиц или организации, что затрудняет жертвам выявление мошеннических действий.

    Следует учитывать и текущую ситуацию в России и в мире, связанную с утечками высокочувствительных персональных данных. Так, по оценкам «Сбера», в открытый доступ попали персональные данные 90% взрослых россиян. 

    Важно! Новые технологии опережают законодательство. Многих понятий, о которых мы говорили выше, нормативно еще не существует, поэтому наложение ответственности за правонарушения с их использованием может быть проблематично. 

    Учитывая обстоятельства, сегодня значительно проще и финансово выгоднее развернуть устойчивую и надежную систему информационной безопасности, чем столкнуться с нарушением, найти виновного, в судебном порядке доказать вину и взыскать компенсацию. 

     Возможности ИИ для обеспечения кибербезопасности

    Искусственный интеллект и нейросети в частности могут как представлять угрозу для информационной безопасности, так и быть эффективным инструментом защиты.

    В вопросах обеспечения кибербезопасности искусственный интеллект имеет ключевое преимущество над ИБ-специалистом — способность быстро обрабатывать огромные массивы данных, выявлять нарушения политик безопасности и устанавливать сложные закономерности, которые могут указывать на возможный инцидент, и мгновенно реагировать. Скорость реагирования на ИБ-инциденты имеет решающее значение.

    Важно понимать: сегодня ИИ не может полноценно заменить специалиста по обеспечению информационной безопасности. При этом применение технологий искусственного интеллекта и машинного обучения позволяет ИБ-специалисту действовать превентивно, устранять угрозы безопасности до момента их реализации. 

    Области применения ИИ для обеспечения кибербезопасности

    Сегодня искусственный интеллект используют для решения следующего круга задач:

    • анализа поведения пользователей, выявления подозрительной активности;
    • обнаружения вредоносной активности и различных аномалий в работе информационной системы;
    • управления доступом и аутентификацией пользователей;
    • автоматического реагирования на ИБ-инциденты;
    • выявления и предотвращения угроз информационной безопасности;
    • выявления и предотвращения утечек конфиденциальных данных;
    • мониторинга информационной системы на предмет ИБ-угроз.

    Продвинутые генеративные модели искусственного интеллекта могут решать более сложные задачи: 

    • анализ кода на уязвимости;
    • сбор и анализ данных об актуальных угрозах  в сфере информационной безопасности;
    • блокировка ботов, созданных для атак на веб-ресурсы и приложения, хищения чувствительной информации и проч.;
    • поиск и выявление взаимосвязей, например, распознавание фишинговых сообщений, сгенерированных с помощью ИИ.

    Список  процессов, которые можно автоматизировать с помощью ИИ, достаточно широк. При этом, внедряя ИИ-инструменты в систему информационной безопасности, чрезвычайно важно учитывать их уязвимости и потенциальные ограничения.

     Ограничения и вызовы при использовании ИИ в кибербезопасности

    Ограничения и вызовы при использовании ИИ в кибербезопасности


    ИИ-инструменты могут содержать собственные уязвимости

    Как правило, жизненный цикл инструментов ИИ состоит из 4 этапов: проектирование, разработка, развертывание, обслуживание. На каждом из этих этапов в них могут проникнуть критические уязвимости, которые впоследствии могут быть использованы киберкриминальным группами для обхода механизмов защиты и внедрения вредоносного ПО в информационную систему организации.

    Так, например, слабые или неправильно реализованные механизмы аутентификации и авторизации уже на этапах проектирования и разработки могут привести к утечкам информации и несанкционированным изменениям внутри системы.

    На этапе разработки злоумышленники могут использовать ошибки кодирования для выполнения произвольного кода, манипулирования моделями ИИ или получения несанкционированного доступа к системным ресурсам.

    Также поведение модели ИИ может быть преднамеренно или случайно изменено, что приведет к выполнению несанкционированных задач или генерированию неверных ответов. Потенциальные последствия многообразны: несанкционированный доступ, утечки информации, подрыв выходных данных.

    Немаловажно учитывать и вероятность небезопасной цепочки поставок. Это значит, что компоненты, приобретенные у внешних поставщиков для разработки ИИ-инструмента, также могут содержать уязвимости. Злоумышленники могут использовать их для внедрения в систему бэкдоров, вредоносного ПО или другого вредоносного кода.

    При внедрении ИИ-инструментов в систему обеспечения кибербезопасности важно учитывать, что список потенциальных уязвимостей обширен, что подтверждается количеством выявленных инцидентов.

    Так, например, в январе 2025 года стало известно, что разработчики китайского чат-бота с искусственным интеллектом DeepSeek оставили без  защиты одну из своих критически важных баз данных. Это привело к утечке более миллиона записей. В открытый доступ попали история переписок пользователей с нейросетью, секретные ключи и части API, данные бэкенда и другие конфиденциальные сведения.

    Месяцем ранее эксперты обнаружили уязвимость в ChatGPT — поисковый инструмент от компании OpenAI можно обмануть, также он может генерировать вредоносный код, если найдет соответствующую инструкцию на веб-сайте.

    В июне 2024 года, как утверждает журнал «Информационная безопасность», исследователи выявили серьезную уязвимость в открытой платформе ИИ Ollama. Уязвимость с идентификатором CVE-2024-37032, известная как Probllama, представляет угрозу — она может быть использована для удаленного выполнения кода.

    Проблемы безопасности конфиденциальности данных

    Исходя из информации, изложенной выше, атаки злоумышленников могут быть направлены не только на информационную систему, но и на сами ИИ-инструменты. При этом процесс обучения ИИ-моделей подразумевает сбор, хранение и обработку больших объемов данных разной степени чувствительности, в том числе информацию об ИТ-активах, бизнес-процессах, архитектуре информационной системы, данные для авторизации пользователей и проч.

    Все это увеличивает риски утечек, утраты конфиденциальности и злоупотребления данными.

    ИИ-инструменты сложно внедрять и настраивать

    Внедрение и настройка системы защиты данных с использованием технологий ИИ требует редких навыков на стыке кибербезопасности и программирования. Помимо этого, применении ИИ-моделей подразумевает длительный процесс обучения с учетом необходимости подстройки под бизнес-процессы, уникальные для каждой сферы деятельности.

    В качестве примера трудностей, с которыми можно столкнуться при внедрении ИИ-инструментов, можно привести настройку правил безопасности для программных комплексов, разработанных для автоматического мониторинга событий безопасности и анализа на предмет нарушений и подозрительной активности. Большое количество выявленных инцидентов указывает, что антивирусные политики настроены недостаточно хорошо. А большое количество ложных сработок говорит о том, что некорректно работают правила, определяющие подозрительную активность. И то, и другое — плохо.

    Фалконгейз СекьюртауэрВажно! Создание и настройка политик безопасности — это сложный процесс. Поэтому за каждым нашим клиентом мы закрепляем менеджера и технического специалиста — в том числе на этапе бесплатного тестирования DLP-системы Falcongaze SecureTower. Они обучат вас правилам работы с системой, помогут настроить политики безопасности под специфику деятельности вашей компании.

    Описанные выше факторы подчеркивают необходимость в высококвалифицированных кадрах — отсюда следующая проблема.

    На рынке труда наблюдается критическая нехватка высококвалифицированных ИБ-специалистов

    57% компаний испытывают нехватку навыков в области кибербезопасностиСегодня мы можем наблюдать значительное увеличение разрыва между количеством открытых вакансий по профилю кибербезопасность и реальным числом квалифицированных специалистов. Так, по данным explodingtopics.com, 57% компаний испытывают нехватку навыков в области кибербезопасности. Только в США  нехватка специалистов по профилю составляет 377 000 человек.

    Разрыв возник по многим причинам, например, из-за беспрецедентно быстрого развития технологий, стремительной цифровизации экономики и производств, массового перехода специалистов на удаленный формат работы. Всего за несколько лет предприятия оборудовали рабочие места персонала ноутбуками, планшетами, смартфонами; были подключены облачные приложения и многое другое — все это может стать точкой входа в информационную систему организации и поэтому нуждается в защите

    Стремительный прогресс наблюдается и в сфере киберкриминала. Кибератаки усложнились, их число и интенсивность выросли, также значительно увеличился ландшафт угроз информационной безопасности. Как уже говорилось выше, атаки на информационные системы производятся с использованием технологий искусственного интеллекта — и меры безопасности, принятые во многих компаниях, пока недостаточно устойчивы, чтобы противостоять деятельности киберкриминальных группировок.

    Нехватка высококвалифицированных специалистов в области кибербезопасности, а особенно в таком узком профиле, как внедрение ИИ-технологий и противодействие им, имеет далеко идущие последствия.

    Так, существенно пострадает малый бизнес. Небольшие организации не могут выделить большие бюджеты на организацию устойчивой системы защиты.

     Как DLP-система Falcongaze SecureTower использует нейронные сети для защиты данных организаций?

     

    Комментарий дает Владимир Кадыко,

    технический директор компании Falcongaze

     

    DLP-система Falcongaze SecureTower использует нейронные сети для ускорения и повышения качества обработки данных.

    Распознавание текста на изображениях. Система позволяет осуществлять анализ текста в документах графических форматов. При обнаружении таких данных система выполняет распознавание изображения и анализ текстовой составляющей, а затем применяет к распознанным данным политики безопасности. Система сможет распознавать документы с расширениями PDF, DJVU, JPEG, PNG, GIF, BMP, TIF. Причем нейронная сеть определит, на каких изображениях нет текста, и не будет тратить время на их обработку.

    Распознавание печатей. DLP-система SecureTower автоматически анализирует документы, циркулирующие внутри информационной сети, и проверяет их на предмет печатей. При выявлении документа с печатью система сравнит ее с эталонным образцом. При обнаружении совпадения — сработает в соответствии с настроенными политиками безопасности.

    Распознавание речи. Система SecureTower позволяет осуществлять анализ голосовых звонков, перехваченных в программах SIP-телефонии, конференцсвязи, мессенджерах (Microsoft Teams, Skype, Telegram, Viber и прочих). После перехвата вызовов система выполняет распознавание, анализ текстовой составляющей и применяет к перехваченным данным политики безопасности.

    Распознавание лиц на фотографиях с веб-камер. Система SecureTower автоматически устанавливает присутствие человека на снимках с веб-камеры и сравнивает с фотографиями в карточке пользователя. При обнаружении постороннего перед экраном система автоматически отправит уведомление офицеру безопасности и, если это было задано заранее, заблокирует сеанс пользователя.

    Опробуйте функционал DLP-системы бесплатно в течение 30 дней.

    В заключение

    Как видно, ИИ может решать довольно большой набор задач кибербезопасности — и в перспективе этот список будет только увеличиваться.

    При организации системы информационной безопасности важно закладывать экспоненциальный рост возможностей искусственного интеллекта и машинного обучения, а вместе с ним — рост числа угроз.

    Важные публикации

    DLP-система SecureTower

    • Защита от утечек данных по вине сотрудников
    • Контроль работы сотрудников на компьютерах
    • Выявление потенциально опасных сотрудников
    • Ведение архива бизнес-коммуникации