

Корпоративная безопасность в эпоху генеративного ИИ: трезвый взгляд на риски
План статьи
В 2025 году доля предприятий, регулярно использующих ИИ-инструменты, выросла до 71%. С конца 2024 года и мы наблюдаем рост интереса к использованию ИИ-помощников среди наших клиентов.
И здесь есть свои риски. Далее мы рассмотрим, почему компаниям стоит быть осторожными при использовании нейросетей в бизнес-процессах и почему каждая организация должна взять этот вопрос на контроль.

Разрыв между распространением ИИ-технологий и мерами защиты продолжает увеличиваться
Как показал прошедший год, темпы внедрения ИИ в бизнес-процессы сильно опережают развитие инструментов защиты. При этом многие организации стараются внедрить нейросети как можно скорее. Такая мотивация понятна — руководители хотят оптимизировать процессы, сократить издержки, ускорить принятие решений и даже компенсировать нехватку персонала.
ИИ-ассистенты, чат-боты и браузерные плагины упрощают анализ больших объемов информации и поиск ошибок, но вместе с тем увеличивают риск утечек и компрометации данных.
Почему случаются утечки через ИИ-инструменты?
Несмотря на многочисленные новости об утечках на крупных ИИ-сервисах, не все пользователи осознают, что окно чат-бота — прямой канал передачи данных на серверы стороннего разработчика. И копируют туда фрагменты конфиденциальной информации: финансовые отчеты, документы внутреннего пользования, персональные данные, код разрабатываемых приложений, маркетинговые стратегии — почти треть данных, отправляемых в чат-боты, были конфиденциальными.
Классическим примером здесь остается инцидент с Samsung, когда попытка «причесать» программный код и протоколирование совещаний привели к утечке закрытых данных в общую базу обучения GenAI.
В 2026 году компании будут сталкиваться с такими инцидентами еще чаще. Теперь данные утекают не только через прямые запросы на официальных страницах, но и через плагины в браузерах, встроенных ИИ-ассистентов и ботов в мессенджерах, которые сотрудники устанавливают без ведома ИТ-служб и авторизуются через личные учетные записи.
Использование личных аккаунтов — это проблема
В отчете, опубликованном Cyberhaven в мае, было выявлено, что подавляющее большинство случаев использования ИИ на рабочем месте происходило через личные учетные записи, а не через корпоративные (например, 73,8% для ChatGPT и 94,4% для Google Gemini). Это явление получило название «Теневой ИИ».
Важно понимать: окно чат-бота с личного аккаунта — это неочевидный канал утечки данных. Пользователь загружает данные в офисе и, авторизовавшись дома, копирует их на личное устройство.
Также следует обратить внимание на практику бесплатного использования ИИ-инструментов. Пользователи не всегда учитывают, что при бесплатном доступе платой становятся загружаемые данные. В большинстве случаев эти данные используются для обучения моделей и повышения качества предоставляемых сервисов. Удалить данные из генеративной модели очень и очень непросто.
Даже самая устойчивая система защиты данных бессильна, если сотрудники своими руками передают конфиденциальные данные во внешние сервисы.
Внедрение ИИ-функционала требует осторожности
Приставка «AI-» или «Нейро-» рядом с логотипом компании или продукта — это отличный маркетинг, и он работает. При этом поспешное внедрение AI-функционала без продолжительного тестирования, поиска и устранения уязвимостей может привести к серьезным инцидентам.
Как пример можно вспомнить взлом системы подбора персонала McDonald's. В центре внимания Olivia — ИИ-платформа, разработанная Paradox.ai для McDonald's. Возмутительно, но это факт: Olivia позволяла входить в систему с использованием стандартного имени пользователя и пароля — «123456» — и при этом многофакторная аутентификация не была включена. В результате инцидента было скомпрометировано 64 миллиона записей о сотрудниках и соискателях.
Ключевой вывод: ИИ-решения от внешних поставщиков могут стать каналом утечки данных из вашей компании.
Отсутствие базовой кибергигиены при злоупотреблении ИИ-инструментами создает новые риски
На фоне роста доверия к ИИ-инструментам злоумышленники адаптируют свои методы для получения доступа к данным.
Фишинговые страницы мимикрируют под официальные сервисы. Создаются клоны известных интерфейсов, которые требуют авторизации через корпоративную почту. Результат — ваши учетные данные и загруженные документы моментально улетают авторам фишинговой схемы.
Некоторые страницы в сети могут содержать «вредоносные инъекции». Злоумышленники встраивают скрытые команды в код веб-страниц, например, белым шрифтом на белом фоне. Когда ваш сотрудник просит ИИ проанализировать такой сайт, нейросеть может выполнить скрытую инструкцию: например, переслать данные текущей сессии на сторонний сервер.
Стратегия защиты: от запретов к осторожности
Полный запрет ИИ-инструментов в условиях, когда они уже активно применяются конкурентами, фактически означает осознанный выход из конкурентной гонки. Для снижения рисков утечки данных можно реализовать следующие меры.
- 1. Используйте локальные ИИ-модели
Предпочтение следует отдавать ИИ-моделям, развернутым внутри периметра организации и не требующим доступа к интернету. Такой подход позволяет сохранить контроль над обрабатываемыми данными.
При внедрении ИИ-функционала для анализа данных в SecureTower мы предусмотрели возможность использования как облачных, так и локальных моделей — в зависимости от характера данных и требований безопасности организации.
- 2. Обучайте персонал основам безопасного использования ИИ-инструментов
Обучайте сотрудников работе с ИИ-инструментами. Расскажите, какие данные допустимо загружать в окно чат-бота, какие нет. Какие платформы безопасны, от каких лучше воздержаться. Объясняйте даже очевидные вещи — тонкости использования генеративных моделей часто остаются непонятными для тех, кто не связан с ИТ.
- 3. Запрещайте использовать личные учетные записи и несанкционированные ИИ-инструменты
Важно под подпись проинформировать сотрудников о недопустимости использования личных аккаунтов на оборудовании работодателя, а также запретить устанавливать ИИ-инструменты и расширения без согласования с подразделением информационной безопасности.
- 4. Покупайте лицензии проверенных сервисов
Корпоративные лицензии ИИ-сервисов контрактно гарантируют, что загруженные данные не будут использоваться для обучения общих моделей и не покинут установленный контур безопасности.
- 5. Контролируйте персонал и мониторьте использование ИИ-инструментов
Обучение персонала бессмысленно, если сотрудники не придерживаются принятых политик безопасности. Необходимо непрерывно мониторить запускаемые приложения, используемые сервисы и характер передаваемой в ИИ-инструменты информации.
Строгий контроль в данном случае не является вопросом доверия к команде — это рациональная мера управления рисками. В организацию постоянно приходят новые сотрудники, которые могут не знать действующие политики безопасности и ориентироваться на практики предыдущих мест работы. Кроме того, нельзя списывать со счетов пресловутый человеческий фактор — люди ошибаются, забывают, по незнанию устанавливают опасные расширения.
Как DLP-система SecureTower помогает предотвращать утечки от использования ИИ-инструментов?
Мониторьте использование ИИ-инструментов и устанавливаемые приложения
Руководство компании может лояльно относиться к использованию нейросетей в бизнес-процессах, может и запрещать. Но вот знать о том, какие ИИ-инструменты используются на рабочих станциях сотрудников, знать необходимо в обоих случаях.
SecureTower позволяет отслеживать браузер-активность пользователей, в том числе посещение официальных страниц ИИ-платформ. Кроме того, в модуле Активность пользователей можно установить, общался ли пользователь с чат-ботами в мессенджерах.
Блокируйте копирование фрагментов конфиденциальной информации из буфера обмена
DLP SecureTower контролирует движение данных внутри информационной системы, в том числе перехватывает информацию, которую пользователь копирует в буфер обмена. При необходимости вы можете настроить блокировку копирования фрагментов конфиденциальных документов из буфера обмена. Просто — но очень эффективно.
Важно! Система заблокирует операцию даже при отсутствии подключения к сети.

Запретите отправлять файлы в наиболее популярные AI-сервисы, если это необходимо
В некоторых организациях риски утечки данных могут быть особенно критичны — проще полностью ограничить возможность отправки любых файлов в окна чат-ботов. В версии SecureTower Neon предустановлен набор правил блокировки отправки файлов в наиболее популярные AI-сервисы.

Заключение
В идеальном мире средства защиты развиваются параллельно с инновациями, в реальности — значительно отстают. При этом изоляция от ИИ лишает бизнес преимуществ.
Часто задаваемые вопросы
- Что такое «Теневой ИИ» в компании?
Теневой ИИ (Shadow AI) — это использование сотрудниками инструментов искусственного интеллекта (чат-ботов, плагинов, генераторов) без ведома и разрешения IT-отдела или службы безопасности, часто через личные учетные записи, что создает высокие риски утечки данных.
- Почему нельзя использовать бесплатные версии ИИ для работы?
В бесплатных версиях популярных нейросетей данные, которые вы загружаете, часто становятся «платой» за использование. Они сохраняются на серверах разработчика и используются для дообучения глобальных моделей, что может привести к их появлению в публичном доступе.
- Как DLP-система помогает контролировать использование нейросетей?
DLP-системы, такие как SecureTower, мониторят активность сотрудников в браузере и мессенджерах, блокируют отправку файлов в облачные сервисы ИИ и могут запрещать копирование конфиденциальных данных в буфер обмена для вставки в чат-боты.
- Что такое вредоносные инъекции в ИИ (prompt injection)?
Это метод атаки, когда злоумышленники скрывают в веб-страницах невидимые команды (например, белым текстом). Когда сотрудник просит ИИ проанализировать такую страницу, нейросеть выполняет скрытую команду — например, отправляет данные сессии хакерам.
- Можно ли полностью запретить ИИ в компании?
Запретить можно, но это снизит конкурентоспособность бизнеса. Более эффективной стратегией является контролируемое использование: внедрение локальных моделей внутри периметра компании и строгий мониторинг передачи данных.



