Новый отраслевой отчет раскрывает значительный и растущий кризис безопасности в эпоху искусственного интеллекта. Согласно *Исследованию AI и Adversarial Testing Benchmark Report 2026* от компании Pentera, большинство руководителей информационной безопасности (CISO) и высших руководителей пытаются защищать сложные системы ИИ с помощью инструментов, навыков и организационных структур, которые принципиально не приспособлены для этой задачи. Исследование, опросившее 300 американских CISOs, рисует тревожную картину повсеместных пробелов в видимости, децентрализованного управления и критической нехватки специализированных знаний, оставляющих корпоративную инфраструктуру ИИ уязвимой для новых угроз.
Суть проблемы заключается в повсеместном и интегрированном характере современного развертывания ИИ. Системы ИИ больше не являются изолированными экспериментами; они глубоко встроены и вплетены в ткань существующих корпоративных технологических стеков. От облачных платформ и систем управления идентификацией до ключевых бизнес-приложений и конвейеров данных, модели ИИ взаимодействуют с критической инфраструктурой способами, для мониторинга которых традиционные инструменты безопасности не были предназначены. Эта интеграция в сочетании с распределением ответственности между различными командами data science, разработки и ИТ привела к коллапсу эффективного централизованного контроля безопасности. Как следствие, 67% CISOs признали, что имеют ограниченную видимость того, как ИИ фактически используется в их организациях, причем никто не заявил о полной видимости. Большинство руководителей признают существование неуправляемого или "теневого" использования ИИ, создавая обширную и плохо изученную поверхность для атак.
Этот недостаток видимости напрямую приводит к неспособности управлять рисками. Команды безопасности изо всех сил пытаются ответить на фундаментальные вопросы, необходимые для моделирования угроз и защиты: какие идентификаторы и разрешения используют агенты ИИ? К каким конфиденциальным данным они могут получить доступ и эксфильтрировать? Как они ведут себя при сбое или обходе стандартных средств контроля безопасности? Без четких ответов организации не могут должным образом оценить уникальные риски, которые представляет ИИ, такие как автономное принятие решений с последствиями для безопасности, косвенные пути доступа, обходящие традиционный периметр, и привилегированное взаимодействие между системами, ускользающее от человеческого контроля.
Примечательно, что исследование указывает на то, что основным барьером для обеспечения безопасности ИИ являются не финансы. Только 17% CISOs назвали бюджетные ограничения главной проблемой, что говорит о готовности инвестировать. Истинные препятствия — это серьезный разрыв в навыках и технологическое отставание. Специалистам по безопасности не хватает специальных знаний для оценки специфических рисков ИИ — таких как отравление данных, кража моделей или атаки соперника — в реальных условиях. Более того, они полагаются на устаревшие средства контроля безопасности, которые не могут интерпретировать новое поведение и потоки данных систем ИИ. Пока организации не преодолеют этот разрыв в экспертизе и не внедрят или разработают инструменты, созданные для эпохи ИИ, их передовые развертывания ИИ будут по-прежнему защищены вчерашними средствами обороны, что по своей сути является рискованной практикой.



