Главная OSINT Новости Signals
CYBER2026-02-26

Anthropic и OpenAI смягчают требования безопасности в условиях ускоряющейся гонки ИИ — Cyber News

В погоне за лидерством: ведущие разработчики ИИ смягчают подход к безопасности

В условиях беспрецедентной гонки на рынке искусственного интеллекта такие гиганты, как Anthropic и OpenAI, начинают пересматривать свои внутренние политики безопасности. Согласно данным инсайдеров и анализу документации, компании постепенно ослабляют формулировки, касающиеся потенциальных рисков и этических ограничений в разработке. Эксперты в области кибербезопасности бьют тревогу, предупреждая, что ослабление "защитных механизмов" ИИ может открыть новые векторы для атак.

Основная опасность, по мнению аналитиков, заключается в создании более совершенных инструментов для социальной инженерии. Будущие ИИ-модели, лишенные строгих этических барьеров, могут стать идеальным генератором фишинговых кампаний. Такие системы смогут создавать персонализированные, неотличимые от реальных сообщения, что многократно повысит эффективность атак на сотрудников компаний.

Ещё один критический риск связан с автоматизацией создания вредоносного ПО и поиска уязвимостей. ИИ, не ограниченный соображениями безопасности, может быть использован для разработки сложных эксплойтов и новых видов ransomware. Злоумышленники получат в свои руки инструмент, способный находить и использовать уязвимости в программном обеспечении быстрее, чем специалисты по безопасности успеют их устранить.

Особую озабоченность вызывает сфера криптоактивов и блокчейн-технологий. Умные контракты и децентрализованные финансы (DeFi) уже являются лакомой целью для хакеров. ИИ следующего поколения может научиться находить сложнейшие логические уязвимости в смарт-контрактах, приводящие к масштабным утечкам данных и финансовым потерям. Автоматизированные атаки на криптобиржи и кошельки могут стать нормой.

Текущая ситуация напоминает классическую дилемму между инновациями и безопасностью. Компании, стремясь быстрее выпустить продукт на рынок, сознательно идут на смягчение внутренних регламентов. Однако эта краткосрочная выгода может обернуться долгосрочными системными угрозами для всей цифровой экосистемы. Гонка вооружений между ИИ-разработчиками и киберпреступниками рискует перейти на качественно новый, более опасный уровень.

Регуляторы по всему миру пока не успевают за стремительным развитием технологий. Отсутствие единых международных стандартов безопасности для продвинутого ИИ создаёт правовой вакуум. Специалисты призывают к срочному формированию межотраслевых рабочих групп, куда войдут не только технологические компании, но и эксперты по кибербезопасности, чтобы выработать превентивные меры до того, как потенциальные угрозы станут реальностью.

Будущее цифровой безопасности во многом теперь зависит от того, смогут ли технологические лидеры найти баланс между конкурентной борьбой и коллективной ответственностью. Ослабление внутренних этических стандартов в погоне за прибылью может в конечном итоге подорвать доверие ко всей отрасли и привести к катастрофическим последствиям для глобальной инфраструктуры.

К новостям