Главная OSINT Новости Signals
CRYPTO2026-03-01

Американские военные использовали Anthropic при ударе по Ирану, несмотря на запрет Трампа: WSJ

Сообщается, что американские военные использовали искусственный интеллект компании Anthropic для анализа данных и выбора целей при ударе по Ирану. Это произошло всего через несколько часов после того, как администрация Трампа издала приказ о запрете использования систем этой компании федеральными агентствами. Данный инцидент наглядно демонстрирует, насколько глубоко передовые ИИ-решения интегрированы в современные военные операции.

Изначально Anthropic получила многомиллионный контракт с Пентагоном. Её модель Claude AI была одобрена для работы с засекреченной информацией и интеграции в оперативные процессы через партнёрства с другими технологическими гигантами. Система применялась для анализа разведданных, моделирования сценариев и идентификации потенциальных целей.

Поводом для конфликта стал отказ генерального директора Anthropic предоставить военным неограниченный доступ к возможностям ИИ. Компания заявила о существовании этических границ, которые она не готова пересекать даже под угрозой потери государственных контрактов. Это привело к срыву переговоров и последующему запрету.

Вопросы кибербезопасности и безопасности блокчейна становятся критически важными на фоне подобных событий. Использование сложного ПО в военных целях повышает риски, связанные с уязвимостью систем. Злоумышленники могут искать 0-day уязвимости для создания целевого эксплойта. Это ставит под угрозу целостность данных и может привести к масштабной утечке данных.

Одновременно в цифровом пространстве продолжают действовать традиционные угрозы, такие как фишинг и вредоносное ПО. Особую опасность представляет ransomware, которое может парализовать работу критической инфраструктуры. В мире крипто эти риски также высоки, поскольку атаки на биржи и кошельки наносят значительный финансовый ущерб.

Пентагон уже начал поиск альтернативных поставщиков ИИ-решений. Эта ситуация подчёркивает сложный баланс между технологическим прогрессом, этическими нормами и национальной безопасностью. Будущее подобных контрактов остаётся под вопросом, поскольку доверие между сторонами оказалось подорвано.

Инцидент может иметь далеко идущие последствия для регулирования использования искусственного интеллекта в оборонном секторе. Он также служит напоминанием о необходимости выстраивания прозрачных и этичных рамок сотрудничества между технологическими компаниями и государственными структурами в эпоху цифровых конфликтов.

К новостям