Главная OSINT Новости Signals
CYBER

Уязвимости в AI Amazon Bedrock, LangSmith и SGLang позволяют осуществлять эксфильтрацию данных и удаленное выполнение кода.

🕓 1 мин чтения

КРИТИЧЕСКАЯ УЯЗВИМОСТЬ В AMAZON: ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ СТАЛ ОРУЖИЕМ УТЕЧКИ ДАННЫХ

Эксперты по кибербезопасности обнародовали шокирующие детали нового метода, превращающего облачные AI-инструменты Amazon в орудие для скрытой утечки данных. Речь идет о фундаментальном изъяне, позволяющем злоумышленникам полностью обойти сетеую изоляцию.

Исследователи BeyondTrust раскрыли, что песочница Amazon Bedrock AgentCore Code Interpreter, предназначенная для безопасного исполнения кода AI-агентами, разрешает исходящие DNS-запросы. При CVSS-оценке 7.5, эта уязвимость 0-day уровня позволяет устанавливать каналы управления и выводить конфиденциальную информацию через DNS, несмотря на настройки "без доступа к сети". Уязвимость не получила идентификатора CVE, что усложняет ее отслеживание.

"Это демонстрирует, как разрешение DNS может подорвать гарантии сетевой изоляции песочниц", — заявил неназванный главный архитектор по безопасности. Злоумышленник, используя этот эксплойт, может установить обратную оболочку, похитить данные из S3-хранилищ AWS и выполнять произвольные команды, опрашивая C2-сервер через DNS-записи.

Каждый, кто использует или рассматривает управляемые AI-сервисы для работы с кодом, должен срочно пересмотреть конфигурации IAM-ролей. Простая ошибка в назначении привилегий превращает мощный инструмент в брешь для вредоносного ПО и шантажа через ransomware.

Ожидайте волну фишинговых атак, нацеленных на инженеров, работающих с этими платформами. Крипто-активы и безопасность блокчейн-проектов, интегрированных с облачными AI-сервисами, также могут оказаться под угрозой.

Когда песочница становится троянским конем, доверие к облачной безопасности рушится.

Telegram X LinkedIn
К новостям