Атака с масштабированием изображения позволяет скрыто внедрять подсказки в ИИ
Исследователи обнаружили атаку на масштабирование изображений, которая скрывает вредоносные команды в уменьшенных изображениях, позволяя проводить атаки по утечке данных. Эксплойт направлен на производственные системы ИИ — включая Google Gemini CLI, Vertex AI Studio, Gemini Web API, Google Assistant и Genspark — используя уязвимости распространённых алгоритмов масштабирования (ближайший сосед, билинейный и бикубический). Фингерпринтинг метода ресемплинга каждой системы позволил злоумышленникам внедрять скрытые команды, незаметные в исходном разрешении, вызывая несанкционированные действия, такие как выкачивание данных календаря пользователя через Zapier. Команда Trail of Bits представила Anamorpher — открытый инструмент для создания и визуализации таких атак с инъекцией команд против конкретных алгоритмов и реализаций. Для защиты от подобных атак разработчикам рекомендуется ограничивать размеры изображений, избегать автоматического уменьшения, включать превью преобразованных данных и требовать явного подтверждения при вызове чувствительных функций. Крайне важно применять надежные шаблоны безопасности ИИ для защиты от таких сложных мультимодальных инъекций.
Neutral
Эта уязвимость в первую очередь связана с безопасностью ИИ и не касается напрямую криптовалют или торговой деятельности. Аналогично прошлым инцидентам с внедрением команд в агентных инструментах программирования, таких как OpenAI Codex, эти атаки с масштабированием изображений используют несоответствия во входных данных модели, создавая риски для данных и управления, а не нарушая работу финансовых рынков. Трейдеры и биржи могут испытывать косвенные последствия, если торговые боты на основе ИИ полагаются на уязвимые системы, но непосредственное влияние на стабильность рынка и объемы торгов ничтожно. Поэтому данный случай классифицируется как нейтральный, поскольку прямого влияния на оценку криптовалют или рыночные настроения не наблюдается.