Prompt injection как уязвимость AI-систем

Источник

Prompt injection как уязвимость AI-систем

Prompt injection — это техника манипулирования языковыми моделями через скрытые инструкции в контенте (например, белым текстом на белом фоне). Минимум 18 научных статей на arXiv использовали эту технику для получения позитивных отзывов от AI-ревьюеров. По аналогии с SQL Injection, эта атака эксплуатирует прямую связь между пользовательским вводом и LLM.

Связи


Источник: Telegram, 2025-07-09

Связанные заметки

Исследуйте больше связей

Эта заметка — часть сети из 2,369 взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.

Открыть граф знаний