Prompt injection как уязвимость AI-систем

Источник

Prompt injection как уязвимость AI-систем

Prompt injection — это техника манипулирования языковыми моделями через скрытые инструкции в контенте (например, белым текстом на белом фоне). Минимум 18 научных статей на arXiv использовали эту технику для получения позитивных отзывов от AI-ревьюеров. По аналогии с SQL Injection, эта атака эксплуатирует прямую связь между пользовательским вводом и LLM.

Связи


Источник: Telegram, 2025-07-09

Связанные заметки

Хотите глубже изучить ai и автоматизация?

AI Product Engineer

85% выпускников запустили AI-фичу в production

Узнать о курсе

Исследуйте больше связей

Эта заметка — часть сети из 2,400+ взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.

Открыть граф знаний