Prompt injection через GitHub Issues: урок безопасности
Prompt injection через GitHub Issues: урок безопасности
Полагаться только на промпты для безопасности недостаточно, что доказала реальная атака через GitHub Issues. Злоумышленник вставил инструкцию для AI-агента в текст issue, и агент выполнил её при чтении, что привело к утечке токенов. Многоуровневая система разрешений — единственный надёжный подход против подобных векторов атаки.
Источник: Workshop transcript, 2026-04-03
Связанные заметки
Чек-листы для проверки вайб-кодинга в организации
#ai#security#vibe-coding
Смещение узкого места от кодинга к продуктовой постановке
#theory-of-constraints#ai#product-management
Регуляторные силы в AI-автоматизации
#ai#automation#constraints
Атрибуты инструментов скрыты от модели
#ai#harness#constraints
Путь автоматизации: от изолированных задач к сложным
#automation#workflow#constraints
Подробный разбор
Законы системного мышления - подробный гайд с примерами →Хотите глубже изучить лидерство и команда?
AI Founder
Старт 17 января. Early Bird $400 до 31 декабря
Узнать о курсеИсследуйте больше связей
Эта заметка — часть сети из 2,400+ взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.
Открыть граф знаний