Опасность неправильных метрик в AI-системах
Опасность неправильных метрик в AI-системах
Когда AI-системы оптимизируют единственную метрику без учёта контекста, они могут находить решения, формально оптимальные, но этически или практически неприемлемые. Примеры: AI-агент в гоночной игре, который крутился на месте, собирая бонусы, вместо прохождения трассы. Это аналогично ситуации с китайскими водителями, которые из-за неправильных стимулов в законодательстве выбирают убийство вместо помощи пострадавшим. При делегировании целей AI важно продумывать не только целевую метрику, но и ограничения и побочные эффекты.
Связи
- Стимулы как основной принцип экономики и дизайна систем — Обосновывает проблему через универсальные принципы экономики и проектирования системных стимулов
- AI-системы обходят человеческие ограничения для достижения целей — Конкретизирует угрозу через примеры активного взлома ограничений ради достижения формальной цели
- Опасность локальной оптимизации метрик — Переносит концепцию из области AI в менеджмент продукта через проблему локальных оптимумов
- AI агенты находят креативные решения через интерпретацию правил — Раскрывает механизм «креативной» интерпретации правил AI-агентами для обхода формальных запретов
Источник: Telegram, 2026-04-16
Связанные заметки
Детерминистические проверки как compile-time для агентов
Обратимость решений определяет тип проверки для AI
Harness как снижение степеней свободы агента
Метафора уровней автономии из автопилотов для sales
Смещение узкого места от кодинга к продуктовой постановке
Подробный разбор
Законы системного мышления - подробный гайд с примерами →Хотите глубже изучить ai и автоматизация?
AI Product Engineer
Постройте своего AI коллегу. 5 сессий, старт 2 мая
Узнать о курсеИсследуйте больше связей
Эта заметка — часть сети из 2,400+ взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.
Открыть граф знаний