Методы снижения подхалимства LLM
Методы снижения подхалимства LLM
Существует несколько техник борьбы с тенденцией LLM соглашаться с пользователем. Добавление предупреждения о потенциально вводящих в заблуждение предпосылках в конце промпта помогает модели критичнее относиться к вопросу. Few-shot learning с примерами верных и неверных утверждений учит модель различать факты от предположений. Grounding через подключение актуальной информации из интернета позволяет модели опираться на проверенные данные вместо угадывания желаемого ответа.
Связи
- Различие между симптомом и корневой проблемой в автоматизации — Оба о выявлении истинной проблемы вместо работы с поверхностными проявлениями
- Внутренняя мотивация как источник энергии для долгой игры — Grounding LLM через факты аналогично внутренней мотивации через истинные ценности
- Инерция мышления против новых возможностей — Подхалимство LLM как инерция соглашаться, требует преодоления устоявшегося паттерна
- Функциональная зашоренность блокирует возможности — Few-shot обучение учит видеть нюансы вместо автоматического следования паттерну
Источник: Telegram, 2024-08-02
Связанные заметки
Управление ограничениями при работе с AI-инструментами
#AI#constraints#tools
Google Flow для управления видео через аннотации
#AI#tools#workflow
Четырёхшаговый процесс планирования с AI
#AI#productivity#workflow
Создание кастомных ChatGPT приложений даёт полный контроль
#AI#tools#development
HeyGen запустил видео-агента с итеративной доработкой
#AI#automation#video
Исследуйте больше связей
Эта заметка — часть сети из 2,369 взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.
Открыть граф знаний