Костыли для компенсации отсутствия памяти у LLM
Костыли для компенсации отсутствия памяти у LLM
Для работы с LLM приходится создавать обходные решения: специальные файлы типа CLOD MD для напоминания контекста, комбинации промптов с детерминированными скриптами. Эти костыли компенсируют неспособность модели учиться на собственном опыте взаимодействия с пользователем. Проблема не в памяти как хранилище, а в отсутствии механизма обучения.
Связи
- Отсутствие персистентного обучения у LLM — Раскрывает архитектурную причину необходимости костылей — отсутствие персистентного обучения.
- Инъекция памяти в ChatGPT как обход ограничения контекста — Показывает, как внешние базы данных превращают ручные костыли в продуктовую функциональность.
- Автоматическая рефлексия для AI-ассистентов — Предлагает способ автоматизации создания тех самых компенсаторных файлов через анализ истории.
- Бизнес-костыли как следствие плохих прогнозов — Системная аналогия: костыли как универсальный способ компенсации недостатков прогнозирования или обучения.
Источник: Workshop transcript, 2025-10-01
Связанные заметки
RCTF как структура для промптинга
#ai#tools#workflow
Подключение AI к источникам контекста для go-to-market
#ai#go-to-market#tools
Переход от ChatGPT к Claude Code как фундаментальный сдвиг
#ai#tools#workflow
Скиллы как компрессия повторяющихся промптов
#ai#automation#workflow
Стандарт Agent Skills для переносимости workflow
#ai#standards#workflow
Хотите глубже изучить ai и автоматизация?
AI Product Engineer
85% выпускников запустили AI-фичу в production
Узнать о курсеИсследуйте больше связей
Эта заметка — часть сети из 2,400+ взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.
Открыть граф знаний