Контекстное окно как ограничение памяти LLM
Контекстное окно как ограничение памяти LLM
Языковые модели имеют фундаментальное ограничение — контекстное окно, которое определяет объём доступной им «памяти». Базовые LLM не помнят предыдущие запросы и не имеют концепции истории диалога. Это ограничение требует либо повторного объяснения контекста, либо использования внешних систем для сохранения информации между запросами.
Связи
- LLM работают как продвинутый автокомплит — Объясняет архитектурную причину ограничения через принцип работы с токенами
- LLM не способны к непрерывному самообучению — Проводит различие между временным контекстом и неспособностью к долгосрочному самообучению
- Инъекция памяти в ChatGPT как обход ограничения контекста — Описывает системный метод расширения памяти за счёт внешней базы данных
- Костыли для компенсации отсутствия памяти у LLM — Предлагает практические решения для компенсации неспособности модели накапливать опыт
- Человеческая невнимательность как системное ограничение — Параллель между техническим лимитом AI и биологическим ограничением человеческого внимания
Источник: Workshop transcript, 2025-10-01
Связанные заметки
Knowledge cutoff как временное ограничение LLM
#ai#constraints#theory-of-constraints
Смещение узкого места от кодинга к продуктовой постановке
#theory-of-constraints#ai#product-management
Токены как единица измерения контекстного окна
#ai#constraints#tools
Стабильность подхода к AI важнее погони за новинками
#ai#tools#focus
Токенизация как причина слабости LLM в посимвольных задачах
#ai#constraints#theory-of-constraints
Подробный разбор
Законы системного мышления - подробный гайд с примерами →Хотите глубже изучить ai и автоматизация?
AI Product Engineer
85% выпускников запустили AI-фичу в production
Узнать о курсеИсследуйте больше связей
Эта заметка — часть сети из 2,400+ взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.
Открыть граф знаний