Контекстное окно как ограничение памяти LLM
Контекстное окно как ограничение памяти LLM
Языковые модели имеют фундаментальное ограничение — контекстное окно, которое определяет объём доступной им «памяти». Базовые LLM не помнят предыдущие запросы и не имеют концепции истории диалога. Это ограничение требует либо повторного объяснения контекста, либо использования внешних систем для сохранения информации между запросами.
Связи
- LLM работают как продвинутый автокомплит — Объясняет архитектурную причину ограничения через принцип работы с токенами
- LLM не способны к непрерывному самообучению — Проводит различие между временным контекстом и неспособностью к долгосрочному самообучению
- Инъекция памяти в ChatGPT как обход ограничения контекста — Описывает системный метод расширения памяти за счёт внешней базы данных
- Костыли для компенсации отсутствия памяти у LLM — Предлагает практические решения для компенсации неспособности модели накапливать опыт
- Человеческая невнимательность как системное ограничение — Параллель между техническим лимитом AI и биологическим ограничением человеческого внимания
Источник: Workshop transcript, 2025-10-01
Связанные заметки
Knowledge cutoff как временное ограничение LLM
#ai#constraints#theory-of-constraints
Смещение узкого места от кодинга к продуктовой постановке
#theory-of-constraints#ai#product-management
Data loop как конкурентное преимущество в видео-генерации
#ai#data#constraints
Человек как узкое место в эпоху AI-ускорения
#theory-of-constraints#ai#productivity
Три физических ограничения роста AI
#ai#constraints#theory-of-constraints
Подробный разбор
Законы системного мышления - подробный гайд с примерами →Хотите глубже изучить ai и автоматизация?
AI Product Engineer
Постройте своего AI коллегу. 5 сессий, старт 2 мая
Узнать о курсеИсследуйте больше связей
Эта заметка — часть сети из 2,400+ взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.
Открыть граф знаний