Контекстное окно как ограничение памяти LLM
Контекстное окно как ограничение памяти LLM
Языковые модели имеют фундаментальное ограничение — контекстное окно, которое определяет объём доступной им «памяти». Базовые LLM не помнят предыдущие запросы и не имеют концепции истории диалога. Это ограничение требует либо повторного объяснения контекста, либо использования внешних систем для сохранения информации между запросами.
Источник: Workshop transcript, 2025-10-01
Связанные заметки
Knowledge cutoff как временное ограничение LLM
#ai#constraints#theory-of-constraints
Токены как единица измерения контекстного окна
#ai#constraints#tools
Стабильность подхода к AI важнее погони за новинками
#ai#tools#focus
Токенизация как причина слабости LLM в посимвольных задачах
#ai#constraints#theory-of-constraints
Проблема когнитивной перегрузки при изучении AI инструментов
#ai#learning#tools
Хотите глубже изучить ai и автоматизация?
AI Product Engineer
85% выпускников запустили AI-фичу в production
Узнать о курсеИсследуйте больше связей
Эта заметка — часть сети из 2,400+ взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.
Открыть граф знаний