Контекстное окно как ограничение памяти LLM

Контекстное окно как ограничение памяти LLM

Языковые модели имеют фундаментальное ограничение — контекстное окно, которое определяет объём доступной им «памяти». Базовые LLM не помнят предыдущие запросы и не имеют концепции истории диалога. Это ограничение требует либо повторного объяснения контекста, либо использования внешних систем для сохранения информации между запросами.


Источник: Workshop transcript, 2025-10-01

Связанные заметки

Хотите глубже изучить ai и автоматизация?

AI Product Engineer

85% выпускников запустили AI-фичу в production

Узнать о курсе

Исследуйте больше связей

Эта заметка — часть сети из 2,400+ взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.

Открыть граф знаний