LLM как система предсказания следующего слова
LLM как система предсказания следующего слова
Работа большой языковой модели основана на предсказании наиболее вероятного следующего слова на основе входных данных. Например, для фразы «how does LLM» модель с вероятностью 92% предскажет слово «work». Это похоже на автодополнение — входные данные определяют наиболее вероятный выход.
Связи
- Подхалимство LLM как базовое свойство — Предсказание следующего токена объясняет склонность модели подстраиваться под мнение пользователя в вопросе.
- LLM работают как продвинутый автокомплит — Детализирует механизм «автодополнения» через работу с токенами и ограничения контекстного окна.
- Контекст в промптах помогает LLM выбрать правильную область знаний — Объясняет, как входные данные сужают область поиска наиболее вероятных слов в сжатых знаниях.
- Входные данные определяют качество выхода LLM — Обосновывает прямую зависимость качества результата от точности входного сигнала для предсказания.
Источник: Workshop transcript, 2025-10-01
Связанные заметки
Большая языковая модель как сжатый архив интернета
#ai#llm#technology
Эволюция AI от Machine Learning к LLM
#ai#machine-learning#history
Ограничения Llama 3 70B в function calling
#AI#llm#limitations
LLM работают как продвинутый автокомплит
#ai#learning#fundamentals
LLM устраняют необходимость в специализированных датасетах
#ai#llm#machine-learning
Хотите глубже изучить ai и автоматизация?
AI Product Engineer
85% выпускников запустили AI-фичу в production
Узнать о курсеИсследуйте больше связей
Эта заметка — часть сети из 2,400+ взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.
Открыть граф знаний