Большая языковая модель как сжатый архив интернета
Большая языковая модель как сжатый архив интернета
Процесс создания большой языковой модели можно представить как сжатие всего интернета в один файл. Специальные алгоритмы обучаются на всём доступном контенте интернета, после чего результат тренировки сохраняется в виде файла. Этот файл содержит всю информацию в крайне сжатом виде, как zip-архив.
Связи
- Knowledge cutoff как временное ограничение LLM — Раскрывает проблему актуальности данных, возникающую при фиксации знаний в статичном архиве
- LLM как источник бенчмарков и best practices — Демонстрирует практическую пользу использования накопленных в модели знаний для продуктового анализа
- Роль в промпте — это механизм навигации по сжатому интернету — Трактует роль в промпте как инструмент поиска внутри сжатого информационного пространства
- LLM как система предсказания следующего слова — Поясняет технический алгоритм извлечения информации из сжатого состояния через вероятностное предсказание
Источник: Workshop transcript, 2025-10-01
Связанные заметки
LLM как система предсказания следующего слова
#ai#llm#technology
Эволюция AI от Machine Learning к LLM
#ai#machine-learning#history
Ограничения Llama 3 70B в function calling
#AI#llm#limitations
LLM работают как продвинутый автокомплит
#ai#learning#fundamentals
LLM устраняют необходимость в специализированных датасетах
#ai#llm#machine-learning
Хотите глубже изучить ai и автоматизация?
AI Product Engineer
85% выпускников запустили AI-фичу в production
Узнать о курсеИсследуйте больше связей
Эта заметка — часть сети из 2,400+ взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.
Открыть граф знаний