Токенизация как причина слабости LLM в посимвольных задачах
Токенизация как причина слабости LLM в посимвольных задачах
LLM не обрабатывают текст на уровне отдельных букв — они работают с токенами (частями слов). Это объясняет, почему модели ошибаются в простых задачах типа «сколько букв R в слове strawberry» — они буквально не «видят» каждую букву отдельно. Архитектурное решение об использовании токенов создаёт системное ограничение для определённого класса задач.
Источник: Workshop transcript, 2025-10-01
Связанные заметки
Unhobbling как источник прогресса AI
#AI#theory-of-constraints#technology
Контекстное окно как ограничение памяти LLM
#ai#constraints#theory-of-constraints
Технологии генерируют проблемы, которые создают новые возможности
#theory-of-constraints#technology#systems-thinking
Knowledge cutoff как временное ограничение LLM
#ai#constraints#theory-of-constraints
Отсутствие интерактивности как ограничение YouTube для фитнеса
#product-management#technology#constraints
Хотите глубже изучить ai и автоматизация?
AI Product Engineer
85% выпускников запустили AI-фичу в production
Узнать о курсеИсследуйте больше связей
Эта заметка — часть сети из 2,400+ взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.
Открыть граф знаний