Токенизация как причина слабости LLM в посимвольных задачах

Токенизация как причина слабости LLM в посимвольных задачах

LLM не обрабатывают текст на уровне отдельных букв — они работают с токенами (частями слов). Это объясняет, почему модели ошибаются в простых задачах типа «сколько букв R в слове strawberry» — они буквально не «видят» каждую букву отдельно. Архитектурное решение об использовании токенов создаёт системное ограничение для определённого класса задач.


Источник: Workshop transcript, 2025-10-01

Связанные заметки

Хотите глубже изучить ai и автоматизация?

AI Product Engineer

85% выпускников запустили AI-фичу в production

Узнать о курсе

Исследуйте больше связей

Эта заметка — часть сети из 2,400+ взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.

Открыть граф знаний