Что такое LLM простыми словами
LLM (Large Language Model, большая языковая модель) - это нейросеть, обученная на огромных объёмах текста, которая умеет генерировать, анализировать и трансформировать текст. Когда вы пишете запрос в ChatGPT или Claude - вы общаетесь с LLM.
Под капотом LLM - архитектура трансформер (Transformer), предложенная Google в 2017 году в статье «Attention Is All You Need». Ключевая идея: механизм внимания (attention) позволяет модели «смотреть» на все слова в тексте одновременно и определять, какие из них важны для текущего слова.
Три базовых понятия
- Токен - единица текста, которую обрабатывает модель. Это не всегда слово: слово «программирование» может состоять из 2-3 токенов. В среднем 1 токен ≈ 4 символа на английском и ≈ 1-2 символа на русском
- Контекстное окно - максимальный объём текста, который модель «видит» за один раз. У Claude Opus 4.6 это 1 миллион токенов (≈ 750 000 слов) - это целая библиотека. У GPT-5.1 - 1 миллион токенов. Размер контекстного окна определяет, сколько кода и документации модель может анализировать одновременно
- Параметры - «знания» модели, закодированные в числовых весах. Чем больше параметров, тем больше паттернов модель запомнила при обучении. Крупнейшие модели содержат сотни миллиардов параметров
LLM не «думает» как человек. Она предсказывает наиболее вероятное продолжение текста, опираясь на паттерны из обучающих данных. Но это предсказание настолько хорошее, что модель может писать код, находить баги, рефакторить архитектуру и объяснять сложные концепции.
Как LLM меняют программирование
До 2022 года инструменты разработчика менялись эволюционно: лучшие IDE, более умный автокомплит, удобные линтеры. LLM сломали эту эволюцию - произошёл фазовый переход.
Раньше разработчик был единственным «мыслящим агентом» в процессе: IDE подсвечивала синтаксис, но не понимала намерение. Теперь LLM понимает,что вы хотите сделать, и может предложить как - на уровне архитектуры, алгоритма или конкретной строки кода.
Это меняет роль разработчика. Вместо «писателя кода» он становится «оркестратором»: формулирует задачу, контролирует качество, принимает архитектурные решения. Механическая работа по набору кода уходит, а ценность экспертизы и системного мышления растёт.
Разработчик открывает Claude Code в репозитории с 200 файлами, пишет: «Найди все места, где мы используем fetch напрямую, и замени на обёртку с retry и timeout из lib/http-client.ts». Агент анализирует кодовую базу, находит 47 вызовов, вносит изменения, запускает тесты. 5 минут вместо 2 часов ручной работы.
5 уровней использования LLM разработчиком
Разработчики используют LLM на разных уровнях зрелости. Большинство застревают на L0-L1, хотя реальный рычаг начинается с L2.
L0: Автокомплит
Инструменты: GitHub Copilot, Tabnine, Supermaven
Как работает: LLM подсказывает следующую строку или блок кода по контексту открытого файла. Вы пишете как обычно, просто быстрее.
Ограничение: модель видит только текущий файл и несколько соседних. Не понимает архитектуру проекта.
L1: Чат-ассистент
Инструменты: ChatGPT, Claude.ai, Gemini
Как работает: вы копируете код в чат, задаёте вопросы, получаете объяснения и фрагменты кода. Классическая «резиновая уточка», но умная.
Ограничение: ручное копирование контекста. Модель не видит ваш проект целиком, не может запускать код или проверять результат.
L2: Кодинг-агент
Инструменты: Claude Code, Cursor, Windsurf
Как работает: AI-агент имеет доступ к файловой системе, терминалу, может читать и изменять файлы, запускать тесты, коммитить. Вы описываете задачу на естественном языке, агент выполняет.
Рычаг: это уровень, на котором продуктивность вырастает в 3-10 раз. Агент не просто подсказывает - он делает.
L3: Мульти-агент
Инструменты: Claude Code с параллельными сессиями, Claude Code + OpenClaw
Как работает: несколько AI-агентов работают параллельно над разными частями задачи. Один пишет бэкенд, другой фронтенд, третий тесты. Разработчик координирует и интегрирует результаты.
Рычаг: скорость масштабируется горизонтально. Задача на неделю сжимается до дня.
L4: Автономный агент
Инструменты: Claude Code в headless-режиме, Devin, SWE-agent
Как работает: агент получает тикет из Jira или GitHub Issue и самостоятельно реализует фичу: анализирует требования, пишет код, тесты, создаёт PR. Разработчик делает code review.
Рычаг: разработчик становится техническим директором команды AI-агентов. Один человек управляет потоком задач, который раньше требовал команду из 5-10 инженеров.
Массовое использование - L0-L1. Продвинутые разработчики - L2. Лидеры - экспериментируют с L3-L4. Если вы до сих пор на L0, переход на L2 даст максимальный прирост продуктивности при минимальных усилиях.
Контекст-инжиниринг: почему контекст важнее промпта
Промпт-инжиниринг - термин 2023 года. В 2026 ключевой навык - контекст-инжиниринг: умение собрать правильный контекст для модели.
Разница принципиальная. Промпт - это ваш запрос: «перепиши функцию X». Контекст - всё, что модель «видит»: код проекта, документация, история коммитов, тесты, стайл-гайды. Одинаковый промпт с разным контекстом даёт радикально разные результаты.
Как работает контекст-инжиниринг на практике
- CLAUDE.md / AGENTS.md: файл в корне проекта, который описывает архитектуру, конвенции, важные решения. AI-агент читает его первым и понимает контекст проекта
- Структура проекта: хорошо организованный код - это контекст. Чёткие имена файлов, понятная структура директорий, типизация - всё это помогает модели понять проект
- Тесты как спецификация: тесты описывают ожидаемое поведение. Модель, видя тесты, лучше понимает, что должен делать код
- Явные инструкции: вместо «напиши хороший код» - конкретно: «используй TypeScript strict mode, не используй any, покрой тестами»
Создайте файл CLAUDE.md в корне проекта. Опишите: стек технологий, структуру директорий, команды для запуска (build, test, lint), конвенции кода, архитектурные решения. Это 30 минут работы, которые сэкономят десятки часов - каждый AI-агент будет понимать ваш проект с первого запроса.
MCP: как LLM подключается к инструментам
MCP (Model Context Protocol) - открытый стандарт от Anthropic, который позволяет LLM подключаться к внешним инструментам и данным. Думайте о нём как об USB-порте для AI: один стандартный интерфейс для любого сервиса.
Без MCP: вы вручную копируете данные из базы в чат с AI.
С MCP: AI-агент сам подключается к базе данных, читает логи, отправляет сообщения в Telegram, создаёт тикеты в GitHub.
Как это работает
MCP-сервер - это локальная программа, которая предоставляет AI доступ к определённому сервису. Сервер запускается на вашей машине, данные не уходят третьим сторонам. AI-агент (Claude Code, Cursor) подключается к серверу и получает набор «инструментов».
Популярные MCP-серверы для разработчиков
| MCP-сервер | Возможности | Пример использования |
|---|---|---|
| postgres-mcp | SQL-запросы к PostgreSQL | «Покажи retention когорты марта» |
| github-mcp | Issues, PRs, Actions | «Создай issue для бага с авторизацией» |
| telegram-mcp | Чтение и отправка сообщений | «Дайджест непрочитанных за сегодня» |
| sentry-mcp | Ошибки и алерты | «Что за ошибка в production?» |
| browser-mcp | Управление браузером | «Открой страницу и проверь вёрстку» |
Подробнее о настройке MCP для Telegram - в материале про подключение Telegram к Claude Code.
Что можно автоматизировать уже сейчас
Не всё стоит автоматизировать. Вот задачи, где LLM дают максимальный ROI для разработчика прямо сейчас:
- Code review: AI находит баги, security-уязвимости, нарушения конвенций. Не заменяет человеческий review, но ловит 70-80% механических проблем
- Написание тестов: AI пишет unit-тесты по коду, включая edge cases. Особенно полезно для legacy-кода без тестов
- Рефакторинг: переименование, извлечение функций, миграция между API - рутинная работа, которую AI делает быстро и аккуратно
- Документация: JSDoc, README, API-документация по коду. AI генерирует первый драфт, вы редактируете
- Отладка: вставьте stack trace в Claude Code - он найдёт причину, предложит исправление и объяснит, почему ошибка произошла
- Миграции: обновление зависимостей, переход между фреймворками, адаптация кода под новые API
LLM может уверенно генерировать неправильный код. Всегда проверяйте результат: запускайте тесты, читайте diff, используйте type checker. AI - это мощный инструмент, но не замена инженерной экспертизе.
Какую модель выбрать
Выбор модели зависит от задачи. Вот навигация по основным моделям для разработчиков:
| Задача | Модель | Почему |
|---|---|---|
| Сложная архитектура, рефакторинг большой кодовой базы | Claude Opus 4.6 | 1M контекст, лучшее понимание больших проектов |
| Повседневный кодинг, быстрые задачи | Claude Sonnet 4.5 | Быстрый, качественный, дешевле Opus |
| Автокомплит, простые подсказки | Claude Haiku 3.5 | Мгновенный отклик, минимальная стоимость |
| Reasoning, математика, алгоритмы | GPT-5.1 (reasoning: high) | Сильный в формальных рассуждениях |
| Быстрая обработка, классификация, извлечение | Gemini 3 Flash | Самый дешёвый, быстрый для batch-задач |
На практике большинство разработчиков используют 2-3 модели: одну для сложных задач (Opus), одну для повседневной работы (Sonnet), одну для batch-обработки (Haiku или Flash). Не привязывайтесь к одному провайдеру - модели быстро меняются, и через полгода лидер может смениться.