Проблема обобщения в AI vs человеческое обучение
Проблема обобщения в AI vs человеческое обучение
Современные AI-модели демонстрируют фундаментальную слабость в обобщении по сравнению с людьми. Человек учится водить за 10 часов практики, модели требуют гигантские датасеты. Человек не повторяет одни и те же ошибки циклически, модели это делают. Эта разница в sample-efficiency и robustness указывает на качественное отличие в механизмах обучения и обобщения.
Связи
- Робастность как ключевой критерий AI-систем — Оба о слабости генерализации AI: необходимость переобучения vs человеческая адаптивность
- LLM как ненадежный сотрудник — Контрастирует: исходная заметка о превосходстве людей, эта о сходстве ошибок
- Джуны уязвимы из-за кодифицированных знаний — Парадокс: AI слаб в обобщении, но превосходит людей в кодифицированных знаниях
- Редкость сочетания аналитического и интуитивного мышления — Объясняет человеческое преимущество: интеграция разных типов мышления для обобщения
Источник: Telegram, 2025-11-25
Связанные заметки
AGI как базовый learner, а не конечное состояние
#AI#learning#theory
Голосовые беседы как способ изучения AI
#AI#learning#tools
Парадокс опыта в ML-проектах и его решение через симуляторы
#learning#AI#product-management
Deep learning не может отвечать на вопросы вмешательства
#AI#deep-learning#causality
Глубина экспертизы определяет стоимость на рынке
#AI#learning#technology
Исследуйте больше связей
Эта заметка — часть сети из 2,369 взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.
Открыть граф знаний