RAG предпочтительнее fine-tuning для часто обновляемых данных
RAG предпочтительнее fine-tuning для часто обновляемых данных
Когда данные обновляются часто, RAG (Retrieval Augmented Generation) лучше, чем fine-tuning модели. Fine-tuning требует времени и ресурсов на переобучение при каждом обновлении, тогда как RAG позволяет обновлять базу знаний мгновенно. Это делает систему более гибкой и экономичной для динамичных данных.
Связи
- Последовательность подходов к обучению LLM — Объясняет стратегический выбор RAG перед fine-tuning из-за гибкости
- Три уровня оптимизации LLM — Сравнивает RAG и fine-tuning как альтернативные подходы оптимизации
- Fine-tuning для доменной специфики голосовых ассистентов — Контрастирует случай где fine-tuning необходим несмотря на затраты
Источник: Telegram, 2024-06-19
Связанные заметки
RAG с комбинированным поиском вместо чистого векторного
#AI#llm#rag
Шесть ключевых областей GenAI разработки
#AI#genai#llm
Детерминированные vs вероятностные системы
#AI#decision-making#systems-thinking
Мышление экосистемой для AI-фаундеров
#AI#ecosystem#startups
Ограничения Llama 3 70B в function calling
#AI#llm#limitations
Исследуйте больше связей
Эта заметка — часть сети из 2,369 взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.
Открыть граф знаний