Систематическая ошибка выжившего в анализе данных
Систематическая ошибка выжившего в анализе данных
Кейс со статистом Уолдом и бомбардировщиками иллюстрирует систематическую ошибку выжившего (survivorship bias). Уолд понял, что пробоины на вернувшихся самолётах показывают не уязвимые места, а наоборот — те зоны, повреждение которых не критично. Сбитые самолёты не вернулись именно потому, что получили попадания в другие, фатальные места. Понимание природы возникновения данных критически важно для правильных выводов — мы видим только часть картины, ту что «выжила».
Связи
- Страх негативной обратной связи убивает развитие — Оба о неполноте данных: видим только успех, игнорируя критическую информацию
- Случайность как инструмент преодоления bias статус-кво — Оба исследуют когнитивные искажения, влияющие на анализ и принятие решений
- Стратегия входа на рынок: от малого к великому — Обе стратегии учитывают невидимость: мы видим успешных, не видим проигравших
- Технические компетенции продакт-менеджера и аналитика — Прямой доступ к данным критичен для избежания survivorship bias в анализе
Источник: Telegram, 2019-11-09
Связанные заметки
Критичность понимания методологии измерений
#analytics#data#systems-thinking
Каузальная модель позволяет использовать наблюдения для предсказания интервенций
#causality#systems-thinking#decision-making
Метод Zoom in/Zoom out в анализе поведения пользователей
#analytics#product-management#data
Нелинейность и S-кривые в бизнес-метриках
#growth#analytics#systems-thinking
Оптимизация vs понимание намерений команды
#analytics#optimization#data
Исследуйте больше связей
Эта заметка — часть сети из 2,369 взаимосвязанных идей. Откройте для себя неожиданные связи в интерактивном графе знаний.
Открыть граф знаний