Почему adaptive оптимизаторы (Adam, RMSProp) иногда хуже SGD на тестовой выборке?
Anonymous Quiz
87%
Адаптивные шаги ускоряют обучение, но иногда приводят к узким минимумам, плохо обобщающимся
4%
Адаптивные оптимизаторы всегда лучше
5%
SGD не может сходиться на больших данных
4%
Adam не использует градиенты
Почему обычная k-fold кросс-валидация не подходит для временных рядов?
Anonymous Quiz
1%
Она слишком медленная
6%
Временные ряды не имеют признаков
8%
Она работает только для линейных моделей
85%
Разбиение на случайные фолды может вызвать утечку информации
👍2
Модель была идеально откалибрована с помощью temperature scaling на исходном распределении. После дрейфа данных калибровка резко ухудшается, хотя ROC-AUC остаётся прежним. Почему это возможно?
Anonymous Quiz
89%
ROC-AUC не чувствителен к сдвигу вероятностей, а только к ранжированию
8%
Temperature scaling автоматически адаптируется к дрейфу
2%
Калибровка и AUC всегда ухудшаются одновременно
1%
ROC-AUC ухудшается раньше, чем калибровка
❤2
🤖 Раньше в AI мог попасть любой, кто осилил пару туториалов.
Теперь нужны те, кто может объяснить:
→ почему эта архитектура сработает, а та — нет;
→ что происходит внутри модели, когда она не сходится;
→ как найти решение, а не перебирать гиперпараметры наугад.
Все эти навыки требуют понимания того, как и почему работают модели. А это чистая математика.
🔥 Proglib Academy запускает курс «Математика для разработки AI-моделей». Ведут эксперты из SberAI, ВШЭ, Т-Банк, Wildberries.
📝 Что внутри?
→ 2 месяца живых занятий с возможностью задавать вопросы напрямую.
→ Практика на Python. Не теория в вакууме, а применение.
→ 3 домашних задания + финальный проект с детальным разбором.
⏰ Старт 4 декабря
⌛ Только до конца ноября:
→ Скидка 40%;
→ Курс «Школьная математика» в подарок;
→ Тест на определение уровня математики.
🎄 Сделай себе подарок на Новый год
Теперь нужны те, кто может объяснить:
→ почему эта архитектура сработает, а та — нет;
→ что происходит внутри модели, когда она не сходится;
→ как найти решение, а не перебирать гиперпараметры наугад.
Все эти навыки требуют понимания того, как и почему работают модели. А это чистая математика.
🔥 Proglib Academy запускает курс «Математика для разработки AI-моделей». Ведут эксперты из SberAI, ВШЭ, Т-Банк, Wildberries.
📝 Что внутри?
→ 2 месяца живых занятий с возможностью задавать вопросы напрямую.
→ Практика на Python. Не теория в вакууме, а применение.
→ 3 домашних задания + финальный проект с детальным разбором.
⏰ Старт 4 декабря
⌛ Только до конца ноября:
→ Скидка 40%;
→ Курс «Школьная математика» в подарок;
→ Тест на определение уровня математики.
🎄 Сделай себе подарок на Новый год
Почему Adam может переобучаться быстрее, чем SGD, на шумных данных при одинаковой архитектуре?
Anonymous Quiz
8%
Adam использует глобальный шаг обучения
75%
Adam увеличивает шаги в шумных направлениях благодаря перпараметризованной адаптации
6%
SGD всегда уходит в плоские минимумы
11%
Adam не использует нормализацию градиента
❤3
Почему даже rolling-window CV может давать leakage?
Anonymous Quiz
2%
Это невозможно
17%
Rolling-window использует слишком маленькие тестовые окна
13%
CV всегда даёт leakage
68%
Если target leakage скрыт в engineered features (например, future-based statistics)
❤1
Почему MAE более устойчива к шуму меток, чем MSE, но часто обучается медленнее?
Anonymous Quiz
83%
MAE имеет константный градиент и не усиливает большие ошибки
9%
MSE не выпукла
5%
MAE зависит от Learning Rate
4%
MSE автоматически игнорирует шум
❤2👍1
Почему Bayesian Neural Networks могут по-прежнему быть плохо откалиброваны?
Anonymous Quiz
4%
Байесовские модели всегда идеальны
49%
VI и Laplace-аппроксимации дают слишком узкие апостериоры
15%
Байесовские методы запрещают регуляризацию
33%
Байесовская неопределённость = aleatoric uncertainty
🔬 Вы когда-нибудь смотрели на код и думали: «Работает, но почему?»
А теперь представьте, что вы:
→ понимаете, почему модель учится слишком медленно или слишком быстро;
→ видите, какие данные реально влияют на предсказание, а какие — шум;
→ знаете, что происходит внутри нейронки.
4 декабря стартует курс «Математика для разработки AI-моделей».
Линал, оптимизация, матан, статистика — всё, что происходит внутри модели между input и output. Практика на Python. Живые разборы с экспертами из SberAI, ВШЭ, Wildberries&Russ.
3 задания + финальный проект. Без теории ради теории — только то, что реально используется в моделях.
🎁 Бонус: курс по школьной математике + тест уровня математики
👉 Записаться
А теперь представьте, что вы:
→ понимаете, почему модель учится слишком медленно или слишком быстро;
→ видите, какие данные реально влияют на предсказание, а какие — шум;
→ знаете, что происходит внутри нейронки.
4 декабря стартует курс «Математика для разработки AI-моделей».
Линал, оптимизация, матан, статистика — всё, что происходит внутри модели между input и output. Практика на Python. Живые разборы с экспертами из SberAI, ВШЭ, Wildberries&Russ.
3 задания + финальный проект. Без теории ради теории — только то, что реально используется в моделях.
🎁 Бонус: курс по школьной математике + тест уровня математики
👉 Записаться
Площадь под ROC-кривой (AUC-ROC) для классификатора равна 0.50. Что это означает?
Anonymous Quiz
2%
Модель является идеальным классификатором.
3%
Модель работает лучше, чем случайное угадывание.
11%
Это означает, что Precision и Recall равны 0.50.
85%
Модель работает не лучше, чем случайное угадывание.
❤1
В задаче бинарной классификации, что произойдет с метрикой Recall (Полнота) модели, если мы значительно понизим порог классификации (threshold)?
Anonymous Quiz
19%
Recall уменьшится, Precision (Точность) увеличится.
6%
Обе метрики (Recall и Precision) увеличатся.
72%
Recall увеличится, Precision (Точность) уменьшится.
3%
Обе метрики (Recall и Precision) уменьшатся.
❤1