📊 Задача с собеседования
Если не понимаете с какой стороны подступиться к задаче, то пора подтянуть математику.
🎓 Именно этому посвящен курс экспресс-курс «Математика для Data Science» от Proglib Academy:
— работа с векторами и матрицами;
— линейная регрессия и метод наименьших квадратов;
— вероятности, распределения, статистика;
— и многое другое.
⏳ Старт: 4 декабря
🔥 Скидка: 40% до конца ноября
👉 Подключиться к курсу
Имеются данные о продажах за последние 12 месяцев. Требуется оценить наличие линейной зависимости между количеством заключённых сделок и объёмом выручки, а также построить прогноз выручки при достижении 150 сделок.
Если не понимаете с какой стороны подступиться к задаче, то пора подтянуть математику.
🎓 Именно этому посвящен курс экспресс-курс «Математика для Data Science» от Proglib Academy:
— работа с векторами и матрицами;
— линейная регрессия и метод наименьших квадратов;
— вероятности, распределения, статистика;
— и многое другое.
⏳ Старт: 4 декабря
🔥 Скидка: 40% до конца ноября
👉 Подключиться к курсу
Почему добавление слишком большого momentum-параметра β в стохастическом градиенте может ухудшить обучение при очень шумных данных?
Anonymous Quiz
66%
Потому что накопленные скорости усиливают шум в направлении обновлений
10%
Потому что momentum уменьшает размер шага
16%
Потому что β влияет на регуляризацию
8%
Потому что градиенты перестают зависеть от потерь
❤1
Почему средняя AUC по схемам One-vs-One может быть выше, чем One-vs-Rest, даже при тех же данных?
Anonymous Quiz
12%
One-vs-One использует меньше данных
42%
One-vs-One игнорирует редкие классы, что делает задачу легче
3%
One-vs-One всегда лучше по теории
43%
One-vs-Rest вычисляет AUC только по одному классу
Почему дрейф данных может улучшить общую метрику, но ухудшить fairness?
Anonymous Quiz
7%
Fairness всегда ухудшается
2%
Новые данные всегда проще
89%
Улучшение для majority класса может “перекрыть” ухудшение для minority класса
2%
Общая метрика и fairness — одно и то же
Почему избыточный pre-pruning может ухудшить способность дерева разделять данные на важных малых подгруппах?
Anonymous Quiz
2%
Дерево перестаёт быть бинарным
12%
Pre-pruning уменьшает impurity
81%
Pre-pruning отбрасывает потенциально полезные поздние разветвления
4%
Pre-pruning увеличивает количество листьев
❤1
Почему boosting может ухудшать устойчивость к шумным меткам?
Anonymous Quiz
4%
Boosting использует L1-регуляризацию
26%
Boosting всегда уменьшает bias
60%
Boosting усиливает вес самых трудных примеров, включая ошибочные
9%
Boosting не использует стохастичность
❤1
Почему две модели с одинаковой AUC могут иметь радикально разное качество при фиксированном пороге?
Anonymous Quiz
34%
AUC учитывает только плотность ошибок, но не их порядок
2%
AUC интегрирует производные
16%
AUC игнорирует низкие FPR
48%
AUC не учитывает форму распределения предсказаний
❤4
Почему применение стандартного PCA напрямую к временным рядам может потерять критическую информацию?
Anonymous Quiz
64%
PCA игнорирует автокорреляцию и порядок во времени
11%
PCA всегда уменьшает дисперсию
5%
PCA требует больше данных, чем временных точек
20%
PCA ломает стационарность ряда
👍2❤1
Почему полностью удалять признаки с большим количеством пропусков не всегда лучший выбор?
Anonymous Quiz
2%
Пропуски всегда случайны
95%
Пропуски могут содержать скрытый сигнал, отражающий поведение системы
2%
Импутация всегда хуже удаления
1%
Алгоритмы не умеют работать с NaN
❤1👍1
Почему embeddings дают преимущество над one-hot представлениями при больших словарях?
Anonymous Quiz
91%
Embeddings компактны и отражают семантическую близость между токенами
1%
Embeddings не требуют обучения
3%
One-hot быстрее в вычислении градиентов
5%
One-hot всегда лучше для небольших наборов данных
❤1👍1
PCA возвращает ортогональные компоненты. Можно ли утверждать, что они всегда независимы?
Anonymous Quiz
33%
Да, ортогональность гарантирует независимость
55%
Нет, компоненты могут быть некоррелированными, но не независимыми
7%
Только если данные нормальны
5%
Только после масштабирования признаков
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Митап RecSys в Питере — must-have для всех, кто создаёт интеллектуальные рекомендательные системы 🧑💻
1 декабря встречаемся в инновационном пространстве — Технохабе Сбера (ул. Уральская, д. 1, Литера Ч) — и на стыке науки и бизнеса обсуждаем, как уже сейчас AI меняет подход к персонализации.
Вместе с Дмитрием Бугайченко — CDS B2C Сбера — и топовыми экспертами индустрии мы погрузимся в актуальные тренды и технологии RecSys, познакомимся с новыми рекомендациями Самоката и универсальными рекомендациями Okko, а также узнаем о построении рекомендателя в платёжных сервисах ЮMoney.
Регистрируйтесь, пока места ещё есть — и готовьтесь к погружению в мир рекомендательных систем!
1 декабря встречаемся в инновационном пространстве — Технохабе Сбера (ул. Уральская, д. 1, Литера Ч) — и на стыке науки и бизнеса обсуждаем, как уже сейчас AI меняет подход к персонализации.
Вместе с Дмитрием Бугайченко — CDS B2C Сбера — и топовыми экспертами индустрии мы погрузимся в актуальные тренды и технологии RecSys, познакомимся с новыми рекомендациями Самоката и универсальными рекомендациями Okko, а также узнаем о построении рекомендателя в платёжных сервисах ЮMoney.
Регистрируйтесь, пока места ещё есть — и готовьтесь к погружению в мир рекомендательных систем!
❤2🔥2⚡1👏1
Почему использование bidirectional LSTM может быть не всегда полез?
Anonymous Quiz
2%
Время обучения сокращается
64%
Будущие контексты могут утечь в прошлое, создавая информационный шум
32%
Требует больше параметров и может переобучаться, особенно если задача не зависит от будущих шагов
2%
Bidirectional LSTM заменяет все gating механизмы
❤1
🎄 С Нового года начну учиться — знакомо?
А потом январь — освоюсь после праздников, февраль — доделаю текущие дела... Не откладывай на следующий год то, что можно начать уже в этом.
🗓️ 4 декабря стартует экспресс-курс «Математика для Data Science»— всё, что нужно для уверенных ответов на собесах:
→ 2 месяца без воды;
→ обновлённая программа (ноябрь 2025);
→ живые вебинары с экспертами;
→ записи всех занятий;
→ практика на Python + финальный проект с фидбэком.
Формат: 2 месяца интенсива и к началу следующего года ты готов к собесам.
Пока другие будут собираться с мыслями после НГ, ты уже будешь на полпути к офферу мечты.
🎁 Только до 30 ноября:
→ скидка 40% на курс;
→ курс «Базовая математика» в подарок;
→ бесплатный тест уровня математики.
👉🏻 Хочешь на курс → пиши менеджеру
А потом январь — освоюсь после праздников, февраль — доделаю текущие дела... Не откладывай на следующий год то, что можно начать уже в этом.
🗓️ 4 декабря стартует экспресс-курс «Математика для Data Science»— всё, что нужно для уверенных ответов на собесах:
→ 2 месяца без воды;
→ обновлённая программа (ноябрь 2025);
→ живые вебинары с экспертами;
→ записи всех занятий;
→ практика на Python + финальный проект с фидбэком.
Формат: 2 месяца интенсива и к началу следующего года ты готов к собесам.
Пока другие будут собираться с мыслями после НГ, ты уже будешь на полпути к офферу мечты.
🎁 Только до 30 ноября:
→ скидка 40% на курс;
→ курс «Базовая математика» в подарок;
→ бесплатный тест уровня математики.
👉🏻 Хочешь на курс → пиши менеджеру
Почему adaptive оптимизаторы (Adam, RMSProp) иногда хуже SGD на тестовой выборке?
Anonymous Quiz
85%
Адаптивные шаги ускоряют обучение, но иногда приводят к узким минимумам, плохо обобщающимся
4%
Адаптивные оптимизаторы всегда лучше
6%
SGD не может сходиться на больших данных
5%
Adam не использует градиенты
Почему обычная k-fold кросс-валидация не подходит для временных рядов?
Anonymous Quiz
1%
Она слишком медленная
4%
Временные ряды не имеют признаков
8%
Она работает только для линейных моделей
87%
Разбиение на случайные фолды может вызвать утечку информации
👍1
Модель была идеально откалибрована с помощью temperature scaling на исходном распределении. После дрейфа данных калибровка резко ухудшается, хотя ROC-AUC остаётся прежним. Почему это возможно?
Anonymous Quiz
92%
ROC-AUC не чувствителен к сдвигу вероятностей, а только к ранжированию
4%
Temperature scaling автоматически адаптируется к дрейфу
2%
Калибровка и AUC всегда ухудшаются одновременно
2%
ROC-AUC ухудшается раньше, чем калибровка