Обычный (R^2) измеряет долю объяснённой дисперсии, но он всегда увеличивается при добавлении новых признаков, даже если они не несут полезной информации.
Скорректированный (R^2) учитывает количество признаков и штрафует за включение переменных, которые мало улучшают модель.
Интерпретация для обнаружения переобучения:
🔹 Если обычный (R^2) растёт, а скорректированный остаётся примерно на том же уровне или падает, это сигнализирует о том, что новые признаки не повышают реальную обобщающую способность модели.
🔹 Значительная разница между (R^2) и скорректированным (R^2) может указывать на переобучение.
Таким образом, скорректированный (R^2) помогает балансировать сложность модели и её качество, предотвращая слепое добавление признаков.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5
Да. Один из самых распространённых распределительно-свободных методов — бутстреп. Он не требует предположений о нормальности или биномиальном распределении ошибок:
Непараметрический бутстреп:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
Существуют два подхода: пост-обрезка (post-pruning) и предварительная обрезка (pre-pruning / early stopping).
Сначала дерево строится полностью, чтобы уловить все потенциальные взаимодействия между признаками. Затем удаляются ветви, которые не дают улучшения по валидационным метрикам. Такой подход часто даёт более оптимальное и устойчивое дерево, но требует больше вычислительных ресурсов.
Рост дерева останавливается заранее по определённым критериям (например, минимальное количество выборок в узле или порог улучшения по impurity). Это быстрее и дешевле, но может привести к недообучению, если ограничение слишком жёсткое.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4
Что измеряет Gini impurity в узле дерева?
Anonymous Quiz
4%
Среднее значение признаков
37%
Вероятность неправильной классификации, если класс выбирается случайно
57%
Энтропию распределения
3%
Количество листьев в дереве
👍3❤1
Зачем добавляют skip connections в глубокие нейросети?
Anonymous Quiz
7%
Чтобы уменьшить количество параметров
4%
Чтобы сделать сеть более линейной
85%
Чтобы облегчить обратное распространение градиента и ускорить обучение
4%
Чтобы сократить использование ReLU
❤2
Как обычно определяется сходимость алгоритма K-Means?
Anonymous Quiz
13%
Когда все точки остаются в тех же кластерах две итерации подряд
84%
Когда изменение положения центроидов становится меньше заданного порога
0%
Когда количество итераций превышает 10
3%
Когда все кластеры содержат одинаковое количество точек
👍2