You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Copy file name to clipboardExpand all lines: src/questions-and-answers.md
+14-1Lines changed: 14 additions & 1 deletion
Display the source diff
Display the rich diff
Original file line number
Diff line number
Diff line change
@@ -17,4 +17,17 @@
17
17
11. Повлияет ли добавление большого количества признаков, скоррелированных с уже существующим, на процесс построения ансамбля типа бустинга из деревьев?
18
18
12. Что позволяет получить бустинг над линейными регрессиями?
19
19
13. Какое требование к функции потерь предъявляет градиентный бустинг?
20
-
14. ...
20
+
14. Какие существуют основные типы признаков и виды задач в машинном обучении?
21
+
15. Как выбор метрики расстояния влияет на kNN и в чем суть метода FRiS?
22
+
16. В чем преимущества и недостатки градиентного спуска по сравнению с аналитическим решением регрессии?
23
+
17. Как Momentum и использование batch помогают в градиентном спуске?
24
+
18. Как именно L1 и L2 регуляризация меняют формулу обновления весов?
25
+
19. Что такое margin (отступ) в контексте логистической регрессии?
26
+
20. Как интерпретировать Confusion Matrix и когда стоит использовать Precision/Recall вместо Accuracy?
27
+
21. Как рассчитываются энтропия и критерий Джини в вершинах решающего дерева?
28
+
22. Что такое Bias-Variance trade-off и как он связан с переобучением?
29
+
23. За счет чего Bagging и Random Forest уменьшают разброс (variance) ошибки?
30
+
24. Опишите общий алгоритм построения композиции в градиентном бустинге.
31
+
25. Как применяется Chain rule в методе обратного распространения ошибки?
32
+
26. В чем отличия продвинутых оптимизаторов (Adam, RMSProp) от стандартного SGD?
33
+
27. Какие существуют методы регуляризации и улучшения сходимости для нейронных сетей (Dropout, Batch Norm и др.)?
0 commit comments