Decision Tree — дерево решений, рекурсивное разбиение по признакам. На каждом узле: выбирает признак и порог, максимизируя информационный выигрыш (Gini impurity или entropy). Лист — предсказание (класс или среднее). DecisionTreeClassifier(max_depth=5). Плюсы: интерпретируемо, не нужно масштабирование, работает с категориальными данными. Минусы: склонно к overfitting, нестабильно (маленькие изменения данных — другое дерево). feature_importances_ — важность признаков. Контроль сложности: max_depth, min_samples_split, min_samples_leaf. Основа для Random Forest и Gradient Boosting.
Как работает Decision Tree?
Middle
299 просмотровAFK Offer AI
Как работать с Redis из Python?