Logistic Regression — классификация, не регрессия. Линейная комбинация → sigmoid → вероятность. P(y=1) = 1 / (1 + e^(-z)), z = wx + b. Порог 0.5 по умолчанию. Loss: binary cross-entropy. LogisticRegression(C=1.0) — C — обратная сила регуляризации. Multiclass: one-vs-rest или softmax (multi_class="multinomial"). predict_proba() — вероятности. Интерпретируемо: coef_ показывает важность признаков. Быстро обучается. Линейная разделяющая поверхность. Хороший baseline для классификации. Нужно масштабирование признаков.
Как работает логистическая регрессия?
Middle
355 просмотровAFK Offer AI
Чем паттерн Decorator отличается от декоратора Python?