class sklearn.ensemble.AdaBoostRegressor(base_estimator=None, *, n_estimators=50, learning_rate=1.0, loss='linear', random_state=None)[source]

Un régresseur AdaBoost.

Un régresseur AdaBoost [1] regresseur est un méta-estimateur qui commence par ajuster un régresseur sur le jeu de données original, puis ajuste des copies supplémentaires du régresseur sur le même jeu de données, mais où les poids des instances sont ajustés en fonction de l'erreur de la prédiction actuelle. Ainsi, les régresseurs ultérieurs se concentrent davantage sur les cas difficiles.

Cette classe met en œuvre l'algorithme connu sous le nom de AdaBoost.R2. [2].

Pour en savoir plus Guide de l'utilisateur.

Nouveau dans la version 0.14.

Paramètres
base_estimatorobject, default=None

L'estimateur de base à partir duquel l'ensemble boosté est construit. Si Nonealors l'estimateur de base est DecisionTreeRegressor initialisé avec max_depth=3.

n_estimatorsint, default=50

Le nombre maximum d'estimateurs auquel le boosting est terminé. En cas d'ajustement parfait, la procédure d'apprentissage est arrêtée prématurément.

learning_ratefloat, default=1.

Le taux d'apprentissage réduit la contribution de chaque régresseur par. learning_rate. Il existe un compromis entre learning_rate et n_estimators.

loss{‘linear’, ‘square’, ‘exponential’}, default=’linear’

La fonction de perte à utiliser lors de la mise à jour des poids après chaque itération de boosting.

random_stateint, RandomState instance or None, default=None

Contrôle la graine aléatoire donnée à chaque base_estimator à chaque itération de boosting. Ainsi, il n'est utilisé que lorsque base_estimator expose un random_state. De plus, il contrôle le bootstrap des poids utilisés pour entraîner le modèle base_estimator à chaque itération de boosting. Passez un int pour une sortie reproductible à travers plusieurs appels de fonction. Voir Glossaire.

Attributs
base_estimator_estimator

L'estimateur de base à partir duquel l'ensemble est cultivé.

estimators_list of classifiers

L'ensemble des sous-estimateurs ajustés.

estimator_weights_ndarray of floats

Les poids pour chaque estimateur dans l'ensemble boosté.

estimator_errors_ndarray of floats

Erreur de régression pour chaque estimateur dans l'ensemble boosté.

feature_importances_ndarray of shape (n_features,)

Les importances des caractéristiques basées sur les impuretés.

Voir aussi

AdaBoostClassifier,GradientBoostingRegressor
sklearn.tree.DecisionTreeRegressor

Références

1

Y. Freund, R. Schapire, "A Decision-Theoretic Generalization of on-Line Learning and an Application to Boosting", 1995.

2
  1. Drucker, "Improving Regressors using Boosting Techniques", 1997.

Exemples

>>>from sklearn.ensemble import AdaBoostRegressor
>>>from sklearn.datasets import make_regression
>>> X, y = make_regression(n_features=4, n_informative=2,...                        random_state=0, shuffle=False)>>> regr = AdaBoostRegressor(random_state=0, n_estimators=100)>>> regr.fit(X, y)
AdaBoostRegressor(n_estimators=100, random_state=0)>>> regr.predict([[0,0,0,0]])
array([4.7972...])>>> regr.score(X, y)0.9771...

Méthodes

fit(X, y[, sample_weight])

Construire un régresseur boosté à partir de l'ensemble d'entraînement (X, y).

get_params([deep])

Obtenir les paramètres de cet estimateur.

predict(X)

Prédire la valeur de régression pour X.

score(X, y[, sample_weight])

Renvoyer le coefficient de détermination. (R^2) de la prédiction.

set_params(**paramètres)

Définit les paramètres de cet estimateur.

staged_predict(X)

Renvoie les prédictions échelonnées pour X.

staged_score(X, y[, sample_weight])

Renvoie les scores échelonnés pour X, y.

property feature_importances_

Les importances des caractéristiques basées sur les impuretés.

Plus elle est élevée, plus la caractéristique est importante. L'importance d'une caractéristique est calculée comme la réduction totale (normalisée) du critère apportée par cette caractéristique. Elle est également connue sous le nom d'importance de Gini.

Attention : les importances des caractéristiques basées sur l'impureté peuvent être trompeuses pour les caractéristiques à cardinalité élevée (beaucoup de valeurs uniques). Voir sklearn.inspection.permutation_importance comme alternative.

Retourne
feature_importances_ndarray of shape (n_features,)

Les importances des caractéristiques.

fit(X, y, sample_weight=None)[source]

Construit un régresseur boosté à partir de l'ensemble d'entraînement (X, y).

Paramètres
X{array-like, sparse matrix} of shape (n_samples, n_features)

Les échantillons d'entrée de formation. La matrice sparse peut être CSC, CSR, COO, DOK, ou LIL. COO, DOK, et LIL sont convertis en CSR.

yarray-like of shape (n_samples,)

Les valeurs cibles (nombres réels).

sample_weightarray-like of shape (n_samples,), default=None

Les poids de l'échantillon. Si aucun, les poids des échantillons sont initialisés à 1 / n_échantillons.

Retourne
selfobject
get_params(deep=True)[source]

Obtenez les paramètres de cet estimateur.

Paramètres
deepbool, default=True

Si True, retournera les paramètres de cet estimateur et des sous-objets contenus qui sont des estimateurs.

Retourne
paramsdict

Les noms des paramètres mappés à leurs valeurs.

predict(X)[source]

Prédit la valeur de régression pour X.

La valeur de régression prédite d'un échantillon d'entrée est calculée comme la prédiction médiane pondérée des classificateurs de l'ensemble.

Paramètres
X{array-like, sparse matrix} of shape (n_samples, n_features)

Les échantillons d'entrée de formation. La matrice sparse peut être CSC, CSR, COO, DOK, ou LIL. COO, DOK et LIL sont convertis en CSR.

Retourne
yndarray of shape (n_samples,)

Les valeurs de régression prédites.

score(X, y, sample_weight=None)[source]

Renvoie le coefficient de détermination. (R^2) de la prédiction.

Le coefficient (R^2) est défini comme suit ((1 - frac{u}{v}))(u) est la somme des carrés résiduels ((y_true - y_pred)
** 2).sum()
et (v) est la somme totale des carrés ((y_true -
y_true.mean()) ** 2).sum()
. Le meilleur score possible est 1,0 et il peut être négatif (car le modèle peut être arbitrairement plus mauvais). Un modèle constant qui prédit toujours la valeur attendue de yen ne tenant pas compte des caractéristiques d'entrée, obtiendrait un score de (R^2) de 0.0.

Paramètres
Xarray-like of shape (n_samples, n_features)

Échantillons de test. Pour certains estimateurs, cela peut être une matrice de noyau précalculée ou une liste d'objets génériques à la place avec forme. (n_samples, n_samples_fitted), où n_samples_fitted est le nombre d'échantillons utilisés dans l'ajustement pour l'estimateur.

yarray-like of shape (n_samples,) or (n_samples, n_outputs)

Valeurs vraies pour X.

sample_weightarray-like of shape (n_samples,), default=None

Poids des échantillons.

Renvoie à
scorefloat

(R^2) de self.predict(X) par rapport à. y.

Notes

Le site (R^2) score utilisé lors de l'appel score sur un régresseur utilise multioutput='uniform_average' à partir de la version 0.23 pour rester cohérent avec la valeur par défaut de r2_score.r2_score. Cela influence la valeur de score de tous les régresseurs à sorties multiples (à l'exception de MultiOutputRegressor).

set_params(**params)[source]

Définissez les paramètres de cet estimateur.

La méthode fonctionne sur les estimateurs simples ainsi que sur les objets imbriqués (comme par exemple. Pipeline). Ces derniers ont des paramètres de la forme __ de sorte qu'il est possible de mettre à jour chaque composant d'un objet imbriqué.

Paramètres
**paramsdict

Paramètres de l'estimateur.

Retours
selfestimator instance

Instance de l'estimateur.

staged_predict(X)[source]

Retourne les prédictions échelonnées pour X.

La valeur de régression prédite d'un échantillon d'entrée est calculée comme la prédiction médiane pondérée des classificateurs de l'ensemble.

Cette méthode de générateur donne la prédiction d'ensemble après chaque itération de boosting et permet donc un suivi, par exemple pour déterminer la prédiction sur un ensemble de test après chaque boost.

Paramètres
X{array-like, sparse matrix} of shape (n_samples, n_features)

Les échantillons d'entrée de formation.

Donne
ygenerator of ndarray of shape (n_samples,)

Les valeurs de régression prédites.

staged_score(X, y, sample_weight=None)[source]

Renvoie les scores échelonnés pour X, y.

Cette méthode de générateur donne le score d'ensemble après chaque itération de boosting et permet donc un suivi, par exemple pour déterminer le score sur un ensemble de test après chaque boost.

Paramètres
X{array-like, sparse matrix} of shape (n_samples, n_features)

Les échantillons d'entrée de formation. La matrice éparse peut être CSC, CSR, COO, DOK, ou LIL. COO, DOK, et LIL sont convertis en CSR.

yarray-like of shape (n_samples,)

Étiquettes pour X.

sample_weightarray-like of shape (n_samples,), default=None

Poids des échantillons.

Rendements
zfloat

Exemples d'utilisation sklearn.ensemble.AdaBoostRegressor

Decision Tree Regression with AdaBoost

Régression par arbre de décision avec AdaBoost