class sklearn.ensemble.VotingRegressor(estimators, *, weights=None, n_jobs=None, verbose=False)[source]

Régresseur de vote de prédiction pour les estimateurs non ajustés.

Un régresseur de vote est un méta-estimateur d'ensemble qui ajuste plusieurs régresseurs de base, chacun sur l'ensemble des données. Ensuite, il fait la moyenne des prédictions individuelles pour former une prédiction finale.

Pour en savoir plus Guide de l'utilisateur.

Nouveau dans la version 0.21.

Paramètres
estimatorslist of (str, estimator) tuples

L'appel de la fit sur le VotingRegressor adaptera des clones de ces estimateurs originaux qui seront stockés dans l'attribut de classe self.estimators_. Un estimateur peut être réglé sur 'drop' en utilisant set_params.

Modifié dans la version 0.21 : 'drop' est accepté. L'utilisation de None a été dépréciée dans la 0.22 et le support a été supprimé dans la 0.24.

weightsarray-like of shape (n_regressors,), default=None

Séquence de poids (float ou int) pour pondérer les occurrences des valeurs prédites avant de calculer la moyenne. Utilise des poids uniformes si None.

n_jobsint, default=None

Le nombre de travaux à exécuter en parallèle pour fit. None signifie 1 sauf si dans un joblib.parallel_backend contexte. -1 signifie utiliser tous les processeurs. Voir Glossaire pour plus de détails.

verbosebool, default=False

Si Vrai, le temps écoulé pendant l'essayage sera imprimé au fur et à mesure qu'il sera terminé.

Nouveau dans la version 0.23.

Attributs
estimators_list of regressors

La collection de sous-estimateurs ajustés, telle que définie dans le document estimators qui ne sont pas des "gouttes".

named_estimators_Bunch

Attribut permettant d'accéder à tout sous-estimateur ajusté par son nom.

Nouveau dans la version 0.20.

Voir aussi

VotingClassifier

Classificateur de vote doux/règle de majorité.

Exemples

>>>import numpy as np
>>>from sklearn.linear_model import LinearRegression
>>>from sklearn.ensemble import RandomForestRegressor
>>>from sklearn.ensemble import VotingRegressor
>>> r1 = LinearRegression()>>> r2 = RandomForestRegressor(n_estimators=10, random_state=1)>>> X = np.array([[1,1],[2,4],[3,9],[4,16],[5,25],[6,36]])>>> y = np.array([2,6,12,20,30,42])>>> er = VotingRegressor([('lr', r1),('rf', r2)])>>>print(er.fit(X, y).predict(X))[3.35.711.819.728.40.3]

Méthodes

fit(X, y[, sample_weight])

Ajustez les estimateurs.

fit_transform(X[, y])

Retourner les étiquettes de classe ou les probabilités pour chaque estimateur.

get_params([deep])

Obtenir les paramètres d'un estimateur de l'ensemble.

predict(X)

Prédire la cible de régression pour X.

score(X, y[, sample_weight])

Renvoyer le coefficient de détermination. (R^2) de la prédiction.

set_params(**paramètres)

Définit les paramètres d'un estimateur de l'ensemble.

transform(X)

Renvoie les prédictions pour X pour chaque estimateur.

fit(X, y, sample_weight=None)[source]

Ajustez les estimateurs.

Paramètres
X{array-like, sparse matrix} of shape (n_samples, n_features)

Vecteurs d'entraînement, où n_échantillons est le nombre d'échantillons et n_caractéristiques est le nombre de caractéristiques.

yarray-like of shape (n_samples,)

Valeurs cibles.

sample_weightarray-like of shape (n_samples,), default=None

Poids des échantillons. Si None, alors les échantillons sont pondérés de manière égale. Notez que cela n'est pris en charge que si tous les estimateurs sous-jacents supportent les poids d'échantillon.

Retourne
selfobject

Estimateur ajusté.

fit_transform(X, y=None, **fit_params)[source]

Retourne les étiquettes de classe ou les probabilités pour chaque estimateur.

Retournez les prédictions pour X pour chaque estimateur.

Paramètres
X{array-like, sparse matrix, dataframe} of shape (n_samples, n_features)

Echantillons d'entrée

yndarray of shape (n_samples,), default=None

Valeurs cibles (aucune pour les transformations non supervisées).

**fit_paramsdict

Paramètres d'ajustement supplémentaires.

Retourne
X_newndarray array of shape (n_samples, n_features_new)

Tableau transformé.

get_params(deep=True)[source]

Récupère les paramètres d'un estimateur de l'ensemble.

Renvoie les paramètres donnés dans le constructeur ainsi que les estimateurs contenus dans l'ensemble. estimators paramètre.

Paramètres
deepbool, default=True

En lui donnant la valeur True, on obtient les différents estimateurs ainsi que les paramètres des estimateurs.

predict(X)[source]

Prédiction de la cible de régression pour X.

La cible de régression prédite d'un échantillon d'entrée est calculée comme la moyenne des cibles de régression prédites des estimateurs de l'ensemble.

Paramètres
X{array-like, sparse matrix} of shape (n_samples, n_features)

Les échantillons d'entrée.

Retourne
yndarray of shape (n_samples,)

Les valeurs prédites.

score(X, y, sample_weight=None)[source]

Retourne le coefficient de détermination. (R^2) de la prédiction.

Le coefficient (R^2) est défini comme suit ((1 - frac{u}{v}))(u) est la somme des carrés résiduels ((y_true - y_pred)
** 2).sum()
et (v) est la somme totale des carrés ((y_true -
y_true.mean()) ** 2).sum()
. Le meilleur score possible est 1,0 et il peut être négatif (car le modèle peut être arbitrairement plus mauvais). Un modèle constant qui prédit toujours la valeur attendue de yen ne tenant pas compte des caractéristiques d'entrée, obtiendrait un score de (R^2) de 0.0.

Paramètres
Xarray-like of shape (n_samples, n_features)

Échantillons de test. Pour certains estimateurs, cela peut être une matrice de noyau précalculée ou une liste d'objets génériques à la place avec la forme. (n_samples, n_samples_fitted), où n_samples_fitted est le nombre d'échantillons utilisés dans l'ajustement pour l'estimateur.

yarray-like of shape (n_samples,) or (n_samples, n_outputs)

Valeurs vraies pour X.

sample_weightarray-like of shape (n_samples,), default=None

Poids des échantillons.

Retourne
scorefloat

(R^2) de self.predict(X) wrt. y.

Notes

Le site (R^2) utilisé lors de l'appel score sur un régresseur utilise multioutput='uniform_average' à partir de la version 0.23 pour rester cohérent avec la valeur par défaut de r2_score.r2_score. Cela influence la valeur de score de tous les régresseurs à sorties multiples (à l'exception de MultiOutputRegressor).

set_params(**params)[source]

Définir les paramètres d'un estimateur de l'ensemble.

Les clés de paramètres valides peuvent être listées avec get_params(). Notez que vous pouvez directement définir les paramètres des estimateurs contenus dans la section estimators.

Paramètres
**paramskeyword arguments

Paramètres spécifiques en utilisant par exemple set_params(parameter_name=new_value). En plus du réglage des paramètres de l'estimateur, il est également possible de régler l'estimateur individuel des estimateurs, ou de le supprimer en le réglant sur 'drop'.

transform(X)[source]

Renvoie les prédictions pour X pour chaque estimateur.

Paramètres
X{array-like, sparse matrix} of shape (n_samples, n_features)

Les échantillons d'entrée.

Retourne
Prédictions : ndarray de forme (n_échantillons, n_classificateurs).

Valeurs prédites par chaque régresseur.

Exemples d'utilisation sklearn.ensemble.VotingRegressor

Comploter les prédictions de régression individuelle et de vote

Tracer les prédictions de régression individuelles et de vote.