2015-07-20 7 views
15

Wie bekomme ich die ursprünglichen Indizes der Daten bei der Verwendung von train_test_split()?Scikit-lernen train_test_split mit Indizes

Was ich habe, ist die folgende

from sklearn.cross_validation import train_test_split 
import numpy as np 
data = np.reshape(np.randn(20),(10,2)) # 10 training examples 
labels = np.random.randint(2, size=10) # 10 labels 
x1, x2, y1, y2 = train_test_split(data, labels, size=0.2) 

Aber dies gibt nicht die Indizes der ursprünglichen Daten. Eine Problemumgehung besteht darin, Indizes zu Daten hinzuzufügen (z. B. data = [(i, d) for i, d in enumerate(data)]) und sie dann innerhalb von train_test_split zu übergeben und dann erneut zu erweitern. Gibt es eine sauberere Lösung?

+0

Beachten Sie auch [sklearn.model_selection.ShuffleSplit] (http://scikit-learn.org/stable/modules/generated/sklearn.model_selection.ShuffleSplit. html) und [sklearn.model_selection.StratiifiedShuffleSplit] (http: // scikit-lear n.org/stable/modules/generated/sklearn.model_selection.StratiifiedShuffleSplit.html). – Jost

Antwort

16

Scikit lernen spielt wirklich gut mit Pandas, also schlage ich vor, Sie verwenden es. Hier ein Beispiel:

In [1]: 
import pandas as pd 
import numpy as np 
from sklearn.cross_validation import train_test_split 
data = np.reshape(np.random.randn(20),(10,2)) # 10 training examples 
labels = np.random.randint(2, size=10) # 10 labels 

In [2]: 
X = pd.DataFrame(data) 
y = pd.Series(labels) 

In [3]: 
X_train, X_test, y_train, y_test = train_test_split(X, y, 
                test_size=test_size, 
                random_state=0) 

In [4]: X_test 
Out[4]: 

    0  1 
2 -1.39 -1.86 
8 0.48 -0.81 
4 -0.10 -1.83 

In [5]: y_test 
Out[5]: 

2 1 
8 1 
4 1 
dtype: int32 

Sie können direkt alle scikit Funktionen auf Datenrahmen/Serien aufrufen und es wird funktionieren.

Angenommen, Sie wollten einen Logistische Regression tun, hier ist, wie man die Koeffizienten in einer schönen Weise abrufen konnte:

In [6]: 
from sklearn.linear_model import LogisticRegression 

model = linear_model.LogisticRegression() 
model = model.fit(X_train, y_train) 

# Retrieve coefficients: index is the feature name ([0,1] here) 
df_coefs = pd.DataFrame(model.coef_[0], index=X.columns, columns = ['Coefficient']) 
df_coefs 
Out[6]: 
    Coefficient 
0 0.076987 
1 -0.352463 
+0

Es scheint auch, dass Sie entweder ein Problem mit dem Code in Ihrer Frage haben oder Sie veraltete Versionen von scikit und numpy verwenden (np.randn existiert nicht bei mir, und 'test_size' wird verwendet und nicht' size' in train_test_split) –

+2

Ich habe meine Antwort bearbeitet, um zu zeigen, wie man die Koeffizienten mit den Feature-Namen aus dem Pandas-Datenframe abruft. Könnte Sie in der Zukunft ein bisschen Zeit sparen. –

+0

Hallo @Julien Marrec Ich habe versucht, Ihre Lösung anzuwenden, aber es hat nicht funktioniert, können Sie es bitte hier überprüfen https://StackOverflow.com/Questions/48734942/How-to-maintain-the-x-axis-value-from- the-train-test-split-when-plotting-y-train – Victor

33

Sie Pandas Datenrahmen oder Serie verwenden können, wie Julien sagte, aber wenn Sie your- einschränken möchten selbst numpy Sie eine zusätzliche Reihe von Indizes passieren kann:

from sklearn.cross_validation import train_test_split 
import numpy as np 
n_samples, n_features, n_classes = 10, 2, 2 
data = np.random.randn(n_samples, n_features) # 10 training examples 
labels = np.random.randint(n_classes, size=n_samples) # 10 labels 
indices = np.arange(n_samples) 
x1, x2, y1, y2, idx1, idx2 = train_test_split(
    data, labels, indices, test_size=0.2) 
+1

Dank Ogrisel ist dieser Ansatz sehr einfach und hilfreich. –

+0

ab NumPt v1.1, sollte die dritte Zeile sein "Daten = np.reshape (np.random.randn (20), (10,2))"; letzte Zeile sollte '... train_test_split (Daten, Labels, Indizes, test_size = 0.2) sein' – pepe

+0

Danke, ich habe meine Antwort bearbeitet, um Ihre Korrekturen zu berücksichtigen. – ogrisel

Verwandte Themen