2

Ich habe viele verschiedene Blogs zu diesem Thema gelesen, konnte aber keine klare Lösung finden. Ich habe folgendes Szenario:Wie klassifizieren Sie Textpaare mit scikit-learn?

  1. Ich habe eine Liste von Paaren von Texten mit den Bezeichnungen 1 oder -1.
  2. Für jeden Text Paar, möchte ich die Merkmale eine Verkettung in der folgenden Art und Weise sein: f() = TFIDF (t1) "concat" TFIDF (T2)

Vorschläge, wie das gleiche zu tun ? Ich habe den folgenden Code, aber es gibt einen Fehler:

count_vect = TfidfVectorizer(analyzer=u'char', ngram_range=ngram_range) 
    X0_train_counts = count_vect.fit_transform([x[0] for x in training_documents]) 
    X1_train_counts = count_vect.fit_transform([x[1] for x in training_documents]) 
    combined_features = FeatureUnion([("x0", X0_train_counts), ("x1", X1_train_counts)]) 
    clf = LinearSVC().fit(combined_features, training_target) 
    average_training_accuracy += clf.score(combined_features, training_target) 

Hier ist der Fehler, den ich bekommen:

--------------------------------------------------------------------------- 
TypeError         Traceback (most recent call last) 
scoreEdgesUsingClassifier(None, pos, neg, 1,ngram_range=(2,5), max_size=1000000, test_size=100000) 

scoreEdgesUsingClassifier(unc, pos, neg, number_of_iterations, ngram_range, max_size, test_size) 
X0_train_counts = count_vect.fit_transform([x[0] for x in training_documents]) 
X1_train_counts = count_vect.fit_transform([x[1] for x in training_documents]) 
combined_features = FeatureUnion([("x0", X0_train_counts), ("x1", X1_train_counts)]) 
print "Done transforming, now training classifier" 

lib/python2.7/site-packages/sklearn/pipeline.pyc in __init__(self, transformer_list, n_jobs, transformer_weights) 
616   self.n_jobs = n_jobs 
617   self.transformer_weights = transformer_weights 
--> 618   self._validate_transformers() 
619 
620  def get_params(self, deep=True): 

lib/python2.7/site-packages/sklearn/pipeline.pyc in _validate_transformers(self) 
660     raise TypeError("All estimators should implement fit and " 
661         "transform. '%s' (type %s) doesn't" % 
--> 662         (t, type(t))) 
663 
664  def _iter(self): 

TypeError: All estimators should implement fit and transform. ' (0, 49025) 0.0575144797079 

(254741, 38401) 0.184394443164 
(254741, 201747) 0.186080393768 
(254741, 179231) 0.195062580945 
(254741, 156925) 0.211367771299 
(254741, 90026) 0.202458920022' (type <class 'scipy.sparse.csr.csr_matrix'>) doesn't 

aktualisieren

Hier ist die Lösung:

count_vect = TfidfVectorizer(analyzer=u'char', ngram_range=ngram_range) 
    training_docs_combined = [x[0] for x in training_documents] + [x[1] for x in training_documents]   
    X_train_counts = count_vect.fit_transform(training_docs_combined) 
    concat_features = hstack((X_train_counts[0:len(training_docs_combined)/2 ], X_train_counts[len (training_docs_combined)/2:])) 

    clf = LinearSVC().fit(concat_features, training_target) 
    average_training_accuracy += clf.score(concat_features, training_target) 
+0

Die Etiketten sind für ein Paar Texte, kein einziger Text? Welchen Fehler bekommst du? – rth

+0

Ich habe den Fehler eingefügt. ; Ja, die Etiketten sind für ein Paar. –

Antwort

1

FeatureUnion von scikit-learn nimmt als Eingabe Schätzer, nicht Datenfelder.

können Sie entweder verketten die resultierenden X0_train_counts, X1_train_counts Arrays einfach mit scipy.sparse.hstack, oder erstellen Sie zwei voneinander unabhängige Instanzen von TfidfVectorizer gelten FeatureUnion zu ihnen, und dann rufen Sie die fit_transform Methode.

+0

Danke! Hstack hat es geschafft. Ich habe die Frage mit der Lösung aktualisiert. –

Verwandte Themen