2012-06-21 3 views
6

Ich versuche, eine "Clusterdump" auf die Ausgabe von Mahout Kmeans Clustering Beispiel (synthetische_control Beispiel). Aber ich erlebe den folgenden Fehler:gibt es irgendeine SeqFileDir Option für "Clusterdump" in der neuesten "Apache Mahout" Bibliothek?

> ~/MAHOUT/trunk/bin/mahout clusterdump --seqFileDir clusters-10-final --pointsDir clusteredPoints --output a1.txt 

MAHOUT_LOCAL is not set; adding HADOOP_CONF_DIR to classpath. 
Running on hadoop, using /usr/lib/hadoop/bin/hadoop and HADOOP_CONF_DIR=/usr/lib/hadoop/conf/ 
MAHOUT-JOB: /home/<username>/MAHOUT/trunk/examples/target/mahout-examples-0.8-SNAPSHOT-job.jar 

12/06/21 22:43:18 WARN conf.Configuration: DEPRECATED: hadoop-site.xml found in the classpath. Usage of hadoop-site.xml is deprecated. Instead use core-site.xml, mapred-site.xml and hdfs-site.xml to override properties of core-default.xml, mapred-default.xml and hdfs-default.xml respectively 

12/06/21 22:43:25 ERROR common.AbstractJob: Unexpected --seqFileDir while processing Job-Specific Options: 
usage: <command> [Generic Options] [Job-Specific Options] 
..... 

Also ich denke, es gibt keine "seqFileDir" Option für clusterdump aber alle Online-Tutorials (z https://cwiki.apache.org/MAHOUT/cluster-dumper.html) diese Option beziehen. Können Sie mir bitte das Mittel vorschlagen oder was fehlt mir?

Antwort

2

Hatten Sie versucht, es als --input Option anzugeben?

+1

ja ich tat. Als ich --seqFileDir durch --input ersetzte, wurde eine Ausgabedatei generiert , aber das war leer! Wissen Sie, warum die Tutorials über die Option --seqFileDir sprechen? –

+2

Ich arbeitete an diesem Problem. Magisch fand ich die Lösung !!! Danke für Ihren Vorschlag - Eingang arbeitete anstelle von - SeqFileDir Option. Was ich falsch gemacht habe, war, dass ich nicht realisiert habe, dass clusterdump (mit dem HADOOP_HOME-Set) von HDFS liest und die Ausgabe in das lokale Dateisystem schreibt. Wie auch immer, die Dinge funktionieren jetzt gut! –

Verwandte Themen