2016-06-19 17 views
0
grunt> ways = LOAD '/hdfs://localhsot:9000/pig/ldh.osm as (ways); 
grunt> DUMP Ways; 

Fehler:Pig Eingangsweg zu HDFS in hadoop

Input(s): 
Failed to read data from "hdfs://localhost:9000/pig/ldh/ldh.osm" 

Output (s):

Failed to produce result in "hdfs://localhost:9000/user/hduser/ways" 

Counters:

Total records written : 0 
Total bytes written : 0 
Spillable Memory Manager spill count : 0 
Total bags proactively spilled: 0 
Total records proactively spilled: 0 

Job DAG:

null 


2016-06-19 14:31:41,604 [main] INFO org.apache.pig.backend.hadoop.executionengine.mapReduceLayer.MapReduceLauncher - 
Failed! 

Bitte geben Sie eine Lösung dafür an. Ich denke, meine Eingabe ist nicht auf hdfs in hadoop konfiguriert. Gib Lösung.

+1

Willkommen bei SO !. Bitte nehmen Sie sich etwas Zeit, um etwas über SO und Formatierung zu erfahren, bevor Sie Fragen stellen. –

Antwort

0

Schema der Datei soll nach definiert werden ‚AS‘ Schlüsselwort alias sind nach dem ‚wie‘ Schlüsselwort in Schwein nicht erlaubt

grunt> ways = load '/hdfs://localhsot:9000/pig/ldh.osm' as (test1:chararray) ; 
grunt> dump ways; 

Möglichkeiten und Wege sind unterschiedlich.

Groß-/Kleinschreibung - Die Namen (Aliase) von Relationen und Feldern unterscheiden zwischen Groß- und Kleinschreibung. Die Namen von Pig Latin-Funktionen sind Groß- und Kleinschreibung. Die Namen der Parameter und alle anderen Pig Latin-Schlüsselwörter unterscheiden zwischen Groß- und Kleinschreibung. (LOAD, USING, AS, GRUPPE, BY, FOREACH, GENERATE und DUMP sind case insensitive)

+0

Vielen Dank für die Antwort. Ja, ich habe Änderungen vorgenommen. Aber es funktioniert nicht und keine Eingabedatei von HDFS. Bitte geben Sie mir eine Lösung, um diesen Fehler zu korrigieren. –

+0

welche Art von Daten Osm-Datei enthält – UserszrKs

+0

Straßendaten von jeder Stadt mit der Erweiterung von .osm oder .csv –