2016-11-15 4 views
2

Wir verwenden Apache Sqoop, um Daten aus Teradata-System zu Hive-Tabellen in Hortonworks-Plattform mit Hortonworks Connector für Teradata zu entladen.Sqoop "Create-Hive-Tabelle" funktioniert nicht für Teradata in Hortonworks

Wir versuchen, Hive-Tabelle in Teradata von Sqoop mit dem Sqoop-Befehl create-hive-table zu erstellen. Der Prozess funktioniert ordnungsgemäß, wenn in Teradata kein Interval/Period-Datentyp angegeben ist, aber ein Fehler auftritt (Fehler: nicht unterstützter Datentyp), wenn die Tabelle einen Intervall-/Periodendaten-Datentyp enthält. Ich habe auch versucht, die "hive-import" -Option zu verwenden, aber es funktioniert nicht, wenn die Tabelle nicht zuvor erstellt wurde. Hat jemand dieses Problem bei der Verwendung der Hortonworks Connector für Teradata konfrontiert. Bitte beachten Sie, ich nur ein solches Problem konfrontiert bin, wenn es ein Intervall/Periodenart in Tabelle ist ..

+0

teilen Sqoop Befehl und der Datentyp von Teradata. –

Antwort

0

@Sathiyan S

Hier können Sie

Sqoop Befehl gehen

Sqoop create-hive- Tabelle --connection-manager org.apache.sqoop.teradata.TeradataConnManager --connect jdbc: CONNECSTRING - Benutzername Dummy - Kennwortdummypd --map-column-hive Employee_Duration_Interval = STRING, Employee_work_period = STRING - Tabelle TEST_TABLE_TD --hive -Tabelle HIVE_TEST_TABLE

TEST_TABLE_TD ( employee_id INTEGER, EMPLOYEE_NAME VARCHAR (200), Employee_Duration_Interval INTERVAL YEAR (4) ZUM MONAT, Employee_work_period ZEIT (Zeitstempel (6)) )

Bitte lassen Sie mich wissen, wenn Sie weitere Informationen benötigen . Grüße, Indranil Roy

+0

Verwenden Sie nicht den Antwortbereich, um Details anzugeben. Sie können Ihre Frage bearbeiten, indem Sie diese einfügen. –

0

Versuchen mit --map-column-java, Coz kein Datentyp kann mit Intervall/Periode in Java angepasst werden,

so die Abfrage ähnlich der folgenden sein würde,

sqoop create-hive-table --connection-manager org.apache.sqoop.teradata.TeradataConnManager --connect jdbc:CONNECSTRING --username dummy --password dummypd --map-column-hive Employee_Duration_Interval=STRING,Employee_work_period=STRING --map-column-java Employee_Duration_Interval=String,Employee_work_period=String --table TEST_TABLE_TD --hive-table HIVE_TEST_TABLE 
+0

Ich versuchte mit der Abfrage oben mit --map-column-java, aber Sqoop ist nicht in der Lage, die Abfrage zu analysieren und einen Fehler zu werfen: 16/11/17 11:19:51 FEHLER tool.BaseSqoopTool: Fehler beim Parsen von Argumenten für create-Hive -table: – indranil

+0

Können Sie die komplette Spur teilen? –

Verwandte Themen