2016-05-13 7 views
0

eine meiner Aufgaben immer wieder versagt und als ich sah in warum (von Jobdetails anfordern) ich folgende Ausgabe:BigQuery Command Line Tool: get Fehlerdetails

status": { 
"errorResult": { 
    "location": "gs://sf_auto/Datastore Mapper modules.models.userData/15716706166748C8426AD/output-46", 
    "message": "JSON table encountered too many errors, giving up. Rows: 1; errors: 1.", 
    "reason": "invalid" 
}, 
"errors": [ 
    { 
    "location": "gs://sf_auto/Datastore Mapper modules.models.userData/15716706166748C8426AD/output-46", 
    "message": "JSON table encountered too many errors, giving up. Rows: 1; errors: 1.", 
    "reason": "invalid" 
    } 
], 
"state": "DONE" 

Problem ist, hilft es nicht, überhaupt, und ich brauche mehr Details. Gibt es überhaupt zu verstehen, welche Spalte oder welches Attribut die Fehler verursacht hat? Gibt es eine Möglichkeit, mehr Informationen zu erhalten?

bearbeiten Weitere Details

  • Wir laufen Karte Job auf appengine reduce unsere Datenspeicher von appengine zu BigQuery

  • Die Übertragung von Dateien auf Google Cloud-Shop gespeichert

  • Es wird eine neue Tabelle erstellt und nicht zu einer vorhandenen hinzugefügt

Update # 2 Ich spielte mit der Abfrage viele Dinge sowie Anpassung der Regelung versucht, und ich habe das Problem auf die UUID verengt. Aus irgendeinem Grund diese Art von Daten vermasselt alles auf:

"uuid": "XXXXXXXXXXXX-XXXXXXXX-XXXXXXXXXXXX"

Das Schema definiert es als String

+1

Oh, und da es mich ewig brauchte, um es herauszufinden, hier ist ein Tipp für andere ... Wenn Sie eine Liste von Jobs erhalten möchten, verwenden Sie: bq ls -j -a. Wenn Sie die Jobdetails sehen möchten, verwenden Sie: bq --format = prettyjson show -j iceanfire

+0

können Sie Details über den Job, den Sie ausführen, eingeben? ist es ein Insertionsjob? eine Tabelle erstellen? –

+0

Hey Will nur aktualisiert, um zusätzliche Details zu enthalten, lassen Sie mich wissen, wenn mehr Informationen – iceanfire

Antwort

0

OK, nachdem Lasten Debuggen fand ich den Fehler ... in der JSON Newline-Datei hatten wir zwei Attribute, die ähnlich waren:

uuid: "XXX ..." UUID: "XXX ..."

Dies hat es für eine Weile, so denke ich, dass einige Veränderungen in BigQuery begannen zu verlangen, dass Schlüssel unabhängig von der Großschreibung eindeutig sind. Werde so mehr testen und bestätigen!

+0

bestätigt, es gibt eine Art neue Eindeutigkeitsüberprüfung für Spaltennamen, die Kapitalisierung - nicht sicher, ob es ein Fehler oder eine Funktion ist – iceanfire

0

Eine vor kurzem vorgenommene Änderung hat dazu geführt, dass Lasten von JSON-Daten in Feldnamen keine Groß-/Kleinschreibung enthalten, die mit der Behandlung von Feldnamen in SQL-Abfragen übereinstimmen. Ich habe ein Arbeitselement geöffnet, um die Verbesserung der Fehlermeldung für diesen Fall zu verfolgen.