ich die folgenden CSV-Dateien gerade lese:Scala Funkendatenrahmen halten führende Nullen
id,hit,name
0001,00000,foo
0002,00001,bar
0003,00150,toto
Als Funkendatenrahmen mit einem SqlContext, die den Ausgang geben:
+--+---+----+
|id|hit|name|
+--+---+----+
|1 |0 |foo |
|2 |1 |bar |
|3 |150|toto|
+--+---+----+
Ich brauche das, was zu halten Nullen im Dataframe. Ich habe versucht, mit der Option "allowNumericLeadingZeros" auf True festgelegt, es funktioniert nicht. Ich habe einige Posts gesehen, die sagen, dass es ein Excel-Problem ist, aber mein Problem ist, dass die führenden Nullen innerhalb des Dataframes entfernt werden.
Wie kann ich die führenden Nullen im Dataframe behalten?
Danke!
arbeitet für Ihren Fall lpad? Hier ist der Dokumentations-Link: https://spark.apache.org/docs/2.2.0/api/java/org/apache/spark/sql/functions.html#lpad-org.apache.spark.sql.Column- int-java.lang.String- –
Danke für den schnellen asnwer, ich habe es gerade mit lpad versucht und es funktioniert, aber ich bin mir nicht sicher, es ist der "richtige" Weg, es zu tun, auf diese Weise füge ich nur 0. Ist es nicht besser, wenn ich den csv korrekt mit allen führenden 0 lese? – Drakax