Ich versuche L1
Normalisierung für die Werte einer Spalte in einem Datenrahmen mit pyspark ML
Bibliothek. Folgendes ist mein Code. Aber es geht nicht. Können Sie mir bitte helfen herauszufinden, was mit diesem Code nicht stimmt?Normalisieren einer Spalte von Datenrahmen pyspark ML
from pyspark.ml.feature import Normalizer
y = range(1,10)
data = spark.createDataFrame([[float(e), ] for e in y])
#data.select('_1').show()
normalizer = Normalizer(p=1.0, inputCol="_1", outputCol="features")
data2 = normalizer.transform(data)
data2.select("features").show()
Folgendes ist ein Teil des Fehlerprotokolls.
Py4JJavaError: An error occurred while calling o857.showString.
: org.apache.spark.SparkException: Job aborted due to stage failure:
Task 0 in stage 36.0 failed 4 times, most recent failure: Lost task 0.3
in stage 36.0 (TID 67, XXXXX.serveraddress.com):
org.apache.spark.SparkException: Failed to execute user defined
function($anonfun$createTransformFunc$1: (double) => vector)