Ich habe eine 3 GB CSV-Datei, die geändert werden muss. Ich habe eine Spalte, die ich will Lambda-Funktion anzuwenden, um (das sollte den Wert der Zeilen ändern)Pandas gelten für große CSV-Datei
Die Lösung habe ich versucht, so weit ist die CSV als segmentierte Datei zu lesen, aber das Speicherproblem immer noch geschieht
Dies ist, was ich bisher versucht:
dataframe = read_csv(file_path, iterator=True, chunksize=10000)
for chunk in dataframe:
chunk['column_name'].apply(change_row_lambda_function)
dataframe.to_csv(result_file_path, sep=',')
Was genau passiert? –
laden nur die Spalten relevant – vks
Seine nur löst einen Speicherfehler vor der Iteration beendet (pandas.parser.TextReader._read_low_memory) –