Sagen wir, ich habe eine .dat
Datei, filename.dat
, und ich möchte diese in eine Pandas Datenrahmen lesen:Gibt es eine Größenbeschränkung für Pandas read_table()?
import pandas as pd
df = pd.read_table('filename.dat')
Gibt es eine Größenbeschränkung in Bezug auf diese? Ich hatte gehofft, die Spalten eines Datenrahmens für eine Datei der Größe 1 TB einzeln zu speichern. Ist das möglich?
ist es möglich, wenn der resultierende DF in den Speicher passen kann. Verwenden Sie 'Chunksize' Parameter, um große Dateien in Chunks zu lesen - das wird viel weniger Speicher verbrauchen – MaxU
Ich würde es nicht empfehlen, wenn Sie keinen Speicher haben, wie @MaxU sagt. Wenn Sie Zeilen erstellen, ist es besser, [buffering] (http://pandas.pydata.org/pandas-docs/stable/io.html#io-chunking) mit 'chunksize' zu verwenden, das von @MaxU oder setting' erwähnt wird Iterator zu True. Aber für Spalten und eine große Datei scheint das riskant. –
@ClaytonWahlstrom Irgendwelche anderen Empfehlungen? – ShanZhengYang