Ich habe 2 TB Daten, und ich muss die Dateien für einige Analysen entpacken. Aufgrund des Festplattenplatzproblems kann ich jedoch nicht alle Dateien auf einmal entpacken. Was ich dachte, ist zuerst zwei tausend von ihnen zu entpacken, dann meine Analyse zu machen und sie für das nächste 2000 zu wiederholen. Wie könnte ich es tun?Entpacken der Anzahl der Dateien iterativ mit Python
import os, glob
import zipfile
root = 'C:\\Users\\X\\*'
directory = 'C:\\Users\\X'
extension = ".zip"
to_save = 'C:\\Users\\X\\to_save'
#x = os.listdir(path)[:2000]
for folder in glob.glob(root):
if folder.endswith(extension): # check for ".zip" extension
try:
print(folder)
os.chdir(to_save)
zipfile.ZipFile(os.path.join(directory, folder)).extractall(os.path.join(directory, os.path.splitext(folder)[0]))
except:
pass
Glaubst du wirklich, es ist ein Duplikat? – edyvedy13
Was ich tun muss, ist die ersten 2000, also Dateien zwischen 1-2000 aufgeführt; dann 2001- 4000 – edyvedy13