Mein Modell erzeugt eine netcdf-Datei für jeden Zeitschritt und jede Variable, mit dem Namen DDDDDDD.VVV.nc, wobei DDDDDDD das Datum und VVV der Variablenname ist.ncks append langsam für mehrere kleine netcdf-Dateien
Für jeden Zeitschritt verwende ich nco, um die Dateien, die den verschiedenen Variablen entsprechen, anzufügen, um eine Datei pro Zeitschritt zu erhalten.
#! /bin/bash
# looping on timesteps to merge all variables
# I use one variable 'O2o' to get the list of timesteps
for timesteps in *.O2o.nc;
do
timestep=$(echo $timesteps| cut -b -21)
echo $timestep
for var in $timestep*.nc;
do
ncks -Ah $var 'F1_'$timestep.nc
done
done
Es gibt etwa 432 Ausgänge-Variablen, und jede Datei wird über 6,4K oder 1,1K (die Variablen nicht die gleiche Anzahl von Dimensionen haben).
Ich finde den Prozess sehr langsam (zB. 15 Sekunden pro Zeitschritt), während die Dateien sehr klein sind. Irgendeine Idee, wie ich das Skript optimieren sollte?