Ich versuche einige Regressionsmodelle auf GPU auszuführen. Während ich eine sehr niedrige GPU-Auslastung von bis zu 20% bekomme. Nach dem Durchlaufen des Codes,Numpy-Matrix in Batches im Tensorflow lesen
for i in range(epochs):
rand_index = np.random.choice(args.train_pr,
size=args.batch_size)
rand_x = X_train[rand_index]
rand_y = Y_train[rand_index]
Ich verwende diese drei Zeilen für die Auswahl einer zufälligen Batch für jede Iteration. Also, ich wollte fragen, wann das Training läuft, kann ich noch einen Batch für die nächste Iteration vorbereiten?
Ich arbeite an einem Regressionsproblem und nicht an einem Klassifizierungsproblem. Ich habe bereits in Tensorflow Threading gesehen, aber die Beispiele nur für Bilder gefunden und es gibt kein Beispiel für eine große Matrix der Größe 100000X1000, die für das Training verwendet wird.
Es ist ein Duplikat auf die Frage: https://stackoverflow.com/questions/45110098/tensorflow-next-batch-function-of-np-array/45110647#45110647 –