Sequenz-IDs sind im CNTK-Textformat optional. Ich frage mich, wie Sequenz-IDs während des Trainings verwendet werden. Wenn ein Minibatch aus einem CNTKTextFormat mit Sequenz-IDs erstellt wird, wird eine Zeile in CNTKTextFormat als eine Stichprobe betrachtet oder werden alle Zeilen mit derselben Sequenz-ID zusammen als eine Stichprobe betrachtet?Wie verwendet CNTK Sequenz-IDs während des Trainings?
2
A
Antwort
1
Wenn IDs angegeben werden, bilden alle Zeilen mit der gleichen Sequenz ID zusammen eine Trainingsinstanz (im CNTK-Jargon: sie bilden eine Sequenz aus Samples).
Wenn IDs fehlen, dann ist jede Zeile eine neue Trainingsinstanz (bestehend aus einer Sequenz mit einem einzelnen Sample).
Verwandte Themen
- 1. Ändern des Modells während des Trainings [Tensorflow]
- 2. Keras zeigt keinen Fortschrittsbalkenpfeil während des Trainings
- 3. Caffe: Leere Datei Ausnahme während des Trainings
- 4. Python sklearn zeige Verlustwerte während des Trainings
- 5. laden nächste Charge während des Trainings Schritt
- 6. Tensorflow CNN-Modell erhalten Fehler "NaN Verlust während des Trainings."
- 7. Reparieren einer Teilmenge Gewichte im Neuronalen Netzwerk während des Trainings
- 8. Ändern der Eingabedatenschicht während des Trainings in Caffe
- 9. Was ist der Gesamtfehlerwert in Pybrain während des Trainings?
- 10. Tensorflow beginnt schnell und verlangsamt sich während des Trainings
- 11. Warum ist der Verlust während des Trainings FCN-8s konstant?
- 12. scikit lernen SVM stop und Zugriff während des Trainings
- 13. Keras jupyter Notebook gibt während des Trainings Blöcke aus
- 14. Seltsame Verlustkurve während des Trainings LSTM mit Keras
- 15. ctc blstm mit keras fehler während des trainings
- 16. CNTK: Zug Einbettungsschicht initialisiert mit vortrainierten Einbettungen?
- 17. Suche über MinibatchSource in CNTK
- 18. Wie bekomme ich den Gradienten der Verlustfunktion während des Trainings mit spark 2.0?
- 19. Python/Pybrain: Wie kann ich Gewichte eines neuronalen Netzwerks während des Trainings korrigieren?
- 20. CNTK und Ausgabe der Bilddaten an TensorBoard
- 21. Wie zum Anhalten/Fortsetzen des Trainings in Tensorflow
- 22. Caffe: Kann ich das Laden neuer Daten während des Trainings vermeiden?
- 23. Make RandomForestClassifier wählen Sie eine Variable für die Sicherheit während des Trainings
- 24. Testen eines Netzwerks während des Trainings im Tensorflow bei Verwendung einer Warteschlange
- 25. Kann OpenNLP HTML-Tags als Teil des Trainings verwenden?
- 26. Warum unterscheiden sich die von model.evaluate() berechneten Metriken während des Trainings in Keras?
- 27. CoreNLP Neuronaler Netzwerkabhängigkeitsparser - Unterschied zwischen der Evaluierung während des Trainings und dem Testen
- 28. Valueerror: ein Array-Element mit einer Sequenz Einstellung während des Trainings KD TREE auf TFIDF
- 29. Python & scikit Lernen: Matrix-Vektor-Produkt während des Trainings mit benutzerdefinierten Anruf ersetzen
- 30. Warum verwendet CNTK die Einbettungsdimension für den Decoder?
danke. Follow-up-Fragen, bedeutet eine Trainingsinstanz, dass alle Samples in der gleichen Trainingsinstanz nacheinander ausgeführt werden müssen und nicht getrennt oder geändert werden können? Ist die Minibatch-Größe durch die Anzahl der Proben oder die Anzahl der Trainingsinstanzen definiert? Wenn zum Beispiel eine Sequenz 50 Samples hat und die Minibatch-Größe auf 32 gesetzt ist, wie funktioniert das? – dragon