Tensorflow 1.0 hat XLA-Unterstützung eingeführt, die JIT-Kompilierung und AOT-Kompilierung enthält. Für die JIT-Kompilierung habe ich ein Python-Testskript gefunden, mit dem es Unit-getestet werden kann. Ich habe jedoch keinen Python-Test für die AOT-Kompilierung gefunden. Es gibt jedoch Bazeltests, die im Quellbaum ausgeführt werden können. Der Tensorflow-Link https://www.tensorflow.org/performance/xla/tfcompile enthält Informationen zum Testen. Aber tfcompile macht keinen Verteilungsinhalt des Tensorflusses. Ich könnte mich hier irren. Aber ich konnte tfcompile nirgendwo im Distributionsverzeichnis von TF sehen, wo es installiert ist. Könnte mir bitte jemand helfen, zu verstehen, wie man die AOT-Kompilierung auf dem vorhandenen Distributionsinhalt testet ODER ich etwas im Code optimieren muss, damit AOT-Sachen in den Vertrieb gelangen können? Vielen Dank im Voraus.Wie Tensorflow XLA AOT Unterstützung in Tensorflow-Verteilung ausüben
Antwort
Ich weiß, dass Sie speziell über AOT sind gefragt, aber ich empfehle Ihnen erste Seite lesen: https://www.tensorflow.org/performance/xla/
Und dann diese Zeilen lesen ein: https://www.tensorflow.org/performance/xla/jit
Insbesondere beachten Sie, dass XLA nicht in unserem binären enthalten ist Verteilungen; Sie müssen von der Quelle im Moment bauen. Beachten Sie, dass Sie "XLA aktivieren" auswählen müssen, wenn Sie ./configure
ausführen, damit die XLA-Unterstützung aktiviert wird.
Sobald Sie das getan haben, ist der Rat von Yaroslav Bulatov richtig; Sie können die Binärdateien selbst erstellen oder die Tests über Bazel ausführen.
Ja. Vielen Dank. Ich habe diese Links früher durchgesehen und verstanden, dass die Unterstützung experimentell ist und während ./configure aktiviert werden kann. Es tut mir leid, dass ich früher nicht klar war. Ich habe Tensorflow selbst erstellt, indem ich die XLA-Unterstützung aktiviert habe, während ich eine Wheel-Datei konfiguriert und erstellt habe. Mit Distribution meinte ich also den installierten TF, dessen .whl-Datei durch den Aufbau der Quelle erstellt wird. Trotz der Aktivierung von XLA wird nichts von tfcompile am installierten Speicherort angezeigt. Müssen wir dieses Ziel zusätzlich zum Aktivieren von XLA explizit erstellen? Und gibt es außer Bazeltests irgendwelche Python-Tests für AOT-Tests? –
AFAIK tfcompile ist ein eigenständiges Programm und es ist nie im pip-Paket enthalten, obwohl es bequem wäre, AOT über das pip-Paket (wie eine 'tf.compile (graph)' -Funktion oder etwas) zu verwenden, wenn XLA jemals in der PyPI-Version. –
- 1. Ein neues XLA-Gerät in TensorFlow registrieren
- 2. Wie XLA Compiler trainieren?
- 3. Fehler beim Ausführen von Tensorflow mit XLA
- 4. NotFoundError läuft TensorFlow XLA Beispiel (libdevice.compute_35.10.bc)
- 5. So starten Sie TensorFlow Shell in XLA Demo gezeigt
- 6. Tensorflow AVX Unterstützung
- 7. TensorFlow: XLA nicht mit "Invalid argument: Nein _XlaCompile" läuft Fehler
- 8. Tensorflow Android-Unterstützung für Videos
- 9. Expose-Klasse in Excel XLA-Add-In
- 10. Mindestanforderungen von Android-Geräten für TensorFlow-Unterstützung?
- 11. Enable XLA bei Verwendung von tf.contrib.learn.Estimator
- 12. Wie installiere ich cudn5.1 mit cuda 8.0 Unterstützung für Tensorflow?
- 13. Wie Leiningen zu beheben: aot
- 14. TensorFlow XLA mit mehreren GPU verwendet keine GPU zur gleichen Zeit
- 15. Bazel-Problem beim Erstellen eines Pip-Pakets für TensorFlow mit CPU-only-Unterstützung
- 16. Iterieren nicht registrierten Add-Ins (XLA)
- 17. aot-compilation zerbricht NumberPipe
- 18. Angular 2 AOT Funktionsfehler
- 19. Tokenizing für AoT-Kompilierung
- 20. Excel 2003 - Wie erstelle ich meine eigene XLA?
- 21. Wie Stop Excel den absoluten Pfad zu einem XLA speichert?
- 22. wie man lodash mit angular4 aot
- 23. Tensorflow/Fenster (nativ): GPU-Unterstützung [konnte nicht NUMA-Knoten identifizieren]
- 24. Clojure: Annotationen an AOT-kompilierte Methoden anhängen
- 25. Angular2-Host-Bindung Problem in AoT Kompilierung
- 26. AOT-Compiler erzeugt falschen Import
- 27. wie Vorhersagewerte in tensorflow
- 28. angular cli AOT kompilieren Fehler
- 29. WIE: Importieren Sie TensorFlow in Jupyter Notebook von Conda mit GPU-Unterstützung?
- 30. CookieXSRFStrategy arbeiten nicht in AOT-Modus @angular
Das Ziel für binäre ist '// tensorflow/compiler/aot: tfcompile' (Ich sehe Verweis in' Tensorflow/Compiler/aot/tfcompile.bzl'). Sie müssen diese Binärdatei selbst erstellen, XLA ist experimentell und daher sind JIT/AOT-Bits in der offiziellen Version –
nicht enthalten. Wie Sie vorgeschlagen haben, habe ich // tensorflow/compiler/aot: tfcompile in tensorflow/tensorflow/tool/pip_package/BUILD in build_pip_package Ziel tfcompile stuff baut ebenfalls auf und eine Binärdatei wird im bazel-out-Verzeichnis gefunden. Aber diese Binärdatei geht nicht in die Raddatei. Gibt es eine Veränderung, die ich vermisse? So habe ich meiner Wheel-Datei zusätzliche Sachen hinzugefügt. Aber irgendwie funktioniert TFCompile nicht. Bitte hilf mir. –
Das ist wahrscheinlich standardmäßig - da es experimentell ist, das Skript, das Dinge in Wheel-Datei setzt, schließt es explizit aus –