2017-03-10 2 views
3

Tensorflow 1.0 hat XLA-Unterstützung eingeführt, die JIT-Kompilierung und AOT-Kompilierung enthält. Für die JIT-Kompilierung habe ich ein Python-Testskript gefunden, mit dem es Unit-getestet werden kann. Ich habe jedoch keinen Python-Test für die AOT-Kompilierung gefunden. Es gibt jedoch Bazeltests, die im Quellbaum ausgeführt werden können. Der Tensorflow-Link https://www.tensorflow.org/performance/xla/tfcompile enthält Informationen zum Testen. Aber tfcompile macht keinen Verteilungsinhalt des Tensorflusses. Ich könnte mich hier irren. Aber ich konnte tfcompile nirgendwo im Distributionsverzeichnis von TF sehen, wo es installiert ist. Könnte mir bitte jemand helfen, zu verstehen, wie man die AOT-Kompilierung auf dem vorhandenen Distributionsinhalt testet ODER ich etwas im Code optimieren muss, damit AOT-Sachen in den Vertrieb gelangen können? Vielen Dank im Voraus.Wie Tensorflow XLA AOT Unterstützung in Tensorflow-Verteilung ausüben

+1

Das Ziel für binäre ist '// tensorflow/compiler/aot: tfcompile' (Ich sehe Verweis in' Tensorflow/Compiler/aot/tfcompile.bzl'). Sie müssen diese Binärdatei selbst erstellen, XLA ist experimentell und daher sind JIT/AOT-Bits in der offiziellen Version –

+0

nicht enthalten. Wie Sie vorgeschlagen haben, habe ich // tensorflow/compiler/aot: tfcompile in tensorflow/tensorflow/tool/pip_package/BUILD in build_pip_package Ziel tfcompile stuff baut ebenfalls auf und eine Binärdatei wird im bazel-out-Verzeichnis gefunden. Aber diese Binärdatei geht nicht in die Raddatei. Gibt es eine Veränderung, die ich vermisse? So habe ich meiner Wheel-Datei zusätzliche Sachen hinzugefügt. Aber irgendwie funktioniert TFCompile nicht. Bitte hilf mir. –

+0

Das ist wahrscheinlich standardmäßig - da es experimentell ist, das Skript, das Dinge in Wheel-Datei setzt, schließt es explizit aus –

Antwort

0

Ich weiß, dass Sie speziell über AOT sind gefragt, aber ich empfehle Ihnen erste Seite lesen: https://www.tensorflow.org/performance/xla/

Und dann diese Zeilen lesen ein: https://www.tensorflow.org/performance/xla/jit

Insbesondere beachten Sie, dass XLA nicht in unserem binären enthalten ist Verteilungen; Sie müssen von der Quelle im Moment bauen. Beachten Sie, dass Sie "XLA aktivieren" auswählen müssen, wenn Sie ./configure ausführen, damit die XLA-Unterstützung aktiviert wird.

Sobald Sie das getan haben, ist der Rat von Yaroslav Bulatov richtig; Sie können die Binärdateien selbst erstellen oder die Tests über Bazel ausführen.

+0

Ja. Vielen Dank. Ich habe diese Links früher durchgesehen und verstanden, dass die Unterstützung experimentell ist und während ./configure aktiviert werden kann. Es tut mir leid, dass ich früher nicht klar war. Ich habe Tensorflow selbst erstellt, indem ich die XLA-Unterstützung aktiviert habe, während ich eine Wheel-Datei konfiguriert und erstellt habe. Mit Distribution meinte ich also den installierten TF, dessen .whl-Datei durch den Aufbau der Quelle erstellt wird. Trotz der Aktivierung von XLA wird nichts von tfcompile am installierten Speicherort angezeigt. Müssen wir dieses Ziel zusätzlich zum Aktivieren von XLA explizit erstellen? Und gibt es außer Bazeltests irgendwelche Python-Tests für AOT-Tests? –

+0

AFAIK tfcompile ist ein eigenständiges Programm und es ist nie im pip-Paket enthalten, obwohl es bequem wäre, AOT über das pip-Paket (wie eine 'tf.compile (graph)' -Funktion oder etwas) zu verwenden, wenn XLA jemals in der PyPI-Version. –

Verwandte Themen