TensorFlow als Build es eine schöne Möglichkeit, Daten zu speichern. Dies wird beispielsweise verwendet, um die Daten MNIST im Beispiel zu speichern:TensorFlow erstellen Datensatz aus numpy Array
>>> mnist
<tensorflow.examples.tutorials.mnist.input_data.read_data_sets.<locals>.DataSets object at 0x10f930630>
Angenommen, ein Eingangs- und Ausgangs numpy Arrays haben.
>>> x = np.random.normal(0,1, (100, 10))
>>> y = np.random.randint(0, 2, 100)
Wie kann ich sie in einen tf
Datensatz umwandeln?
Ich mag Funktionen nutzen wie next_batch
Ok danke, ich hatte diesen Verdächtigen. Ich denke, es wäre ein hilfreiches Werkzeug als Teil der Hauptbibliothek. AFAIK Bei jeder Stapeloperation in einem numply-Array muss eine Kopie der Daten ausgeführt werden. Dies kann zu einem langsameren Algorithmus führen – Donbeo
Die Philosophie ist, dass TensorFlow nur eine Kern-Math-Bibliothek sein sollte, aber andere Open-Source-Bibliotheken können zusätzliche Abstraktionen bieten, die für maschinelles Lernen verwendet werden. Ähnlich wie Theano, auf dem Bibliotheken wie Pylearn2 aufgebaut sind. Wenn Sie Kopiervorgänge vermeiden möchten, können Sie die queuebasierte Datenzugriffsfunktion anstelle von Platzhaltern verwenden. –
Ich sehe den Punkt. Danke vielmals! – Donbeo