2017-05-08 4 views
1

Meine Anforderung ist, ich muss OCR-Text aus dem Bild (JPG) mit Tensorflow lesen. Ich habe versucht, indem Sie das folgende Projekt heruntergeladen und versucht, den Code auszuführen.Ocr-Implementierung in Tensorflow

https://github.com/tensorflow/models/tree/master/attention_ocr

Ich kann den train.py aber nicht in der Lage testen Sie den kompletten Fluss auszuführen. Ich möchte 100 Beispielbilder trainieren und testen. Könnte jemand Detaileinblicke teilen, wie man weiter geht.

FYI: Früher habe ich die pytasser API verwendet, aber die Genauigkeit war sehr niedrig. Es war nicht in der Lage, Text in verschiedenen Größen zu lesen.

Antwort

1

Um ein Modell auf dem Datensatz Laufe FSN zu testen

python eval.py --dataset_name=fsns --split_name=test 

es wird die Bewertung für --num_batches (Standard 100) mal --batch_size Bilder (Standard 32) ausgeführt werden.

, wenn Sie es auf Ihrem eigenen Daten testen möchten, haben Sie drei Möglichkeiten:

  1. Konvertieren in das same format as FSNS und mynewdatasetname.py definieren, indem fsns.py
  2. Wiederverwendung Sie die Daten nicht konvertiert, sondern schreiben eine benutzerdefinierte Datensatzdatei ähnlich der fsns.py (siehe get_split Funktion
  3. ein benutzerdefiniertes Skript das trainierte Modell export schreiben und eine benutzerdefinierte eval Skript/app um die Auswertung zu tun. Hier sind some tips for that

Bitte beachten Sie, dass das auf der FSNS trainierte Attention OCR-Modell in der Lage ist, Straßennamenschilder in Frankreich zu schreiben, nicht nur einen zufälligen Text.