Ich benutze IBM Bluemix, um etwas Audio zu transkribieren, und ich möchte die APIs Sprechererkennung verwenden.Android Bluemix zeigt kein Speaker-Tag
stelle ich die die Erkennungs so zusammen:
private RecognizeOptions getRecognizeOptions() {
return new RecognizeOptions.Builder()
.continuous(true)
.contentType(ContentType.OPUS.toString())
//.model("en-US")
.model("en-US_BroadbandModel")
.timestamps(true)
.smartFormatting(true)
.interimResults(true)
.speakerLabels(true)
.build();
}
Aber die zurück JSON umfaßt nicht die Lautsprecher-Tag. Wie kann ich die Lautsprecher-Tag auch mit der Bluemix Java API zurückgegeben bekommen?
Meine Audio-Recorder in Android sieht wie folgt aus:
private void recordMessage() {
//mic.setEnabled(false);
speechService = new SpeechToText();
speechService.setUsernameAndPassword("usr", "pwd");
if(listening != true) {
capture = new MicrophoneInputStream(true);
new Thread(new Runnable() {
@Override public void run() {
try {
speechService.recognizeUsingWebSocket(capture, getRecognizeOptions(), new MicrophoneRecognizeDelegate());
} catch (Exception e) {
showError(e);
}
}
}).start();
Log.v("TAG",getRecognizeOptions().toString());
listening = true;
Toast.makeText(MainActivity.this,"Listening....Click to Stop", Toast.LENGTH_LONG).show();
} else {
try {
capture.close();
listening = false;
Toast.makeText(MainActivity.this,"Stopped Listening....Click to Start", Toast.LENGTH_LONG).show();
} catch (Exception e) {
e.printStackTrace();
}
}
}
Ich glaube, Sie bedeuten, dass er die Sprache-zu-Text-Tag hinzufügen soll, nicht Text-zu-Sprache;) –
@bear Was ist die Audiodatei und die Erkennungsmethode, die Sie verwenden? verwenden Sie WebSockets? –
@GermanAttanasio Ich benutze die Watson Android Audio Streaming API, siehe mein aktualisierten Code-Snippet – bear