Wenn wir einen Klassifikator der NLP-Anwendung mit Daten bewerten möchten, die mit zwei Annotatoren kommentiert sind, und sie sind nicht vollständig auf der Annotation, wie ist das Verfahren? Das heißt, wenn wir die Klassifikator-Ausgabe nur mit dem Teil der Daten vergleichen sollten, auf den sich die Kommentatoren geeinigt haben? oder nur eine der Annotator-Daten? oder die beiden getrennt und berechnen dann den Durchschnitt?Auswertung NLP-Klassifikator mit annotierten Daten
Antwort
Die Mehrheit zwischen Annotatoren ist üblich. Auseinandersetzungen werden ebenfalls ausgetragen.
Here ist ein Blog-Beitrag zum Thema:
Angenommen wir eine Reihe von Annotatoren haben und wir haben keine perfekte Einigung über Gegenstände. Was machen wir? Nun, in der Praxis neigen maschinelle Lernverfahren dazu, (1) die Beispiele ohne Zustimmung wegzuwerfen (z. B. die RTE-Evals, einige biocreative benannte Entity-Evals, etc.), oder (2) gehen mit dem Majoritäts-Label (alles andere I kennen). In jedem Fall werfen wir eine große Menge an Informationen weg, indem wir das Etikett auf künstliche Sicherheit reduzieren. Sie können dies ziemlich einfach mit Simulationen sehen, und Raykar et al. zeigte es mit echten Daten.
Was für Sie richtig ist, hängt stark von Ihren Daten und davon ab, wie die Annotatoren nicht übereinstimmen. Für den Anfang, warum nicht verwenden Sie nur Elemente, denen sie zustimmen und sehen, was dann vergleichen Sie das Modell mit denen, die sie nicht einverstanden waren?
- 1. Wie Sie Daten mit @ManyToMany annotierten Tabellen erhalten?
- 2. Wie soll ich einen mit zusätzlichen Informationen annotierten AST darstellen?
- 3. Wie @RefreshScope mit @ EnableBinding-annotierten Klassen verwenden?
- 4. Tensorflow Auswertung: Auswertung aller Bilder
- 5. Auswertung Zusammenhang mit @everywhere
- 6. Auswertung mit ROC-Kurve
- 7. Angular/Bootstrap-Daten-Ziel nicht Ausdruck Auswertung
- 8. Spring Web: Controller mit annotierten Zuordnungen - Getting HttpServletRequest/Formulardaten
- 9. Erhalten eines richtigen Stream-Ergebnisses mit nativen annotierten Abfragen?
- 10. AspectJ - Erhalte den Wert des annotierten Methodenparameters
- 11. Guice Injektor GetInstance von annotierten Singleton Instanz
- 12. Auftrag der Auswertung mit Ausnahme
- 13. Docker CMD Auswertung mit ENTRYPOINT
- 14. Metaprogrammierung Auswertung
- 15. Springabhängigkeit, die einen annotierten Aspekt einspeist
- 16. PySpark Auswertung
- 17. Verzögerte Auswertung in C#
- 18. Wie stemple ich eine Methode einer mit @InjectMocks annotierten Klasse?
- 19. Autowired Environment ist null in @ Konfiguration mit annotierten Klassen
- 20. Automatisches Generieren von Datenschemata aus JPA-Klassen mit annotierten Entitäten
- 21. OPAL: Manuelles Erstellen einer annotierten Methode
- 22. Auswertung Javascript Expressions
- 23. RDotNet Auswertung mit JSON oder DataTable Spalten
- 24. Auswertung MapboxGLManager.mapStyles
- 25. Operatoren Auswertung
- 26. Tuple Auswertung
- 27. Generierung np.einsum Auswertung Grafik
- 28. Linq und latente Auswertung
- 29. Tidy Auswertung Programmierung mit dplyr :: case_when
- 30. Deeplearning4j mit Funken: SparkDl4jMultiLayer Auswertung mit JavaRDD