2017-05-07 2 views
0

Ich arbeite an der Umsetzung einer Anforderung zum Erstellen eines Wörterbuchs von Wörtern zu Dokumenten mit Apache Funke und Mongodb.Tokenize Textinhalt mit Spark SQL?

In meinem Szenario habe ich eine Mongo-Sammlung, in der jedes Dokument einige Textfelder sowie ein Feld für den Besitzer des Dokuments enthält.

Ich möchte den Textinhalt in Auflistungsdokumenten analysieren und ein Wörterbuch erstellen, das Wörter den Dokumenten- und Eigentümerfeldern zuordnet. Grundsätzlich wäre der Schlüssel ein Wort und Wert wäre _id und Besitzer Feld.

Die Idee besteht darin, automatische Vorschläge für den Benutzer bereitzustellen, wenn er das Textfeld auf der Benutzeroberfläche basierend auf den Benutzerdokumenten eingibt. Ein Benutzer kann mehrere Dokumente erstellen und ein Wort kann sich in mehreren Dokumenten befinden, aber nur ein Benutzer kann ein Dokument erstellen.

Ich benutzte Mongo Spark Connector und ich bin in der Lage, die Sammlung Dokumente in einem Datenrahmen mit Spark sql zu laden.

Ich bin mir nicht sicher, wie man die Textdaten verarbeitet, die in einer der Datenframe-Spalten jetzt sind, um die Wörter zu extrahieren.

Gibt es eine Möglichkeit mit Spark-SQL des Textinhalt in der Datenrahmensäule zu verarbeiten/tokenize Worte zu extrahieren und zu _id und Besitzern Felder zuordnen und die Ergebnisse in einer anderen Sammlung zu schreiben.

Wenn nicht, kann mir jemand bitte den richtigen Ansatz/Schritte sagen, wie ich es erreichen kann.

Antwort