0
Angenommen, ich habe einen Datenrahmen df
, der mehrere Spalten hat column1
, column2
.. und ich möchte die Anzahl der leeren Werte in jeder Spalte finden. Ein Weg, um es zu tun ist, von jeder Spalte wie gehen:Leere Werte im Datenrahmen zählen: scala spark
df.filter($"column1" !== "").count
df.filter($"column2" !== "").count
.
.
Aber gibt es eine Möglichkeit, es in einer Zeile zu tun?
Während dieser Code Snippet kann die Frage lösen, [einschließlich einer Erklärung] (http://meta.stackexchange.com/questions/114762/explaining-entirely-code-based-answers) wirklich hilft, die Qualität Ihres Beitrags zu verbessern. Denken Sie daran, dass Sie die Frage für Leser in der Zukunft beantworten, und diese Leute könnten die Gründe für Ihren Codevorschlag nicht kennen. –
danke für die Antwort, aber meine Hauptfrage ist, wie man vermeidet, 'Spalte1',' Spalte2' zu schreiben ... kann diesen Code verwenden, wenn ich 100 Spalten oder mehr habe. –
@MpizosDimitris Überprüfen Sie meine aktualisierte Antwort –