ich ein defaultdict haben, das so aussieht ...konvertieren eine dict auf eine Liste von Listen
defaultdict(int,
{" u'CAMILLE'": 10,
" u'SAHARA'": 1,
" u'JEREMIAH'": 114,
" u'EDISON'": 9,
...}
Ich brauche so etwas wie ...
[[u'CAMILLE', 10],
[u'SAHARA', 1],
[u'JEREMIAH',114],
[u'EDISON', 9],
...]
beide
firstnames = [lambda x,y:list(x,y) for k,v in firstnames.items()]
und
firstnames = [lambda x,y:[x,y] for k,v in firstnames.items()]
produzieren
[<function __main__.<lambda>>,
<function __main__.<lambda>>,
<function __main__.<lambda>>,
<function __main__.<lambda>>,
...]
die offensichtlich nicht, was ich die Absicht ist. Wie kann ich diesen Code korrigieren?
Warum denkst du, du brauchst hier ein Lambda? –
Was hat das mit [tag: apache-spark] zu tun? –
Ich dachte, dass vielleicht die Umwandlung von defaultdicts in geschachtelte Listen in Spark üblich ist, da bestimmte Transformationen zu einem defaultdict führen ... dh "firstnames = babynames.map (Lambda X: x.First_Name) .countByValue()" aber dann "Vornamen .take (10) "wird nicht funktionieren, da defaultdicts keine" take "-Methode hat. – kjarsenal