PatriciaTrie oder HashMap, die am besten ist, große (100 Tausende Datensätze) Datenmenge in Sitzung zu speichern. Wie PatriciaTrie den Speicher reserviert - Zum Beispiel - HashMap reserviert den Speicher nach Initial_Size * loadFactor.PatriciaTrie oder HashMap, die am besten ist, um große Datenmengen in Sitzung zu speichern
Antwort
Momentan suche ich nach dem besten Ersatz für HashMap, da der Speicheraufwand höher ist und ich die Daten schneller aktualisieren und abrufen muss.
Ich weiß nicht, ob ein Trie
geben Ihnen einen kleineren Speicher-Overhead als ein HashMap
. Es hängt von der Größe und Verteilung der Schlüssel ab und davon, wie Sie das Trie implementieren. Das gleiche gilt wahrscheinlich für die Geschwindigkeit der Suche und Aktualisierung.
Ich glaube, Sie werden versuchen müssen (kein Wortspiel beabsichtigt) beide Alternativen und Maß die Leistung ... mit Datensätzen, die Vertreter Ihrer aktuellen Daten sind.
Der andere Punkt (den Sie scheinbar missverstanden haben) ist, ob Sie beabsichtigen, die Trie-spezifischen Methoden in der API zu nutzen; z.B. ceiling
, floor
, headMap
, tailMap
, first
, last
, und so weiter. Wenn Sie dies tun, müssen Sie eine Trie ... oder eine andere navigierbare Karten-API verwenden. Sie können solche Dinge nicht effizient mit einem HashMap
tun.
- 1. Beste Art, große Datenmengen zu speichern
- 2. Ist SharedPreference eine gute Möglichkeit, große Datenmengen zu speichern?
- 3. Welches Tool zur Versionskontrolle ist am besten geeignet, um nur die letzten 'N' Commits zu speichern?
- 4. Welche NoSQL-Lösung ist am besten, um Apache error_log und access_log zu speichern? Kassandra oder MongoDB?
- 5. Codeigniter Optimierung/am besten Ort, um Modelle zu laden ist?
- 6. Wie synchronisieren Sie große Datenmengen auf der ganzen Welt am besten?
- 7. Java HashMap finden am besten passenden Schlüssel
- 8. Welches ist am besten zu ViewState oder Hiddenfield
- 9. Der beste Weg, um große Datenmengen in DataGrid zu laden
- 10. SQLite für große Datenmengen?
- 11. Der effizienteste Weg, um große Datenmengen in Firebase zu paginieren
- 12. Was AI am besten ist, um ein Gebiet zu lernen
- 13. die man am besten ist für null oder leer Scheck
- 14. Wie speichern Sie die Leistungsdaten in CrateDB am besten?
- 15. Ist die Parse Array-Implementierung eine Optimierung für große Datenmengen?
- 16. Was ist die Alternative zu Cursorn, um große Datenmengen aus einer Datenbank abzurufen?
- 17. Beste Datenstruktur für große Datenmengen?
- 18. Große Datenmengen und SQL-Server
- 19. Große Datenmengen an eine Combobox binden?
- 20. Wiederverwendung von HttpURLConnection, um die Sitzung am Leben zu halten
- 21. Wie behandelt man große Datenmengen in Mysql oder Infobright Datenbanken ...?
- 22. Datenbankentwurf für sehr große Datenmengen
- 23. Wie können Videospiele große Datenmengen effizient speichern/abrufen?
- 24. Wie speichern Sie die GPS-Koordinaten am besten, um sie später zu verwenden? (keine APIs verwendend)
- 25. Was ist die beste Lösung für große Datenmengen, Volltextsuche?
- 26. Android SQLite und große Datenmengen
- 27. Ich versuche ein Diagramm zu füllen, was ist der am besten optimierte Weg, um die erkundeten Knoten zu speichern?
- 28. Ist Railo am besten unter Linux oder Windows implementiert?
- 29. EF6 Aggregation auf große Datenmengen
- 30. Was ist der effizienteste Weg, um große Datenmengen mit Javascript/jQuery im IE zu verwalten?
Definiere "groß" - mindestens so groß wie? Was? Hunderte von Einträgen? Wenige Mega-Einträge? –
Führen Sie einige Tests durch, um herauszufinden, was besser funktioniert. – Henry
Ich brauche eine Erklärung, warum ich PatriciaTrie anstelle von HashMap verwenden werde. – user2817898