Project Voldemort sieht gut aus, aber ich habe bis jetzt nicht tief in sie hineingeschaut.
Im aktuellen Zustand ist CouchDB möglicherweise nicht die richtige Lösung für "große Datenmengen". Das Verteilen von Daten zwischen Knoten und das Weiterleiten von Abfragen sind in der Roadmap enthalten, aber noch nicht implementiert. Die größten bekannten Produktions-Setups von CouchDB verwenden "Tabellen" ("Datenbanken" in Couch-Sprache) von etwa 200G.
HA wird nicht nativ von CouchDB unterstützt, kann aber leicht erstellt werden: Alle CouchDB-Knoten replizieren die Datenbankknoten untereinander in einem Multi-Master-Setup. Wir setzen zwei Varnish proxies vor die CouchDB Maschinen und die Varnish Boxen werden mit CARP redundant gemacht. CouchDBs "Build from the Web" Design macht solche Dinge sehr einfach.
Das dringendste Problem in our setup ist die Tatsache, dass es immer noch Probleme mit der Replikation von großen (Multi-MB) Anhänge zu CouchDB-Dokumente gibt.
Ich schlage vor, Sie überprüfen auch die traditionelle RDBMS-Route. There are huge issues mit verfügbaren Talente außerhalb des RDBMS Ansatz und es gibt sehr fähige Angebote zur Verfügung von Oracle & Co.
ich oft habe, dass Cache von Intersystems gemacht gelesenen im Gesundheitswesen 'Welt' stark genutzt. Können sie nicht eine Lösung bieten? – tuinstoel