Ich muss nach Lösungen für die Bereitstellung einer MySQL-Datenbank suchen, die Datenvolumen im Terabyte-Bereich bewältigen und hochverfügbar sein kann (fünf Neunen). Jede Datenbankzeile hat wahrscheinlich einen Zeitstempel und bis zu 30 Gleitkommawerte. Die erwartete Arbeitslast beträgt bis zu 2500 Einsätze/Sek. Abfragen sind wahrscheinlich weniger häufig, könnten aber groß sein (möglicherweise 100 GB Daten), obwohl wahrscheinlich nur einzelne Tabellen betroffen sind.Kann MySQL Cluster eine Terabyte-Datenbank handhaben?
Ich habe MySQL Cluster betrachtet, da dies ihr HA-Angebot ist. Aufgrund der Datenmenge müsste ich Festplattenspeicher verwenden. Realistisch gesehen denke ich, dass nur die Zeitstempel im Speicher gehalten werden können und alle anderen Daten auf der Festplatte gespeichert werden müssen.
Hat jemand Erfahrung mit MySQL Cluster in einer Datenbank dieser Größenordnung? Ist es überhaupt möglich? Wie wirkt sich Disk-basierter Speicher auf die Leistung aus?
Ich bin auch offen für andere Vorschläge, wie man die gewünschte Verfügbarkeit für diese Datenmenge erreichen kann. Wäre es beispielsweise besser, eine Bibliothek von Drittanbietern wie Sequoia zu verwenden, um das Clustering von Standard-MySQL-Instanzen zu handhaben? Oder eine einfachere Lösung basierend auf MySQL Replikation?
Die einzige Bedingung ist, dass es sich um eine MySQL-basierte Lösung handelt. Ich glaube nicht, dass MySQL der beste Weg ist, um mit den Daten umzugehen, mit denen wir es zu tun haben, aber es ist eine harte Anforderung.
Wenn Sie nach Technologien suchen, sollten Sie einige Projekte in Betracht ziehen, die auf Googles BigTable basieren. HBase von Hadoop und Hypertable sind interessante Projekte zum Betrachten. http://hadoop.apache.org/hbase/ und http://www.hypertable.org/ – Kekoa
Diese Frage kann besser auf serverfault.com gestellt werden. – lothar