Ich arbeite an einem Projekt mit einer großen Menge an Daten von der köstlichen Website. Die verfügbaren Daten sind "Datum, Benutzer-ID, URL, Tags" (für jedes Lesezeichen).Datenbankentwurf für sehr große Datenmengen
Ich normalisierte meine Datenbank auf eine 3NF, und wegen der Art der Abfragen, die wir in Kombination verwenden wollten, kam ich auf 6 Tabellen ... Das Design sieht gut aus, aber jetzt, dass eine große Menge Daten sind in der Datenbank, die meisten Abfragen müssen mindestens 2 Tabellen zusammenkommen, um die Antwort zu erhalten, manchmal 3 oder 4. Zuerst hatten wir keine Leistungsprobleme, weil wir für Testzwecke nicht zu viel hinzugefügt hatten Daten in die Datenbank. Da wir nun sehr viele Daten haben, ist es sehr zeitaufwändig, extrem großen Tabellen beizutreten. Für unser Projekt, das in Echtzeit sein muss, ist das ein Desaster.
Ich habe mich gefragt, wie große Unternehmen diese Probleme lösen. Es sieht so aus, als würde die Normalisierung von Tabellen die Komplexität erhöhen, aber wie verwaltet die große Firma große Datenmengen in ihren Datenbanken, verwenden sie nicht die Normalisierung?
Danke.
Vielen Dank für Ihre Antwort. Ehrlich gesagt, habe ich nicht an die Dinge gedacht, die du hier erwähnt hast. Jetzt wurde mir klar, dass ich viel ignoriert habe, als ich die Datenbank entwarf. Die Datenbank verwendet MyISAM. Ich werde über die Dinge lesen, die du erwähnt hast. Danke vielmals – Hossein