Nehmen wir an, Sie modellieren eine Entität mit vielen Attributen (2400+), weit größer als die physische Grenze für eine bestimmte Datenbank-Engine (z. B. ~ 1000 SQL Server). Wenn Sie nichts über die relative Bedeutung dieser Datenpunkte wissen (welche sind am häufigsten/am häufigsten verwendet), abgesehen von den Domänen-/Kandidatenschlüsseln, wie würden Sie sie implementieren?Wie würden Sie einen sehr breiten "Tisch" implementieren?
A) EAV. (boo ... Native relationale Tools aus dem Fenster geworfen.)
B) Gehen Sie geradeaus. Die erste Tabelle hat einen Primärschlüssel und 1000 Spalten bis zum Limit. Die nächste Tabelle ist 1000, Fremdschlüssel für die erste Tabelle. Die letzte Tabelle ist die restlichen 400, auch Fremdschlüssel.
C) Streifen gleichmäßig über ceil(n/limit)
Tabellen. Jede Tabelle hat eine gerade Anzahl von Spalten, Fremdschlüssel für die erste Tabelle. 800, 800, 800.
D) Etwas anderes ...
Und warum?
Edit: Dies ist eher eine philosophische/generische Frage, nicht an bestimmte Grenzen oder Motoren gebunden.
Edit^2: Wie viele darauf hingewiesen haben, wurden die Daten wahrscheinlich nicht normalisiert. Zu dieser Zeit machten die geschäftlichen Zwänge eine tiefgehende Forschung unmöglich.
Es warnte mich, dass es eine Frage der Meinung war. Ehh, ich weiß nicht. –
Ja, ich habe meine "Why CW" -Abfrage gelöscht, als ich Ihre Bearbeitung gesehen habe! –