Hier ist, was ich tun möchte, mit (MySQL Beispiel) aufzuspalten:Wie groß SQL-Dump-Datei in kleine Stücke und halten jeden Datensatz in Ursprungsdateien trotz später andere Aufzeichnungen Löschungen
- Dumping nur Struktur - structure.sql
- Dumping alle Datentabelle - data.sql
- spliting data.sql und setzen jeweils Tabellendaten info separate Dateien - table1.sql, table2, sQL, table3.sql ... tablen.sql
- Splitting jede Tabelle in kleinere Dateien (1k Zeilen pro Datei)
- alle Dateien in meinem lokalen Git Repository
- Bewältigungs alle dir, um sichere Remote serwerwer
Ich habe ein Problem mit # 4 Schritt commiting.
Zum Beispiel teile ich table1.sql in 3 Dateien: table1_a.sql und table1_b.sql und table1_c.sql. Wenn auf neuen Dump gibt es neue Datensätze, die in Ordnung ist - es ist nur zu Table1_b.sql hinzugefügt.
Aber wenn Datensätze gelöscht werden, die in table1_a.sql waren, werden alle nächsten Datensätze verschoben und git behandelt Dateien table1_b.sql und table1_c.sql als geändert und das ist nicht OK.
Grundlegend zerstört es ganze Idee, SQL-Backup in SCM zu halten.
Meine Frage: Wie große sql-Dump-Datei in kleine Stücke aufgeteilt und jeden Datensatz in Origin-Dateien trotz später anderer Datensätze Streichungen beibehalten?
ich nicht weiß, welche Werte PKs sind. Data.sql stammt von mysqldump. –