2016-12-12 20 views
1

Ich habe eine 200 + GB mysql-Abbild-Datei, die ich in dem lokalen SQL-Server auf meinem Entwicklungscomputer ausgeführt importieren muß. Ich versuchte, ein naiver Dump Wiederherstellung der ‚mysql < db_backup.sql‘ Ansatz und verwaltet rund 85% der Datenbank wiederhergestellt werden, bevor eine ‚MySQL-Server hat weggegangen‘ schlagen Fehler. Dies dauerte in der Region von 5 Tagen.Huge mysqldump Import

Ich würde gerne wissen, ob es eine Möglichkeit gibt, die teilweise wiederhergestellten DB mit der Dump-Datei zu vergleichen, um zu verstehen, welche Tabellen noch ausstehen oder wenn es eine erheblich (mindestens 4x) schnellere Methode aus einer großen Dump-Datei wiederherstellen .

Jeder Rat würde geschätzt werden. Danke.

+0

Ich denke, diese Frage auf http://dba.stackexchange.com besser passen es dort versuchen würde. –

Antwort

0

Ich habe ein ähnliches Problem konfrontiert, aber mit viel weniger Informationen (hundreads von MB, nicht GB). Ich habe versucht BigDump, die inneren Inhalt in Abfragen teilt, so dass Ihre Wiederherstellung Operation nicht Timeout (ich denke, das ist die Ursache des Fehlers - "mysql Server ist weg").

Wenn Sie jedoch steuern können, wie die Dump erhalten wird, würde ich Aufspaltung von Daten betrachtet den Export zu restaurieren und zu optimieren. Ein Weg wäre, große Tabellendaten in separate Dumps aufzuteilen.

Auch können alle Einsätze als erweiterte Einsätze (ein INSERT mit mehreren Einsatzwerte) definiert werden, um Platz zu sparen.