Mit Orakel 10g, Zugriff über Perl DBI, habe ich eine Tabelle mit ein paar Dutzend Millionen Zeilen aktualisiert einige Male pro Sekunde, während viel häufiger aus einem anderen Prozess gelesen werden.Wann werden Änderungen vorgenommen?
Bald wird die Update-Frequenz um eine Größenordnung (vielleicht zwei) zunehmen. Jemand hat vorgeschlagen, dass die Durchführung von N Updates statt nach jedem Update die Leistung verbessert.
Ich habe ein paar Fragen:
- dass schneller sein oder langsamer oder es hängt (Planung, sobald beide Weg zur Benchmark als eine ordentliche Simulation des neuen Last bekommen)
- Warum wird es helfen/behindern die Leistung.
- Wenn "es abhängt ...", auf was?
- Wenn es hilft, was ist der beste Wert von N?
- Warum kann mein lokaler DBA keine hilfreiche direkte Antwort haben, wenn ich eine brauche?
(Eigentlich weiß ich die Antwort auf diese ein) :-)
EDIT:
@codeslave: Danke, btw Uncommited Änderungen zu verlieren ist kein Problem, ich nicht löschen kann Originaldaten verwendet für die Aktualisierung, bis ich sicher, dass alles am in Ordnung ist, btw Dame Reinigung tat den Server unplugs, zWEIMAL :-)
Einige googeln zeigte, dass es helfen könnte weil von Problem im Zusammenhang mit Rollback Segmente, aber ich weiß immer noch nicht eine Faustregel für N alle paar Zehner? Hunderte? tausend ?
@diciu: Tolle Infos, werde ich auf jeden Fall Blick in das.
Können Sie näher erläutern, warum das helfen würde? – Pat
Weil es die Verarbeitung von mehr Daten mit weniger SQL-Operationen ermöglicht. Es ist schneller –