Ich wurde beauftragt, ein Shell-Skript zu schreiben, um Hunderte von Protokolldateien in vielen Verzeichnissen auf Linux- und Solaris-Servern zu durchsuchen. Einige der Protokolle sind in vielen Formaten komprimiert und einige sind einige GB groß. Ich mache mir Sorgen, dass grep viele Ressourcen auf dem Server benutzt und möglicherweise Webserver, die auf dem Rechner laufen, durch Erschöpfen des Arbeitsspeichers (wenn dies wahrscheinlich passieren wird) herunterfährt.Grep Ressourcennutzung
Sollte ich die Dateien dekomprimieren, grep sie und dann erneut komprimieren oder verwenden Sie zgrep (oder gleichwertig), um sie zu durchsuchen, während sie komprimiert sind? Wäre es von Vorteil, eine Methode gegenüber der anderen einzusetzen?
Gibt es auch eine einfache Möglichkeit, die Speichernutzung eines Befehls auf einen Prozentsatz von dem, was derzeit verfügbar ist, zu beschränken?
Wenn jemand erklären könnte, wie die Speichernutzung beim Ausführen dieser Befehle funktioniert, würde das sehr hilfreich sein.
Geben Sie auch keine große Musterdatei mit '-f' an. Wahrscheinlich würde es nicht helfen. – stevesliva