2017-04-10 5 views
0

Ich arbeite an einer Anwendung, die Daten unter Linux (RHEL 7) archiviert. Die Anwendung behält die Datei von der Quelle und legt die tar/tar.gz im Archivordner ab. Was gut funktionierte, wenn ich nur wenige Daten hatte. aber wenn ich mit großen Daten versuche, erhalte ich folgende Ausnahme ...Limit Dateianzahl pro Verzeichnis bei RHEL

Caused by: java.io.IOException: File too large 
at java.io.UnixFileSystem.createFileExclusively(Native Method) ~[na:1.8.0_92] 
at java.io.File.createNewFile(File.java:1012) ~[na:1.8.0_92] 

Die Quelle hat mehr als 60,00,000 und es hat brechen in der Nähe über die 3.280.000 Dateianzahl. Wir archivieren alle Dateien in einem einzigen Ordner. System verfügt über genügend verfügbaren Speicherplatz.

Gibt es eine Begrenzung der Dateien pro Ordner bei Linux?

Ich habe auch bei /etc/security/limits.config überprüft, aber es hat keine Einstellung so gut wie komplette Datei ist kommentiert.

WICHTIG: Dateien werden in NFS geschrieben.

+0

Verwenden von ext4? Es gibt Inode-Grenzen ... überprüfe die Ausgabe von: df -i –

+0

inode hat nolimit - Ich habe meine Frage aktualisiert, wo Dateien bei NFS geschrieben werden –

Antwort

0

Die IOException mit Nachricht Datei zu groß - Aufgrund der Anwendung aufgetreten wurde die Datei bei NetApp NFS schreiben und wo es Begrenzung für die Anzahl der Dateien pro Verzeichnis hat.