Ich arbeite an einer Anwendung, die Daten unter Linux (RHEL 7) archiviert. Die Anwendung behält die Datei von der Quelle und legt die tar/tar.gz im Archivordner ab. Was gut funktionierte, wenn ich nur wenige Daten hatte. aber wenn ich mit großen Daten versuche, erhalte ich folgende Ausnahme ...Limit Dateianzahl pro Verzeichnis bei RHEL
Caused by: java.io.IOException: File too large
at java.io.UnixFileSystem.createFileExclusively(Native Method) ~[na:1.8.0_92]
at java.io.File.createNewFile(File.java:1012) ~[na:1.8.0_92]
Die Quelle hat mehr als 60,00,000 und es hat brechen in der Nähe über die 3.280.000 Dateianzahl. Wir archivieren alle Dateien in einem einzigen Ordner. System verfügt über genügend verfügbaren Speicherplatz.
Gibt es eine Begrenzung der Dateien pro Ordner bei Linux?
Ich habe auch bei /etc/security/limits.config überprüft, aber es hat keine Einstellung so gut wie komplette Datei ist kommentiert.
WICHTIG: Dateien werden in NFS geschrieben.
Verwenden von ext4? Es gibt Inode-Grenzen ... überprüfe die Ausgabe von: df -i –
inode hat nolimit - Ich habe meine Frage aktualisiert, wo Dateien bei NFS geschrieben werden –