Ich versuche, ein Werkzeug zu schreiben, das ein Verzeichnis komprimieren und die komprimierte Ausgabe in S3 streamen wird, ohne es zuerst auf der Festplatte zu speichern.Lesen Sie eine Datei, komprimieren Sie es und leiten Sie die komprimierte Ausgabe in S3
package main
import (
"compress/gzip"
"io"
"log"
"os"
"sync"
"github.com/rlmcpherson/s3gof3r"
)
// log.Fatal() implies os.Exit(1)
func logerror(err error) {
if err != nil {
log.Fatalf("%s\n", err)
}
}
func main() {
k, err := s3gof3r.EnvKeys()
logerror(err)
// Open bucket we want to write a file to
s3 := s3gof3r.New("", k)
bucket := s3.Bucket("somebucket")
// Open file to upload
files, err := os.Open("somefile")
logerror(err)
defer files.Close()
// open a PutWriter for S3 upload
s3writer, err := bucket.PutWriter("somezipfile.gz", nil, nil)
logerror(err)
// Create io pipe for passing gzip output to putwriter input
pipereader, pipewriter := io.Pipe()
defer pipereader.Close()
var wg sync.WaitGroup
wg.Add(2)
// Compress
go func() {
defer wg.Done()
defer pipewriter.Close()
gw := gzip.NewWriter(pipewriter)
defer gw.Close()
_, err := io.Copy(gw, files)
logerror(err)
}()
// Transmit
go func() {
defer wg.Done()
_, err := io.Copy(s3writer, pipereader)
logerror(err)
}()
wg.Wait()
}
Wenn ich das kompiliere und ausführe, erhalte ich keine Fehlerausgabe und keine Datei in S3. Hinzufügen einer Reihe von Drucken wird mir die folgende Ausgabe, wenn es hilfreich ist:
files: &{0xc4200d0a00}
s3writer: &{{https <nil> somebucket.s3.amazonaws.com /somezipfile.gz false } 0xc4200d0a60 0xc420014540 20971520 [] 0 0xc42010e2a0 0 false <nil> {{} [0 0 0 0 0 0 0 0 0 0 0 0] 0} 0xc42010e300 0xc42010e360 0xc42035a740 0 97wUYO2YZPjLXqOLTma_Y1ASo.0IdeoKkif6pch60s3._J1suo9pUTCFwUj23uT.puzzDEHcV1KJPze.1EnLeoNehhBXeSpsH_.e4gXlNqBZ0HFsvyABJfHNYwUyXASx { []} 0}
pipewriter: &{0xc42013c180}
gzipwriter: &{{ [] 0001-01-01 00:00:00 +0000 UTC 255} 0xc420116020 -1 false <nil> 0 0 false [0 0 0 0 0 0 0 0 0 0] <nil>}
archive: 1283
upload: 606
Hilfe geschätzt!
Möglicherweise müssen Sie 's3writer' schließen. Kann man anstelle der Verwendung der Pipe und zusätzlicher goroutines nicht einfach 's3writer' als Argument für' gzip.NewWriter' verwenden? –
Und warum nicht Amazon Go SDK verwenden? –
Stellen Sie sicher, dass Ihr SDK auf dem neuesten Stand ist. Stellen Sie außerdem sicher, dass Ihr Datenvolumen weniger als 5 GB beträgt. Andernfalls müssen Sie den Multi-Upload-Ansatz verwenden, um Daten in Ihren Bucket zu stellen. – Sam