Antwort

5

Es gibt keinen Befehl "Duplikate finden" in Amazon S3.

Allerdings müssen Sie wie folgt vorgehen:

  • Abrufen einer Liste von Objekten im Eimer
  • Geben Sie für Objekte, die die gleicheETag (Prüfsumme) haben und Size

Sie würden (sehr wahrscheinlich) doppelte Objekte sein.

+0

Welche Methode würden Sie empfehlen, nach dem gleichen 'ETag' und' Size' zu ​​suchen? – Borealis

+0

Wenn Sie mit dem Befehl ['list-objects'] (https://docs.aws.amazon.com/cli/latest/reference/s3api/list-objects.html) eine Liste von Objekten abrufen, enthält diese das' ' ETag'. –

3

Hier ist ein Git-Repository: https://github.com/chilts/node-awssum-scripts, die eine js-Skriptdatei hat, um die Duplikate in einem S3-Bucket zu finden. Ich weiß, auf eine externe Quelle zu zeigen ist nicht empfohlen, aber ich hoffe, es kann Ihnen helfen.

0
import boto3 
s3client = boto3.client('s3',aws_access_key_id=ACCESS_KEY,aws_secret_access_key=SECRET_KEY,region_name=region) 
etag = s3client.head_object(Bucket='myBucket',Key='index.html')['ResponseMetadata']['HTTPHeaders']['etag'] 
print(etag) 
+1

Bitte fügen Sie einige Erklärungen zu Ihrer Antwort hinzu –

Verwandte Themen