Apple wird Live Photo in iOS 9/iPhone 6s vorstellen. Wo ist das Dateiformat dokumentiert?Apple Live Foto Dateiformat
Antwort
Hier ist die link. Ansonsten ist hier der Text:
Live-Fotos
Live-Fotos ist ein neues Feature von iOS 9, mit dem Benutzer zu erfassen und erleben ihre Lieblingsmomente mit reichem Kontext als traditionelle Fotos. Wenn der Benutzer den Auslöser drückt, erfasst die Kamera App viel mehr Inhalt zusammen mit dem normalen Foto, einschließlich Audio und zusätzliche Bilder vor und nach dem Foto. Wenn Sie diese Fotos durchsuchen, können die Benutzer mit ihnen interagieren und alle aufgenommenen Inhalte abspielen und die Fotos zum Leben erwecken.
iOS 9.1 führt APIs ein, mit denen Apps die Wiedergabe von Live-Fotos ermöglichen und die Daten zur gemeinsamen Nutzung exportieren können. Es gibt eine neue Unterstützung im Photos-Framework, um ein PHLivePhoto-Objekt aus dem PHImageManager-Objekt zu holen, das zur Darstellung aller Daten dient, die ein Live-Foto enthält. Sie können ein PLEivePhotoView-Objekt verwenden ( im PhotosUI-Framework definiert), um den Inhalt eines Live-Fotos anzuzeigen. Die Ansicht "PHLivePhotoView" sorgt dafür, dass das Bild angezeigt wird, alle Benutzerinteraktionen gehandhabt werden und dass die visuellen Behandlungen angewendet werden, um den Inhalt wiederzugeben .
Sie können auch PHAssetResource verwenden, um auf die Daten eines PHLivePhoto Objekts für gemeinsame Zwecke zuzugreifen. Sie können ein PHLivePhoto-Objekt für ein Asset in der Fotobibliothek des Benutzers anfordern, indem Sie PHImageManager oder UIImagePickerController verwenden. Wenn Sie eine Freigabeerweiterung haben, können Sie auch PHLivePhoto-Objekte mithilfe von NSItemProvider abrufen. Auf der Empfangsseite einer Freigabe können Sie ein PLEivePhoto-Objekt aus der ursprünglich vom Absender exportierten Gruppe von -Dateien neu erstellen.
Richtlinien für die Live-Bilder
angezeigte Es ist wichtig, sich daran zu erinnern, dass ein Live Photo ist immer noch ein Foto. Wenn Sie in ein Live-Foto in einer Umgebung anzeigen müssen, die PHLivePhotoView nicht unterstützt, wird empfohlen, dass Sie es als normales Foto präsentieren ( ).
Die zusätzlichen Bilder und den Ton eines Live-Fotos nicht separat anzeigen. Es ist wichtig, dass der Inhalt des Live-Fotos in einer konsistenten Weise präsentiert wird, die das gleiche visuelle Behandlungs- und Interaktionsmodell in allen Apps verwendet.
Es wird empfohlen, dass Sie, indem das Abzeichen zur Verfügung gestellt von der PHLivePhotoView Klassenmethode livePhotoBadgeImageWithOptions ein Foto als Live Photo zu identifizieren: PHLivePhotoBadgeOptionsOverContent in die linke obere Ecke des Fotos.
Beachten Sie, dass keine Unterstützung für die Bereitstellung des visuellen Effekts besteht, den die Benutzer beim Durchblättern von Fotos in der Fotos-App erleben.
Richtlinien für die Freigabe Live Photos
Die Daten eines Live Photo ist als eine Reihe von Dateien in einem PHAssetResource Objekt exportiert. Der Satz von Dateien muss als eine Einheit erhalten werden, wenn Sie sie auf einen Server hochladen. Wenn Sie ein PHLivePhoto mit diesen Dateien auf der Empfängerseite erstellen, werden die Dateien validiert; Das Laden schlägt fehl, wenn die Dateien nicht von demselben Asset stammen.
Wenn Ihre App es Benutzern ermöglicht, Effekte oder Anpassungen auf ein Foto anzuwenden, bevor sie freigegeben werden, müssen Sie die gleichen Einstellungen auf alle Bilder des Live-Fotos anwenden. Alternativ, wenn Sie nicht die gesamte Inhalt eines Live-Foto anpassen, teilen Sie es als ein normales Foto und zeigen Sie eine entsprechende Anzeige für den Benutzer.
Wenn Ihre App UI hat Fotos für die Kommissionierung zu teilen, sollten Sie lassen Benutzer den gesamten Inhalt wiedergeben, so dass sie genau wissen, was sie sind sharing.When Auswahl der Fotos in Ihrer App zu teilen, sollten Benutzer auch in der Lage sein, um ein Live-Foto auszuschalten, damit es als traditionelles Foto gepostet werden kann.
Außerhalb der Dokumentation bestehen Live-Fotos aus 2 Ressourcen, einem Bild und einem mov (Quicktime-Filmdatei). So hat jedes Live Photo 2 'tatsächliche' Dateien, die durch den Wrapper des Live Photo-Typs verbunden sind.
Live-Fotos sind eigentlich zwei Dateien. Original JPEG Bild und Full HD Video.
Ein Live-Foto hat zwei Ressourcen. Sie sind mit einer Asset-ID (einer UUID als Zeichenfolge) verknüpft.
- Ein JPEG; Dies muss für
kCGImagePropertyMakerAppleDictionary
mit[17 : assetIdentifier]
(17 ist der Apple-Maker Note Asset-Kennung key) einen Metadateneintrag hat. - Quicktime MOV mit H.264 an der entsprechenden Bildrate (12-15fps) und Größe (1080p) kodiert. Dieser MOV muss folgende Werte haben:
- Quicktime-Metadateneintrag der obersten Ebene für
["com.apple.quicktime.content.identifier" : assetIdentifier]
. WennAVAsset
verwenden, können Sie diese vonasset.metadataForFormat(AVMetadataFormatQuickTimeMetadata)
- Timed Metadaten Track mit
["com.apple.quicktime.still-image-time" : 0xFF]
erhalten; Die tatsächliche Standbildzeit stimmt mit dem Präsentationszeitstempel für dieses Metadatenelement überein. Die Payload scheint nur ein einzelnes0xFF
Byte (alias -1) zu sein und kann ignoriert werden. Wenn SieAVAssetReader
verwenden, können SieCMSampleBufferGetOutputPresentationTimeStamp
verwenden, um diese Zeit zu erhalten.
- Quicktime-Metadateneintrag der obersten Ebene für
Die assetIdentifier
ist das, was die beiden Elemente miteinander verbindet und die zeitlich abgestimmten Metadatenspur ist, was das System sagt, wo das Standbild in der Film-Zeitleiste sitzt.
Uniform Type Identifier (UTI) für das Format ist kUTTypeLivePhoto
/com.apple.live-photo
@available(OSX 10.12, *)
public let kUTTypeLivePhoto: CFString
/*
*
* kUTTypeLivePhoto
*
* Live Photo
*
* UTI: com.apple.live-photo
*
*
*/
Was entspricht 'kUTTypeLivePhoto'? 'UTTypeCopyDeclaration (kUTTypeLivePhoto)' sagt, es entspricht niemandem. Es scheint ein bisschen seltsam. –
- 1. Machen Sie ein Live-Foto-Diashow
- 2. Apple-Politik für HTTP Live Streaming-Apps
- 3. Software, die Apple http Live-Streaming unterstützt
- 4. Fehler 1 libavcodec.so Dateiformat nicht erkannt Android GL Live Wallpaper
- 5. Instagram api Get Public Tag Foto im Live-Modus?
- 6. Kann ich ein Live-Foto in den iOS Simulator übertragen?
- 7. AS3-Bibliothek für den Umgang mit Apple HTTP Live Streaming
- 8. Wie „Hinweis“ für Live Photo
- 9. AppRun-Dateiformat?
- 10. Config-Dateiformat
- 11. Dateiformat Test
- 12. Multidex Dateiformat
- 13. Plasma-Dateiformat
- 14. Hat Apple das Dateiformat .mobileprovision geändert und wie kann ich das aktuelle Format anzeigen?
- 15. 3D-Szene Dateiformat & Viewer
- 16. PNG-Dateiformat Endianness?
- 17. Manifest vs Eigenschaften Dateiformat
- 18. Projekt Tango: vrmesh Dateiformat?
- 19. MP3-Dateiformat Details
- 20. Ein einfaches Protokoll-Dateiformat
- 21. Gettext PO-Dateiformat
- 22. Offline-OLAP-Cube-Dateiformat
- 23. ORC-Dateiformat mit Impala
- 24. Hilfe mit WordNet Dateiformat
- 25. iOS: Audio Recording Dateiformat
- 26. Get Flickr Foto ID aus Foto ID
- 27. Apple
- 28. Apple:
- 29. Leaderboard-Status "Nicht Live"
- 30. Foto-Slider
Eine Implementierung solcher Dateien zu schreiben, finden Sie hier: https: // GitHub.com/genadyo/LivePhotoDemo – jtbandes
Ist dies immer noch der Fall bei iOS 11 beim Erstellen von HEIC-Dateien, oder ist der Filmteil in derselben .heic-Datei wie der Fototeil verpackt? – jl6