Ich studiere Probleme bei der Erkennung von Währungen, die mit dem Vision SDK von iOS11 zusammenhängen. Ich habe Probleme, VNHomographicImageRegistrationRequest
zu behandeln, die die perspektivische Warp-Matrix bestimmt, die benötigt wird, um den Inhalt von zwei Bildern auszurichten. Aber ich konnte nicht herausfinden, wie man zwei Bildparameter in diese API sendet, kann mir jemand helfen?Hat jemand versucht, wie man Vision API (VNHomographicImageRegistrationRequest) in ios 11 verwendet?
Q
Hat jemand versucht, wie man Vision API (VNHomographicImageRegistrationRequest) in ios 11 verwendet?
-1
A
Antwort
1
Apples Vision-Rahmen Fluss ist immer das gleiche: Request -> Handler -> Beobachtung
Beispiel:
// referenceAsset & asset2 can be:
// CGImage - CIImage - URL - Data - CVPixelBuffer
// Check initializers for more info
let request = VNHomographicImageRegistrationRequest(targetedCGImage: asset2, options: [:])
let handler = VNSequenceRequestHandler()
try! handler.perform([request], on: referenceAsset)
if let results = request.results as? [VNImageHomographicAlignmentObservation] {
print("Perspective warp found: \(results.count)")
results.forEach { observation in
// A matrix with 3 rows and 3 columns.
print(observation.warpTransform)
}
}
0
`` `
- (matrix_float3x3) predictWithVisionFromImage: (UIImage ) imageTarget toReferenceImage: (UIImage) imageRefer {
UIImage *scaledImageTarget = [imageTarget scaleToSize:CGSizeMake(224, 224)];
CVPixelBufferRef bufferTarget = [imageTarget pixelBufferFromCGImage:scaledImageTarget];
UIImage *scaledImageRefer = [imageRefer scaleToSize:CGSizeMake(224, 224)];
CVPixelBufferRef bufferRefer = [imageRefer pixelBufferFromCGImage:scaledImageRefer];
VNHomographicImageRegistrationRequest* request = [[VNHomographicImageRegistrationRequest alloc]initWithTargetedCVPixelBuffer:bufferTarget completionHandler:nil];
VNHomographicImageRegistrationRequest* imageRequest = (VNHomographicImageRegistrationRequest*)request;
VNImageRequestHandler* handler = [[VNImageRequestHandler alloc]initWithCVPixelBuffer:bufferRefer options:@{}];
[handler performRequests:@[imageRequest] error:nil];
NSArray* resultsArr = imageRequest.results;
VNImageHomographicAlignmentObservation* firstObservation = [resultsArr firstObject];
return firstObservation.warpTransform;
}
`` `
Verwandte Themen
- 1. Hat jemand versucht, Flax?
- 2. Vision Framework Barcode-Erkennung für iOS 11
- 3. Hat jemand versucht mit ZooKeeper?
- 4. Hat jemand Swaggervel in einer vollständigen REST-API verwendet?
- 5. Hat jemand versucht, Transaktionsspeicher für C++?
- 6. Hat jemand jemals versucht, DialerFilter zu verwenden?
- 7. Hat jemand CosyRoc SSIS + verwendet?
- 8. Hat jemand Jaxer in der Produktion verwendet?
- 9. iOS 11 Vision-Framework - Text-Extraktion von Bild
- 10. App nur Abstürze für Iphone 6 und IPad in IOS 11 mit Vision & Maschine API Lernen
- 11. Hat jemand "Zustandsmaschine" wie Schema in Ihrem Projekt verwendet?
- 12. Wie skalierbar ist Google Vision API?
- 13. Hat jemals jemand die Ribbon Control verwendet?
- 14. Wie kann Google Vision API im Python-Programm verwendet werden?
- 15. iOS 11 CoreNFC Wie behandelt man Lesefehler?
- 16. Hat jemand versucht, IPVS als Load Balancer für Durchmesser-Protokoll?
- 17. Neue Vision API - Bildgröße
- 18. Hat jemand ServiceLoader zusammen mit Guice verwendet?
- 19. Microsoft Vision-API Bildvorverarbeitung
- 20. Authentifizierungsumleitungsfehler in iOS 11
- 21. Hat jemand Google Performance Tools verwendet?
- 22. Hat jemand das rhomobile Framework verwendet?
- 23. LSApplicationWorkspace In iOS 11 defekt
- 24. Microsoft Vision-API in Xamarin Ausnahme
- 25. google-cloud-vision API gibt weniger Ergebnisse
- 26. Breaks in iOS 11
- 27. Google Vision-API - tatusCode.RESOURCE_EXHAUSTED
- 28. Jemand versucht, meine Website
- 29. Welche Zeichenerkennungstechnik wird in Android Vision verwendet
- 30. Hat jemand versucht, die Umgebungsvariable UV_THREADPOOL_SIZE zu verwenden?
ja, sicher, es ist. Ich werde die Ziel-C-Version wie folgt ergänzen –