Ich entwickle gerade einen Drohnen-Simulator in Unity 5 und ich habe 4 Unity-Kameras in meiner Szene. Ich arbeite jetzt an einer Lösung zu Stream der Bildschirm einer virtuellen Kamera in Unity, zu meinem Android-Smartphone, in Echtzeit. Ich dachte über diese Schritte:Unity 5 - Stream Unity-Kamera zu Smartphone
die Bildschirmpixel auf einen leeren Texture2D Lesen Texture2D.ReadPixels
Encode die Texture2D mit EncodeToJPG oder EncodeToPNG
3. Senden mit die codierten Bytes zum Gerät (über einen Socket zum Gerät; oder mit this WebRTC Lösung)
- Auf dem Gerät: die Bytes in ein Bild lesen (eine Kombination aus ByteArrayInputStream und BitmapFactory zum Beispiel unter Verwendung)
ich schon fertig, die ersten beiden Schritte. Jetzt habe ich keine Ahnung, wie man mit Sockets arbeitet, also benutze ich WebRTC. Aber wie kann ich den JavaScript-Code in meinem Unity-Projekt implementieren? Kann mir jemand dabei helfen?
Ich fand auch eine WebRTC API in einem Forum, aber meine Netzwerkfähigkeiten sind nicht gut genug. Kann mir vielleicht jemand sagen, wo ich die Peer-to-Peer-Verbindung in diesem Code erstelle?
Forum: https://forum.unity3d.com/threads/unitypeerjs-simple-webrtc-support-for-unity-webgl.310166/
-Code (WebRTC-API für die Einheit):https://www.pastiebin.com/embed/5880b2815c96a
Das erste, was ich dachte, als ich Ihre Frage las, war, eine einfache Client/Server-Anwendung zu erstellen. Also muss Ihre Client-Anwendung nur eine Verbindung zum Server herstellen und die Server-Kamera freigeben. Es sollte einfacher zu machen –
Welche Art von Kamera verwenden Sie?Wenn Sie eine Action-Kamera haben, die das Video über WiFi streamt, können Sie den Stream wahrscheinlich direkt mit einem der im Store verfügbaren Video-Player (z. B. VLC-Suche) oder dem in der Betaversion 5.6 verfügbaren VideoPlayer lesen. – Vancete
Vielen Dank für Ihre Antworten. @Vancete Was meinst du, welche Kamera? In meiner Szene sind derzeit 4 Unity-Kameras und eine davon, ich möchte gleichzeitig mein Smartphone senden. – murcoder