Ich habe 25 Pipelines und zahlreiche Datensätze in Azure Data Factory definiert. Was ist der beste Weg, um diese Pipelines/Datasets/Linkes-Services von einem Abonnement zu einem anderen zu kopieren/zu replizieren (nicht zu verschieben)? Schätze deine Hilfe!Azure Data Factory -
Antwort
Der beste Weg wäre, ein Visual Studio-Projekt zu verwenden.
Der Kopierassistent im Portal ist praktisch und der Blade 'Autor und Deploy' ist nett. Am besten wäre es jedoch, Ihre ADF-Lösungen zuerst in Visual Studio zu entwickeln und bereitzustellen. Plus-Quelle kontrolliert sie natürlich! Sie können dann in Visual Studio alle Azure-Abonnements erstellen und veröffentlichen, auf die Sie zugreifen können. Der Veröffentlichungsassistent ist wirklich nett und bietet Ihnen die Möglichkeit, verschiedene Konfigurationsdateien für verschiedene Umgebungen auszuwählen. Z.B. Live, Test, Entwicklung.
Ich habe einen Blogbeitrag über die Verwendung von ADF-Konfigurationsdateien geschrieben, wenn Sie an diesem Ansatz interessiert sind. Hier: https://www.purplefrogsystems.com/paul/2017/01/using-azure-data-factory-configuration-files/
Nächste beste Weise. Wenn Sie noch kein VS-Projekt haben, können Sie eines aus einer vorhandenen Azure Data Factory mithilfe des Cloud Explorer-Steuerfelds zurückentwickeln. Siehe unten.
Aber es bringen wird keine Authentifizierung Werte und Schlüssel für Ihre verknüpften Dienste gewarnt werden. Sie müssen sie neu erstellen. Genauso, wie Sie die JSON-Attributwerte sehen, die im Portal maskiert sind. ZB "Autorisierung": "**********",
Seitliche Anmerkung; Sie müssen Visual Studio 2015 verwenden. Derzeit werden ADF-Projekte in Visual Studio 2017 nicht unterstützt.
Der schlechteste Weg wäre, alle JSON über Notizblock kopieren und einfügen. Sie müssen es in der Reihenfolge tun. Verknüpfte Dienste> Datasets> Pipelines> Aktivitäten.
Hoffe, das hilft.
Im Azure-Portal können Sie Ihre gesamte Datenfabrik in ein anderes Abonnement verschieben. 1) Gehe zum azure Portal und navigiere zu deiner Datenfabrik. 2) Klicken Sie oben links auf Verschieben und wählen Sie das Abonnement aus, an das Sie es verschieben möchten.
Wenn Ihre Datenfabrik riesig ist und nur ausgewählte verschoben werden sollen. Führen Sie die folgenden Befehle für unerwünschte Pipelines aus, sobald der obige Schritt abgeschlossen ist.
Remove-AzureRmDataFactoryPipeline -DataFactoryName "" -Name "" -ResourceGroup ""
Sie können diese unter Verwendung von Powershell-Skript automatisieren und sehr leicht AzureRm Cmdlets verwenden.
- 1. Azure Data Factory Kopieren
- 2. Komponententest von Azure Data Factory
- 3. Azure Data Factory-SQL-Sink-Parameter str1?
- 4. Mehrere Senke für Azure Data Factory-Pipeline
- 5. Azure Data Factory - läuft die ganze Zeit?
- 6. HDInsight-Abonnement funktioniert nicht - Azure Data Factory
- 7. .NET.exe in Azure Data Factory ausführen
- 8. Azure Data Factory Kopieren Aktivität Ausnahme dateTime
- 9. Azure Data Factory Aktivitätsversuche mit PowerShell
- 10. Azure Data Factory Pipeline mit 2 Kopie
- 11. SFTP-Unterstützung für Azure Data Factory
- 12. Azure Data Factory-Projekt mit benutzerdefinierten Aktivitäten
- 13. Laden von Daten in Azure DW mit Azure Data Factory
- 14. Data Factory Data Gateway ohne Zertifikat
- 15. Wie kann exe-Datei über Azure Data Factory aufgerufen werden?
- 16. Fehlervermeidung, wenn Eingabeblob in Azure Data Factory fehlt Kopieraktivität
- 17. Convert DBF in CSV mit Azure Data Factory
- 18. So führen Sie Suchvorgänge in Azure Data Factory durch?
- 19. Azure data factory In der Datei site skill header Zeile
- 20. Azure Data Factory rekursive Kopie aus dem Container
- 21. SFTP-Unterstützung in Azure Data Factory funktioniert nicht?
- 22. Azure Data Factory-Projekt mit VSTS-Version freigeben
- 23. azure data factory - Durchführen vollständiger IDL für die erste Schicht
- 24. Löschen von Remote-Dateien mit Azure Data Factory
- 25. Wie können Datenfehler in Azure Data Factory-Pipelines gesteuert werden?
- 26. Ausführen von Code, nachdem Azure Data Factory Pipeline abgeschlossen wurde
- 27. Kann kein Azure Data Factory-Projekt in VS 2015 erstellen
- 28. Data Factory-Konfigurationsdatei testen
- 29. Data Factory Slice Startet
- 30. Azure Data Lake-Speicher und Data Factory - Temporäre GUID-Ordner und Dateien