Ich habe eine Datafactory-Pipeline erstellt, um Daten von meinem Azure-Tabellenspeicher in einen Datalake-Speicher zu verschieben, aber die Tasks schlagen mit einer Ausnahme fehl, die ich nicht finden kann irgendwelche Informationen über. Der Fehler istFehler beim Verschieben von Daten von Azure-Tabelle in DataLake-Speicher mit DataFactory
Copy activity encountered a user error: ErrorCode=UserErrorTabularCopyBehaviorNotSupported,'Type=Microsoft.DataTransfer.Common.Shared.HybridDeliveryException,Message=CopyBehavior property is not supported if the source is tabular data source.,Source=Microsoft.DataTransfer.ClientLibrary,'.
Ich weiß nicht, wo das Problem liegt, wenn in den Datensätzen, die verknüpften Dienste oder die Pipeline und keine Informationen überhaupt auf den Fehler zu finden scheinen, ich sehe auf der Konsole.
Gibt es eine Zeitvorgabe, wann dies unterstützt wird? Kann ich stattdessen eine benutzerdefinierte Aktivität verwenden? – evilpilaf
Sie können eine benutzerdefinierte Aktivität verwenden. Hier ist ein Beitrag, den ich über die Verbindung zum Azure Data Lake Store von einer benutzerdefinierten Activity geschrieben habe: http://eatcodelive.com/2016/02/06/accessing-azure-data-lake-store-from-an-azure -data-factory-custom-net-activity/ – JustLogic
das sieht gut aus, danke! Eine Frage, könnte das zum Lesen von einem Eventhub anstelle eines Tisches funktionieren? – evilpilaf