Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Microsoft Fabric vereint Microsoft Analysetools in einer einzigen SaaS-Plattform. Es bietet starke Funktionen für Workflow-Orchestrierung, Datenbewegung, Replikation und Transformation im großen Maßstab. Fabric Data Factory bietet eine SaaS-Umgebung, die auf Azure Data Factory PaaS (ADF) basiert, durch benutzerfreundliche Verbesserungen und zusätzliche Funktionen, wodurch Fabric Data Factory zur perfekten Modernisierung Ihrer vorhandenen Datenintegrationslösungen wird.
Dieser Leitfaden zeigt Ihnen Migrationsstrategien, Überlegungen und Ansätze, die Ihnen helfen, von Azure Data Factory zu Fabric Data Factory zu wechseln.
Vorteile der Migration
Die Migration von ADF- und Synapse-Pipelines zu Fabric Data Factory ist mehr als ein Lift-and-Shift-Vorgang: Es ist eine Möglichkeit, Governance zu vereinfachen, Muster zu standardisieren und Fabric die erweiterten Funktionen von Data Factory zu verwenden, um Ihre Datenintegrationsstrategie zu verbessern.
Fabric bietet viele neue Features, darunter:
- Integrierte Pipelineaktivitäten wie E-Mail und Teams für das Nachrichtenrouting
- Integrierte CI/CD (Bereitstellungspipelinen) ohne externe Git-Abhängigkeiten
- Nahtlose Arbeitsbereichintegration mit OneLake, Warehouse und Lakehouse für einheitliche Analysen
- Optimierte semantische Datenmodell-Aktualisierungen, die skaliert werden, um sowohl den Anforderungen für Self-Service-Daten als auch Unternehmensdaten gerecht zu werden.
- Integrierte KI-Funktionen mit Copilot zur Erstellung und Verwaltung von Pipelines
Einen detaillierten Vergleich finden Sie in the Azure Data Factory and Fabric Data Factory comparison guide.
Kritische Architekturunterschiede
Bevor Sie von Azure Data Factory zu Fabric Data Factory migrieren, sollten Sie diese kritischen Architekturunterschiede berücksichtigen, die tendenziell den größten Einfluss auf die Migrationsplanung haben:
| Kategorie | Azure Data Factory | Fabric Data Factory | Auswirkungen auf die Migration |
|---|---|---|---|
| Benutzerdefinierter Code | Benutzerdefinierte Aktivität | Azure Batch Aktivität | Der Aktivitätsname ist anders, unterstützt jedoch die gleiche Funktionalität. |
| Dataflows | Zuordnen von Datenflüssen (Spark-basiert) | Dataflow Gen2 (Power Query Engine) mit schnelles Kopieren und mehrere Ziele | Verschiedene Transformationsmodule und Funktionen. Weitere Informationen finden Sie in unserem Leitfaden zu Datenflüssen für Benutzer von Mapping Datenflusss. |
| Dateien | Separate, wiederverwendbare Datasetobjekte | Eigenschaften werden innerhalb von Aktivitäten inline definiert. | Wenn Sie von ADF in Fabric konvertieren, befinden sich "Dataset"-Informationen innerhalb jeder Aktivität. |
| Dynamische Verbindungen | Verknüpfte Diensteigenschaften können mithilfe von Parametern dynamisch sein | Verbindungseigenschaften unterstützen keine dynamischen Eigenschaften, aber Pipelineaktivitäten können dynamische Inhalte für Verbindungsobjekte verwenden. | Für metadatengesteuerte architekturbasierte Lösungen, die auf parametrisierten Verbindungen basieren, parametrisieren Sie das Verbindungsobjekt in Fabric. |
| globale Parameter | Globale Parameter | Fabric Variable Library | Verschiedene Implementierungsmuster und Datentypen, obwohl wir einen Migrationsleitfaden haben. |
| HDInsight-Aktivitäten | Fünf separate Aktivitäten (Hive, Pig, MapReduce, Spark, Streaming) | Einzelne HDInsight-Aktivität | Sie benötigen nur einen Aktivitätstyp beim Konvertieren, aber alle Funktionen werden unterstützt. |
| Identität | Verwaltete Identität | Fabric Workspace Identity | Verschiedene Identitätsmodelle, wobei einige Planung erforderlich ist, um den Übergang zu vollziehen. |
| Key Vault | Reife Integration mit allen Authentifizierungstypen | Eingeschränkte Integration über Fabric Key Vault Reference | Vergleichen Sie derzeit unterstützte Key Vault Quellen und Authentifizierung mit Ihren vorhandenen Konfigurationen. |
| Pipelineausführung | Ausführen der Pipelineaktivität | Aufrufen der Pipelineaktivität mit FabricDataPipeline-Verbindungstyp | Der Aktivitätsname und die Verbindungsanforderungen ändern sich beim Konvertieren. |
| Scheduling | Ein Trigger für viele Pipelines oder viele Trigger pro Pipeline mit zentralisierter Verwaltung | Ein Zeitplan pro Pipeline oder viele Zeitpläne pro Pipeline, ohne dass Zeitpläne wiederverwendet oder ein zentraler Hub genutzt wird. | Fabric erfordert zurzeit die Verwaltung des Zeitplans pro Pipeline. |
Migrationspfade
Migrationspfade hängen von Ihren ADF-Ressourcen und deren Featureparität ab. Zu den Optionen gehören:
- Azure Data Factory Elemente in Fabric für Kontinuität. – Eine Liveansicht Ihrer vorhandenen Azure Data Factory Instanz innerhalb Fabric, wodurch schrittweise Migration und Tests ermöglicht werden. Dies ist auch ein guter erster Schritt, bevor Sie Konvertierungstools oder Replatforming verwenden.
- Nutzen Sie das integrierte Upgrade-Erlebnis für Azure Data Factory-Pipelines – Bewerten Sie die Pipelinebereitschaft direkt in Azure Data Factory, überprüfen Sie die Kompatibilitätsergebnisse und migrieren Sie unterstützte Pipelines mithilfe einer benutzergeführten Benutzeroberfläche in einen Fabric-Arbeitsbereich.
- Manuelle Migration für komplexe Umgebungen – Pipelines in Fabric neu aufbauen, um neue Funktionen zu nutzen und die Leistung zu optimieren. Dies ist für Pipelines mit geringer Parität oder benutzerdefinierter Logik erforderlich, bietet aber auch die Möglichkeit, Ihre Architektur zu modernisieren.
Azure Data Factory Elemente in Ihrem Fabric Arbeitsbereich
Das Hinzufügen einer vorhandenen ADF zu Ihrem Fabric-Arbeitsbereich bietet Ihnen sofortige Sichtbarkeit und Governance, während Sie inkrementell migrieren. Es eignet sich ideal für Ermittlungen, Besitzzuweisungen und parallele Tests, da Teams Pipelines anzeigen, sie unter Fabric Arbeitsbereichen organisieren und Übernahmen pro Domäne planen können. Verwenden Sie Azure Data Factory Elemente, um zu katalogisieren, was vorhanden ist, priorisieren Sie zuerst die Pipelines mit dem höchsten/niedrigsten Risiko, und richten Sie Konventionen (Benennung, Ordner, Wiederverwendung von Verbindungen) ein, die Ihre Konvertierungsskripts und Partnertools konsistent befolgen können.
Die Montage in Fabric erfolgt über den Azure Data Factory Artikeltyp: Bring your Azure Data Factory to Fabric.
Aktualisieren Azure Data Factory Pipelines mithilfe der integrierten Migrationsumgebung
Fabric bietet eine integrierte, erste Bewertungsupgradeerfahrung, mit der Sie Azure Data Factory Pipelines direkt über die Azure Data Factory und Fabric Benutzererfahrungen auswerten und migrieren können – ohne Skripts oder benutzerdefinierte Tools. Diese Erfahrung hilft Ihnen bei:
- Bewerten Sie die Pipeline- und Aktivitätsbereitschaft direkt in Azure Data Factory.
- Verstehen von Kompatibilitätslücken vor der Migration.
- Stellen Sie Ihre Azure Data Factory zur parallelen Überprüfung in einen Fabric Arbeitsbereich ein.
- Migrieren Sie unterstützte Pipelines inkrementell zu Fabric aus Ihrer bereitgestellten Datenfactory.
- Planen Sie Korrekturen oder Neugestaltungen für Elemente, die Updates erfordern oder in Kürze verfügbar sind.
Jede Pipeline und Aktivität ist klar kategorisiert (Bereit, Muss überprüft werden, Demnächst verfügbar oder Nicht kompatibel), was den Teams hilft, Migrationen gezielt zu planen und Ergebnisse zu validieren, bevor sie Produktionsworkloads wechseln. Dieser Ansatz eignet sich gut für Kunden, die einen geführten, risikoarmen und inkrementellen Migrationspfad benötigen, während gleichzeitig der Einblick in nicht unterstützte Features und nächste Schritte erhalten bleibt. Eine schrittweise Anleitung finden Sie unter Upgrade Ihrer Azure Data Factory Pipelines auf Fabric
Manuelle Migration
Manuelle Migration ist für komplexe Pipelines mit geringer Parität erforderlich, bietet aber auch die Möglichkeit, Ihre Architektur zu modernisieren und die integrierten Features von Fabric zu übernehmen. Dieser Weg erfordert eine umfassendere Planung und Entwicklung, kann aber langfristige Vorteile bei der Wartung, Leistung und Kosten erzielen.
Führen Sie die folgenden Schritte aus, um effektiv zu migrieren:
- Bewerten und Inventarisieren: Katalogisieren sie alle ADF-Ressourcen, einschließlich Pipelines, Datasets, verknüpfter Dienste und Integrationslaufzeiten. Identifizieren von Abhängigkeiten und Verwendungsmustern.
- Identifizieren Sie Duplikate und nicht verwendete Elemente: Bereinigen Sie nicht verwendete oder redundante Elemente in ADF, um die Migration und Ihre Datenintegrationsumgebung zu optimieren.
- Identify gaps: Verwenden Sie das migrationsbewertungstool und überprüfen Sie Verbindungsparität und aktivitätsparität, um Lücken zwischen Ihren ADF-Pipelines und Fabric Pipelines zu identifizieren und Alternativen zu planen.
- Neue Features: Verwenden Sie unseren Entscheidungsleitfaden für Datenbewegung und Datenintegration, um zu entscheiden, welche Fabric Tools für Ihre Anforderungen am besten geeignet sind.
- Plan: Überprüfen Sie die bewährten Methoden für die Migration bezüglich Ihrer einzelnen Elemente sowie Richtlinien, um die verbesserten Funktionen von Fabric optimal zu nutzen.
- Wenn Sie globale Parameter in ADF verwenden, planen Sie die Migration zu Fabric Variablenbibliotheken. Ausführliche Anweisungen finden Sie unter Konvertieren von ADF-Globalparametern in Fabric-Variablenbibliotheken.
- ADF-Übergang: Erwägen Sie, ein Azure Data Factory-Element in Microsoft Fabric als ersten Schritt bei der Migration zu erstellen, was einen schrittweisen Übergang in einer einzelnen Plattform ermöglicht.
- Priorisieren: Bewerten Sie Ihre Pipelines basierend auf geschäftlichen Auswirkungen, Komplexität und einfacher Migration.
- Automatisieren Sie, wo Sie können: Verwenden Sie die integrierte Upgradeerfahrung, um Pipelines inkrementell zu bewerten, zu migrieren und zu überprüfen, bevor Sie Produktionsworkloads verschieben. Weitere Informationen finden Sie im Upgradetool.
-
Berücksichtigen Sie Werkzeuge: Verwenden Sie diese Werkzeuge, um die Nutzung zu erleichtern:
- Verwenden Sie Fabric vorlagen als Ausgangspunkt für Pipelines mit gängigen Datenintegrationsszenarien.
- Verwenden Sie die Parametrisierung zur Erstellung von wiederverwendbaren Pipelines
- Verwenden von Copilot in Fabric Data Factory zur Unterstützung bei der Pipelineerstellung
- Verwenden Sie Bereitstellungspipelines für CI/CD und Versionskontrolle
-
Manual migration: Für Szenarien, die von anderen Migrationsmethoden nicht unterstützt werden, erstellen Sie sie in Fabric neu:
Verbindungen erneut erstellen: Richten Sie Verbindungen in Fabric ein, um verknüpfte Dienste in ADF zu ersetzen- Aktivitäten neu erstellen: Richten Sie Ihre Aktivitäten in Ihren Pipelines ein, indem Sie nicht unterstützte Aktivitäten durch Fabric-Alternativen ersetzen oder die Invoke-Pipeline-Aktivität verwenden.
- Planen und Auslöser setzen: Pläne und Ereignisauslöser in Fabric neu erstellen, um sie an Ihre ADF-Zeitpläne anzupassen
- Testen Sie sorgfältig: Überprüfen Sie migrierte Pipelines anhand erwarteter Ausgaben, Leistungs-Benchmarks und Complianceanforderungen.
Beispielmigrationsszenarien
Der Wechsel von ADF zu Fabric kann je nach Anwendungsfall unterschiedliche Strategien umfassen. In diesem Abschnitt werden allgemeine Migrationspfade und Überlegungen beschrieben, die Ihnen bei der effektiven Planung helfen.
- Szenario 1: ADF-Pipelines und Datenflüsse
- Szenario 2: ADF mit CDC, SSIS und Airflow
- Szenario 3: Pipeline-Upgrade mit eingebauter Erfahrung
- Scenario 4: ADF-Elemente in einem Fabric-Arbeitsbereich
Szenario 1: ADF-Pipelines und Datenflüsse
Modernisieren Sie Ihre ETL-Umgebung, indem Sie Pipelines und Datenflüsse in Fabric verschieben. Planen Sie diese Elemente:
- Verknüpfte Dienste als Verbindungen neu erstellen
- Erstellen sie globale Parameter als Variablenbibliotheken neu
- Datensatz-Eigenschaften inline in Pipelineaktivitäten definieren
- Ersetzen von SHIRs (selbst gehostete Integrationslaufzeiten) durch OPDGs (lokale Datengateways) und VNet-IRs durch Virtual Network-Datengateways
- Erstellen Sie nicht unterstützte ADF-Aktivitäten mithilfe der Fabric-Alternativen oder der Pipelineaktivität 'Invoke' neu. Nicht unterstützte Aktivitäten umfassen:
- Data Lake Analytics (U-SQL), ein veralteter Azure-Dienst
- Überprüfungsaktivität, die mithilfe von Get Metadata, Pipelineschleifen und If-Aktivitäten neu erstellt werden kann
- Power Query, das vollständig in Fabric als Datenflüsse integriert ist, in denen M-Code wiederverwendet werden kann
- Notizbuch-, Jar- und Python aktivitäten können in Fabric durch die Databricks-Aktivität ersetzt werden.
- Die Hive-, Pig-, MapReduce-, Spark- und Streaming-Aktivitäten können durch die HDInsight-Aktivität in Fabric ersetzt werden.
Als Beispiel sehen Sie hier die Konfigurationsseite des ADF-Datasets mit den Dateipfad- und Komprimierungseinstellungen:
Und hier ist eine Kopieraktivität für Data Factory in Fabric, wobei Komprimierung und Dateipfad in der Aktivität in-line sind.
Szenario 2: ADF mit CDC, SSIS und Airflow
Rekonstruieren Sie CDC als Elemente von Kopieauftrag. Kopieren Sie für Airflow Ihre DAGs in das Apache-Airflow-Angebot von Fabric. Führen Sie SSIS-Pakete mithilfe von ADF-Pipelines aus, und rufen Sie sie aus Fabric auf.
Szenario 3: Pipelineupgrade mithilfe der integrierten Migrationserfahrung
Mit dieser geführten, ersten Bewertungserfahrung können Sie die Bereitschaft auswerten, Kompatibilitätslücken identifizieren und unterstützte Pipelines inkrementell zu einem Fabric Arbeitsbereich migrieren – alles ohne Skripts. Weitere Informationen finden Sie unter Upgrade Ihrer Azure Data Factory Pipelines auf Fabric.
Szenario 4: ADF-Elemente in einem Fabric Arbeitsbereich
Sie können eine gesamte ADF-Factory in einem Fabric-Arbeitsbereich als natives Element hinzufügen. Auf diese Weise können Sie ADF-Fabriken zusammen mit Fabric Artefakten innerhalb derselben Schnittstelle verwalten. Auf die ADF-Benutzeroberfläche kann weiterhin vollständig zugegriffen werden, sodass Sie Ihre ADF-Factoryelemente direkt aus dem arbeitsbereich Fabric überwachen, verwalten und bearbeiten können. Die Ausführung von Pipelines, Aktivitäten und Integrationslaufzeiten erfolgt jedoch weiterhin innerhalb Ihrer Azure Ressourcen.
Dieses Feature ist nützlich für Organisationen, die zu Fabric wechseln, da sie eine einheitliche Ansicht von ADF- und Fabric-Ressourcen bietet, die Verwaltung und Planung für die Migration vereinfachen.
Weitere Informationen finden Sie unter Bring your Azure Data Factory into Fabric.