Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Gilt für:
Azure Data Factory
Azure Synapse Analytics
Tipp
Data Factory in Microsoft Fabric ist die nächste Generation von Azure Data Factory mit einer einfacheren Architektur, integrierter KI und neuen Features. Wenn Sie mit der Datenintegration noch nicht vertraut sind, beginnen Sie mit Fabric Data Factory. Vorhandene ADF-Workloads können auf Fabric aktualisiert werden, um auf neue Funktionen in der Datenwissenschaft, Echtzeitanalysen und Berichterstellung zuzugreifen.
Die Azure Databricks Notizbuch-Aktivität in einer Pipeline führt ein Databricks-Notizbuch in Ihrem Azure Databricks-Arbeitsbereich aus. Dieser Artikel baut auf dem Artikel zu Datentransformationsaktivitäten auf, der eine allgemeine Übersicht über die Datentransformation und die unterstützten Transformationsaktivitäten bietet. Azure Databricks ist eine verwaltete Plattform zum Ausführen von Apache Spark.
Sie können ein Databricks-Notizbuch mit einer ARM-Vorlage mit JSON oder direkt über die Azure Data Factory Studio-Benutzeroberfläche erstellen. Eine schrittweise exemplarische Vorgehensweise zum Erstellen einer Databricks Notebook-Aktivität über die Benutzeroberfläche erfahren Sie im Tutorial Ausführen eines Databricks-Notebooks mit der Databricks Notebook-Aktivität in Azure Data Factory.
Hinzufügen einer Notizbuchaktivität für Azure Databricks zu einer Pipeline mit Benutzeroberfläche
Führen Sie die folgenden Schritte aus, um eine Notizbuchaktivität für Azure Databricks in einer Pipeline zu verwenden:
Suchen Sie im Bereich mit den Pipelineaktivitäten nach Notebook, und ziehen Sie eine Webhookaktivität in den Pipelinebereich.
Wählen Sie die neue Notebook-Aktivität im Canvas aus, wenn sie noch nicht ausgewählt ist.
Wählen Sie die Registerkarte Azure Databricks aus, um einen neuen Azure Databricks verknüpften Dienst auszuwählen oder zu erstellen, der die Notizbuchaktivität ausführt.
Wählen Sie die Registerkarte Settings aus, und geben Sie den Notizbuchpfad an, der für Azure Databricks ausgeführt werden soll, optionale Basisparameter, die an das Notizbuch übergeben werden sollen, sowie alle anderen Bibliotheken, die auf dem Cluster installiert werden sollen, um den Auftrag auszuführen.
Definition der Databricks-Notebook-Aktivität
Dies ist die JSON-Beispieldefinition der Databricks-Notebook-Aktivität:
{
"activity": {
"name": "MyActivity",
"description": "MyActivity description",
"type": "DatabricksNotebook",
"linkedServiceName": {
"referenceName": "MyDatabricksLinkedservice",
"type": "LinkedServiceReference"
},
"typeProperties": {
"notebookPath": "/Users/user@example.com/ScalaExampleNotebook",
"baseParameters": {
"inputpath": "input/folder1/",
"outputpath": "output/"
},
"libraries": [
{
"jar": "dbfs:/docs/library.jar"
}
]
}
}
}
Eigenschaften der Databricks-Notebook-Aktivität
Die folgende Tabelle beschreibt die JSON-Eigenschaften, die in der JSON-Definition verwendet werden:
| Eigenschaft | Beschreibung | Erforderlich |
|---|---|---|
| Name | Der Name der Aktivität in der Pipeline. | Ja |
| Beschreibung | Ein Text, der beschreibt, was mit der Aktivität ausgeführt wird. | Nein |
| Typ | Bei Databricks-Notebook-Aktivitäten lautet der Aktivitätstyp DatabricksNotebook. | Ja |
| verknüpfterDienstname | Der Name des verknüpften Databricks-Diensts, auf dem das Databricks-Notebook ausgeführt wird. Weitere Informationen zu diesem verknüpften Dienst finden Sie im Artikel Verknüpfte Compute-Dienste. | Ja |
| notebookPath | Der absolute Pfad des Notebooks, das im Databricks-Arbeitsbereich ausgeführt werden soll. Dieser Pfad muss mit einem Schrägstrich beginnen. | Ja |
| Basisparameter | Ein Array aus Schlüssel-Wert-Paaren. Für jede Aktivitätsausführung können Basisparameter verwendet werden. Wenn das Notebook einen nicht angegebenen Parameter erwartet, wird der Standardwert des Notebooks verwendet. Erfahren Sie mehr über Parameter in Databricks-Notebooks. | Nein |
| Bibliotheken | Eine Liste der Bibliotheken, die in dem Cluster installiert werden, der den Auftrag ausführen wird. Es kann ein Array vom Typ <Zeichenfolge, Objekt> sein. | Nein |
Unterstützte Bibliotheken für Databricks-Aktivitäten
In der oben genannten Definition der Databricks-Aktivität geben Sie die folgenden Bibliothekstypen an: JAR, EGG, WHL, Maven, PyPI, CRAN.
{
"libraries": [
{
"jar": "dbfs:/mnt/libraries/library.jar"
},
{
"egg": "dbfs:/mnt/libraries/library.egg"
},
{
"whl": "dbfs:/mnt/libraries/mlflow-0.0.1.dev0-py2-none-any.whl"
},
{
"whl": "dbfs:/mnt/libraries/wheel-libraries.wheelhouse.zip"
},
{
"maven": {
"coordinates": "org.jsoup:jsoup:1.7.2",
"exclusions": [ "slf4j:slf4j" ]
}
},
{
"pypi": {
"package": "simplejson",
"repo": "http://my-pypi-mirror.com"
}
},
{
"cran": {
"package": "ada",
"repo": "https://cran.us.r-project.org"
}
}
]
}
Weitere Informationen zu Bibliothekstypen finden Sie in der Databricks-Dokumentation.
Übergeben von Parametern zwischen Notebooks und Pipelines
Mithilfe der baseParameters-Eigenschaft in der Databricks-Aktivität können Sie Parameter an Notebooks übergeben.
In bestimmten Fällen müssen Sie möglicherweise bestimmte Werte aus dem Notebook an den Dienst zurückgeben, die für die Ablaufsteuerung (Bedingungsüberprüfungen) im Dienst oder von Downstreamaktivitäten (Größenbeschränkung ist 2 MB) genutzt werden können.
Sie können in Ihrem Notebook dbutils.notebook.exit("returnValue") aufrufen, und der entsprechende Rückgabewert wird an den Dienst zurückgegeben.
Mit einem Ausdruck wie
@{activity('databricks notebook activity name').output.runOutput}können Sie die Ausgabe innerhalb des Dienstes verarbeiten.Wichtig
Wenn Sie ein JSON-Objekt übergeben, können Sie Werte abrufen, indem Sie Eigenschaftennamen anhängen. Beispiel:
@{activity('databricks notebook activity name').output.runOutput.PropertyName}
Hochladen einer Bibliothek in Databricks
Sie können die Benutzeroberfläche des Arbeitsbereichs verwenden:
Verwenden der Benutzeroberfläche des Databricks-Arbeitsbereichs
Sie können den DBFS-Pfad der hinzugefügten Bibliothek über die Benutzeroberfläche mithilfe der Databricks-Befehlszeilenschnittstelle abrufen.
JAR-Bibliotheken werden beim Verwenden der Benutzeroberfläche in der Regel unter dbfs:/FileStore/jars gespeichert. Sie können alle über die Befehlszeilenschnittstelle auflisten: databricks fs ls dbfs:/FileStore/job-jars
Alternativ können Sie die Databricks-Befehlszeilenschnittstelle verwenden:
Folgen Sie Kopieren Sie die Bibliothek mit der Databricks-Befehlszeilenschnittstelle.
Verwenden Sie die Databricks-Befehlszeilenschnittstelle (Installationsschritte).
Zum Beispiel, um ein JAR auf dbfs zu kopieren:
dbfs cp SparkPi-assembly-0.1.jar dbfs:/docs/sparkpi.jar.