Freigeben über


Treiberfähigkeits-Einstellungen für den Databricks JDBC-Treiber (Simba)

Hinweis

Diese Seite bezieht sich auf VERSIONEN DES TREIBERs (Legacy) unter Version 3. Informationen zu Databricks DRIVER Version 3 und höher finden Sie unter Databricks DRIVER.

Auf dieser Seite wird beschrieben, wie Sie spezielle und erweiterte Treiberfähigkeitsoptionen für den Databricks JDBC-Treiber konfigurieren.

Der Databricks JDBC-Treiber stellt die folgenden speziellen und erweiterten Einstellungen für Treiberfunktionen bereit.

Unterstützung für ANSI SQL-92-Abfragen in JDBC

Ältere Spark JDBC-Treiber akzeptieren SQL-Abfragen im „ANSI SQL-92“-Dialekt und konvertieren sie in Databricks SQL, bevor sie an den Server gesendet werden.

Wenn Ihre Anwendung Databricks SQL direkt generiert oder eine nicht-ANSI SQL-92-Syntax verwendet, die für Azure Databricks spezifisch ist, legen Sie UseNativeQuery=1 in Ihrer Verbindungskonfiguration fest. Diese Einstellung übergibt SQL-Abfragen an Azure Databricks ohne Übersetzung.

Standardkatalog und -schema

Um den Standardkatalog und das Standardschema anzugeben, fügen Sie der JDBC-Verbindungs-URL ConnCatalog=<catalog-name>;ConnSchema=<schema-name> hinzu.

Abfragetags für die Nachverfolgung

Von Bedeutung

Dieses Feature befindet sich in Privater Vorschau. Wenden Sie sich an Ihr Kontoteam, um den Zugriff anzufordern.

Fügen Sie Schlüsselwert-Tags zu Tracking- und Analysezwecken an Ihre SQL-Abfragen an. Abfragetags werden in der system.query.history Tabelle für die Abfrageidentifikation und -analyse angezeigt.

Um Ihrer Verbindung Abfragetags hinzuzufügen, fügen Sie den ssp_query_tags-Parameter in die JDBC-Verbindungs-URL ein.

jdbc:databricks://<server-hostname>:443;httpPath=<http-path>;ssp_query_tags=key1:value1,key2:value2

Definieren Sie Abfragetags als kommagetrennte Schlüsselwertpaare, wobei jeder Schlüssel und Wert durch einen Doppelpunkt getrennt ist. Beispiel: key1:value1,key2:value2.

Extrahieren umfangreicher Abfrageergebnisse in JDBC

Verwenden Sie die neueste Version des JDBC-Treibers mit den folgenden Optimierungen, um beim Extrahieren umfangreicher Abfrageergebnisse die beste Leistung zu erzielen.

Arrow-Serialisierung in JDBC

Ab Version 2.6.16 unterstützt der JDBC-Treiber ein optimiertes Serialisierungsformat für Abfrageergebnisse, das Apache Arrow verwendet.

Hinweis

Cloud Fetch ist nur für AWS- und Azure-Arbeitsbereiche verfügbar.

Cloud-Abruf in JDBC

VERSION 2.6.19 und höher unterstützt Cloud Fetch, eine Funktion, die Abfrageergebnisse über den in Ihrer Azure Databricks Bereitstellung konfigurierten Cloudspeicher abruft.

Wenn Sie eine Abfrage ausführen, speichert Azure Databricks die Ergebnisse im Cloudspeicher Ihres Arbeitsbereichs als Pfeil serialisierte Dateien von bis zu 20 MB. Nach Abschluss der Abfrage sendet der Treiber Abrufanforderungen und Azure Databricks gibt shared access signature (SAS)-URLs an die Ergebnisdateien zurück. Der Treiber verwendet dann diese URLs, um Ergebnisse direkt aus Azure Speicher herunterzuladen.

Cloud Fetch gilt nur für Abfrageergebnisse, die größer als 1 MB sind. Der Treiber ruft kleinere Ergebnisse direkt aus Azure Databricks ab.

Azure Databricks automatisch gesammelte Dateien sammelt, markieren sie nach 24 Stunden zum Löschen und endgültig löschen sie nach weiteren 24 Stunden.

Aktivieren der Protokollierung

Wenn Sie die Protokollierung im DRIVER-Treiber aktivieren möchten, legen Sie die LogLevel Eigenschaft auf einen Wert zwischen 1 (nur schwerwiegende Ereignisse) und 6 (alle Treiberaktivitäten) fest. Legen Sie die LogPath Eigenschaft auf den vollständigen Pfad des Ordners fest, in dem Protokolldateien gespeichert werden sollen.

Weitere Informationen finden Sie im Konfigurieren der Protokollierung im Databricks JDBC Driver Guide.