Freigeben über


Databricks SQL Versionshinweise 2026

Die folgenden Databricks SQL-Features und -Verbesserungen wurden 2026 veröffentlicht.

März 2026

Databricks SQL Version 2026.10 ist jetzt in der Vorschau verfügbar

26. März 2026

Databricks SQL Version 2026.10 ist jetzt im Vorschaukanal verfügbar. Lesen Sie den folgenden Abschnitt, um mehr über neue Features, Verhaltensänderungen und Fehlerbehebungen zu erfahren.

Beobachtungsmetrikfehler verursachen keine Fehler bei Abfragen mehr

Fehler während der Erfassung von Beobachtungsmetriken verursachen keine Abfrageausführungsfehler mehr. Bisher konnten Fehler in OBSERVE Klauseln (z. B. Division durch Null) die gesamte Abfrage blockieren oder fehlschlagen. Die Abfrage wird nun erfolgreich abgeschlossen, und der Fehler wird ausgelöst, wenn Sie aufrufen observation.get.

FILTER-Klausel für MEASURE-Aggregatfunktionen

MEASURE-Aggregatfunktionen unterstützen jetzt FILTER-Klauseln. Zuvor wurden Filter unbemerkt ignoriert.

Optimierte Schreibvorgänge für Unity Catalog CRTAS-Vorgänge

ERSTELLEN ODER ERSETZEN TABLE AS-Vorgänge SELECT (CRTAS) für partitionierte Unity-Katalogtabellen wenden jetzt standardmäßig optimierte Schreibvorgänge an, wodurch weniger, größere Dateien erzeugt werden. Legen Sie zum Deaktivieren spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled auf false.

Zeitstempelpartitionswerte verwenden die Sitzungszeitzone

Die Zeitstempelpartitionswerte verwenden jetzt die Zeitzone der SQL Warehouse-Sitzung. Wenn Sie Zeitstempelpartitionen vor Databricks SQL Version 2025.40 geschrieben haben, führen Sie SHOW PARTITIONS aus, um die Partitionsmetadaten zu überprüfen, bevor neue Daten geschrieben werden.

Reserviertes Schlüsselwort "DESCRIBE FLOW"

Der DESCRIBE FLOW Befehl ist jetzt verfügbar. Wenn Sie eine Tabelle mit dem Namen flow haben, verwenden Sie DESCRIBE schema.flow, DESCRIBE TABLE flow oder DESCRIBE `flow` mit Backticks.

SpatialSQL boolesche Set-Operationen

ST_Difference, ST_Intersection, und ST_Union verwenden eine neue Implementierung mit den folgenden Verbesserungen:

  • Gültige Eingabegeometrien erzeugen immer ein Ergebnis und lösen keine Fehler mehr aus. Ungültige Eingaben lösen keine Fehler aus, erzeugen aber möglicherweise keine gültigen Ergebnisse.
  • Ungefähr 2x schnellere Leistung.
  • Ergebnisse können abweichen nach der 15. Dezimalstelle bei Schnittpunkten von Liniensegmenten aufgrund unterschiedlicher Formeln und Reihenfolge der Operationen.
  • Die Ergebnisse werden für eine konsistente, vergleichbare Ausgabe normalisiert:
    • Punkte werden nach Koordinatenwerten sortiert.
    • Linienzeichenfolgen werden aus den längsten möglichen Pfaden erstellt.
    • Polygonringe werden gedreht, sodass der erste Punkt die kleinsten Koordinatenwerte aufweist.
  • Diese Normalisierung gilt in allen Fällen außer beim Aufrufen von ST_Difference mit zwei nicht überlappenden Geometrien, wobei die erste Geometrie unverändert zurückgegeben wird.

Ausnahmetypen für SQLSTATE

Ausnahmetypen unterstützen jetzt SQLSTATE. Wenn Ihr Code Ausnahmen anhand von Zeichenfolgenabgleich analysiert oder bestimmte Ausnahmetypen abfangen, aktualisieren Sie die Fehlerbehandlungslogik.

DATETIMEOFFSET-Datentypunterstützung für Microsoft Azure Synapse

Der DATETIMEOFFSET Datentyp ist jetzt für Microsoft Azure Synapse-Verbindungen verfügbar.

Google BigQuery-Tabellenkommentare

Google BigQuery-Tabellenbeschreibungen werden aufgelöst und als Tabellenkommentare verfügbar gemacht.

Schemaentwicklung mit INSERT Anweisungen

Verwenden Sie die WITH SCHEMA EVOLUTION Klausel mit SQL-Anweisungen INSERT , um das Schema der Zieltabelle während der Einfügevorgänge automatisch zu entwickeln. Die Klausel wird für INSERT INTO, INSERT OVERWRITE und INSERT INTO ... REPLACE-Formulare unterstützt. Beispiel:

INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;

Das Schema der Delta Lake-Zieltabelle wird aktualisiert, um zusätzliche Spalten oder erweiterte Typen aus der Quelle zu integrieren. Ausführliche Informationen finden Sie unter Schemaentwicklungs- und INSERT Anweisungssyntax.

Beibehalten von NULL-Strukturwerten in INSERT-Vorgängen

INSERT Vorgänge mit Schemaentwicklung oder impliziter Umwandlung bewahren nun Strukturwerte NULL , wenn die Reihenfolgen der Strukturfelder in Quell- und Zieltabellen unterschiedlich sind.

parse_timestamp SQL-Funktion

Die parse_timestamp SQL-Funktion analysiert Zeitstempelzeichenfolgen mithilfe mehrerer Muster und wird im Photon-Modul ausgeführt, um die Leistung beim Analysieren von Zeitstempeln in mehreren Formaten zu verbessern. Informationen zur Datetime-Musterformatierung finden Sie unter Datetime-Mustermuster .

max_by und min_by mit optionalem Grenzwert

Die Aggregatfunktionen max_by und min_by akzeptieren nun ein optionales drittes Argument limit (bis zu 100.000). Wenn bereitgestellt, geben Funktionen ein Array von bis zu limit Werten zurück, die den größten (oder kleinsten) Werten des Sortierausdrucks entsprechen, wodurch Top-K- und Bottom-K-Abfragen ohne Fensterfunktionen oder CTEs vereinfacht werden.

Vektoraggregat- und Skalarfunktionen

Neue SQL-Funktionen arbeiten mit ARRAY<FLOAT> Vektoren für Einbettungs- und Ähnlichkeitsworkloads:

Aggregatfunktionen:

  • vector_avg: Gibt den elementweisen Mittelwert von Vektoren in einer Gruppe zurück.
  • vector_sum: Gibt die elementweise Summe von Vektoren in einer Gruppe zurück.

Skalare Funktionen:

Siehe integrierte Funktionen.

SQL-Cursorunterstützung in zusammengesetzten Anweisungen

Zusammengesetzte SQL-Skriptanweisungen unterstützen jetzt die Cursorverarbeitung. Verwenden Sie DECLARE CURSOR, um einen Cursor zu definieren, dann OPEN statement, FETCH statement, und CLOSE statement, um die Abfrage auszuführen und die Zeilen einzeln zu verarbeiten. Cursor können Parametermarkierungen und Bedingungsbehandler verwenden, z. B. NOT FOUND für die zeilenweise Verarbeitung.

Ungefähre Top-K-Sketch-Funktionen

Neue Funktionen ermöglichen das Erstellen und Kombinieren ungefährer Top-K-Skizzen für verteilte Top-K-Aggregation:

Weitere Informationen finden Sie unter approx_top_k Aggregatfunktion und integrierte Funktionen.

Tupelskizzenfunktionen

Neue Aggregat- und Skalarfunktionen für Tupelskizzen unterstützen das eindeutige Zählen und Aggregieren über Schlüssel-Zusammenfassungspaare.

Aggregatfunktionen:

Skalare Funktionen:

Siehe integrierte Funktionen.

Benutzerdefinierte Abhängigkeiten für Unity Catalog Python UDTFs

Unity Catalog Python benutzerdefinierte Tabellenfunktionen (UDTFs) können jetzt benutzerdefinierte Abhängigkeiten für externe Bibliotheken festlegen, sodass Sie Pakete verwenden können, die über das in der Standard-SQL-Warehouse-Umgebung Verfügbare hinausgehen. Siehe Erweitern von UDFs mithilfe von benutzerdefinierten Abhängigkeiten.

Neue Geospatialfunktionen

Die folgenden Geospatialfunktionen sind jetzt verfügbar:

  • st_estimatesrid funktion: Schätzt den am besten projizierten Räumlichen Referenzbezeichner (SRID) für eine Eingabegeometrie.
  • st_force2d Funktion: Wandelt eine Geografie oder Geometrie in die 2D-Darstellung um.
  • st_nrings Funktion: Zählt die Gesamtanzahl der Ringe in einem Polygon oder Multipolygon, einschließlich Außen- und Innenringen.
  • st_numpoints funktion: Zählt die Anzahl der nicht leeren Punkte in einer Geografie oder Geometrie.

Photonunterstützung für Geospatialfunktionen

Die folgenden Geospatialfunktionen werden jetzt auf dem Photon-Modul ausgeführt, um eine schnellere Leistung zu erzielen:

Februar 2026

Databricks SQL Version 2025.40 wird im aktuellen Kanal eingeführt

23. Februar 2026

Databricks SQL Version 2025.40 wird für den aktuellen Kanal bereitgestellt. Siehe Features in 2025.40.

Databricks SQL Version 2025.40 ist jetzt in der Vorschau verfügbar

11. Februar 2026

Databricks SQL Version 2025.40 ist jetzt im Vorschaukanal verfügbar. Lesen Sie den folgenden Abschnitt, um mehr über neue Features, Verhaltensänderungen und Fehlerbehebungen zu erfahren.

SQL-Skripting ist allgemein verfügbar

SQL-Skripting ist jetzt allgemein verfügbar. Schreiben Sie prozedurale Logik mit SQL, einschließlich bedingter Anweisungen, Schleifen, lokaler Variablen und Ausnahmebehandlung.

Parametermarkierungen werden jetzt in weiteren SQL-Kontexten unterstützt

Sie können jetzt benannte (:param) und unbenannte (?) Parametermarkierungen verwenden, wenn ein Literalwert des entsprechenden Typs zulässig ist. Dazu gehören DDL-Anweisungen wie CREATE VIEW v AS SELECT ? AS c1, Spaltentypen wie DECIMAL(:p, :s), und Kommentare wie COMMENT ON t IS :comment. Auf diese Weise können Sie eine vielzahl von SQL-Anweisungen parametrisieren, ohne den Code sql-Einfügungsangriffen offenzusetzen. Siehe Parametermarkierungen.

IDENTIFIER Auf weitere SQL-Kontexte erweiterte Klausel

Die IDENTIFIER Klausel, die Zeichenfolgen in SQL-Objektnamen umgibt, wird jetzt in fast jedem Kontext unterstützt, in dem ein Bezeichner zulässig ist. In Kombination mit erweiterter Parametermarkierung und der literalen Zusammenführung von Zeichenfolgen können Sie alles von Spaltenaliasen (AS IDENTIFIER(:name)) bis zu Spaltendefinitionen (IDENTIFIER(:pk) BIGINT NOT NULL) parametrisieren. Siehe IDENTIFIER Klausel.

Literale Zeichenfolgenkopplung wird überall unterstützt

Sequenzielle Zeichenfolgenliterale wie zum Beispiel 'Hello' ' World' verschmelzen jetzt zu 'Hello World' in jedem Kontext, in dem Zeichenfolgenliterale zulässig sind, einschließlich COMMENT 'This' ' is a ' 'comment'. Siehe STRING Typ.

Neue BITMAP_AND_AGG-Funktion

Eine neue BITMAP_AND_AGG Funktion ist jetzt verfügbar, um die vorhandene Bibliothek von BITMAP Funktionen zu ergänzen.

Neue Theta Sketch-Funktionen für ungefähre unterschiedliche Anzahlen

Eine neue Bibliothek von Funktionen für ungefähre unterschiedliche Zählung und Mengenoperationen mit Datasketches Theta Sketch ist jetzt verfügbar.

Neue KLL-Sketch-Funktionen für approximative Quantilen

Eine neue Bibliothek von Funktionen zum Erstellen von KLL-Skizzen für die ungefähre Quantileberechnung ist jetzt verfügbar:

Sie können mehrere KLL-Skizzen in einem Aggregationskontext zusammenführen, indem Sie kll_merge_agg_bigint, kll_merge_agg_double und kll_merge_agg_float verwenden.

SQL-Fensterfunktionen in Metrikansichten

Sie können jetzt SQL-Fensterfunktionen in Metrikansichten verwenden, um laufende Summen, Rangfolgen und andere fensterbasierte Berechnungen zu berechnen.

Neue Geospatialfunktionen

Die folgenden neuen Geospatialfunktionen sind jetzt verfügbar:

EWKT-Eingabeunterstützung für vorhandene Geometrie- und Geografiefunktionen

Die folgenden Funktionen akzeptieren nun extended Well-Known Text (EWKT) als Eingabe:

Verbesserte Leistung für wiederholte Abfragen über Tabellen mit Zeilenfiltern und Spaltenmasken

Wiederholte berechtigte Abfragen über Tabellen mit Zeilenfiltern und Spaltenmasken profitieren jetzt von einer verbesserten Zwischenspeicherung von Abfrageergebnissen, was zu schnelleren Ausführungszeiten führt.

Verbesserte Leistung der Geospatialfunktion

Die Leistung der räumlichen Verknüpfung wird durch die Unterstützung für geshuffelte räumliche Verknüpfungen verbessert. Die folgenden ST-Funktionen verfügen jetzt über Photon-Implementierungen:

FSCK REPAIR TABLE enthält standardmäßig metadatenreparatur

FSCK REPAIR TABLE Enthält jetzt einen anfänglichen Metadatenreparaturschritt, bevor nach fehlenden Datendateien gesucht wird, sodass sie an Tabellen mit beschädigten Prüfpunkten oder ungültigen Partitionswerten arbeiten kann. Darüber hinaus ist die dataFilePath Spalte im FSCK REPAIR TABLE DRY RUN Ausgabeschema jetzt nullfähig, um neue Problemtypen zu unterstützen, bei denen der Datendateipfad nicht anwendbar ist.

DESCRIBE TABLE Ausgabe enthält Metadatenspalte

Die Ausgabe von DESCRIBE TABLE [EXTENDED] enthält jetzt eine metadata Spalte für alle Tabellentypen. Diese Spalte enthält semantische Metadaten (Anzeigename, Format und Synonyme), die in der Tabelle als JSON-Zeichenfolge definiert sind.

NULL-Strukturen, die in MERGE-, UPDATEund Streaming-Schreibvorgängen beibehalten werden

NULL-Strukturen werden jetzt als NULL in Delta Lake MERGE, UPDATE und Streaming-Schreibvorgängen beibehalten, die Strukturtyp-Casts enthalten. Zuvor wurden NULL-Strukturen auf Strukturierungen erweitert, wobei alle Felder auf NULL festgelegt sind.

Materialisierte Partitionsspalten in Parquet-Dateien

Partitionierte Delta-Lake-Tabellen materialisieren jetzt Partitionsspalten in neu geschriebenen Parquet-Datendateien. Zuvor wurden Partitionswerte nur in den Metadaten des Delta Lake-Transaktionsprotokolls gespeichert. Workloads, die Parquet-Dateien, die von Delta Lake geschrieben wurden, direkt lesen, erkennen zusätzliche Partitionsspalten in neu geschriebenen Dateien.

Zeitstempel-Partitionswerte berücksichtigen die Sitzungszeitzone

Jetzt werden die Zeitstempel-Partitionswerte korrekt mithilfe der spark.sql.session.timeZone Konfiguration angepasst. Zuvor wurden sie mit der JVM-Zeitzone fälschlicherweise in UTC konvertiert.

Zeitreisebeschränkungen aktualisiert

Azure Databricks blockiert jetzt Zeitreiseabfragen über den deletedFileRetentionDuration Schwellenwert für alle Tabellen hinaus. Der VACUUM Befehl ignoriert das Argument "Aufbewahrungsdauer", es sei denn, der Wert beträgt 0 Stunden. deletedFileRetentionDuration kann nicht größer als logRetentionDuration festgelegt werden.

SHOW TABLES DROPPED respektiert die Klausel LIMIT

SHOW TABLES DROPPED respektiert jetzt die LIMIT Klausel korrekt.

Januar 2026