Dela via


"Utgivningsanteckningar för Databricks SQL 2026"

Följande Databricks SQL-funktioner och förbättringar släpptes 2026.

Mars 2026

Databricks SQL version 2026.10 är nu tillgänglig i förhandsversionen

den 26 mars 2026

Databricks SQL version 2026.10 är nu tillgänglig i förhandsgranskningskanalen . Läs följande avsnitt om du vill veta mer om nya funktioner, beteendeändringar och felkorrigeringar.

Problem med observationsmått misslyckas inte längre med frågor

Fel vid insamling av observationsmått orsakar inte längre frågekörningsfel. Tidigare kunde fel i OBSERVE satser (till exempel division med noll) blockera eller misslyckas med hela frågan. Nu slutförs frågan framgångsrikt och ett fel utlöses när du anropar observation.get.

FILTER-villkor för aggregatfunktioner för mått

Mätaggregeringsfunktioner stöder nu FILTER-satser. Tidigare ignorerades filter tyst.

Optimerade skrivningar för CRTAS-åtgärder i Unity Catalog

SKAPA ELLER ERSÄTT TABLE AS-åtgärder SELECT (CRTAS) på partitionerade Unity Catalog-tabeller tillämpar nu optimerade skrivningar som standard, vilket ger färre, större filer. Om du vill inaktivera anger du spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled till false.

Tidsstämpelpartitionsvärden använder tidszonen för sessionen

Tidsstämpelpartitionsvärden använder nu tidszonen för SQL-lagersessionen. Om du har tidsstämpelpartitioner skrivna före Databricks SQL version 2025.40 kör du SHOW PARTITIONS för att verifiera partitionsmetadata innan du skriver nya data.

RESERVERAT NYCKELORD FÖR DESCRIBE FLOW

Kommandot DESCRIBE FLOW är nu tillgängligt. Om du har en tabell med namnet flowanvänder du DESCRIBE schema.flow, DESCRIBE TABLE floweller DESCRIBE `flow` med backticks.

SpatialSQL booleska uppsättningsåtgärder

ST_Difference, ST_Intersectionoch ST_Union använder en ny implementering med följande förbättringar:

  • Giltiga indatageometrier ger alltid ett resultat och skapar inte längre fel. Ogiltiga indata ger inte upphov till fel men kanske inte ger giltiga resultat.
  • Ungefär 2x snabbare prestanda.
  • Resultaten kan skilja sig åt efter den 15:e decimalplatsen för linjesegmentsskärningar på grund av olika formler och ordning för åtgärder.
  • Resultaten normaliseras för konsekventa, jämförbara utdata:
    • Punkter sorteras efter koordinatvärden.
    • Linjesträngar skapas från de längsta möjliga vägarna.
    • Polygonringar roteras så att den första punkten har de minsta koordinatvärdena.
  • Normaliseringen gäller i alla fall utom vid anrop ST_Difference med två icke-överlappande geometrier, där den första geometrin returneras oförändrad.

Undantagstyper för SQLSTATE

Undantagstyper stöder nu SQLSTATE. Om koden parsar undantag efter strängmatchning eller fångar specifika undantagstyper uppdaterar du logiken för felhantering.

Stöd för DATETIMEOFFSET-datatyp för Microsoft Azure Synapse

Datatypen DATETIMEOFFSET är nu tillgänglig för Microsoft Azure Synapse-anslutningar.

Kommentarer till Google BigQuery-tabeller

Google BigQuery-tabellbeskrivningar matchas och exponeras som tabellkommentarer.

Schemautveckling med INSERT uttryck

Använd WITH SCHEMA EVOLUTION-satsen med SQL-instruktioner INSERT för att automatiskt ändra måltabellens schema vid infogningar. Satsen stöds för INSERT INTO, INSERT OVERWRITEoch INSERT INTO ... REPLACE formulär. Som exempel:

INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;

Måltabellens schema i Delta Lake uppdateras för att rymma ytterligare kolumner eller utökade typer från källan. Mer information finns i schemautveckling och INSERT instruktionssyntax.

Bevarade NULL-structvärden i INSERT operationer

INSERT åtgärder med schemautveckling eller implicit gjutning bevarar NULL nu structvärden när käll- och måltabellerna har olika struct-fältbeställningar.

parse_timestamp SQL-funktion

Funktionen parse_timestamp SQL parsar tidsstämpelsträngar med flera mönster och körs på Photon-motorn för bättre prestanda vid parsning av tidsstämplar i flera format. Se Datetime-mönster för information om datetime-mönsterformatering.

max_by och min_by med valfri gräns

Aggregeringsfunktionerna max_by och min_by nu acceptera ett valfritt tredje argument limit (upp till 100 000). När de tillhandahålls returnerar funktionerna en matris med upp till limit värden som motsvarar de största (eller minsta) värdena i orderuttrycket, vilket förenklar topp-K- och bottom-K-frågor utan fönsterfunktioner eller CTE:er.

Vektoraggregat- och skalärfunktioner

Nya SQL-funktioner fungerar på ARRAY<FLOAT> vektorer för inbäddning och likhetsarbetsbelastningar:

Mängdfunktioner:

  • vector_avg: Returnerar det elementvisa medelvärdet av vektorer i en grupp.
  • vector_sum: Returnerar den elementvisa summan av vektorer i en grupp.

Skalära funktioner:

Se Inbyggda funktioner.

STÖD för SQL-markören i sammansatta instruktioner

SQL-skript sammansatta instruktioner stöder nu markörbearbetning. Använd DEKLARERA MARKÖREN för att definiera en markör, sedan OPEN-instruktionen, FETCH-instruktionen och CLOSE-instruktionen för att köra frågan och använda rader en i taget. Markörer kan använda parametermarkörer och villkorshanterare, till exempel NOT FOUND för bearbetning rad för rad.

Ungefärliga skissfunktioner för top-k

Med nya funktioner kan du skapa och kombinera ungefärliga top-K-skisser för distribuerad top-K-aggregering:

Mer information approx_top_k finns i aggregerade funktioner och inbyggda funktioner.

Tuplskisser funktioner

Nya aggregerings- och skalära funktioner för tupleskiss stöder distinkt räkning och aggregering över nyckel-sammanfattningspar.

Mängdfunktioner:

Skalära funktioner:

Se Inbyggda funktioner.

Anpassade beroenden för Unity Catalog Python UDTF:er

Användardefinierade tabellfunktioner i Python i Unity Catalog (UDF) kan nu använda anpassade beroenden för externa bibliotek, så att du kan använda paket utöver vad som är tillgängligt i SQL-standardlagermiljön. Se Utöka UDF:er med hjälp av anpassade beroenden.

Nya geospatiala funktioner

Följande geospatiala funktioner är nu tillgängliga:

  • st_estimatesrid funktion: Beräknar den bästa beräknade rumsliga referensidentifieraren (SRID) för en indatageometri.
  • st_force2d funktion: Konverterar ett geografiskt område eller en geometri till dess 2D-representation.
  • st_nrings funktion: Räknar det totala antalet ringar i en polygon eller multipolygon, inklusive både yttre och inre ringar.
  • st_numpoints funktion: Räknar antalet icke-tomma punkter i ett geografiskt område eller en geometri.

Photon-stöd för geospatiala funktioner

Följande geospatiala funktioner körs nu på Photon-motorn för snabbare prestanda:

Februari 2026

Databricks SQL version 2025.40 lanseras i Aktuell

den 23 februari 2026

Databricks SQL version 2025.40 rullas ut till den aktuella kanalen. Se funktioner i 2025.40.

Databricks SQL version 2025.40 är nu tillgänglig i förhandsversionen

den 11 februari 2026

Databricks SQL version 2025.40 är nu tillgänglig i förhandsgranskningskanalen . Läs följande avsnitt om du vill veta mer om nya funktioner, beteendeändringar och felkorrigeringar.

SQL-skript är allmänt tillgängligt

SQL-skript är nu allmänt tillgängliga. Skriva procedurlogik med SQL, inklusive villkorssatser, loopar, lokala variabler och undantagshantering.

Parametermarkörer stöds nu i fler SQL-kontexter

Du kan nu använda parametermarkörer med namnet (:param) och namnlösa (?) var som helst där ett literalvärde av lämplig typ tillåts. Detta inkluderar DDL-instruktioner som CREATE VIEW v AS SELECT ? AS c1, kolumntyper som DECIMAL(:p, :s), och kommentarer som COMMENT ON t IS :comment. På så sätt kan du parametrisera en mängd olika SQL-instruktioner utan att exponera koden för SQL-inmatningsattacker. Se Parametermarkörer.

IDENTIFIER -sats utökad till fler SQL-kontexter

IDENTIFIER Satsen, som omvandlar strängar till SQL-objektnamn, stöds nu i nästan alla sammanhang där en identifierare tillåts. Kombinerat med utökad parametermarkör och literalsträngssammankopplingsstöd kan du parametrisera allt från kolumnalias (AS IDENTIFIER(:name)) till kolumndefinitioner (IDENTIFIER(:pk) BIGINT NOT NULL). Se IDENTIFIER-satsen.

Strängsammanfogning stöds överallt

Sekventiella strängliteraler som 'Hello' ' World' nu slås samman i 'Hello World' alla sammanhang där strängliteraler tillåts, inklusive COMMENT 'This' ' is a ' 'comment'. Se STRING typ.

Ny BITMAP_AND_AGG-funktion

En ny BITMAP_AND_AGG funktion är nu tillgänglig för att komplettera det befintliga funktionsbiblioteket BITMAP .

Nya Theta Sketch-funktioner för ungefärliga distinkta antal

Ett nytt bibliotek med funktioner för ungefärlig distinkt räkning och uppsättningsoperationer med Datasketches Theta Sketch är nu tillgängligt.

Nya KLL-skissfunktioner för ungefärliga kvantantiklar

Nu finns ett nytt bibliotek med funktioner för att skapa KLL-skisser för ungefärlig kvantilberäkning:

Du kan sammanfoga flera KLL-skisser i en aggregeringskontext med hjälp av kll_merge_agg_bigint, kll_merge_agg_double och kll_merge_agg_float.

SQL-fönsterfunktioner i måttvyer

Nu kan du använda SQL-fönsterfunktioner i måttvyer för att beräkna löpande summor, rangordningar och andra fönsterbaserade beräkningar.

Nya geospatiala funktioner

Följande nya geospatiala funktioner är nu tillgängliga:

EWKT-indatastöd för befintliga geometri- och geografifunktioner

Följande funktioner accepterar nu EWKT (Extended Well-Known Text) som indata:

Bättre prestanda för upprepade frågor över tabeller med radfilter och kolumnmasker

Upprepade berättigade frågor över tabeller med radfilter och kolumnmasker drar nu nytta av förbättrad cachelagring av frågeresultat, vilket resulterar i snabbare körningstider.

Förbättrad prestanda för geospatial funktion

Prestanda för rumslig koppling förbättras med stöd för blandad rumslig koppling. Följande ST-funktioner har nu photon-implementeringar:

FSCK REPAIR TABLE innehåller metadatareparation som standard

FSCK REPAIR TABLE innehåller nu ett första reparationssteg för metadata innan du söker efter saknade datafiler, så att det kan fungera på tabeller med skadade kontrollpunkter eller ogiltiga partitionsvärden. Dessutom kan kolumnen dataFilePath i utdataschemat FSCK REPAIR TABLE DRY RUN nu vara ett nullvärde för att stödja nya ärendetyper där datafilsökvägen inte är tillämplig.

DESCRIBE TABLE utdata innehåller metadatakolumn

Utdata för DESCRIBE TABLE [EXTENDED] nu innehåller en metadata kolumn för alla tabelltyper. Den här kolumnen innehåller semantiska metadata (visningsnamn, format och synonymer) som definierats i tabellen som en JSON-sträng.

NULL-strukturer bevarade i sammanslagnings-, UPDATE, och strömningsskrivningsåtgärder

NULL-structs bevaras nu som NULL i Delta Lake MERGE, UPDATE och strömningsskrivningsåtgärder som innehåller datatyper av struct-typ. Tidigare expanderades NULL-strukturer till strukturer med alla fält inställda på NULL.

Partitionskolumner materialiserade i Parquet-filer

Partitionerade Delta Lake-tabeller materialiserar nu partitionskolumner i nyligen skrivna Parquet-datafiler. Tidigare lagrades partitionsvärden endast i Delta Lake-transaktionsloggens metadata. Arbetsbelastningar som läser Parquet-filer direkt skrivna av Delta Lake upptäcker ytterligare partitionskolumner i nyligen skrivna filer.

Tidsstämpelpartitionsvärden respekterar den aktuella sessionens tidszon

Tidsstämpelpartitionsvärden justeras nu korrekt med hjälp av konfigurationen spark.sql.session.timeZone . Tidigare konverterades de felaktigt till UTC med hjälp av JVM-tidszonen.

Tidsresebegränsningar har uppdaterats

Azure Databricks blockerar nu tidsresefrågor utöver deletedFileRetentionDuration tröskelvärdet för alla tabeller. Kommandot VACUUM ignorerar argumentet kvarhållningstid förutom när värdet är 0 timmar. Du kan inte ange deletedFileRetentionDuration större än logRetentionDuration.

SHOW TABLES DROPPED respekterar LIMIT-satsen

SHOW TABLES DROPPED respekterar nu klausulen LIMIT korrekt.

Januari 2026