Compartir a través de


Notas de la versión de Databricks SQL 2026

Las siguientes características y mejoras de Databricks SQL se publicaron en 2026.

Marzo de 2026

Databricks SQL versión 2026.10 ya está disponible en versión preliminar

26 de marzo de 2026

Databricks SQL versión 2026.10 ya está disponible en el canal de versión preliminar . Revise la siguiente sección para obtener información sobre las nuevas características, los cambios de comportamiento y las correcciones de errores.

Los errores de métricas de observación ya no producen errores en las consultas

Los errores durante la recopilación de métricas de observación ya no provocan errores de ejecución de consultas. Anteriormente, los errores en las cláusulas OBSERVE (como la división por cero) podían bloquear o fallar toda la consulta. Ahora, la consulta se completa con éxito y se genera el error al llamar a observation.get.

Cláusula FILTER para funciones de agregación MEASURE

Funciones de agregación MEASURE ahora admiten cláusulas FILTER. Anteriormente, los filtros se omitían de forma silenciosa.

Escrituras optimizadas para las operaciones CRTAS del catálogo de Unity

CREATE OR REPLACE TABLE Las operaciones de AS SELECT (CRTAS) en tablas de catálogos de Unity con particiones ahora aplican escrituras optimizadas de forma predeterminada, lo que genera menos archivos más grandes. Para deshabilitarlo, establezca spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled en false.

Los valores de partición de marca de tiempo usan la zona horaria de sesión

Los valores de partición de marca de tiempo ahora utilizan la zona horaria de la sesión del almacén de datos SQL. Si tiene particiones de marca de tiempo escritas antes de la versión 2025.40 de Databricks SQL, ejecute SHOW PARTITIONS para comprobar los metadatos de la partición antes de escribir nuevos datos.

Descripción de la palabra clave reservada flow

El DESCRIBE FLOW comando ya está disponible. Si tiene una tabla denominada flow, use DESCRIBE schema.flow, DESCRIBE TABLE flow o DESCRIBE `flow` con comillas invertidas.

Operaciones de conjunto booleano de SpatialSQL

ST_Difference, ST_Intersectiony ST_Union usan una nueva implementación con las siguientes mejoras:

  • Las geometrías de entrada válidas siempre generan un resultado y ya no generan errores. Las entradas no válidas no generan errores, pero podrían no generar resultados válidos.
  • Rendimiento aproximadamente 2 veces más rápido.
  • Los resultados pueden diferir después del 15º lugar decimal para las intersecciones de segmento de línea debido a diferentes fórmulas y orden de operaciones.
  • Los resultados se normalizan para resultados coherentes y comparables:
    • Los puntos se ordenan por valores de coordenadas.
    • Las líneas de cadenas se crean a partir de las trayectorias más largas posibles.
    • Los anillos de polígono se giran para que el primer punto tenga los valores de coordenadas más pequeños.
  • Esta normalización se aplica en todos los casos, excepto cuando se llama a ST_Difference con dos geometrías no superpuestas, donde la primera geometría se devuelve sin modificar.

Tipos de excepción para SQLSTATE

Los tipos de excepción ahora admiten SQLSTATE. Si el código analiza las excepciones por coincidencias de cadenas o detecta tipos de excepción específicos, actualice la lógica de control de errores.

Compatibilidad con el tipo de datos DATETIMEOFFSET para Microsoft Azure Synapse

El DATETIMEOFFSET tipo de datos ya está disponible para las conexiones de Microsoft Azure Synapse.

Comentarios de la tabla BigQuery de Google

Las descripciones de las tablas de Google BigQuery se resuelven y exponen como comentarios de tabla.

Evolución del esquema con INSERT declaraciones

Use la WITH SCHEMA EVOLUTION cláusula con instrucciones SQL INSERT para evolucionar automáticamente el esquema de la tabla de destino durante las operaciones de inserción. La cláusula se admite para INSERT INTO, INSERT OVERWRITE y INSERT INTO ... REPLACE. Por ejemplo:

INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;

El esquema de la tabla Delta Lake de destino se actualiza para dar cabida a columnas adicionales o tipos ampliados del origen. Para obtener más información, consulte la sintaxis de la instrucción y INSERTla evolución del esquema.

Valores de estructura NULL conservados en operaciones INSERT

INSERT Las operaciones con la evolución del esquema o la conversión implícita ahora conservan NULL los valores de estructura cuando las tablas de origen y destino tienen órdenes de campo de estructura diferentes.

Función SQL parse_timestamp

La función SQL de parse_timestamp analiza las cadenas de marca de tiempo mediante varios patrones y se ejecuta en el motor Photon para mejorar el rendimiento al analizar marcas de tiempo en varios formatos. Consulte Patrones de fecha y hora para obtener información sobre el formato de patrones de fecha y hora.

max_by y min_by con límite opcional

Las funciones de agregado max_by y min_by ahora aceptan un tercer argumento limit opcional (hasta 100 000). Cuando se proporciona, las funciones devuelven una matriz de hasta limit valores correspondientes a los valores más grandes (o más pequeños) de la expresión de ordenación, simplificando consultas top-K y bottom-K sin funciones de ventana ni CTE.

Funciones escalares y agregadas vectoriales

Las nuevas funciones SQL operan en ARRAY<FLOAT> vectores para incrustación y cargas de trabajo de similitudes.

Funciones de agregado:

  • vector_avg: devuelve el promedio elemento por elemento de los vectores en un grupo.
  • vector_sum: devuelve la suma de elementos de vectores de un grupo.

Funciones escalares:

Consulte Funciones integradas.

Compatibilidad con cursores SQL en instrucciones compuestas

Las declaraciones compuestas de scripting SQL ahora admiten el procesamiento de cursores. Use DECLARE CURSOR para definir un cursor y, a continuación, una instrucción OPEN, una instrucción FETCH y una instrucción CLOSE para ejecutar la consulta y consumir filas de una en una. Los cursores pueden usar marcadores de parámetros y controladores de condición, como NOT FOUND para el procesamiento de filas por fila.

Funciones aproximadas de croquis top-k

Las nuevas funciones permiten crear y combinar bocetos de top-K aproximados para la agregación distribuida de top-K:

Para obtener más información, consulte approx_top_k funciones de agregado y funciones integradas.

Funciones de esquema de tupla

Las nuevas funciones de agregado y escalar para croquis de tupla admiten un recuento y una agregación distintos en pares clave-resumen.

Funciones de agregado:

Funciones escalares:

Consulte Funciones integradas.

Dependencias personalizadas para Python UDTFs de Unity Catalog

Las funciones de tabla definidas por el usuario (UDTFs) del catálogo de Unity de Python ahora pueden usar dependencias personalizadas para bibliotecas externas, por lo que puede usar paquetes más allá de lo que está disponible en el entorno predeterminado de SQL Warehouse. Consulte Extensión de UDF mediante dependencias personalizadas.

Nuevas funciones geoespaciales

Las siguientes funciones geoespaciales ahora están disponibles:

  • st_estimatesrid function: calcula el mejor identificador de referencia espacial proyectado (SRID) para una geometría de entrada.
  • st_force2d función: convierte una geografía o geometría en su representación 2D.
  • st_nrings función: Cuenta el número total de anillos en un polígono o multipolígono, incluyendo tanto los anillos exteriores como los interiores.
  • st_numpoints function: cuenta el número de puntos no vacíos en una geografía o geometría.

Soporte de Photon para funciones geoespaciales

Las siguientes funciones geoespaciales ahora se ejecutan en el motor Photon para un rendimiento más rápido:

Febrero de 2026

Databricks SQL, versión 2025.40, se está implementando en la versión actual.

23 de febrero de 2026

Databricks SQL versión 2025.40 se está implementando en el canal Current. Consulte las características de 2025.40.

Databricks SQL versión 2025.40 ya está disponible en versión preliminar

11 de febrero de 2026

Databricks SQL versión 2025.40 ya está disponible en el canal de versión preliminar . Revise la siguiente sección para obtener información sobre las nuevas características, los cambios de comportamiento y las correcciones de errores.

El scripting de SQL está disponible con carácter general

El scripting de SQL ya está disponible con carácter general. Escriba lógica de procedimientos con SQL, incluidas instrucciones condicionales, bucles, variables locales y control de excepciones.

Ahora se admiten marcadores de parámetros en más contextos SQL

Ahora puede usar marcadores de parámetro con nombre (:param) y sin nombre (?) en cualquier lugar donde se permita un valor literal del tipo adecuado. Esto incluye instrucciones DDL como CREATE VIEW v AS SELECT ? AS c1, tipos de columna como DECIMAL(:p, :s), y comentarios como COMMENT ON t IS :comment. Esto le permite parametrizar una gran variedad de instrucciones SQL sin exponer el código a ataques por inyección de código SQL. Consulte Marcadores de parámetros.

IDENTIFIER cláusula ampliada a más contextos SQL

La IDENTIFIER cláusula , que convierte cadenas en nombres de objeto de SQL, ahora se admite en casi todos los contextos en los que se permite un identificador. En combinación con el soporte ampliado para marcadores de parámetros y el soporte para la unión de cadenas literales, es posible parametrizar cualquier elemento, desde alias de columna (AS IDENTIFIER(:name)) hasta definiciones de columna (IDENTIFIER(:pk) BIGINT NOT NULL). Consulte la cláusula IDENTIFIER.

Coalescencia de cadenas literales admitida universalmente

Literales de cadena secuenciales, como 'Hello' ' World', ahora se combinan en 'Hello World' en cualquier contexto donde se permitan literales de cadena, incluido COMMENT 'This' ' is a ' 'comment'. Vea el tipo STRING.

Nueva función de BITMAP_AND_AGG

Ahora hay disponible una nueva función BITMAP_AND_AGG para complementar la biblioteca de BITMAP funciones existente.

Nuevas funciones de Theta Sketch para recuentos distintos aproximados

Ahora está disponible una nueva biblioteca de funciones para recuentos distintos aproximados y operaciones de conjuntos utilizando Datasketches Theta Sketch.

Nuevas funciones de croquis KLL para cuantiles aproximados

Ahora hay disponible una nueva biblioteca de funciones para crear bocetos KLL para el cálculo cuantiles aproximado:

Puede combinar varios bocetos de KLL en un contexto de agregación mediante kll_merge_agg_bigint, kll_merge_agg_double y kll_merge_agg_float.

Funciones de ventana SQL en vistas de métricas

Ahora puede usar funciones de ventana SQL en vistas de métricas para calcular los totales en ejecución, las clasificaciones y otros cálculos basados en ventanas.

Nuevas funciones geoespaciales

Las siguientes nuevas funciones geoespaciales ahora están disponibles:

Compatibilidad de entrada de EWKT con funciones de geometría y geografía existentes

Las funciones siguientes ahora aceptan Extended Well-Known Text (EWKT) como entrada:

Rendimiento mejorado para consultas repetidas sobre tablas con filtros de fila y máscaras de columna

Las consultas válidas repetidas sobre tablas con filtros de fila y máscaras de columna ahora se benefician del almacenamiento en caché de resultados de consulta mejorado, lo que da lugar a tiempos de ejecución más rápidos.

Rendimiento mejorado de la función geoespacial

El rendimiento de la combinación espacial se mejora con la compatibilidad con combinaciones espaciales distribuidas al azar. Las siguientes funciones ST ahora tienen implementaciones de Photon:

FSCK REPAIR TABLE incluye la reparación de metadatos de forma predeterminada

FSCK REPAIR TABLE ahora incluye un paso de reparación de metadatos inicial antes de comprobar si faltan archivos de datos, lo que le permite trabajar en tablas con puntos de control dañados o valores de partición no válidos. Además, la dataFilePath columna del FSCK REPAIR TABLE DRY RUN esquema de salida ahora admite valores NULL para admitir nuevos tipos de problemas en los que la ruta de acceso del archivo de datos no es aplicable.

DESCRIBE TABLE output incluye la columna de metadatos

La salida de DESCRIBE TABLE [EXTENDED] ahora incluye una columna metadata para todos los tipos de tabla. Esta columna contiene metadatos semánticos (nombre para mostrar, formato y sinónimos) definidos en la tabla como una cadena JSON.

Structs NULL conservados en las operaciones MERGE, UPDATE, y de escritura en streaming

Las estructuras NULL ahora se conservan como NULL en Delta Lake MERGE, UPDATE, y en las operaciones de escritura en streaming que incluyen conversiones de tipo struct. Anteriormente, las estructuras NULL se expandían a estructuras con todos los campos establecidos en NULL.

Columnas de partición materializadas en archivos Parquet

Las tablas particionadas de Delta Lake ahora materializan las columnas de partición en los archivos de datos Parquet recién escritos. Anteriormente, los valores de partición solo se almacenaban en los metadatos del registro de transacciones de Delta Lake. Las tareas que leen directamente archivos Parquet creados por Delta Lake observan columnas de partición adicionales en los archivos recién generados.

Los valores de partición de la marca de tiempo respetan la zona horaria de la sesión.

Los valores de partición de marca de tiempo ahora se ajustan correctamente usando la configuración spark.sql.session.timeZone. Anteriormente, se convertían incorrectamente a UTC mediante la zona horaria de JVM.

Restricciones sobre el viaje en el tiempo actualizadas

Azure Databricks ahora bloquea las consultas de retroceso temporal más allá del deletedFileRetentionDuration umbral para todas las tablas. El VACUUM comando omite el argumento de duración de retención, excepto cuando el valor es 0 horas. No se puede establecer deletedFileRetentionDuration un valor mayor que logRetentionDuration.

SHOW TABLES DROPPED respeta la cláusula LIMIT

SHOW TABLES DROPPED ahora respeta correctamente la LIMIT cláusula .

Enero de 2026