Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Las siguientes características y mejoras de Databricks SQL se publicaron en 2026.
Marzo de 2026
Databricks SQL versión 2026.10 ya está disponible en versión preliminar
26 de marzo de 2026
Databricks SQL versión 2026.10 ya está disponible en el canal de versión preliminar . Revise la siguiente sección para obtener información sobre las nuevas características, los cambios de comportamiento y las correcciones de errores.
Los errores de métricas de observación ya no producen errores en las consultas
Los errores durante la recopilación de métricas de observación ya no provocan errores de ejecución de consultas. Anteriormente, los errores en las cláusulas OBSERVE (como la división por cero) podían bloquear o fallar toda la consulta. Ahora, la consulta se completa con éxito y se genera el error al llamar a observation.get.
Cláusula FILTER para funciones de agregación MEASURE
Funciones de agregación MEASURE ahora admiten cláusulas FILTER. Anteriormente, los filtros se omitían de forma silenciosa.
Escrituras optimizadas para las operaciones CRTAS del catálogo de Unity
CREATE OR REPLACE TABLE Las operaciones de AS SELECT (CRTAS) en tablas de catálogos de Unity con particiones ahora aplican escrituras optimizadas de forma predeterminada, lo que genera menos archivos más grandes. Para deshabilitarlo, establezca spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled en false.
Los valores de partición de marca de tiempo usan la zona horaria de sesión
Los valores de partición de marca de tiempo ahora utilizan la zona horaria de la sesión del almacén de datos SQL. Si tiene particiones de marca de tiempo escritas antes de la versión 2025.40 de Databricks SQL, ejecute SHOW PARTITIONS para comprobar los metadatos de la partición antes de escribir nuevos datos.
Descripción de la palabra clave reservada flow
El DESCRIBE FLOW comando ya está disponible. Si tiene una tabla denominada flow, use DESCRIBE schema.flow, DESCRIBE TABLE flow o DESCRIBE `flow` con comillas invertidas.
Operaciones de conjunto booleano de SpatialSQL
ST_Difference, ST_Intersectiony ST_Union usan una nueva implementación con las siguientes mejoras:
- Las geometrías de entrada válidas siempre generan un resultado y ya no generan errores. Las entradas no válidas no generan errores, pero podrían no generar resultados válidos.
- Rendimiento aproximadamente 2 veces más rápido.
- Los resultados pueden diferir después del 15º lugar decimal para las intersecciones de segmento de línea debido a diferentes fórmulas y orden de operaciones.
- Los resultados se normalizan para resultados coherentes y comparables:
- Los puntos se ordenan por valores de coordenadas.
- Las líneas de cadenas se crean a partir de las trayectorias más largas posibles.
- Los anillos de polígono se giran para que el primer punto tenga los valores de coordenadas más pequeños.
- Esta normalización se aplica en todos los casos, excepto cuando se llama a
ST_Differencecon dos geometrías no superpuestas, donde la primera geometría se devuelve sin modificar.
Tipos de excepción para SQLSTATE
Los tipos de excepción ahora admiten SQLSTATE. Si el código analiza las excepciones por coincidencias de cadenas o detecta tipos de excepción específicos, actualice la lógica de control de errores.
Compatibilidad con el tipo de datos DATETIMEOFFSET para Microsoft Azure Synapse
El DATETIMEOFFSET tipo de datos ya está disponible para las conexiones de Microsoft Azure Synapse.
Comentarios de la tabla BigQuery de Google
Las descripciones de las tablas de Google BigQuery se resuelven y exponen como comentarios de tabla.
Evolución del esquema con INSERT declaraciones
Use la WITH SCHEMA EVOLUTION cláusula con instrucciones SQL INSERT para evolucionar automáticamente el esquema de la tabla de destino durante las operaciones de inserción. La cláusula se admite para INSERT INTO, INSERT OVERWRITE y INSERT INTO ... REPLACE. Por ejemplo:
INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;
El esquema de la tabla Delta Lake de destino se actualiza para dar cabida a columnas adicionales o tipos ampliados del origen. Para obtener más información, consulte la sintaxis de la instrucción y INSERTla evolución del esquema.
Valores de estructura NULL conservados en operaciones INSERT
INSERT Las operaciones con la evolución del esquema o la conversión implícita ahora conservan NULL los valores de estructura cuando las tablas de origen y destino tienen órdenes de campo de estructura diferentes.
Función SQL parse_timestamp
La función SQL de parse_timestamp analiza las cadenas de marca de tiempo mediante varios patrones y se ejecuta en el motor Photon para mejorar el rendimiento al analizar marcas de tiempo en varios formatos. Consulte Patrones de fecha y hora para obtener información sobre el formato de patrones de fecha y hora.
max_by y min_by con límite opcional
Las funciones de agregado max_by y min_by ahora aceptan un tercer argumento limit opcional (hasta 100 000). Cuando se proporciona, las funciones devuelven una matriz de hasta limit valores correspondientes a los valores más grandes (o más pequeños) de la expresión de ordenación, simplificando consultas top-K y bottom-K sin funciones de ventana ni CTE.
Funciones escalares y agregadas vectoriales
Las nuevas funciones SQL operan en ARRAY<FLOAT> vectores para incrustación y cargas de trabajo de similitudes.
Funciones de agregado:
- vector_avg: devuelve el promedio elemento por elemento de los vectores en un grupo.
- vector_sum: devuelve la suma de elementos de vectores de un grupo.
Funciones escalares:
- vector_cosine_similarity: devuelve la similitud coseno de dos vectores.
- vector_inner_product: devuelve el producto interno (punto) de dos vectores.
- vector_l2_distance: devuelve la distancia euclidiana (L2) entre dos vectores.
- vector_norm: devuelve la norma Lp de un vector (1, 2 o infinito).
- vector_normalize: devuelve un vector normalizado a la longitud de la unidad.
Consulte Funciones integradas.
Compatibilidad con cursores SQL en instrucciones compuestas
Las declaraciones compuestas de scripting SQL ahora admiten el procesamiento de cursores. Use DECLARE CURSOR para definir un cursor y, a continuación, una instrucción OPEN, una instrucción FETCH y una instrucción CLOSE para ejecutar la consulta y consumir filas de una en una. Los cursores pueden usar marcadores de parámetros y controladores de condición, como NOT FOUND para el procesamiento de filas por fila.
Funciones aproximadas de croquis top-k
Las nuevas funciones permiten crear y combinar bocetos de top-K aproximados para la agregación distribuida de top-K:
- approx_top_k_accumulate: construye un esquema por grupo.
- approx_top_k_combine: combina esquemas.
- approx_top_k_estimate: devuelve los elementos K principales con recuentos estimados.
Para obtener más información, consulte approx_top_k funciones de agregado y funciones integradas.
Funciones de esquema de tupla
Las nuevas funciones de agregado y escalar para croquis de tupla admiten un recuento y una agregación distintos en pares clave-resumen.
Funciones de agregado:
-
tuple_sketch_agg_doublefunción de agregación -
tuple_sketch_agg_integerfunción de agregación -
tuple_union_agg_doublefunción de agregación -
tuple_union_agg_integerfunción de agregación -
tuple_intersection_agg_doublefunción de agregación -
tuple_intersection_agg_integerfunción de agregación
Funciones escalares:
- tuple_sketch_estimate
- tuple_sketch_summary
- tuple_sketch_theta
- tuple_union
- tuple_intersection
- tuple_difference
Consulte Funciones integradas.
Dependencias personalizadas para Python UDTFs de Unity Catalog
Las funciones de tabla definidas por el usuario (UDTFs) del catálogo de Unity de Python ahora pueden usar dependencias personalizadas para bibliotecas externas, por lo que puede usar paquetes más allá de lo que está disponible en el entorno predeterminado de SQL Warehouse. Consulte Extensión de UDF mediante dependencias personalizadas.
Nuevas funciones geoespaciales
Las siguientes funciones geoespaciales ahora están disponibles:
-
st_estimatesridfunction: calcula el mejor identificador de referencia espacial proyectado (SRID) para una geometría de entrada. -
st_force2dfunción: convierte una geografía o geometría en su representación 2D. -
st_nringsfunción: Cuenta el número total de anillos en un polígono o multipolígono, incluyendo tanto los anillos exteriores como los interiores. -
st_numpointsfunction: cuenta el número de puntos no vacíos en una geografía o geometría.
Soporte de Photon para funciones geoespaciales
Las siguientes funciones geoespaciales ahora se ejecutan en el motor Photon para un rendimiento más rápido:
Febrero de 2026
Databricks SQL, versión 2025.40, se está implementando en la versión actual.
23 de febrero de 2026
Databricks SQL versión 2025.40 se está implementando en el canal Current. Consulte las características de 2025.40.
Databricks SQL versión 2025.40 ya está disponible en versión preliminar
11 de febrero de 2026
Databricks SQL versión 2025.40 ya está disponible en el canal de versión preliminar . Revise la siguiente sección para obtener información sobre las nuevas características, los cambios de comportamiento y las correcciones de errores.
El scripting de SQL está disponible con carácter general
El scripting de SQL ya está disponible con carácter general. Escriba lógica de procedimientos con SQL, incluidas instrucciones condicionales, bucles, variables locales y control de excepciones.
Ahora se admiten marcadores de parámetros en más contextos SQL
Ahora puede usar marcadores de parámetro con nombre (:param) y sin nombre (?) en cualquier lugar donde se permita un valor literal del tipo adecuado. Esto incluye instrucciones DDL como CREATE VIEW v AS SELECT ? AS c1, tipos de columna como DECIMAL(:p, :s), y comentarios como COMMENT ON t IS :comment. Esto le permite parametrizar una gran variedad de instrucciones SQL sin exponer el código a ataques por inyección de código SQL. Consulte Marcadores de parámetros.
IDENTIFIER cláusula ampliada a más contextos SQL
La IDENTIFIER cláusula , que convierte cadenas en nombres de objeto de SQL, ahora se admite en casi todos los contextos en los que se permite un identificador. En combinación con el soporte ampliado para marcadores de parámetros y el soporte para la unión de cadenas literales, es posible parametrizar cualquier elemento, desde alias de columna (AS IDENTIFIER(:name)) hasta definiciones de columna (IDENTIFIER(:pk) BIGINT NOT NULL). Consulte la cláusula IDENTIFIER.
Coalescencia de cadenas literales admitida universalmente
Literales de cadena secuenciales, como 'Hello' ' World', ahora se combinan en 'Hello World' en cualquier contexto donde se permitan literales de cadena, incluido COMMENT 'This' ' is a ' 'comment'. Vea el tipo STRING.
Nueva función de BITMAP_AND_AGG
Ahora hay disponible una nueva función BITMAP_AND_AGG para complementar la biblioteca de BITMAP funciones existente.
Nuevas funciones de Theta Sketch para recuentos distintos aproximados
Ahora está disponible una nueva biblioteca de funciones para recuentos distintos aproximados y operaciones de conjuntos utilizando Datasketches Theta Sketch.
-
theta_sketch_aggfunción de agregación -
theta_union_aggfunción de agregación -
theta_intersection_aggfunción de agregación -
theta_sketch_estimateFunción -
theta_unionFunción -
theta_differenceFunción -
theta_intersectionFunción
Nuevas funciones de croquis KLL para cuantiles aproximados
Ahora hay disponible una nueva biblioteca de funciones para crear bocetos KLL para el cálculo cuantiles aproximado:
-
kll_sketch_agg_bigintfunción de agregación -
kll_sketch_get_quantile_bigintFunción -
kll_sketch_merge_bigintFunción -
kll_sketch_agg_doublefunción de agregación -
kll_sketch_get_quantile_doubleFunción -
kll_sketch_merge_doubleFunción -
kll_sketch_agg_floatfunción de agregación -
kll_sketch_get_quantile_floatFunción -
kll_sketch_merge_floatFunción -
kll_sketch_get_n_bigintFunción -
kll_sketch_get_rank_bigintFunción -
kll_sketch_to_string_bigintFunción -
kll_sketch_get_n_doubleFunción -
kll_sketch_get_rank_doubleFunción -
kll_sketch_to_string_doubleFunción -
kll_sketch_get_n_floatFunción -
kll_sketch_get_rank_floatFunción -
kll_sketch_to_string_floatFunción
Puede combinar varios bocetos de KLL en un contexto de agregación mediante kll_merge_agg_bigint, kll_merge_agg_double y kll_merge_agg_float.
Funciones de ventana SQL en vistas de métricas
Ahora puede usar funciones de ventana SQL en vistas de métricas para calcular los totales en ejecución, las clasificaciones y otros cálculos basados en ventanas.
Nuevas funciones geoespaciales
Las siguientes nuevas funciones geoespaciales ahora están disponibles:
-
st_azimuthfunción: Devuelve el azimut basado en el norte desde el primer punto hasta el segundo en radianes en[0, 2π). -
st_boundaryfunction: devuelve el límite de la geometría de entrada. -
st_closestpointfunction: devuelve la proyección 2D de un punto en la primera geometría más cercana a la segunda geometría. -
st_geogfromewktfunción: analiza una descripción de Texto Bien Conocido Extendido (EWKT) de una geografía. -
st_geomfromewktfunción: interpreta una descripción de Texto Bien Conocido Extendido (EWKT) de geometría.
Compatibilidad de entrada de EWKT con funciones de geometría y geografía existentes
Las funciones siguientes ahora aceptan Extended Well-Known Text (EWKT) como entrada:
Rendimiento mejorado para consultas repetidas sobre tablas con filtros de fila y máscaras de columna
Las consultas válidas repetidas sobre tablas con filtros de fila y máscaras de columna ahora se benefician del almacenamiento en caché de resultados de consulta mejorado, lo que da lugar a tiempos de ejecución más rápidos.
Rendimiento mejorado de la función geoespacial
El rendimiento de la combinación espacial se mejora con la compatibilidad con combinaciones espaciales distribuidas al azar. Las siguientes funciones ST ahora tienen implementaciones de Photon:
FSCK REPAIR TABLE incluye la reparación de metadatos de forma predeterminada
FSCK REPAIR TABLE ahora incluye un paso de reparación de metadatos inicial antes de comprobar si faltan archivos de datos, lo que le permite trabajar en tablas con puntos de control dañados o valores de partición no válidos. Además, la dataFilePath columna del FSCK REPAIR TABLE DRY RUN esquema de salida ahora admite valores NULL para admitir nuevos tipos de problemas en los que la ruta de acceso del archivo de datos no es aplicable.
DESCRIBE TABLE output incluye la columna de metadatos
La salida de DESCRIBE TABLE [EXTENDED] ahora incluye una columna metadata para todos los tipos de tabla. Esta columna contiene metadatos semánticos (nombre para mostrar, formato y sinónimos) definidos en la tabla como una cadena JSON.
Structs NULL conservados en las operaciones MERGE, UPDATE, y de escritura en streaming
Las estructuras NULL ahora se conservan como NULL en Delta Lake MERGE, UPDATE, y en las operaciones de escritura en streaming que incluyen conversiones de tipo struct. Anteriormente, las estructuras NULL se expandían a estructuras con todos los campos establecidos en NULL.
Columnas de partición materializadas en archivos Parquet
Las tablas particionadas de Delta Lake ahora materializan las columnas de partición en los archivos de datos Parquet recién escritos. Anteriormente, los valores de partición solo se almacenaban en los metadatos del registro de transacciones de Delta Lake. Las tareas que leen directamente archivos Parquet creados por Delta Lake observan columnas de partición adicionales en los archivos recién generados.
Los valores de partición de la marca de tiempo respetan la zona horaria de la sesión.
Los valores de partición de marca de tiempo ahora se ajustan correctamente usando la configuración spark.sql.session.timeZone. Anteriormente, se convertían incorrectamente a UTC mediante la zona horaria de JVM.
Restricciones sobre el viaje en el tiempo actualizadas
Azure Databricks ahora bloquea las consultas de retroceso temporal más allá del deletedFileRetentionDuration umbral para todas las tablas. El VACUUM comando omite el argumento de duración de retención, excepto cuando el valor es 0 horas. No se puede establecer deletedFileRetentionDuration un valor mayor que logRetentionDuration.
SHOW TABLES DROPPED respeta la cláusula LIMIT
SHOW TABLES DROPPED ahora respeta correctamente la LIMIT cláusula .