Compartir a través de


Databricks Runtime 17.1

Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 17.1, con tecnología de Apache Spark 4.0.0.

Azure Databricks publicó esta versión en agosto de 2025.

Sugerencia

Para ver las notas de las versiones de Databricks Runtime que han llegado al fin de soporte (EoS), consulte las Notas de lanzamiento de fin de soporte de Databricks Runtime. Las versiones de EoS Databricks Runtime se han retirado y es posible que no se actualicen.

Nuevas características y mejoras

Expresiones SQL espaciales expandidas y tipos de datos GEOMETRY y GEOGRAPHY

Ahora puede almacenar datos geoespaciales en columnas integradas GEOMETRY y GEOGRAPHY para mejorar el rendimiento de las consultas espaciales. Esta versión agrega más de 80 nuevas expresiones SQL espaciales, incluidas las funciones para importar, exportar, medir, construir, editar, validar, transformar y determinar relaciones topológicas con combinaciones espaciales. Consulte ST funciones geoespaciales, GEOGRAPHY tipo y GEOMETRY tipo.

Expresiones de tabla comunes recursivas (GA)

Las expresiones de tabla comunes recursivas (rCTEs) ahora están disponibles con carácter general. Use rCTEs para navegar por los datos jerárquicos con un CTE de referencia automática y UNION ALL para seguir las relaciones recursivas.

Funciones de tabla definidas por el usuario en Catálogo de Unity Python (UDTF)

Ahora puede registrar las UDF de Python en el Catálogo de Unity para la gobernanza centralizada y la lógica reutilizable en las consultas SQL. Consulte Funciones de tabla definidas por el usuario (UDF) de Python en el catálogo de Unity.

Compatibilidad con la intercalación predeterminada a nivel de esquema y de catálogo

Ahora puede establecer una intercalación predeterminada para esquemas y catálogos en Databricks Runtime 17.1. Esto le permite definir una intercalación que se aplica a todos los objetos creados en el esquema o catálogo, lo que garantiza un comportamiento coherente de intercalación en los datos.

Entorno de ejecución de aislamiento compartido para UDF de Python del catálogo de Unity de Batch

Las UDF de Python del catálogo de Batch unity con el mismo propietario ahora pueden compartir un entorno de aislamiento de forma predeterminada. Esto puede mejorar el rendimiento y reducir el uso de memoria al reducir el número de entornos independientes que deben iniciarse.

Para asegurarse de que una UDF siempre se ejecuta en un entorno totalmente aislado, agregue la STRICT ISOLATION cláusula de característica. Consulte Aislamiento del entorno.

Mejor control de las opciones json con VARIANT

Las from_json funciones y to_json ahora aplican correctamente las opciones JSON al trabajar con esquemas de nivel VARIANT superior. Esto garantiza un comportamiento coherente con otros tipos de datos admitidos.

display() admite el modo Streaming Real-Time

Puede usar la función display() con consultas de streaming que usan un desencadenador en tiempo real. En este modo, display() utiliza automáticamente el modo de salida de update y evita agregar una cláusula LIMIT, que no es compatible con update. El intervalo de refresco de pantalla también se desacopla de la duración del lote para mejorar el soporte de la respuesta en tiempo real.

El origen de cambio admite el modo de streaming en tiempo real

El origen de cambio en flujo estructurado ahora funciona con activadores en tiempo real, lo que permite la generación continua de datos para canalizaciones de datos en tiempo real utilizando el modo de streaming en tiempo real.

Temporizadores de eventos admitidos para ventanas basadas en tiempo

Azure Databricks admite desencadenantes basados en el tiempo de los eventos para operaciones de ventana basadas en el tiempo en el modo de streaming Real-Time. Esto permite un manejo más preciso de los datos retrasados y el marcado de tiempo en las consultas de streaming en tiempo real.

Las UDF de Python escalares admiten credenciales de servicio

Las UDF escalares de Python pueden usar credenciales de servicio del catálogo de Unity para acceder de forma segura a servicios en la nube externos. Esto es útil para integrar operaciones como la tokenización basada en la nube, el cifrado o la administración de secretos directamente en las transformaciones de datos.

Lista de esquemas mejorada

El conector snowflake usa la INFORMATION_SCHEMA tabla en lugar del SHOW SCHEMAS comando para enumerar esquemas. Este cambio quita el límite de 10 000 esquemas del enfoque anterior y mejora la compatibilidad con las bases de datos con un gran número de esquemas.

Mejoras en el mapeo de columnas de cadenas en operaciones de escritura de Redshift

Al escribir tablas en Redshift mediante spark.write, las columnas de cadena sin una longitud explícita se asignan a VARCHAR(MAX) en lugar de TEXT. Esto evita el comportamiento predeterminado de Redshift de interpretar TEXT como VARCHAR(256), lo que podría provocar errores al escribir cadenas más largas.

Compatibilidad con DDL, SHOW y DESCRIBE en tablas controladas por acceso

Los comandos SQL como DDL, SHOWy DESCRIBE ahora se ejecutan en tablas controladas por acceso específicas mediante clústeres dedicados. Cuando sea necesario aplicar controles de acceso, Azure Databricks enruta estos comandos a través de computación sin servidor, al igual que lo hace para lecturas, combinaciones y adiciones. Consulte Compatibilidad con DDL, SHOW, DESCRIBE y otros comandos.

Uso reducido de memoria para esquemas anchos en Photon Writer

Se realizaron mejoras en el motor Photon que reduce significativamente el uso de memoria para esquemas anchos, abordando escenarios que anteriormente provocaron errores de memoria insuficiente.

Compatibilidad con la sintaxis TIMESTAMP WITHOUT TIME ZONE

Ahora puede especificar TIMESTAMP WITHOUT TIME ZONE en lugar de TIMESTAMP_NTZ. Este cambio mejora la compatibilidad con SQL Standard.

Cambios de comportamiento

Problema de correlación de subconsulta resuelto

Azure Databricks ya no correlaciona incorrectamente expresiones de agregado semánticamente iguales entre una subconsulta y su consulta externa. Anteriormente, esto podría provocar resultados de consulta incorrectos.

Los literales NTZ de marca de tiempo ya no se insertan

Para el conector de Snowflake y Snowflake Lakehouse Federation, los literales TIMESTAMP_NTZ (marca de tiempo sin zona horaria) ya no se insertan en Snowflake. Este cambio evita errores de consulta causados por un control de marca de tiempo incompatible y mejora la confiabilidad de las consultas afectadas.

Error lanzado para restricciones no válidas CHECK

Azure Databricks ahora produce una AnalysisException excepción si no se puede resolver una CHECK expresión de restricción durante la validación de restricciones.

El conector pulsar ya no expone Bouncy Castle

La biblioteca Bouncy Castle ahora está sombreada en el conector Pulsar para evitar conflictos de ruta de clase. Como resultado, los trabajos de Spark ya no pueden acceder a las clases de org.bouncycastle.* del conector. Si el código de la aplicación depende de Bouncy Castle, instale la biblioteca manualmente en el clúster.

Auto Loader usa eventos de archivo de forma predeterminada si están disponibles

Auto Loader usa eventos de archivo en lugar de enumerar directorios cuando la ruta de acceso de carga es una ubicación externa con eventos de archivo habilitados. El valor predeterminado para useManagedFileEvents ahora if_available es (era false). Esto puede mejorar el rendimiento de la ingesta y registra una advertencia si los eventos de archivo aún no están habilitados.

Propiedades de tabla internas filtradas desde SHOW CREATE TABLE

SHOW CREATE TABLE ya no incluye propiedades internas que no se pueden establecer manualmente ni pasar a CREATE TABLE. Esto reduce la confusión y alinea la salida con las opciones configurables por el usuario.

Reglas más estrictas para las combinaciones de secuencia en modo de anexión

Azure Databricks ahora no permite las consultas de streaming en modo de anexión que usan una combinación de secuencia seguida de la agregación de ventanas, a menos que las marcas de agua se definan en ambos lados. Las consultas sin marcas de agua adecuadas pueden producir resultados no finales, infringiendo las garantías del modo de anexión.

El conector de Teradata corrige la comparación de cadenas que distinguen mayúsculas de minúsculas.

El conector de Teradata ahora tiene como valor predeterminado , alineando el comportamiento de comparación de cadenas con Azure Databricks al hacer que distingue mayúsculas TMODE=ANSIde minúsculas. Este cambio es configurable y no afecta a los usuarios existentes a menos que opten por participar.

Actualizaciones de bibliotecas

  • Bibliotecas de Python actualizadas:

    • google-auth de 2.40.1 a 2.40.0
    • mlflow-skinny de 3.0.0 a 3.0.1
    • opentelemetry-api desde la versión 1.33.0 a la 1.32.1
    • opentelemetry-sdk de 1.33.0 a 1.32.1
    • opentelemetry-semantic-conventions de 0.54b0 a 0.53b1
    • packaging de 24.1 a 24.2
    • pip de 24.2 a 25.0.1
  • Bibliotecas de R actualizadas:

  • cli de 3.6.4 a 3.6.5

  • curl de 6.2.1 a 6.4.0

  • genéricos de 0.1.3 a 0.1.4

  • globales de 0.16.3 a 0.18.0

  • openssl de 2.3.2 a 2.3.3

  • pilar de 1.10.1 a 1.11.0

  • rlang de 1.1.5 a 1.1.6

  • sparklyr de 1.9.0 a 1.9.1

  • stringi de 1.8.4 a 1.8.7

  • tibble de 3.2.1 a 3.3.0

  • utf8 de 1.2.4 a 1.2.6

  • Bibliotecas de Java actualizadas:

    • software.amazon.cryptools.AmazonCorrettoCryptoProvider de 2.4.1-linux-x86_64 to 2.5.0-linux-x86_64

Apache Spark

Databricks Runtime 17.1 incluye Apache Spark 4.0.0. Esta versión incluye todas las correcciones y mejoras de Spark incluidas en la versión 17.0, así como las siguientes correcciones de errores y mejoras adicionales realizadas en Spark:

  • SPARK-52721 Corrección del parámetro de mensaje para CANNOT_PARSE_DATATYPE
  • SPARK-51919 Permitir sobrescribir el origen de datos de Python registrado estáticamente
  • SPARK-52632 Revertir: mostrar los nodos del plan de escritura V2
  • SPARK-52715 Cadena SQL bonito de TIME - DAY-TIME INTERVAL
  • SPARK-51268 Liberar bloqueo de TreeNode
  • SPARK-52701 Corrección de la ampliación de tipos float32 en mod con bool en ANSI
  • SPARK-52563 Corrección del error de nomenclatura de variables en _assert_pandas_almost_equal
  • SPARK-52541 Adición de una guía de programación para canalizaciones declarativas
  • SPARK-51695 Corrección de errores de prueba causados por el cambio de sintaxis CHECK CONSTRAINT
  • SPARK-52666 Mapear tipo definido por el usuario para corregir MutableValue en SpecificInternalRow
  • SPARK-52660 Agregar tipo de hora a CodeGenerator#javaClass
  • SPARK-52693 Soporte de intervalos día-hora ANSI +/- hacia/desde TIME.
  • SPARK-52705 Refactorización de la comprobación determinista para expresiones de agrupación
  • SPARK-52699 Compatibilidad con la agregación de tipo TIME en modo interpretado
  • SPARK-52503 Corrección de la eliminación cuando la columna de entrada no existe
  • SPARK-52535 Mejora de la legibilidad del código de la regla ApplyColumnarRulesAndInsertTransitions
  • SPARK-52551 Adición de un nuevo predicado v2 BOOLEAN_EXPRESSION
  • SPARK-52698 Revertir: mejora de las sugerencias de tipo para el módulo de origen de datos
  • SPARK-52684 Hacer que los CACHE TABLE comandos sean atómicos al enfrentarse a errores de ejecución
  • SPARK-52671 RowEncoder no buscará un UDT resuelto
  • SPARK-52670 Hacer que HiveResult funcione con UserDefinedType#stringifyValue
  • SPARK-52692 Compatibilidad con el almacenamiento en caché del tipo TIME
  • SPARK-51516 Soporte de TIME por el servidor Thrift
  • SPARK-52674 Limpieza del uso de API en desuso relacionadas con RandomStringUtils
  • SPARK-51428 Asignación de alias para árboles de expresión intercalados deterministamente
  • SPARK-52672 No reemplace las expresiones Sort/Having por alias si existe una expresión en Aggregate
  • SPARK-52618 Convertir TIME(n) en TIME(m)
  • SPARK-52656 Corregir current_time()
  • SPARK-52630 Reorganizar el código y directorios del operador de streaming y la gestión de estado
  • SPARK-52649 Recorte de alias antes de buscar coincidencias con expresiones Sort/Having/Filter en buildAggExprList
  • SPARK-52578 Adición de métricas para filas para realizar un seguimiento de los casos y acciones en MergeRowsExec
  • SPARK-49428 Mover el cliente de Scala de Connect desde Connector a SQL
  • SPARK-52494 Compatibilidad con la sintaxis del operador de signo de dos puntos para tener acceso a campos Variant
  • SPARK-52642 Usa daemonWorkers.get(worker) para evitar una desincronización inesperada entre idleWorkers y daemonWorkers.
  • SPARK-52570 Habilitación de la división por cero para rmod numérico con ANSI habilitado
  • SPARK-52633 Desduplicar una salida secundaria de Unión única antes de DesduplicarRelations
  • SPARK-52600 Mover CompletionIterator a la common/utils
  • SPARK-52626 Permitir la agrupación por el tipo de hora
  • SPARK-52395 Fallo en la tarea del reductor de tareas inmediatamente cuando falla la solicitud de obtención de Prism
  • SPARK-52596 Pruebe a crear TIMESTAMP_NTZ de fecha y hora
  • SPARK-52595 Cambiar el nombre de la expresión TimeAdd a TimestampAddInterval
  • SPARK-52586 Introducción a AnyTimeType
  • SPARK-52583 Adición de la API de desarrollador para stringificar valores en UserDefinedType
  • SPARK-52354 Agregar coerción de tipos a UnionLoop
  • [SPARK-52579] Establecer volcado de seguimiento periódico para trabajadores de Python
  • SPARK-52456 Reducir el límite mínimo de spark.eventLog.rolling.maxFileSize
  • SPARK-52536 Establecer el directorio de extracción de AsyncProfilerLoader en el directorio local de Spark
  • SPARK-52405 Extender V2JDBCTest para probar la lectura de varias particiones
  • SPARK-52303 Promover ExternalCommandRunner a Estable
  • SPARK-52572 Evitar CAST_INVALID_INPUT de DataFrame.isin en modo ANSI
  • SPARK-52349 Habilitación de pruebas de división booleanas con ANSI habilitado
  • SPARK-52402 Corrección de errores de división por cero en Kendall y en la correlación de Pearson en modo ANSI
  • SPARK-52356 Habilitación de la división por cero para mod/rmod booleano con ANSI habilitado
  • SPARK-52288 Evitar INVALID_ARRAY_INDEX en split/rsplit cuando el modo ANSI está activado
  • SPARK-52557 Evitar CAST_INVALID_INPUT de to_numeric(errors='coerce') en modo ANSI
  • SPARK-52440 Adición de una instalación adicional de Python para canalizaciones declarativas
  • SPARK-52569 Corrección de la excepción de conversión de clase en SecondsOfTimeWithFraction
  • SPARK-52540 Creación de TIMESTAMP_NTZ a partir de fecha y hora
  • SPARK-52539 Introducir enlaces de sesión
  • SPARK-52554 Evitar varios recorridos de ida y vuelta para la comprobación de configuración en Spark Connect
  • SPARK-52553 Corrección de NumberFormatException al leer el registro de cambios v1
  • SPARK-52534 Hacer que MLCache y MLHandler sean seguros para subprocesos
  • SPARK-52460 Almacenar valores TIME internos como nanosegundos
  • SPARK-52482 Compatibilidad con ZStandard para el lector de orígenes de datos de archivos
  • SPARK-52531 OuterReference en el agregado de subconsulta está enlazado incorrectamente al agregado de consulta externa
  • SPARK-52339 Corrección de la comparación de instancias de InMemoryFileIndex
  • SPARK-52418 Agregue una variable de estado noElements al PercentileHeap para evitar cálculos repetitivos de isEmpty()
  • SPARK-52537 Imprimir stacktrace al fallar en la creación de un directorio temporal
  • SPARK-52462 Aplicar la coerción de tipos antes de la desduplicación de salida secundaria en Union
  • SPARK-52528 Habilitar la división por cero para el mod numérico con ANSI habilitado
  • SPARK-52458 Compatibilidad con spark.eventLog.excludedPatterns
  • SPARK-52493 Compatibilidad con TIMESTAMP WITHOUT TIME ZONE
  • SPARK-51563 Compatibilidad con el nombre de tipo completo TIME(n) WITHOUT TIME ZONE
  • SPARK-52450 Mejorar el rendimiento de la operación deepcopy del esquema
  • SPARK-52519 Habilitar la división por cero para el floordiv numérico con ANSI habilitado
  • SPARK-52489 Prohibición de los controladores SQLEXCEPTION y NOT FOUND duplicados dentro del script DE SQL
  • SPARK-52488 Quitar alias antes de envolver las referencias externas bajo HAVING
  • SPARK-52383 Mejora de errores en SparkConnectPlanner
  • SPARK-52335 Unificar el error de recuento de cubos no válido para Connect y Classic
  • SPARK-52337 Convertir InvalidPlanInput en un error visible para el usuario
  • SPARK-52312 Ignorar V2WriteCommand al guardar en caché el DataFrame
  • SPARK-52487 Agregar tiempo y duración de la fase enviada a detalles de StagePage
  • SPARK-52433 Unificar la coerción de cadena en createDataFrame
  • SPARK-52427 Normalizar la lista de expresiones agregadas que abarca un proyecto
  • SPARK-51745 Implementar máquina de estados para RocksDBStateStore
  • SPARK-52447 Trasladar la normalización de GetViewColumnByNameAndOrdinal al SessionCatalogSuite
  • SPARK-52397 ExecutePlan idempotente: segundo ExecutePlan con el mismo operationId y plan reattaches
  • SPARK-52355 Inferir el tipo de objeto VariantVal como VariantType al crear un dataframe
  • SPARK-52425 Refactorización de ExtractValue para su reutilización en la implementación de un solo paso
  • SPARK-52249 Habilitar la división por cero para truediv numérico con ANSI activado
  • SPARK-52228 Integrar el microbenchmark de interacción de estado en Quicksilver (TCP)
  • SPARK-48356 Mejorar la inferencia del esquema de columnas de la instrucción FOR
  • SPARK-48353 Mejoras en el control de excepciones
  • SPARK-52060 Crear un nodo OneRowRelationExec
  • SPARK-52391 Refactorización de funciones/vars transformWithStateExec en una clase base para Scala y Python
  • SPARK-52218 Hacer que las funciones actuales de datetime se puedan evaluar nuevamente
  • SPARK-52350 Vínculo corregido para la guía de programación de SS en la versión 4.0
  • SPARK-52385 Quitar TempResolvedColumns del nombre InheritAnalysisRules
  • SPARK-52392 Nueva funcionalidad del analizador de paso único
  • SPARK-52243 Adición de compatibilidad con NERF para errores InvalidPlanInput relacionados con el esquema
  • SPARK-52338 Heredar la intercalación predeterminada del esquema a la vista
  • SPARK-52307 Soporte para UDF con iterador Scalar Arrow
  • SPARK-52300 Hacer que la resolución UDTVF de SQL use configuraciones coherentes con la resolución de vistas
  • SPARK-52219 Soporte de colación a nivel de esquema para tablas
  • SPARK-52272 V2SessionCatalog no modifica el esquema en el catálogo de Hive
  • SPARK-51890 Agregar options parámetro a la vista Plan lógico
  • SPARK-51936 ReplaceTableAsSelect debe sobrescribir la nueva tabla en lugar de anexar
  • SPARK-51302 Spark Connect admite JDBC debe usar la API DataFrameReader.
  • SPARK-50137 Se produce un error al evitar la reserva a formas incompatibles de Hive en la creación de tablas
  • SPARK-52184 Envolver los errores de sintaxis de JDBC del motor externo con una excepción unificada
  • SPARK-47618 Usar Magic Committer para todos los buckets S3 de forma predeterminada
  • SPARK-52305 Refinar la docstring para isnotnull, equal_null, nullif, nullifzero, nvl, nvl2, zeroifnull
  • SPARK-52174 Habilitación de spark.checkpoint.compress de forma predeterminada
  • SPARK-52224 Introducción de pyyaml como dependencia para el cliente de Python
  • SPARK-52233 Corregir map_zip_with para tipos de punto flotante
  • SPARK-52036 Agregue el rasgo SQLConfHelper a la versión 2. FileScan
  • SPARK-52159 Eliminación de una condición demasiado amplia para el dialecto de MariaDB
  • SPARK-50104 Compatibilidad con SparkSession.executeCommand en Connect
  • SPARK-52240 Se corrigió el uso del índice de fila al explotar matrices empaquetadas en el lector vectorizado
  • SPARK-52153 Resolución de problemas en from_json y to_json con variantes
  • SPARK-48618 Mejorar la prueba de inexistencia para comprobar nombres de 3 partes y 2 partes.
  • SPARK-52216 Convertir InvalidCommandInput en un error visible para el usuario
  • SPARK-52299 Reemplazar JsonNode.fields en desuso
  • SPARK-52287 Mejora de SparkContext para no rellenar o.a.s.internal.io.cloud.* si no existe.
  • SPARK-51430 Impedir que el registrador de contexto de PySpark propague los registros a stdout
  • SPARK-52278 UDF de flecha escalar admite argumentos con nombre
  • SPARK-52026 Bloquear la API de Pandas en Spark en modo ANSI de forma predeterminada
  • SPARK-52171 Implementación de la unión de StateDataSource para estado v3
  • SPARK-52159 Gestión adecuada de la comprobación de existencia de tablas para dialectos JDBC
  • SPARK-52158 Agregar el objeto InvalidInputErrors para centralizar los errores en SparkConnectPlanner
  • SPARK-52195 Corrección del problema de eliminación de la columna de estado inicial en Python TWS
  • SPARK-52211 Quitar el sufijo $ del registro info de SparkConnectServer
  • SPARK-52239 Compatibilidad con el registro de una UDF de flecha
  • SPARK-52215 Implementación de UDF de flecha escalar
  • SPARK-52188 Corrección para StateDataSource donde no se ha establecido StreamExecution.RUN_ID_KEY
  • SPARK-52189 Nuevas pruebas de archivos dorados para NATURAL JOIN con GROUP BY, HAVING, ORDER BY y LCAs
  • SPARK-52079 Normalizar el orden de los atributos en listas de proyectos internos
  • SPARK-52234 Corrección del error en la entrada que no es de cadena para schema_of_csv/xml
  • SPARK-52221 Refactorización de SqlScriptingLocalVariableManager en un administrador de contextos más genérico
  • SPARK-52181 Aumento del límite de tamaño de variante a 128MiB
  • SPARK-52217 Omitir la validación de referencia externa en Filtro en la resolución de paso único
  • SPARK-51260 Mover V2ExpressionBuilder y PushableExpression al módulo Catalyst
  • SPARK-52156 Colocar CREATE TEMPORARY TABLE ... heredada utilizando el proveedor bajo la bandera.
  • SPARK-51012 Eliminación de SparkStrategy de Connect Shims
  • SPARK-52109 Agregar la API listTableSummaries a la API del Catálogo de Tablas V2 del origen de datos.
  • SPARK-50915 Agregar getCondition y dejar de usar getErrorClass en PySparkException
  • SPARK-52022 Adición del método predeterminado check in para SparkThrowable.getQueryContext
  • SPARK-51147 Refactorización de clases relacionadas con el streaming en un directorio de streaming dedicado
  • SPARK-52120 Pasar la sesión a ConnectHelper
  • SPARK-52021 Patrones de expresión y operador independientes
  • SPARK-51722 Eliminación del origen "stop" de ParseException
  • SPARK-52096 Reclasificar el error de aserción de offset de fuente de Kafka
  • SPARK-51985 Quitar experimental de AccumulatorSource
  • SPARK-51156 Compatibilidad con la autenticación de tokens estáticos en Spark Connect
  • SPARK-52157 Uso del nombre calculado anteriormente para OuterReference en la resolución de paso único
  • SPARK-52100 Habilitar la invalidación del límite de nivel de recursividad en la sintaxis
  • SPARK-51605 Cree el directorio primario antes de tocar el archivo logFile.
  • SPARK-52127 Exprimir el protocolo de MapState KEYS / VALUES / ITERATOR para transformWithState en PySpark
  • SPARK-52040 ResolveLateralColumnAliasReference debe conservar el identificador del plan
  • SPARK-51638 Corrección de la captura de bloques RDD almacenados en disco remoto a través del servicio aleatorio externo
  • SPARK-51983 Preparación del entorno de prueba para pandas API en Spark con el modo ANSI habilitado
  • SPARK-52087 Agregar copia de etiquetas y origen a AliasHelper.trimNonTopLevelAliases
  • SPARK-51210 Agregar --enable-native-access=ALL-UNNAMED a las opciones de Java para Java 24+
  • SPARK-52052 Agregar .broadcast en el objeto complementario serializableConfiguration
  • SPARK-51823 Agregar configuración para no persistir el almacén de estado en los ejecutores
  • SPARK-51291 Reclasificar los errores de validación producidos durante la carga del almacén de estado
  • SPARK-52006 Excluir el acumulador CollectMetricsExec de la interfaz de usuario de Spark + registros de eventos + pulsos de métricas
  • SPARK-52076 Cierra explícitamente ExecutePlanResponseReattachableIterator después del uso
  • SPARK-51428 Asignación de alias para árboles de expresión intercalados deterministamente
  • SPARK-52079 Normalizar el orden de los atributos en listas de proyectos internos
  • SPARK-52033 Se ha corregido el error generar nodo en el que la salida del nodo secundario puede tener varias copias del mismo atributo.
  • SPARK-51428 Asignación de alias para árboles de expresión intercalados deterministamente
  • SPARK-52055 Suprime la excepción en ExecutePlanResponseReattachableIterator. del
  • SPARK-51921 Usar el tipo largo para la duración de TTL en milisegundos en transformWithState
  • SPARK-50763 Adición de una regla del analizador para resolver funciones de tabla SQL
  • SPARK-51884 Adición de atributos de ámbito externo para SubqueryExpression
  • SPARK-50762 Agregar regla del analizador para resolver UDF escalares de SQL
  • SPARK-51814 Usa list(self) en lugar de StructType.fields para la compatibilidad con versiones anteriores
  • SPARK-51537 Construir el cargador de clases específico de la sesión en función del cargador de clases de sesión predeterminado en executor
  • SPARK-50777 Eliminación de métodos redundantes no-op init/destroy de las clases Filter
  • SPARK-51691 SerializationDebugger debe tragar la excepción cuando intente encontrar el motivo del problema de serialización.
  • SPARK-51386 Asignar nombre a condiciones de error _LEGACY_ERROR_TEMP_3300-3302
  • SPARK-50734 Agregar API de catálogo para crear y registrar UDF de SQL
  • SPARK-51989 Agregar subclases de filtro que faltan a toda la lista del origen de datos
  • SPARK-52037 El orden en las listas de proyectos internos de LCA debe respetar el orden en la lista de proyectos original
  • SPARK-52007 Los identificadores de expresión no deben estar presentes en expresiones de agrupación al usar conjuntos de agrupación
  • SPARK-51860 Deshabilitar spark.connect.grpc.debug.enabled de forma predeterminada
  • SPARK-47952 Compatibilidad con la recuperación de la dirección y el puerto reales de SparkConnectService GRPC mediante programación cuando se ejecuta en Yarn
  • SPARK-50906 Agregar verificación de nulabilidad para ver si las entradas de to_avro se alinean con el esquema
  • Corrección de SPARK-50581 para UDAF en Dataset.observe()
  • SPARK-49946 Requerir una clase de error en SparkOutOfMemoryError
  • SPARK-49748 Adición de getCondition y desuso de getErrorClass en SparkThrowable
  • SPARK-51959 Hacer que las funciones no importen ParentDataFrame
  • SPARK-51964 Resolver correctamente los atributos de la salida oculta en ORDER BY y HAVING sobre un Agregado en un Analizador de un único paso
  • SPARK-49942 Cambie el nombre de errorClass a condition en classifyException()
  • SPARK-51963 Simplificación de IndexToString.transform
  • SPARK-51946 Fallo anticipado al crear una tabla de fuente de datos incompatible con hive teniendo "col" como un nombre de partición
  • SPARK-51553 Modificar EXTRACT para admitir el tipo de datos TIME
  • SPARK-51891 Exprima el protocolo de ListState GET / PUT/APPENDLIST para transformWithState en PySpark
  • SPARK-51931 Añadir maxBytesPerOutputBatch para limitar el número de bytes del lote de salida de Arrow.
  • SPARK-51441 Adición de API DSv2 para restricciones
  • SPARK-51814 Utilice RecordBatch.schema.names en lugar de column_names para la compatibilidad con versiones anteriores de pyarrow.
  • SPARK-51913 JDBCTableCatalog#loadTable no debería producir correctamente este error de tabla
  • SPARK-51840 Restaurar columnas de partición en HiveExternalCatalog#alterTable
  • SPARK-51414 Adición de la función make_time()
  • SPARK-49700 Interfaz unificada de Scala para Connect y Clásico
  • SPARK-51914 Agregar com.mysql.cj a spark.sql.hive.metastore.sharedPrefixes
  • SPARK-51827 Compatibilidad con Spark Connect en transformWithState en PySpark
  • SPARK-51901 No permitir funciones de generador en conjuntos de agrupación
  • SPARK-51423 Adición de la función current_time() para el tipo de datos TIME
  • SPARK-51680 Establecer el tipo lógico para TIME en el escritor de Parquet
  • SPARK-51889 Corrección de un error para MapState clear() en Python TWS
  • SPARK-51869 Creación de la clasificación de errores de usuario en UDF para Scala TransformWithState
  • SPARK-51878 Mejorar fillDefaultValue ejecutando la expresión predeterminada plegable.
  • SPARK-51757 Corrección en la función LEAD/LAG para el desplazamiento que supera el tamaño del grupo de ventana
  • SPARK-51805 La función Get con un argumento incorrecto debería lanzar una excepción adecuada en lugar de una interna.
  • SPARK-51900 Lanzar correctamente un error de discrepancia de tipos de datos en el analizador de paso único
  • SPARK-51421 Obtener segundos del tipo de datos TIME
  • SPARK-51661 Detección de particiones de valores de columna TIME
  • SPARK-51687 Delegar filtros con valores TIME en Parquet
  • SPARK-51419 Obtener horas de tipo de datos TIME
  • SPARK-51881 Hacer que AvroOptions sea comparable
  • SPARK-51861 Quitar información duplicada o innecesaria del Detalle del plan InMemoryRelation
  • SPARK-51814 Introducción de una nueva transformación de APIWithState en PySpark
  • SPARK-51779 Utilizar familias de columnas virtuales para la unión de dos secuencias de flujo
  • SPARK-51649 Escrituras y lecturas dinámicas de particiones TIME
  • SPARK-51634 Compatibilidad con la gestión de tiempo en vectores de columna fuera del heap
  • SPARK-51877 Agregar funciones 'chr', 'random' y 'uuid'
  • SPARK-51610 Compatibilidad con el tipo de datos TIME en el origen de datos parquet
  • SPARK-51420 Obtener minutos del tipo de datos TIME
  • SPARK-51822 Generar un error clasificado cuando se llaman funciones no permitidas durante StatefulProcessor.init()
  • SPARK-51868 Mover la validación de coerción de tipos a un objeto independiente
  • SPARK-49747 Migrar archivos de connect/ al registro estructurado

Compatibilidad con controladores ODBC/JDBC de Azure Databricks

Azure Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).

Actualizaciones de mantenimiento

Consulte Actualizaciones de mantenimiento de Azure Databricks Runtime 17.1.

Entorno del sistema

  • sistema operativo: Ubuntu 24.04.2 LTS
  • Java: Zulu17.58+21-CA
  • Scala: 2.13.16
  • Python: 3.12.3
  • R: 4.4.2
  • Delta Lake: 4.0.0

Bibliotecas de Python instaladas

Biblioteca Versión Biblioteca Versión Biblioteca Versión
annotated-types 0.7.0 anyio 4.6.2 argon2-cffi 21.3.0
argon2-cffi-bindings 21.2.0 flecha 1.3.0 asttokens 2.0.5
astunparse 1.6.3 async-lru 2.0.4 attrs 24.3.0
comando automático 2.2.2 azure-common 1.1.28 azure-core 1.34.0
azure-identity 1.20.0 azure-mgmt-core 1.5.0 azure-mgmt-web 8.0.0
azure-storage-blob 12.23.0 azure-storage-file-datalake 12.17.0 babel 2.16.0
backports.tarfile 1.2.0 beautifulsoup4 4.12.3 negro 24.10.0
bleach 6.2.0 blinker 1.7.0 boto3 1.36.2
botocore 1.36.3 cachetools 5.5.1 certifi 2025.1.31
cffi 1.17.1 chardet 4.0.0 charset-normalizer 3.3.2
Haz clic 8.1.7 cloudpickle 3.0.0 Comunicación 0.2.1
contourpy 1.3.1 criptografía 43.0.3 ciclista 0.11.0
Cython 3.0.12 databricks-sdk 0.49.0 dbus-python 1.3.2
debugpy 1.8.11 decorator 5.1.1 defusedxml 0.7.1
Obsoleto 1.2.13 distlib 0.3.9 docstring-to-markdown 0.11
executing 0.8.3 visión general de las facetas 1.1.1 fastapi 0.115.12
fastjsonschema 2.21.1 bloqueo de archivos 3.18.0 fonttools 4.55.3
fqdn 1.5.1 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.20.0 google-auth 2.40.0
google-cloud-core 2.4.3 Google Cloud Storage (almacenamiento en la nube de Google) 3.1.0 google-crc32c 1.7.1
google-resumable-media (medios reanudables de Google) 2.7.2 googleapis-common-protos 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.14.0 httpcore 1.0.2
httplib2 0.20.4 httpx 0.27.0 idna 3.7
importlib-metadata 6.6.0 importlib_resources 6.4.0 inflect 7.3.1
iniconfig 1.1.1 ipyflow-core 0.0.209 ipykernel 6.29.5
ipython 8.30.0 ipython-genutils 0.2.0 ipywidgets 7.8.1
isodate 0.6.1 isoduration 20.11.0 jaraco.context 5.3.0
jaraco.functools 4.0.1 jaraco.text 3.12.1 Jedi 0.19.2
Jinja2 3.1.5 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpointer 3.0.0 jsonschema 4.23.0
jsonschema-specifications 2023.7.1 jupyter_events 0.10.0 jupyter-lsp 2.2.0
jupyter_client 8.6.3 jupyter_core 5.7.2 jupyter_server 2.14.1
jupyter_server_terminals 0.4.4 jupyterlab 4.3.4 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 jupyterlab_server (servidor de JupyterLab) 2.27.3 kiwisolver 1.4.8
launchpadlib 1.11.0 lazr.restfulclient 0.14.6 lazr.uri 1.0.6
markdown-it-py 2.2.0 MarkupSafe 3.0.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 Mccabe 0.7.0 mdurl 0.1.0
mistune 2.0.4 mlflow-skinny 3.0.1 mmh3 5.1.0
more-itertools 10.3.0 msal 1.32.3 msal-extensions 1.3.1
mypy-extensions 1.0.0 nbclient 0.8.0 nbconvert 7.16.4
nbformat 5.10.4 nest-asyncio 1.6.0 nodeenv 1.9.1
notebook 7.3.2 notebook_shim 0.2.3 numpy 2.1.3
oauthlib 3.2.2 opentelemetry-api 1.32.1 opentelemetry-sdk 1.32.1
opentelemetry-semantic-conventions 0.53b1 overrides 7.4.0 embalaje 24,2
Pandas 2.2.3 pandocfilters 1.5.0 parso 0.8.4
pathspec 0.10.3 chivo expiatorio 1.0.1 pexpect 4.8.0
almohada 11.1.0 pip 25.0.1 platformdirs 3.10.0
plotly 5.24.1 pluggy 1.5.0 prometheus_client 0.21.0
prompt-toolkit 3.0.43 proto-plus 1.26.1 protobuf 5.29.4
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 19.0.1 pyasn1 0.4.8
pyasn1-modules 0.2.8 pyccolo 0.0.71 pycparser 2.21
pydantic 2.10.6 pydantic_core 2.27.2 pyflakes 3.2.0
Pygments 2.15.1 PyGObject 3.48.2 pyiceberg 0.9.0
PyJWT 2.10.1 pyodbc 5.2.0 pyparsing 3.2.0
pyright 1.1.394 pytest 8.3.5 Python-dateutil 2.9.0.post0
python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2 python-lsp-servidor 1.12.0
configuración de herramienta Python 1.2.6 pytz 2024.1 PyYAML 6.0.2
pyzmq 26.2.0 referencing 0.30.2 solicitudes 2.32.3
rfc3339-validator 0.1.4 rfc3986-validator 0.1.1 rico 13.9.4
cuerda 1.12.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.11.3 scikit-learn 1.6.1 scipy 1.15.1
biblioteca de visualización de datos de Python llamada seaborn 0.13.2 Send2Trash 1.8.2 setuptools 74.0.0
six 1.16.0 smmap 5.0.0 sniffio 1.3.0
sortedcontainers 2.4.0 soupsieve 2,5 sqlparse 0.5.3
ssh-import-id 5.11 stack-data 0.2.0 Starlette 0.46.2
statsmodels (paquete de Python para análisis estadístico) 0.14.4 strictyaml 1.7.3 tenacidad 9.0.0
terminado 0.17.1 threadpoolctl 3.5.0 tinycss2 1.4.0
tokenize_rt 6.1.0 tomli 2.0.1 tornado 6.4.2
traitlets 5.14.3 typeguard 4.3.0 types-python-dateutil 2.9.0.20241206
typing_extensions 4.12.2 tzdata 2024.1 ujson 5.10.0
unattended-upgrades 0,1 uri-template 1.3.0 urllib3 2.3.0
uvicorn 0.34.2 virtualenv 20.29.3 wadllib 1.3.6
wcwidth 0.2.5 webcolores 24.11.1 codificaciones web 0.5.1
cliente de websocket 1.8.0 whatthepatch 1.0.2 wheel 0.45.1
widgetsnbextension 3.6.6 envuelto 1.17.0 yapf 0.40.2
zipp 3.21.0

Bibliotecas de R instaladas

Las bibliotecas de R se instalan desde la instantánea CRAN del Administrador de paquetes dePositiv en 2025-03-20.

Biblioteca Versión Biblioteca Versión Biblioteca Versión
flecha 19.0.1 askpass 1.2.1 assertthat 0.2.1
backports 1.5.0 base 4.4.2 base64enc 0.1-3
bigD 0.3.0 bit 4.6.0 bit64 4.6.0-1
bitops 1.0-9 blob 1.2.4 boot 1.3-30
brew 1.0-10 brio 1.1.5 escoba 1.0.7
bslib 0.9.0 cachemir 1.1.0 callr 3.7.6
caret 7.0-1 cellranger (herramienta de análisis de datos celulares) 1.1.0 chron 2.3-62
class 7.3-22 Interfaz de línea de comandos (CLI) 3.6.5 clipr 0.8.0
reloj 0.7.2 conglomerado 2.1.6 codetools 0.2-20
colorspace 2.1-1 commonmark 1.9.5 compilador 4.4.2
config 0.3.2 Confuso 1.2.0 cpp11 0.5.2
crayón 1.5.3 credenciales 2.0.2 curl 6.4.0
data.table 1.17.0 Conjuntos de datos 4.4.2 DBI 1.2.3
dbplyr 2.5.0 descripción 1.4.3 devtools 2.4.5
diagrama 1.6.5 diffobj 0.3.5 digerir 0.6.37
downlit 0.4.4 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-16 puntos suspensivos 0.3.2 evaluate 1.0.3
fans 1.0.6 colores 2.1.2 fastmap 1.2.0
fontawesome 0.5.3 forcats 1.0.0 foreach 1.5.2
extranjero 0,8-86 forge 0.2.0 fs 1.6.5
futuro 1.34.0 future.apply 1.11.3 gargle 1.5.2
genéricos 0.1.4 gert 2.1.4 ggplot2 3.5.1
gh 1.4.1 git2r 0.35.0 gitcreds 0.1.2
glmnet 4.1-8 globals 0.18.0 pegamento 1.8.0
googledrive 2.1.1 googlesheets4 1.1.1 gower 1.0.2
gráficos 4.4.2 grDevices 4.4.2 grid 4.4.2
gridExtra 2.3 gsubfn 0,7 gt 0.11.1
gtable 0.3.6 hardhat 1.4.1 refugio 2.5.4
highr 0.11 hms 1.1.3 herramientas de HTML 0.5.8.1
htmlwidgets 1.6.4 httpuv 1.6.15 httr 1.4.7
httr2 1.1.1 ids 1.0.1 ini 0.3.1
ipred 0.9-15 isoband 0.2.7 Iteradores 1.0.14
jquerylib 0.1.4 jsonlite 1.9.1 juicyjuice 0.1.0
KernSmooth 2.23-22 knitr 1.50 etiquetado 0.4.3
later 1.4.1 retícula 0.22-5 lava 1.8.1
ciclo de vida 1.0.4 listenv 0.9.1 lubridate 1.9.4
magrittr 2.0.3 markdown 1.13 MASS 7.3-60.0.1
Matrix 1.6-5 memorización 2.0.1 métodos 4.4.2
mgcv 1.9-1 mime 0,13 miniUI (Interfaz de Usuario) 0.1.1.1
mlflow 2.20.4 ModelMetrics 1.2.2.2 modelr 0.1.11
munsell 0.5.1 nlme 3.1-164 nnet 7.3-19
numDeriv 2016.8-1.1 openssl (software de cifrado) 2.3.3 parallel 4.4.2
parallelly 1.42.0 pilar 1.11.0 pkgbuild 1.4.6
pkgconfig 2.0.3 pkgdown 2.1.1 pkgload 1.4.0
plogr 0.2.0 plyr 1.8.9 elogio 1.0.0
prettyunits 1.2.0 pROC 1.18.5 processx 3.8.6
prodlim 2024.06.25 profvis 0.4.0 progreso 1.2.3
progressr 0.15.1 promesas 1.3.2 proto 1.0.0
intermediario 0.4-27 ps 1.9.0 purrr 1.0.4
R6 2.6.1 ragg 1.3.3 Bosque Aleatorio (randomForest) 4.7-1.2
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.14 RcppEigen 0.3.4.0.2 r-reactable 0.4.4
reactR 0.6.1 readr 2.1.5 readxl 1.4.5
recetas 1.2.0 partido de revancha 2.0.0 segunda revancha 2.1.2
remotes 2.5.0 reprex 2.1.1 reshape2 1.4.4
rlang 1.1.6 rmarkdown 2,29 RODBC 1.3-26
roxygen2 7.3.2 rpart 4.1.23 rprojroot 2.0.4
Rserve 1.8-15 RSQLite 2.3.9 rstudioapi 0.17.1
rversions 2.1.2 rvest 1.0.4 sass 0.4.9
balanzas 1.3.0 selectr 0.4-2 información de sesión 1.2.3
forma 1.4.6.1 brillante 1.10.0 sourcetools 0.1.7-1
sparklyr 1.9.1 SparkR 4.0.0 sparsevctrs 0.3.1
spatial 7.3-17 splines 4.4.2 sqldf 0.4-11
SQUAREM 2021.1 Estadísticas 4.4.2 estadísticas4 4.4.2
stringi 1.8.7 stringr 1.5.1 supervivencia 3.5-8
swagger 5.17.14.1 sys 3.4.3 systemfonts 1.2.1
tcltk 4.4.2 testthat 3.2.3 Formateo de texto 1.0.0
tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 cambio de hora 0.3.0 timeDate 4041.110
tinytex 0.56 herramientas 4.4.2 tzdb 0.5.0
verificador de URL 1.0.1 usa esto 3.1.0 utf8 1.2.6
utils 4.4.2 Identificador Único Universal (UUID) 1.2-1 V8 6.0.2
vctrs 0.6.5 viridisLite 0.4.2 vroom 1.6.5
Waldo 0.6.1 whisker 0.4.1 withr 3.0.2
xfun 0.51 xml2 1.3.8 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 zeallot 0.1.0
archivo comprimido 2.3.2

Bibliotecas de Java y Scala instaladas (versión del clúster de Scala 2.13)

Identificador de grupo Id. de artefacto Versión
antlr antlr 2.7.7
com.amazonaws cliente de Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.638
com.amazonaws aws-java-sdk-cloudformation 1.12.638
com.amazonaws aws-java-sdk-cloudfront 1.12.638
com.amazonaws aws-java-sdk-cloudhsm 1.12.638
com.amazonaws aws-java-sdk-cloudsearch 1.12.638
com.amazonaws aws-java-sdk-cloudtrail 1.12.638
com.amazonaws aws-java-sdk-cloudwatch 1.12.638
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.638
com.amazonaws aws-java-sdk-codedeploy 1.12.638
com.amazonaws aws-java-sdk-cognitoidentity 1.12.638
com.amazonaws aws-java-sdk-cognitosync 1.12.638
com.amazonaws aws-java-sdk-config (configuración del SDK de Java de AWS) 1.12.638
com.amazonaws aws-java-sdk-core 1.12.638
com.amazonaws aws-java-sdk-datapipeline 1.12.638
com.amazonaws aws-java-sdk-directconnect 1.12.638
com.amazonaws aws-java-sdk-directory 1.12.638
com.amazonaws aws-java-sdk-dynamodb 1.12.638
com.amazonaws aws-java-sdk-ec2 1.12.638
com.amazonaws aws-java-sdk-ecs 1.12.638
com.amazonaws aws-java-sdk-efs 1.12.638
com.amazonaws aws-java-sdk-elasticache 1.12.638
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.638
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.638
com.amazonaws aws-java-sdk-elastictranscoder 1.12.638
com.amazonaws aws-java-sdk-emr 1.12.638
com.amazonaws aws-java-sdk-glacier 1.12.638
com.amazonaws aws-java-sdk-glue 1.12.638
com.amazonaws aws-java-sdk-iam 1.12.638
com.amazonaws aws-java-sdk-importexport 1.12.638
com.amazonaws aws-java-sdk-kinesis (kit de desarrollo de software Java para AWS Kinesis) 1.12.638
com.amazonaws aws-java-sdk-kms 1.12.638
com.amazonaws aws-java-sdk-lambda 1.12.638
com.amazonaws aws-java-sdk-logs (registros del SDK de AWS para Java) 1.12.638
com.amazonaws aws-java-sdk-machinelearning 1.12.638
com.amazonaws aws-java-sdk-opsworks 1.12.638
com.amazonaws aws-java-sdk-rds 1.12.638
com.amazonaws aws-java-sdk-redshift 1.12.638
com.amazonaws aws-java-sdk-route53 1.12.638
com.amazonaws aws-java-sdk-s3 1.12.638
com.amazonaws aws-java-sdk-ses 1.12.638
com.amazonaws aws-java-sdk-simpledb 1.12.638
com.amazonaws aws-java-sdk-simpleworkflow 1.12.638
com.amazonaws aws-java-sdk-sns 1.12.638
com.amazonaws aws-java-sdk-sqs 1.12.638
com.amazonaws aws-java-sdk-ssm 1.12.638
com.amazonaws aws-java-sdk-storagegateway (SDK de Java para Storage Gateway de AWS) 1.12.638
com.amazonaws aws-java-sdk-sts 1.12.638
com.amazonaws SDK de AWS para Java - Soporte 1.12.638
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.638
com.amazonaws jmespath-java 1.12.638
com.clearspring.analytics flujo 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.27.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kryo-shaded 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml compañero de clase 1.5.1
com.fasterxml.jackson.core jackson-annotations 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.2
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1. nativos
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java 1.1. nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1. nativos
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64 1.1. nativos
com.github.luben zstd-jni 1.5.6-10
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone anotaciones_propensas_a_errores 2.36.0
com.google.flatbuffers flatbuffers-java 24.3.25
com.google.guava failureaccess 1.0.2
com.google.guava guayaba 33.4.0-jre
com.google.guava listenablefuture 9999.0-empty-to-avoid-conflict-with-guava
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi fansi_2.13 0.5.0
com.lihaoyi código fuente_2.13 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) 2.3.10
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe config 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.9.0
commons-codec commons-codec 1.17.2
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.18.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack (software de cálculo numérico) 3.0.3
dev.ludovic.netlib blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresor de aire 2.0.2
io.delta delta-sharing-client_2.13 1.3.3
io.dropwizard.metrics métricas-anotación 4.2.30
io.dropwizard.metrics metrics-core 4.2.30
io.dropwizard.metrics metrics-graphite 4.2.30
io.dropwizard.metrics métricas y verificaciones de salud 4.2.30
io.dropwizard.metrics metrics-jetty9 4.2.30
io.dropwizard.metrics metrics-jmx 4.2.30
io.dropwizard.metrics metrics-json 4.2.30
io.dropwizard.metrics metrics-jvm 4.2.30
io.dropwizard.metrics metrics-servlets 4.2.30
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.1.118.Final
io.netty netty-buffer 4.1.118.Final
io.netty netty-codec 4.1.118.Final
io.netty netty-codec-http 4.1.118.Final
io.netty netty-codec-http2 4.1.118.Final
io.netty netty-codec-socks 4.1.118.Final
io.netty netty-common 4.1.118.Final
io.netty netty-handler 4.1.118.Final
io.netty netty-handler-proxy 4.1.118.Final
io.netty netty-resolver 4.1.118.Final
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.70.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes 2.0.70.Final
io.netty netty-transport 4.1.118.Final
io.netty netty-transport-classes-epoll 4.1.118.Final
io.netty netty-transport-classes-kqueue 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final
io.netty netty-transport-native-epoll 4.1.118.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.1.118.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.118.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.118.Final
io.prometheus simpleclient 0.16.1-databricks
io.prometheus simpleclient_common 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx coleccionista 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction API de transacciones 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.13.0
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr plantilla de cadenas 3.2.1
org.apache.ant ant 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant lanzador de aplicaciones Ant 1.10.11
org.apache.arrow arrow-format 18.2.0
org.apache.arrow arrow-memory-core 18.2.0
org.apache.arrow arrow-memory-netty 18.2.0
org.apache.arrow arrow-memory-netty-buffer-patch 18.2.0
org.apache.arrow arrow-vector 18.2.0
org.apache.avro avro 1.12.0
org.apache.avro avro-ipc 1.12.0
org.apache.avro avro-mapred 1.12.0
org.apache.commons commons-collections4 4.4.
org.apache.commons commons-compress 1.27.1
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.17.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.13.0
org.apache.curator curator-client 5.7.1
org.apache.curator marco de trabajo para curadores 5.7.1
org.apache.curator recetas del curador 5.7.1
org.apache.datasketches datasketches-java 6.1.1
org.apache.datasketches datasketches-memory 3.0.2
org.apache.derby derby 10.14.2.0
org.apache.hadoop Entorno de ejecución del cliente de Hadoop 3.4.1
org.apache.hive hive-beeline 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive hive-llap-client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive hive-shims 2.3.10
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims hive-shims-common 2.3.10
org.apache.hive.shims hive-shims-scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-template-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.1.1-shaded-protobuf
org.apache.orc orc-format 1.1.0-shaded-protobuf
org.apache.orc orc-mapreduce 2.1.1-shaded-protobuf
org.apache.orc orc-shims 2.1.1
org.apache.poi poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4,26
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus Anotaciones de audiencia 0.13.0
org.apache.zookeeper guardián de zoológico 3.9.3
org.apache.zookeeper zookeeper-jute 3.9.3
org.checkerframework checker-qual 3.43.0
org.codehaus.janino compilador común 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.53.v20231009
org.eclipse.jetty jetty-continuation 9.4.53.v20231009
org.eclipse.jetty jetty-http 9.4.53.v20231009
org.eclipse.jetty jetty-io 9.4.53.v20231009
org.eclipse.jetty jetty-jndi 9.4.53.v20231009
org.eclipse.jetty jetty-plus 9.4.53.v20231009
org.eclipse.jetty jetty-proxy 9.4.53.v20231009
org.eclipse.jetty jetty-security 9.4.53.v20231009
org.eclipse.jetty servidor Jetty 9.4.53.v20231009
org.eclipse.jetty jetty-servlet 9.4.53.v20231009
org.eclipse.jetty jetty-servlets 9.4.53.v20231009
org.eclipse.jetty jetty-util 9.4.53.v20231009
org.eclipse.jetty jetty-util-ajax 9.4.53.v20231009
org.eclipse.jetty Aplicación web de Jetty 9.4.53.v20231009
org.eclipse.jetty jetty-xml 9.4.53.v20231009
org.eclipse.jetty.websocket WebSocket-API 9.4.53.v20231009
org.eclipse.jetty.websocket cliente de websocket 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-common 9.4.53.v20231009
org.eclipse.jetty.websocket servidor de websocket 9.4.53.v20231009
org.eclipse.jetty.websocket websocket-servlet 9.4.53.v20231009
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.41
org.glassfish.jersey.containers jersey-container-servlet-core 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-common 2.41
org.glassfish.jersey.core jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator validador de hibernación 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jetbrains Anotaciones 17.0.0
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.9.1
org.objenesis objenesis 3.3
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rocksdb rocksdbjni 9.8.4
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.3.0
org.scala-sbt interfaz de prueba 1,0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalameta common_2.13 4.13.5
org.scalameta io_2.13 4.13.5
org.scalameta mdoc-parser_2.13 2.6.4
org.scalameta metaconfig-core_2.13 0.15.0
org.scalameta metaconfig-pprint_2.13 0.15.0
org.scalameta metaconfig-typesafe-config_2.13 0.15.0
org.scalameta parsers_2.13 4.13.5
org.scalameta scalafmt-config_2.13 3.9.6
org.scalameta scalafmt-core_2.13 3.9.6
org.scalameta scalafmt-macros_2.13 3.9.6
org.scalameta scalafmt-sysops_2.13 3.9.6
org.scalameta scalameta_2.13 4.13.5
org.scalameta trees_2.13 4.13.5
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest compatible con ScalaTest 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel paiges-core_2.13 0.4.4
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
stax stax-api 1.0.1

Sugerencia

Para ver las notas de las versiones de Databricks Runtime que han llegado al fin de soporte (EoS), consulte las Notas de lanzamiento de fin de soporte de Databricks Runtime. Las versiones de EoS Databricks Runtime se han retirado y es posible que no se actualicen.