Compartir a través de


Databricks Runtime 18.2 (beta)

Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 18.2 (Beta).

Esta versión incorpora todas las características, mejoras y correcciones de errores de todas las versiones anteriores de Databricks Runtime. Databricks publicó esta versión en abril de 2026.

Importante

Databricks Runtime 18.2 está en beta. El contenido de los entornos admitidos puede cambiar durante la versión Beta. Los cambios pueden incluir la lista de paquetes o versiones de paquetes instalados.

Cambios de comportamiento

XPath ya no captura DTD externos

Al evaluar XPath a través de XML, Azure Databricks ya no carga definiciones de tipo de documento (DTD) externas declaradas en el documento. Anteriormente, XPath podía producir un error cuando el XML contenía una referencia de DTD externa que apuntaba a una dirección URL con formato incorrecto o a un punto de conexión inaccesible. Dado que la validación de DTD es independiente de la evaluación de XPath, las consultas que ya se han realizado correctamente devuelven los mismos resultados que antes. Las consultas que anteriormente fallaban solo durante la recuperación de DTD externa ahora pueden tener éxito.

Conservación de estructuras NULL en INSERT, MERGE y escrituras de streaming con evolución del esquema

Para INSERT, MERGE, y las escrituras de streaming que usan la evolución del esquema, una estructura NULL en el origen ahora se almacena como NULL en el destino. Anteriormente, ese valor se materializó incorrectamente como una estructura que no es NULL con cada campo establecido en NULL, mientras que las mismas operaciones sin evolución del esquema conservaron correctamente estructuras NULL. Si el código dependía de recibir una estructura que no sea NULL cuyos campos fueran NULL, actualice el código para controlar una estructura NULL en su lugar.

Compatibilidad con NullType (VOID) en tablas delta

Las tablas Delta ahora admiten columnas de Spark VOID (NullType). VOID las columnas ya no se quitan del esquema de tabla tras las lecturas. Las operaciones de escritura no se ven afectadas. Consulte VOID el tipo de restricciones sobre dónde VOID pueden aparecer las columnas en el esquema.

SHOW CREATE TABLE admite vistas de métricas

SHOW CREATE TABLE ahora admite vistas de métricas. Anteriormente, al ejecutar este comando en una vista de métrica se produjo un error. La salida de las vistas de métricas incluye el nombre completo compuesto por tres partes, incluyendo el catálogo (por ejemplo, CREATE VIEW catalog.db.my_metric_view ...), lo que facilita recrear la vista de métricas en la ubicación correcta.

Corrección para las filas de colocación LATERAL IZQUIERDA EXTERNA JOIN

Ahora se ha corregido un error que eliminaba filas de las consultas LEFT OUTER JOIN LATERAL de forma incorrecta. Las consultas que usan esta construcción ahora devuelven los resultados correctos. Para revertir temporalmente al comportamiento anterior, establezca spark.databricks.sql.optimizer.lateralJoinPreserveOuterSemantic en true.

NATURAL JOIN respeta la coincidencia de columnas sin distinguir entre mayúsculas y minúsculas

NATURAL JOIN ahora usa correctamente la coincidencia de columnas sin distinguir mayúsculas de minúsculas cuando spark.sql.caseSensitive se establece en false (valor predeterminado). Anteriormente, NATURAL JOIN utilizaba una comparación que diferenciaba entre mayúsculas y minúsculas para identificar columnas comunes, lo que hacía que las columnas que solo se diferenciaban en mayúsculas y minúsculas (por ejemplo, ID frente a id) no se reconocieran como coincidentes. Esto provocaba que NATURAL JOIN produjera de forma silenciosa resultados de combinación cruzada. Esta corrección alinea el NATURAL JOIN comportamiento con USING uniones, que ya manejaba correctamente la insensibilidad a mayúsculas. Las consultas afectadas por este error ahora devuelven resultados correctos con columnas unidas correctamente.

Validación de la dependencia de UDF de SQL en Unity Catalog

El Catálogo de Unity ahora aplica validación de dependencias para funciones de SQL definidas por el usuario (UDF) a fin de prevenir la omisión del control de acceso. Anteriormente, las funciones SQL creadas a través de la API REST podían hacer referencia a las dependencias a las que el usuario no tenía acceso. Las UDF de SQL con configuraciones de dependencia no válidas ahora se bloquean de la ejecución.

Escrituras optimizadas para tablas particionadas de Unity Catalog creadas con CRTAS

Las escrituras optimizadas ahora se aplican correctamente a las tablas de Unity Catalog con particiones creadas con CREATE OR REPLACE TABLE ... AS SELECT (CRTAS). Anteriormente, CRTAS en nuevas tablas de catálogos de Unity con particiones no aplicaba escrituras optimizadas, lo que provocaba un mayor número de archivos pequeños por partición. Esta corrección puede aumentar la latencia de escritura. Para revertir al comportamiento anterior, establezca spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled a false.

Las dependencias de AWS SDK v1 están sombreadas

Las dependencias de AWS SDK v1 agrupadas con Databricks Runtime ahora están sombreadas y ya no están disponibles directamente en la ruta de clase. Si el código depende de las bibliotecas de AWS SDK v1 proporcionadas anteriormente por Databricks Runtime, agréguelas como dependencias explícitas en el proyecto. Este cambio se prepara para la migración a AWS SDK v2, después del final de la compatibilidad de AWS con SDK v1.

Corrección de una autoridad EPSG incorrecta para SRID 102100 definida por ESRI

La asignación del Sistema de referencia de coordenadas (CRS) para SRID 102100 ahora usa ESRI:102100 correctamente en lugar de la incorrecta EPSG:102100. Esta corrección garantiza que los datos geoespaciales se almacenen con la autoridad correcta para mejorar la interoperabilidad con otros sistemas.

Nuevas características y mejoras

Compatibilidad con CREATE OR REPLACE para tablas temporales

CREATE OR REPLACE TEMP TABLE Ahora se admite la sintaxis, lo que permite crear o reemplazar tablas temporales en una sola instrucción. Esto elimina la necesidad de quitar y volver a crear tablas temporales explícitamente.

agg() alias para la measure() función

agg() ahora está disponible como alias para la measure() función. Este cambio es totalmente compatible con versiones anteriores. Las consultas existentes que usan measure() siguen funcionando sin modificaciones y agg() generan resultados idénticos cuando se usan con los mismos argumentos.

Actualización del controlador JDBC de Snowflake

El controlador JDBC de Snowflake se actualiza de 3.22.0 a 3.28.0.

pyspark.pipelines.testing alias de espacio de nombres

pyspark.pipelines.testing ahora está disponible como alias de conveniencia para dlt.testing las API. Importe las utilidades de prueba de canalizaciones declarativas de Spark de Lakeflow mediante cualquiera de los espacios de nombres.

Rendimiento mejorado del listado del cargador automático

Auto Loader ahora usa un método de lista más eficaz que mejora la velocidad de enumeración para los orígenes de almacenamiento en la nube. Si los disparadores de flujo se superponen debido a las operaciones de listado de larga duración, esta optimización puede dar lugar a un aumento de los costos de la API de listado en la nube. Monitorea los intervalos de activación y ajusta la programación para evitar operaciones superpuestas si se observan aumentos de costos.

El historial de la tabla Delta incluye marcas de opción de escritura

El historial de la tabla Delta (DESCRIBE HISTORY) ahora incluye marcas de opción de escritura en la columna operationParameters para las operaciones WRITE y REPLACE TABLE. Cuando se habilitan explícitamente las siguientes opciones, aparecen como marcas booleanas en el historial (solo se incluyen cuando true):

Para las operaciones WRITE y REPLACE TABLE :

  • isDynamicPartitionOverwrite: está presente cuando se usó el modo de sobrescritura de particiones dinámicas.
  • canOverwriteSchema: está presente cuando se ha habilitado la sobrescritura de esquema (overwriteSchema)
  • canMergeSchema: presente cuando se ha habilitado la combinación de esquemas (mergeSchema)

Para operaciones de REPLACE TABLE:

  • predicate: presente cuando replaceWhere se usó
  • isV1WriterSaveAsTableOverwrite: presente cuando se desencadenó el reemplazo mediante una .saveAsTable sobrescritura.

Compatibilidad con rebobinado y reproducción de Structured Streaming

Structured Streaming ahora admite rebobinado y reproducción para canalizaciones de streaming. Esta característica permite volver a procesar desde un punto anterior de la secuencia para recuperarse de errores, como cambios de esquema, datos de entrada con formato incorrecto o errores lógicos, sin necesidad de un restablecimiento de estado completo. Esto no modifica el comportamiento predeterminado de las cargas de trabajo de streaming existentes.

Actualizaciones de bibliotecas

  • Bibliotecas de Python actualizadas:

    No se actualizaron bibliotecas en esta versión.

  • Bibliotecas de R actualizadas:

    No se actualizaron bibliotecas en esta versión.

  • Bibliotecas de Java actualizadas:

    • io.delta.delta-sharing-client_2.13 de 1.3.9 a 1.3.10

Apache Spark

Databricks Runtime 18.2 incluye Apache Spark 4.1.0. Esta versión incluye todas las correcciones y mejoras de Spark incluidas en Databricks Runtime 18.1, así como las siguientes correcciones de errores y mejoras adicionales realizadas en Spark:

  • SPARK-56219 Revertir "[SC-225028][PS] Alinear groupby idxmax e idxmin skipna=False behavior with pandas 2/3"
  • SPARK-56204 Quitar Alias contenedores de expresiones de fila de tabla insertadas en el analizador
  • SPARK-56186 Retirar pypy
  • SPARK-56202 Refactorización de pruebas de combinación de streaming: división de la jerarquía de Base/Suite y simplificación del envío del modo
  • SPARK-56221 Paridad de características entre los comandos spark.catalog.* frente a DDL
  • SPARK-56301 Corrección de errores tipográficos en error-conditions.json
  • SPARK-55729 Compatibilidad con el lector de orígenes de datos de estado para el nuevo formato de estado v4 en la combinación de secuencias de transmisión
  • SPARK-56256 Adición de emptyDataFrame API a SparkSession
  • SPARK-56205 Validación del identificador de punto de control del almacén de estado base antes de confirmar microbatch
  • SPARK-55827 Sugerencia de tipo de corrección para los trabajadores de orígenes de datos
  • SPARK-55579 Cambiar el nombre de las clases de error de PySpark para que sean independientes del tipo eval
  • SPARK-56247 Corregir el comportamiento de reserva y la sugerencia de tipo de inheritable_thread_target
  • SPARK-56244 Refinar el diseño de la clase de pruebas comparativas en bench_eval_type.py
  • SPARK-56262 Eliminar la desactivación innecesaria de la comprobación de tipos de mypy
  • SPARK-55969 regr_r2 debe tratar el primer parámetro como variable dependiente
  • SPARK-56179 Consolidación de clases de error para errores de coincidencia de tipos: parte 3
  • SPARK-55630 Omitir la actualización de la marca coincidente para el lado no externo en stream-stream join v4
  • SPARK-56217 Corrección de excepciones bucketBy en la conexión
  • SPARK-56225 Mensaje de error Mejorar vista WITH SCHEMA EVOLUTION
  • SPARK-55865 Cambie el nombre de _LEGACY_ERROR_TEMP_1266 a CANNOT_TRUNCATE_EXTERNAL_TABLE
  • SPARK-55861 Cambie el nombre de _LEGACY_ERROR_TEMP_2045 a UNSUPPORTED_TABLE_CHANGE
  • SPARK-56166 Uso de ArrowBatchTransformer.enforce_schema para reemplazar la lógica de coerción de tipos de columna
  • SPARK-56245 Corrección de la asignación de dataFrame.eval en el lugar en pandas 3
  • SPARK-56062 Aislar memory_profiler para mejorar el tiempo de importación
  • El catálogo de sistema SPARK-55964 predomina sobre el catálogo de usuario para los esquemas BUILTIN y SESSION.
  • SPARK-56226 Captura de errores de análisis antes InternalFrame.__init__ de en .loc
  • SPARK-55723 Generalización del error de enforce_schema a PySparkTypeError
  • SPARK-54878 Adición de la opción sortKeys a to_json función
  • SPARK-56219 Alinear el comportamiento de groupby idxmax e idxmin con skipna=False con pandas 2/3.
  • SPARK-44065 Optimización de la asimetría de BroadcastHashJoin en OptimizeSkewedJoin
  • SPARK-56179 Revert "[SC-225014][PYTHON] Consolidar clases de error para incompatibilidad de tipos - parte 3"
  • SPARK-53399 Combinar Python UDFs
  • SPARK-56224 Anotaciones de tipo polaco para accumulators.py
  • SPARK-55448 Corrección de la pérdida de eventos de consulta cuando se cierra la sesión durante la ejecución de la consulta
  • SPARK-55862 Cambie el nombre de _LEGACY_ERROR_TEMP_2027 a UNEXPECTED_OPERATOR_IN_CORRELATED_SUBQUERY
  • SPARK-56201 Ejecute pruebas spark-49829 con combinaciones de VCF ahora que StateDataSource lo admite.
  • SPARK-56179 Consolidación de clases de error para errores de coincidencia de tipos: parte 3
  • SPARK-56184 Reemplazar assert por el SparkRuntimeException adecuado en el análisis de columnas particionadas
  • SPARK-56206 Corrección de la detección de nombres CTE duplicados que no distinguen mayúsculas de minúsculas
  • SPARK-55866 Cambie el nombre de _LEGACY_ERROR_TEMP_2145 a OPTION_VALUE_EXCEEDS_ONE_CHARACTER
  • SPARK-56067 Importar psutil de forma perezosa para mejorar la velocidad de importación
  • SPARK-56066 Importación diferida de Numpy para mejorar la velocidad de importación
  • SPARK-55719 Quitar la advertencia de desuso de spark.sql.hive.convertCTAS
  • SPARK-56179 Consolidación de clases de error para desajuste de tipo: parte 2
  • SPARK-55510 Actualizar el documento structured-streaming-state-data-source.md para reflejar el uso de deleteRange
  • SPARK-56050 Resolver proactivamente IDENTIFIER() con literales de cadena durante el análisis
  • SPARK-56151 Mejora de la cadena de presentación CreateVariable
  • SPARK-55751 Añadir métricas sobre la carga del almacenamiento de estados desde DFS
  • SPARK-56188 Alinear Series.map({}) con el comportamiento de pandas 3 para diccionarios vacíos
  • SPARK-55964 Revertir "[SC-223957] el catálogo del sistema precede al catálogo de usuario para BUILTIN y los esquemas de SESIÓN".
  • SPARK-55577 Refactorizar SQL_SCALAR_ARROW_ITER_UDF contenedor, asignador y lógica del serializador
  • SPARK-55596 Filtrado de estadísticas de partición mejoradas de DSV2
  • SPARK-56179 Revertir "[SC-224777][PYTHON] Consolidar las clases de errores para desajuste de tipos: parte 2"
  • El catálogo de sistema SPARK-55964 predomina sobre el catálogo de usuario para los esquemas BUILTIN y SESSION.
  • SPARK-56050 Revertir "[SC-224153][SQL] Resolver anticipadamente IDENTIFIER() con literales de cadena en tiempo de análisis"
  • SPARK-56179 Consolidación de clases de error para desajuste de tipo: parte 2
  • SPARK-56102UnionEstimation limpieza de código
  • SPARK-51712 Tragar throwables no irrecuperables al resolver tablas o vistas en spark.catalog.listTables()
  • SPARK-55881 Adición de queryId, errorMessage y rootExecutionId a la API REST de ejecución de SQL
  • SPARK-56050 Resolver proactivamente IDENTIFIER() con literales de cadena durante el análisis
  • SPARK-55628 Integración del formato de estado de combinación de stream-stream V4
  • SPARK-56187 Corrección del manejo de valores nulos en Series.argsort para pandas 3
  • SPARK-56167 Alinear astype con el comportamiento de cadena predeterminado de Pandas 3
  • SPARK-56018 Usar ruff como formateador
  • SPARK-56042 Corrección de métricas de recuento de familias col internas o externas intercambiadas en RocksDBStateStoreProvider
  • SPARK-56179 Consolidación de clases de error para errores de coincidencia de tipos: parte 1
  • SPARK-56089 Alinear asinh/acosh con el algoritmo fdlibm para la compatibilidad entre motores
  • SPARK-55453 Corrección de la coincidencia de patrones LIKE para caracteres Unicode complementarios
  • SPARK-52785 Simplificación de la sintaxis super() en PySpark
  • SPARK-56169 Corrección ClassCastException en los informes de errores cuando GetStructField se cambia el tipo secundario mediante la transformación del plan
  • SPARK-55557 Las funciones hiperbólicas no deben desbordarse con entradas grandes
  • SPARK-47997 Adición del parámetro errors a DataFrame.drop y Series.drop
  • SPARK-55008 Mostrar el identificador de consulta en SparkUI
  • SPARK-54660 Incorporación del desencadenador RTM a Python
  • SPARK-56047 Propagación distinctCount a través de Union en la estimación de estadísticas de CBO
  • SPARK-56111 Agregue SparkContext.isDriver() y úselo en el código base.
  • SPARK-55999 Habilitar forceSnapshotUploadOnLag de forma predeterminada
  • SPARK-55610 Agregar getExecutorInfos a StatusTracker en Python
  • SPARK-55728 Introducir conf para el tamaño del grupo de subprocesos de suma de comprobación de archivos y admitir la deshabilitación del grupo de subprocesos
  • SPARK-55686 SizeEstimator se encarga de los encabezados de objeto compactos
  • SPARK-56044 HistoryServerDiskManager no elimina la tienda de aplicaciones en versión cuando la aplicación no está en mapa activo
  • SPARK-55809 HeapHistogram usa DiagnosticCommandMBean en lugar del subproceso jmap
  • SPARK-56122 Uso de la comprobación de tipos numéricos compatibles con pandas en Series.cov
  • SPARK-56113 Mejora de la restauración de cadenas de Pandas 3 en pandas-on-Spark
  • SPARK-56118 Igualar el manejo de booleanos de Pandas 3.0 en GroupBy.quantile
  • SPARK-53823 Implementación de la lista de autorizaciones para el modo en tiempo real
  • SPARK-55977 Corrección de isin() para usar coincidencias de tipos estrictas como pandas
  • SPARK-54027 Compatibilidad con RTM de origen de Kafka
  • SPARK-50284 Cambio de documentos para la función parseJson
  • SPARK-56035 [SQL] Introducción AggregationValidator a la validación de resolución Aggregate de paso único
  • SPARK-55557 Revertir "[SC-223720][SQL] Las funciones hiperbólicas no deben desbordarse con entradas grandes".
  • SPARK-56075 Eliminación de un lote de clases de error de Python inactivas
  • SPARK-55967 Unificar la conversión de columnas para conectar dataframe
  • SPARK-53915 Adición de RealTimeScanExec y capacidad para ejecutar lotes de larga duración
  • SPARK-55557 Las funciones hiperbólicas no deben desbordarse con entradas grandes
  • SPARK-55147 Delimitar rango de marcas de tiempo para la obtención de unión de intervalos de tiempo en formato de estado V4
  • SPARK-56056 Compatibilidad con la generación de perfiles de trabajo más sencilla con viztracer
  • SPARK-55948 Adición de la API del conector CDC DSv2, la resolución del analizador y la cláusula SQL CHANGES
  • SPARK-54599 Volver a aplicar "[SC-219008][PYTHON] Refactorizar PythonExcept...
  • SPARK-55390 Consolidar SQL_SCALAR_ARROW_UDF lógica de contenedor, asignador y serializador
  • SPARK-56023 Mejor equilibrio de carga en LowLatencyMemoryStream
  • SPARK-55986 Actualizar negro a 26.3.1
  • SPARK-55667 Mover check_dependencies a init
  • SPARK-55145 Compatibilidad con Avro para codificadores de clave de estado de RocksDB basados en marca de tiempo
  • SPARK-53970 Quite la etiqueta "opcional" incorrecta para messageName...
  • SPARK-55059 Revertir "[SC-224058][PYTHON] Eliminar solución temporal para tablas vacías en toPandas"
  • SPARK-50111 Añadir compatibilidad con subgráficas para gráficos circulares en el backend de Plotly
  • SPARK-56081 Alineación del control de idxmax e idxmin NA con pandas 3
  • SPARK-56080 Alinear Series.argmax/argmin con control de pandas 3.0 NA
  • SPARK-56060 Manejo de la conversión de cadenas nulas de Pandas 3 en describe() para marcos de tiempo vacíos
  • SPARK-55059 Eliminación de la solución alternativa de tabla vacía en toPandas
  • SPARK-55995 Compatibilidad con TIMESTAMP WITH LOCAL TIME ZONE en la sintaxis SQL
  • SPARK-55976 Uso de Set en lugar de Seq para privilegios de escritura
  • SPARK-56073 Simplificación de la compilación de PythonRunnerConfMap
  • SPARK-55887 Manejo especial para CollectLimitExec/CollectTailExec evitar escaneos completos de tablas
  • SPARK-55980 Aplicar siempre _cast_back_float en aritmética numérica
  • SPARK-55357 Corrección de docstring para timestamp_add
  • SPARK-55667 Revertir "[SC-223289][PYTHON][CONNECT] Mover check_dependencies a init"
  • SPARK-54285 Revert "[PYTHON] Almacenar en caché la información de la zona horaria para evitar una costosa conversión de marcas de tiempo"
  • SPARK-56021 Aumentar el umbral predeterminado de AutoSnapshotRepair maxChangeFileReplay de 50 a 500
  • SPARK-55870 Añadir documentación para tipos geográficos
  • SPARK-55962 Usar getShort en lugar de getInt en la conversión en putShortsFromIntsLittleEndian plataformas Little Endian
  • SPARK-55903 Simplificación de la evolución del esquema MERGE y comprobación de privilegios de escritura
  • SPARK-55326 Liberar sesión remota cuando se establece SPARK_CONNECT_RELEASE_SESSION_ON_EXIT
  • SPARK-55667 Mover check_dependencies a init
  • SPARK-55884 Agregar v1StatsToV2Stats a DataSourceV2Relation
  • SPARK-55929 Añadir toString() faltante a TableChange.UpdateColumnDefaultValue
  • SPARK-55851 Aclarar los tipos de partición de fuente de datos y lectura de datos
  • SPARK-55828 Agregue DSV2 TableChange toString y corrija la clase de error que falta para Merge Into Schema Evolution
  • SPARK-55790 Creación de un registro SRS completo mediante datos de PROJ 9.7.1
  • SPARK-55645 Añadir serdeName a CatalogStorageFormat
  • SPARK-54796 Corrección del NPE causado por la condición de carrera entre la inicialización del ejecutor y la migración aleatoria
  • SPARK-55983 Nuevas funcionalidades y correcciones de errores del analizador de paso único
  • SPARK-55964 Coherencia de la memoria caché: borrar el registro de funciones en DROP DATABASE
  • SPARK-55868 Corrección de la inserción de predicado para InMemoryTable para V2Filters
  • SPARK-55973 Optimización leftSemi para la combinación de flujo de flujo
  • SPARK-54665 Corrección de la comparación booleana frente a cadenas para que coincida con el comportamiento de Pandas
  • SPARK-55539 Permitir la conversión de GeographyType a GeometryType
  • SPARK-55695 Evitar el planeamiento doble en operaciones de nivel de fila
  • SPARK-55904 Uso de _check_same_session para restringir los tipos
  • SPARK-55965 Agregar advertencia cuando pandas >= 3.0.0 se usa con PySpark
  • SPARK-55493 [SS] No crear directorios en el registro de compensación o confirmación de puntos de control de transmisión en StateDataSource
  • SPARK-55851 Revertir "[SC-223270][PYTHON] Aclarar los tipos de partición y lectura del origen de datos"
  • SPARK-55645 Revertir "[SC-221839][SQL] Agregar serdeName a CatalogStorageFormat"
  • SPARK-55640 Propagación de errores de análisis de WKB para geometría y geografía
  • SPARK-55693 Evite el interbloqueo haciendo que SparkSession.observationManager sea una val no diferida
  • SPARK-55528 Adición de compatibilidad con intercalación predeterminada para UDF de SQL
  • SPARK-55860 Usar UNABLE_TO_INFER_SCHEMA en lugar de UNABLE_TO_INFER_SCHEMA_FOR_DATA_SOURCE
  • SPARK-55275 Agregar estados sql invalidPlanInput para sql/connect
  • SPARK-55645 Añadir serdeName a CatalogStorageFormat
  • SPARK-55716 Compatibilidad con la aplicación de restricciones NOT NULL para las inserciones de tabla de origen de archivos V1
  • SPARK-53226 Hacer que ClosureCleaner funcione con Java22+
  • SPARK-55997 Establecer un límite superior para "prefixScan" en el proveedor de almacenamiento de estado de RocksDB
  • SPARK-55851 Aclarar los tipos de partición de fuente de datos y lectura de datos
  • SPARK-55954 Quitar la sugerencia de tipo de sobrecarga incorrecta para fillna
  • SPARK-56016 Conservar las columnas series con nombre en concat con ignore_index en pandas 3
  • SPARK-55502 Unificar el control de errores de conversión de UDF y UDTF Arrow
  • SPARK-55989 Conservar tipos de datos de índice que no son int64 en restore_index
  • SPARK-55955 Eliminar indicación de tipo de sobrecarga para eliminar
  • SPARK-55945 [SDP] Admite identificadores estructurados para flujos en prototipos de análisis diligentes de SDP
  • SPARK-55714 JDK podría producir ArithmeticException sin mensaje
  • SPARK-55991 Corrección de la corrupción de texto SQL relacionado con Unicode cuando se utilizan parámetros
  • SPARK-55696 Adición de un error explícito a Encoders.bean para la clase de interfaz
  • SPARK-55533 Compatibilidad con IGNORE NULLS/RESPECT NULLS para collect_set
  • SPARK-55987 Corrección de la extracción de marca de tiempo de unión en ventana V4 mediante findJoinKeyOrdinalForWatermark
  • SPARK-55946 Configuración de pandas_priority para que las operaciones binarias mixtas se envíen correctamente a pandas-on-Spark
  • SPARK-55264 Adición del comando ExecuteOutput a las canalizaciones de Spark Connect proto
  • SPARK-47672 Evitar la doble evaluación del filtro pushDown con pushdown de proyección
  • SPARK-55780 Reemplazar el logotipo PNG por SVG en la interfaz de usuario web de Spark
  • SPARK-55821 Aplicar argumentos de solo palabra clave en los métodos de inicialización del serializador
  • SPARK-55621 Corrección del uso ambiguo e innecesario de Unicode
  • SPARK-55662 Implementación del argumento del eje idxmin
  • SPARK-55631ALTER TABLE debe invalidar la caché de las tablas DSv2
  • SPARK-55692 Corrección de SupportsRuntimeFiltering y la SupportsRuntimeV2Filtering documentación
  • SPARK-55928 Nuevo linter para la eficacia de la configuración en vistas y UDF
  • SPARK-55440 Marco de tipos: fase 1a- Core Type System Foundation
  • SPARK-55631 Revertir "[SC-221596][SQL] ALTER TABLE debe invalidar la caché para las tablas DSv2".
  • SPARK-55631ALTER TABLE debe invalidar la caché de las tablas DSv2
  • SPARK-55683 Optimización VectorizedPlainValuesReader.readUnsignedLongs
  • SPARK-55892 Corrección que no puede cargar el almacén de estado porque el mantenimiento eliminó el archivo SST reutilizado
  • SPARK-55946 Revertir "[SC-223027][PS] Configurar pandas_priority para que las operaciones binarias mixtas se envíen correctamente a pandas-on-Spark".
  • SPARK-55891 Conservar el contexto de SQL scripting dentro de EXECUTE IMMEDIATE
  • SPARK-55907 Corrección de posiciones de error incorrectas para tipos de datos no válidos en CREATE FUNCTION
  • SPARK-55946 Configuración de pandas_priority para que las operaciones binarias mixtas se envíen correctamente a pandas-on-Spark
  • SPARK-55694 Restricciones de bloqueo en CTAS/RTAS en el nivel de analizador
  • SPARK-55682 ServiceLoader devuelto iterator puede iniciarse NoClassDefFoundErrorhasNext()
  • SPARK-55155 Corregir SETCATALOG para usar caracteres especiales y comillas invertidas en el nombre del identificador
  • SPARK-55932 Corrección para que el analizador de variantes XML no se bloquee con una escala negativa
  • SPARK-55673 Adición de más pruebas para el codificador de tipos anidados
  • SPARK-55679 Corregir la detección de sun.io.serialization.extendedDebugInfo en Java 25
  • SPARK-55957 Agregar "DATA_SOURCE_NOT_FOUND" en Catalog.ERROR_HANDLING_RULES
  • SPARK-55052 Agregar propiedades AQEShuffleRead al árbol de plan físico
  • SPARK-55652 Optimización VectorizedPlainValuesReader.readShorts() con acceso directo a matrices para búferes de montón
  • SPARK-55659 Mejorar EventLogFileWriter para registrar la operación stop
  • SPARK-54666 Dejar los tipos numéricos sin cambios en to_numeric
  • SPARK-55654 Habilitar la poda de TreePattern para EliminateSubqueryAliases y ResolveInlineTables
  • SPARK-55533 Deshacer "[SC-220538][SQL] Compatibilidad con IGNORE NULLS/RESPECT NULLS para collect_set"
  • SPARK-55901 Generar un error en Series.replace() sin argumentos
  • SPARK-55896 Usar funciones numpy en lugar de funciones incorporadas
  • SPARK-55655 Hacer CountVectorizer que el vocabulario sea determinista cuando los recuentos sean iguales
  • SPARK-55811 [SQL] Captura NonFatal en lugar de UnresolvedException al invocar nodeWithOutputColumnsString
  • SPARK-55533 Compatibilidad con IGNORE NULLS/RESPECT NULLS para collect_set
  • SPARK-55435 Usar StringBuilder en lugar de StringBuffer
  • SPARK-54807 Permitir nombres cualificados para funciones integradas y de sesión (#198171)
  • SPARK-55854 Etiquetar atributos duplicados de paso a través en la salida de Expandir para evitar AMBIGUOUS_REFERENCE
  • SPARK-55261 Implementación de la compatibilidad de lectura de Parquet con tipos geográficos
  • SPARK-55416 fuga de memoria en la fuente de datos de streaming de Python cuando no se actualiza el desplazamiento final
  • SPARK-55465 Compatibilidad con GeometryType en convert_numpy
  • SPARK-55801 Corregir la sugerencia de tipo de _SimpleStreamReaderWrapper.getCache
  • SPARK-55800 Quitar la comprobación de tipo que no se usa para datetime.date
  • SPARK-55663 Unificar módulo para funciones de origen de datos
  • SPARK-55665 Unificar cómo los trabajadores establecen conexión con el executor
  • SPARK-53446 Optimización de las operaciones de eliminación de BlockManager con asignaciones de bloques en caché
  • SPARK-55867 Corrección de stringMethods con pandas 3
  • SPARK-55501 Corrección de la diferencia de listagg distinct + dentro del orden del grupo por error
  • SPARK-55558 Añadir soporte para las operaciones de conjunto Tuple/Theta
  • SPARK-55636 Adición de errores detallados en caso de desduplicación de columnas no válidas
  • SPARK-55788 Compatibilidad con ExtensionDType para enteros en UDF de Pandas
  • SPARK-55464 Soporte para GeographyType en convert_numpy
  • SPARK-55530 Compatibilidad con conjuntos de resultados geográficos en Hive y el servidor Thrift
  • SPARK-55525 Corrección de UDTF_ARROW_TYPE_CONVERSION_ERROR con un parámetro de mensaje de error indefinido
  • SPARK-55626 No cargue columnas de metadatos en Table a menos que sea necesario en V2TableUtil
  • SPARK-55533 Deshacer "[SC-220538][SQL] Compatibilidad con IGNORE NULLS/RESPECT NULLS para collect_set"
  • SPARK-55435 Revertir "[SC-219656][CORE][SQL] Use StringBuilder en lugar de StringBuffer"
  • SPARK-55533 Compatibilidad con IGNORE NULLS/RESPECT NULLS para collect_set
  • SPARK-54452 Corrección de una respuesta vacía del servidor SparkConnect para spark.sql(...) dentro de FlowFunction
  • SPARK-55638 Refactorización de la serialización WKT en GeometryModel
  • SPARK-55551 Mejorar el particionamiento de la salida de BroadcastHashJoinExec
  • SPARK-54314 Mejorar la capacidad de depuración del lado del servidor en Spark Connect mediante la captura del nombre de archivo y el número de línea de la aplicación cliente
  • SPARK-55517 Optimización VectorizedPlainValuesReader.readBytes() con acceso directo a matrices para búferes de montón
  • SPARK-55495 Solución EventLogFileWriters.closeWriter para manejar checkError
  • SPARK-55279 Agregar sketch_funcs grupo para funciones SQL de DataSketches
  • SPARK-55435 Usar StringBuilder en lugar de StringBuffer
  • SPARK-55064 Compatibilidad con el reintento aleatorio de nivel de consulta indeterminado
  • SPARK-55411 SPJ puede iniciar ArrayIndexOutOfBoundsException cuando las claves de combinación son inferiores a las claves de clúster.
  • SPARK-55451 Los cursores deben empezar a recopilar resultados en OPEN, no al primer FETCH.
  • SPARK-54687 Añadir más casos extremos con generadores
  • SPARK-55691 Cliente GetStatus
  • SPARK-55277 Adición protobuf_funcs de un grupo para las funciones SQL de Protobuf
  • SPARK-55822 Cambiar el nombre _LEGACY_ERROR_TEMP_0052 a CREATE_VIEW_WITH_IF_NOT_EXISTS_AND_REPLACE
  • SPARK-55236 Solucione una excepción inesperada en algunos casos de prueba de CoarseGrainedExecutorBackendSuite
  • SPARK-55275 Cobertura del estado SQL: IllegalStateException
  • SPARK-55462 Vuelva a aplicar "[SC-221123][PYTHON] Admita VariantType en convert_numpy"
  • SPARK-55062 Compatibilidad con extensiones proto2 en funciones protobuf
  • SPARK-55248 Limpiar el uso de la API en desuso de Jackson en streaming.checkpointing.Checksum
  • SPARK-55250 Reducción de las llamadas de cliente de Hive en CREATE NAMESPACE
  • SPARK-55247 Limpieza del uso de la API en desuso relacionado con o.a.c.io.input.BoundedInputStream
  • SPARK-55198 spark-sql debe omitir la línea de comentarios con espacios en blanco iniciales
  • SPARK-55826 Cambiar el nombre _LEGACY_ERROR_TEMP_0006 a MERGE_INSERT_VALUE_COUNT_MISMATCH
  • SPARK-55127 Adición de un grupo de avro_funcs para las funciones de Avro SQL
  • SPARK-54914 [SQL] Corrección del operador DROP en la sintaxis de canalización para admitir nombres de columna calificados
  • SPARK-55113EnsureRequirements debe copiar etiquetas
  • SPARK-55074 Agregar prueba para coerción de tipos ANSI en Merge Into
  • SPARK-54217 Sincronización de la decisión de eliminación de MonitorThread de PythonRunner
  • SPARK-54374 Ampliar el atributo viewBox del SVG en la inicialización de la visualización del plan SQL
  • SPARK-54971 Agregar la sintaxis WITH SCHEMA EVOLUTION para SQL INSERT
  • SPARK-55065 Evite realizar dos llamadas API de JDBC
  • SPARK-55033 Corregir stringArgs de los comandos de escritura de DSv2
  • SPARK-55041 Limpieza de elementos privados sin usar del módulo principal
  • SPARK-55338 Centralización de la lógica de descompresión de solicitudes de Spark Connect en el interceptor gRPC
  • SPARK-55825 Cambiar el nombre _LEGACY_ERROR_TEMP_1309 a PARTITION_BY_NOT_ALLOWED_WITH_INSERT_INTO
  • SPARK-55492 Validar que eventTime en withWatermark es una columna de nivel superior
  • SPARK-55802 Corrección del desbordamiento de enteros al calcular los bytes de lotes de Arrow
  • SPARK-55694 Restricciones de bloqueo en CTAS/RTAS en el nivel de analizador
  • SPARK-55843 Controlar la unidad de datetime64 y timedelta64 dtypes
  • SPARK-55824 Cambiar el nombre _LEGACY_ERROR_TEMP_1034 a WINDOW_FUNCTION_NOT_ALLOWED_IN_CLAUSE
  • SPARK-55819 Refactorizar ExpandExec para que sea más concisa
  • SPARK-55341 Agregar marca de nivel de almacenamiento para las relaciones locales almacenadas en caché
  • SPARK-54599 Revert "[SC-219008][PYTHON] Refactorizar PythonException para que pueda tomar errorClass con sqlstate".
  • SPARK-46167 Adición de la implementación del eje a DataFrame.rank
  • SPARK-54599 Refactorización de PythonException para que pueda tomar errorClass con sqlstate
  • SPARK-55529 Volver a aplicar [ES-1721989][SC-220716][PYTHON] Restaurar combinación por lotes a nivel de Arrow para applyInPandas no iterador
  • SPARK-55794 Siempre alias OuterReference
  • SPARK-55583 Validar los tipos de esquema de Arrow en la fuente de datos de Python
  • SPARK-37711 Reducción del recuento de trabajos de Pandas de O(N) a O(1)
  • SPARK-46168 Agregar argumento de eje para idxmax
  • SPARK-46162 Implementación de nunique con axis=1
  • SPARK-55552 Agregar compatibilidad con VariantType a ColumnarBatchRow.copy() y MutableColumnarRow
  • SPARK-55647 Se ha corregido ConstantPropagation la sustitución incorrecta de atributos por intercalaciones no estables binarias
  • SPARK-55747 Corrección de NPE al acceder a elementos de una matriz que es null
  • SPARK-55757 Mejora de la spark.task.cpus validación
  • SPARK-55699 Lectura incoherente de LowLatencyClock cuando se usa junto con ManualClock
  • SPARK-55702 Soporte de predicado de filtro en funciones de agregado de ventana
  • SPARK-55510 Corregir deleteRange del almacén de estado de Rocksdb para invocar a changelogWriter
  • SPARK-55739 Optimizar OnHeapColumnVector.putIntsLittleEndian/putLongsLittleEndian usando Platform.copyMemory en plataformas little-endian
  • SPARK-55730 No poner en minúsculas la zona horaria
  • SPARK-55701 ES-1694761[SS] Corregir la condición de carrera en CompactibleFileStreamLog.allFiles
  • SPARK-55462 Revertir "[SC-221123][PYTHON] Soporta VariantType en convert_numpy"
  • SPARK-55144 Introducción de una nueva versión de formato de estado para la unión de flujo a flujo eficiente
  • SPARK-55606 Implementación del lado servidor de GetStatus API
  • SPARK-55462 Compatibilidad con VariantType en convert_numpy
  • SPARK-55600 Corrección de pandas en flecha pierde el recuento de filas cuando el esquema tiene 0 columnas en el modelo clásico
  • SPARK-55700 Corrección del control de claves de enteros en series con índice no entero
  • SPARK-55349 Consolidación de utilidades de conversión de pandas a Arrow en serializadores
  • SPARK-55681 Corregir la igualdad del tipo de dato único después de la deserialización (reintento)
  • SPARK-55681 Revertir "[SC-221427][SC-214079][SQL] Corregir la igualdad singleton DataType después de la deserialización"
  • SPARK-55681 Corrige la igualdad de DataType singleton después de la deserialización
  • SPARK-55674 Optimización de la conversión de tablas de 0 columnas en Spark Connect
  • SPARK-55323 Volver a aplicar "[SC-218885][PYTHON] Mover metadatos de UDF a EvalConf para simplificar el protocolo de trabajo"
  • SPARK-55322 Volver a aplicar [SC-221062][SQL] MaxBy y MinBy Overload con elementos K
  • SPARK-55323 Revertir "[SC-218885][PYTHON] Mover metadatos de UDF a EvalConf para simplificar el protocolo de trabajo"
  • SPARK-55615 Mover la importación de SparkContext a la rama de clase
  • SPARK-55323 Traslado de metadatos de UDF a EvalConf para simplificar el protocolo de trabajo
  • SPARK-55648 Manejar un error de argumento de palabra clave inesperado con pandas 3
  • SPARK-55647 Revertir "[SC-221274][SQL] Corregir ConstantPropagation el reemplazo incorrecto de atributos por intercalaciones no estables binarias"
  • SPARK-55646 Se realizó una refactorización de SQLExecution.withThreadLocalCaptured para separar la captura de variables locales de subproceso de la ejecución.
  • SPARK-54854 Agregar un identificador de consulta UUIDv7 a eventos de SQLExecution
  • SPARK-55619 Corrección de métricas personalizadas en caso de particiones fusionadas
  • SPARK-55647 Se ha corregido ConstantPropagation la sustitución incorrecta de atributos por intercalaciones no estables binarias
  • SPARK-55322 Revertir "[SC-221062][SQL] MaxBy y MinBy Sobrecarga con elementos K"
  • SPARK-54740 Iniciar faulthandler al principio del modo de demonio
  • SPARK-55493 [SS] No crear directorios (mkdirs) en el directorio de estado del punto de control de streaming en StateDataSource
  • SPARK-55322MaxBy y MinBy Sobrecarga con elementos K
  • SPARK-55625 Corrección de StringOps para que str dtype funcione correctamente
  • SPARK-55161 Reaplicar "[SC-218867][PYTHON] Soporte para generadores de perfiles en la fuente de datos de Python"
  • SPARK-55505 Corrección del NPE en la lectura de EXECUTION_ROOT_ID_KEY en escenarios concurrentes
  • SPARK-55111 Volver a comprobar la detección de reparticiones sin terminar en el reinicio de la consulta
  • SPARK-55593 Unificar el estado de agregación para vector_avg/vector_sum
  • SPARK-55500 Corregir el ciclo del analizador entre ApplyDefaultCollation, ExtractWindowExpressions y CollationTypeCasts
  • SPARK-55494 Introducción de iterador/prefixScan con varios valores en StateStore API
  • SPARK-55561 Adición de reintentos para todos los métodos de cliente de administración de Kafka
  • SPARK-55296 Compatibilidad con el modo CoW con pandas 3
  • SPARK-55479 Corrección de problemas de estilo en SparkShreddingUtils
  • SPARK-55372 Corrección de SHOW CREATE TABLE para tablas o vistas con intercalación predeterminada
  • SPARK-55333 Habilitar DateType y TimeType en convert_numpy
  • SPARK-55129 Introducir nuevos codificadores de clave para la marca de tiempo como una primera clase (UnsafeRow)
  • SPARK-46163 Parámetros filter_func y errores en DataFrame.update
  • SPARK-55372 Revertir "[SC-220571][SQL] Corrección SHOW CREATE TABLE para tablas y vistas con intercalación predeterminada"
  • SPARK-55480 Quitar todos los noqa sin usar para la trufa
  • SPARK-55471 Adición de compatibilidad del optimizador para SequentialStreamingUnion
  • SPARK-55584 Producir un mejor error en la subconsulta escalar para EXEC IMMEDIATE
  • SPARK-55161 Revertir "[SC-218867][PYTHON] Soporte para generadores de perfiles en la fuente de datos de Python"
  • SPARK-55506 Pasar esquema de entrada explícito a to_pandas en CogroupPandasUDFSerializer
  • SPARK-55586 Agregar jdbc.py ejemplo
  • SPARK-55161 Generadores de perfiles de soporte técnico en el origen de datos de Python
  • SPARK-55529 Revertir "[SC-220716][PYTHON] Restaurar combinación por lotes de nivel de flecha para applyInPandas que no son iteradores"
  • SPARK-55385 Mitigación de la recomputación en zipWithIndex
  • SPARK-55529 Restaurar combinación de lotes de nivel de flecha para applyInPandas que no son iteradores
  • SPARK-55389 Consolidar la lógica de envoltorio, mapeador y serializador
  • SPARK-55406 Reimplementar el grupo de hilos para ExecutePlanResponseReattachableIterator
  • SPARK-55372 Solución SHOW CREATE TABLE para tablas o vistas con intercalación predeterminada
  • SPARK-55367 Uso de venv para run-pip-tests
  • SPARK-55355 Actualización de la versión de mypy a la versión más reciente
  • SPARK-55460 Quitar E203 de la lista de ignorados de ruff
  • SPARK-55541 Compatibilidad con geometría y geografía en convertidores de tipos de catalizador
  • SPARK-55449 Habilitación del análisis y escritura de WKB para Geography
  • SPARK-55339 Implementación de la compatibilidad con el escritor WKT para objetos geo
  • SPARK-54122 Implementación de TwsTester en Scala
  • SPARK-54805 Implementación de TwsTester en PySpark
  • SPARK-55256 Vuelva a aplicar "[SC-218596][SQL] Admita IGNORE NULLS/RESPECT NULLS para array_agg y collect_list"
  • SPARK-55156 Tratar con include_groups para groupby.apply
  • SPARK-55401 Adición de lógica de reintento y control de tiempo de espera a la descarga de instalación de pyspark
  • SPARK-55229 Implementación de DataFrame.zipWithIndex en PySpark
  • SPARK-55462 Compatibilidad con UserDefinedType en convert_numpy
  • SPARK-55483 Corrección de NPE en PivotFirst cuando la columna dinámica es un tipo no atómico con valores NULL
  • SPARK-55490 Incluir groupby(as_index=False) una agrupación que no está en el DataFrame con pandas 3
  • SPARK-55473 Reemplace itertools.tee por cadena en applyInPandasWithState
  • SPARK-55404 Generar siempre KeyboardInterrupt desde el controlador SIGINT
  • SPARK-55407 Reemplace logger.warn por logger.warning

Compatibilidad con el controlador ODBC/JDBC de Databricks

Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).

Entorno del sistema

  • Sistema operativo: Ubuntu 24.04.4 LTS
  • Java: Zulu21.48+15-CA
  • Scala: 2.13.16
  • Python: 3.12.3
  • R: 4.5.1
  • Delta Lake: 4.1.0

Bibliotecas de Python instaladas

Biblioteca Versión Biblioteca Versión Biblioteca Versión
aiohappyeyeballs 2.4.4 aiohttp 3.11.10 aiosignal 1.2.0
documento anotado 0.0.4 tipos con anotaciones 0.7.0 anyio 4.7.0
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 arro3-core 0.6.5
flecha 1.3.0 "asttokens" 3.0.0 astunparse 1.6.3
async-lru 2.0.4 atributos 24.3.0 comando automático 2.2.2
azure-common 1.1.28 azure-core 1.37.0 azure-identity 1.20.0
azure-mgmt-core 1.6.0 azure-mgmt-web 8.0.0 azure-storage-blob 12.28.0
azure-storage-file-datalake (servicio para el almacenamiento de archivos en un lago de datos) 12.22.0 Babel 2.16.0 backports.tarfile 1.2.0
beautifulsoup4 4.12.3 negro 24.10.0 blanquear 6.2.0
intermitente 1.7.0 boto3 1.40.45 botocore 1.40.45
cachetools 5.5.1 certifi 2025.4.26 cffi 1.17.1
chardet 4.0.0 normalizador de conjuntos de caracteres 3.3.2 Haz clic 8.1.8
cloudpickle 3.0.0 Comunicación 0.2.1 contourpy 1.3.1
criptografía 44.0.1 ciclista 0.11.0 Cython 3.1.5
databricks-agents 1.9.1 databricks-sdk (kit de desarrollo de software de Databricks) 0.67.0 dataclasses-json 0.6.7
dbus-python 1.3.2 debugpy 1.8.11 decorador (en contexto técnico, "decorator" es un patrón de diseño) 5.1.1
defusedxml 0.7.1 deltalake 1.1.4 Deprecated 1.2.18
distlib 0.3.9 Conversión de docstring a markdown 0.11 executing 1.2.0
visión general de las facetas 1.1.1 fastapi 0.128.0 fastjsonschema 2.21.1
bloqueo de archivos 3.17.0 fonttools 4.55.3 fqdn (nombre de dominio completo) 1.5.1
frozenlist 1.5.0 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.28.1 google-auth 2.47.0
google-cloud-core 2.5.0 Google Cloud Storage (almacenamiento en la nube de Google) 3.7.0 google-crc32c 1.8.0
google-resumable-media (medios reanudables de Google) 2.8.0 googleapis-common-protos 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.16.0 hf-xet 1.2.0
httpcore 1.0.9 httplib2 0.20.4 httpx 0.28.1
huggingface_hub 1.2.4 idna 3.7 importlib_metadata 8.5.0
inflect 7.3.1 iniconfig 1.1.1 ipyflow-core 0.0.209
ipykernel 6.29.5 ipython 8.30.0 ipython-genutils 0.2.0
ipywidgets 7.8.1 isodate 0.7.2 isoduration 20.11.0
jaraco.collections 5.1.0 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 Jedi 0.19.2 Jinja2 3.1.6
jiter 0.12.0 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpatch 1.33 jsonpointer 3.0.0
jsonschema 4.23.0 jsonschema-specifications 2023.7.1 jupyter_events 0.12.0
jupyter-lsp 2.2.5 jupyter_client 8.6.3 jupyter_core 5.7.2
jupyter_server 2.15.0 jupyter_server_terminals 0.5.3 jupyterlab 4.3.4
jupyterlab_pygments 0.3.0 jupyterlab_server (servidor de JupyterLab) 2.27.3 jupyterlab_widgets 1.1.11
kiwisolver 1.4.8 langchain-core 1.2.6 langchain-openai 1.1.6
langsmith 0.6.1 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 litellm 1.75.9 markdown-it-py 2.2.0
MarkupSafe 3.0.2 malvavisco 3.26.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 Mccabe 0.7.0 mdurl 0.1.0
mistune 3.1.2 mlflow-skinny 3.8.1 mmh3 5.2.0
more-itertools 10.3.0 msal 1.34.0 msal-extensions 1.3.1
Multidic 6.1.0 mypy-extensions 1.0.0 nbclient 0.10.2
nbconvert 7.16.6 nbformat 5.10.4 nest-asyncio 1.6.0
nodeenv 1.10.0 notebook 7.3.2 notebook_shim 0.2.4
numpy 2.1.3 oauthlib 3.2.2 openai 2.14.0
opentelemetry-api 1.39.1 opentelemetry-proto 1.39.1 opentelemetry-sdk 1.39.1
convenciones-semánticas-de-opentelemetry 0.60b1 orjson 3.11.5 Anula 7.4.0
embalaje 24,2 Pandas 2.2.3 pandocfilters 1.5.0
parso 0.8.4 especificación de ruta (pathspec) 0.10.3 chivo expiatorio 1.0.1
pexpect 4.8.0 almohada 11.1.0 pip 25.0.1
platformdirs 4.3.7 plotly 5.24.1 pluggy 1.5.0
prometheus_client 0.21.1 prompt-toolkit 3.0.43 propcache 0.3.1
proto-plus 1.27.0 protobuf 5.29.4 psutil 5.9.0
psycopg2 2.9.11 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 21.0.0 pyasn1 0.4.8 pyasn1-modules 0.2.8
pyccolo 0.0.71 pycparser 2.21 pydantic (una biblioteca de validación de datos en Python) 2.10.6
pydantic_core 2.27.2 pyflakes 3.2.0 Pygments 2.19.1
PyGObject 3.48.2 pyiceberg 0.10.0 PyJWT 2.10.1
pyodbc 5.2.0 pyparsing 3.2.0 pyright 1.1.394
piroaring 1.0.3 pytest 8.3.5 Python-dateutil 2.9.0.post0
python-dotenv 1.2.1 python-json-logger 3.2.1 python-lsp-jsonrpc 1.1.2
python-lsp-servidor 1.12.2 configuración de herramienta Python 1.2.6 pytz 2024.1
PyYAML 6.0.2 pyzmq 26.2.0 Referencia 0.30.2
regex 2024.11.6 solicitudes 2.32.3 requests-toolbelt 1.0.0
rfc3339-validator 0.1.4 rfc3986-validator 0.1.1 rico 13.9.4
cuerda 1.13.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.14.0 scikit-learn 1.6.1 scipy 1.15.3
biblioteca de visualización de datos de Python llamada seaborn 0.13.2 Send2Trash 1.8.2 setuptools 78.1.1
Shellingham 1.5.4 seis 1.17.0 smmap 5.0.0
sniffio 1.3.0 sortedcontainers 2.4.0 soupsieve 2,5
sqlparse 0.5.5 ssh-import-id 5.11 stack-data 0.6.3
Starlette 0.50.0 strictyaml 1.7.3 tenacidad 9.0.0
terminado 0.17.1 threadpoolctl 3.5.0 tiktoken 0.12.0
tinycss2 1.4.0 tokenize_rt 6.1.0 tokenizers 0.22.2
tomli 2.0.1 tornado 6.5.1 tqdm 4.67.1
traitlets 5.14.3 typeguard 4.3.0 typer-slim 0.21.1
types-python-dateutil 2.9.0.20251115 inspección de escritura 0.9.0 typing_extensions 4.12.2
tzdata 2024.1 ujson 5.10.0 unattended-upgrades 0,1
uri-template 1.3.0 urllib3 2.3.0 uuid_utils 0.12.0
uvicorn 0.40.0 virtualenv 20.29.3 wadllib 1.3.6
wcwidth 0.2.5 webcolores 25.10.0 codificaciones web 0.5.1
cliente de websocket 1.8.0 ¿Qué es el parche? 1.0.2 rueda 0.45.1
cuando quiera 0.7.3 widgetsnbextension 3.6.6 envuelto 1.17.0
yapf 0.40.2 yarl 1.18.0 zipp 3.21.0
zstandard 0.23.0

Bibliotecas de R instaladas

Las bibliotecas de R se instalan desde la instantánea de CRAN del Posit Administrador de paquetes el 2025-11-20.

Biblioteca Versión Biblioteca Versión Biblioteca Versión
flecha 22.0.0 askpass 1.2.1 asegúrate de que 0.2.1
backports 1.5.0 base 4.5.1 base64enc 0.1-3
bigD 0.3.1 bit 4.6.0 bit 64 4.6.0-1
bitops 1.0-9 mancha 1.2.4 boot 1.3-30
brew 1.0-10 brio 1.1.5 escoba 1.0.10
bslib 0.9.0 cachemir 1.1.0 callr 3.7.6
caret 7.0-1 cellranger (herramienta de análisis de datos celulares) 1.1.0 chron 2.3-62
clase 7.3-22 Interfaz de línea de comandos (CLI) 3.6.5 clipr 0.8.0
reloj 0.7.3 conglomerado 2.1.6 codetools 0.2-20
commonmark 2.0.0 compilador 4.5.1 configuración 0.3.2
Confuso 1.2.0 cpp11 0.5.2 crayón 1.5.3
credentials 2.0.3 curl 7.0.0 tabla de datos 1.17.8
Conjuntos de datos 4.5.1 DBI 1.2.3 dbplyr 2.5.1
descripción 1.4.3 devtools 2.4.6 diagrama 1.6.5
diffobj 0.3.6 digerir 0.6.39 iluminación descendente 0.4.5
dplyr 1.1.4 dtplyr 1.3.2 e1071 1.7-16
elipsis 0.3.2 evaluar 1.0.5 fans 1.0.7
colores 2.1.2 fastmap 1.2.0 fontawesome 0.5.3
forcats 1.0.1 foreach 1.5.2 extranjero 0,8-86
fs 1.6.6 futuro 1.68.0 aplicación futura 1.20.0
gargle 1.6.0 genéricos 0.1.4 gert 2.2.0
ggplot2 4.0.1 gh 1.5.0 git2r 0.36.2
gitcreds 0.1.2 glmnet 4.1-10 globals 0.18.0
adhesivo 1.8.0 googledrive 2.1.2 googlesheets4 1.1.2
Gower 1.0.2 gráficos 4.5.1 grDevices 4.5.1
cuadrícula 4.5.1 gridExtra 2.3 gsubfn 0.7
gt 1.1.0 gtable 0.3.6 hardhat 1.4.2
refugio 2.5.5 más alto 0.11 hms 1.1.4
herramientas de HTML 0.5.8.1 htmlwidgets 1.6.4 httpuv 1.6.16
httr 1.4.7 httr2 1.2.1 ids 1.0.1
ini 0.3.1 ipred 0.9-15 isoband 0.2.7
Iteradores 1.0.14 jquerylib 0.1.4 jsonlite 2.0.0
juicyjuice 0.1.0 KernSmooth 2.23-22 knitr (paquete de generación de informes dinámicos en R) 1.50
etiquetado 0.4.3 más tarde 1.4.4 retícula 0.22-5
lava 1.8.2 ciclo de vida 1.0.4 listenv 0.10.0
litedown 0.8 lubridate 1.9.4 magrittr 2.0.4
Formato Markdown 2.0 MASA 7.3-60.0.1 Matrix 1.6-5
memorización 2.0.1 métodos 4.5.1 mgcv 1.9-1
mime 0,13 miniUI (Interfaz de Usuario) 0.1.2 mlflow 3.6.0
ModelMetrics 1.2.2.2 modelr 0.1.11 nlme 3.1-164
nnet 7.3-19 numDeriv 2016.8-1.1 openssl (software de cifrado) 2.3.4
otel 0.2.0 paralelo 4.5.1 Paralelamente 1.45.1
pilar 1.11.1 pkgbuild 1.4.8 pkgconfig 2.0.3
pkgdown 2.2.0 pkgload 1.4.1 plogr 0.2.0
plyr 1.8.9 elogio 1.0.0 prettyunits 1.2.0
pROC 1.19.0.1 processx 3.8.6 prodlim 2025.04.28
profvis 0.4.0 progreso 1.2.3 progressr 0.18.0
Promesas 1.5.0 prototipo 1.0.0 intermediario 0.4-27
ps 1.9.1 ronroneo 1.2.0 R6 2.6.1
ragg 1.5.0 Bosque Aleatorio (randomForest) 4.7-1.2 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp 1.1.0
RcppEigen 0.3.4.0.2 r-reactable 0.4.4 reactR 0.6.1
readr 2.1.6 readxl 1.4.5 recetas 1.3.1
partido de revancha 2.0.0 segunda revancha 2.1.2 remotes 2.5.0
ejemplo reproducible 2.1.1 reshape2 1.4.5 rlang 1.1.6
rmarkdown 2,30 RODBC 1.3-26 roxygen2 7.3.3
rpart 4.1.23 rprojroot 2.1.1 Rserve 1.8-15
RSQLite 2.4.4 rstudioapi 0.17.1 rversions 3.0.0
rvest 1.0.5 S7 0.2.1 sass 0.4.10
balanzas 1.4.0 selectr 0.4-2 información de sesión 1.2.3
forma 1.4.6.1 brillante 1.11.1 sourcetools 0.1.7-1
sparklyr 1.9.3 SparkR 4.1.0 sparsevctrs 0.3.4
espacial 7.3-17 splines 4.5.1 sqldf 0.4-11
SQUAREM 2021.1 estadísticas 4.5.1 estadísticas4 4.5.1
stringi 1.8.7 stringr 1.6.0 supervivencia 3.5-8
swagger 5.17.14.1 sys 3.4.3 systemfonts 1.3.1
tcltk 4.5.1 testthat 3.3.0 Formateo de texto 1.0.4
tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 cambio de hora 0.3.0 timeDate 4051.111
tinytex 0.58 herramientas 4.5.1 tzdb 0.5.0
verificador de URL 1.0.1 usa esto 3.2.1 utf8 1.2.6
utils 4.5.1 Identificador Único Universal (UUID) 1.2-1 V8 8.0.1
vctrs 0.6.5 viridisLite 0.4.2 vroom 1.6.6
Waldo 0.6.2 whisker 0.4.1 withr 3.0.2
xfun 0.54 xml2 1.5.0 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 zeallot 0.2.0
archivo comprimido 2.3.3

Bibliotecas de Java y Scala instaladas (versión del clúster de Scala 2.13)

Identificador de grupo Id. de artefacto Versión
antlr antlr 2.7.7
com.clearspring.analytics flujo 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.53.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware kryo-shaded 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml compañero de clase 1.5.1
com.fasterxml.jackson.core jackson-annotations 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.3
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.cafeína cafeína 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil jniloader 1.1
com.github.fommil.netlib referencia_nativa - java 1.1
com.github.fommil.netlib referencia_nativa - java 1.1. nativos
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java 1.1. nativos
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1. nativos
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64 1.1. nativos
com.github.luben zstd-jni 1.5.7-6
com.github.virtuald curvesapi 1.08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.auth google-auth-library-credentials 1.20.0
com.google.auth google-auth-library-oauth2-http 1.20.0
com.google.auto.value anotaciones de valor automático 1.10.4
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson Gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone anotaciones_propensas_a_errores 2.36.0
com.google.flatbuffers flatbuffers-java 25.2.10
com.google.guava failureaccess 1.0.3
com.google.guava guayaba 33.4.8-jre
com.google.http-client google-http-client 1.43.3
com.google.http-client google-http-client-gson 1.43.3
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profiler 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi código fuente_2.13 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) 2.3.10
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre11
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe configuración 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity analizadores de univocidad 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.10.0
commons-codec commons-codec 1.19.0
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.6.0
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.21.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack (software de cálculo numérico) 3.0.4
dev.ludovic.netlib blas 3.0.4
dev.ludovic.netlib lapack 3.0.4
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compresor de aire 2.0.2
io.delta delta-sharing-client_2.13 1.3.10
io.dropwizard.metrics anotación de métricas 4.2.37
io.dropwizard.metrics núcleo de métricas 4.2.37
io.dropwizard.metrics metrics-graphite 4.2.37
io.dropwizard.metrics métricas y verificaciones de salud 4.2.37
io.dropwizard.metrics metrics-jetty10 4.2.37
io.dropwizard.metrics metrics-jmx 4.2.37
io.dropwizard.metrics metrics-json 4.2.37
io.dropwizard.metrics metrics-jvm 4.2.37
io.dropwizard.metrics metrics-servlets 4.2.37
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.2.7.Final
io.netty netty-buffer 4.2.7.Final
io.netty netty-codec 4.2.7.Final
io.netty netty-codec-base 4.2.7.Final
io.netty netty-codec-classes-quic 4.2.7.Final
io.netty netty-codec-compression 4.2.7.Final
io.netty netty-codec-http 4.2.7.Final
io.netty netty-codec-http2 4.2.7.Final
io.netty netty-codec-http3 4.2.7.Final
io.netty serialización de códecs de netty 4.2.7.Final
io.netty netty-codec-native-quic 4.2.7.Final-linux-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-linux-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-windows-x86_64
io.netty netty-codec-protobuf 4.2.7.Final
io.netty netty-codec-socks 4.2.7.Final
io.netty netty-common 4.2.7.Final
io.netty netty-handler 4.2.7.Final
io.netty netty-handler-proxy 4.2.7.Final
io.netty netty-resolver (resolución de netty) 4.2.7.Final
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes 2.0.74.Final
io.netty netty-transport 4.2.7.Final
io.netty netty-transport-classes-epoll 4.2.7.Final
io.netty netty-transport-classes-io_uring 4.2.7.Final
io.netty netty-transport-classes-kqueue 4.2.7.Final
io.netty netty-transport-native-epoll 4.2.7.Final
io.netty netty-transport-native-epoll 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.2.7.Final
io.opencensus opencensus-api 0.31.1
io.opencensus opencensus-contrib-http-util 0.31.1
io.prometheus simpleclient 0.16.1-databricks
io.prometheus cliente_simple_común 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx coleccionista 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activación 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction jta 1.1
javax.transaction API de transacciones 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.14.0
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.sourceforge.f2j arpack_combinado_todo 0,1
org.acplt.remotetea remotetea-oncrpc (servicio de comunicación remota) 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr plantilla de cadenas 3.2.1
org.apache.ant hormiga 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant lanzador de aplicaciones Ant 1.10.11
org.apache.arrow compresión de flecha 18.3.0
org.apache.arrow arrow-format 18.3.0
org.apache.arrow núcleo de memoria de flecha 18.3.0
org.apache.arrow arrow-memory-netty 18.3.0
org.apache.arrow arrow-memory-netty-buffer-patch 18.3.0
org.apache.arrow arrow-vector 18.3.0
org.apache.avro avro 1.12.1
org.apache.avro avro-ipc 1.12.1
org.apache.avro avro-mapred 1.12.1
org.apache.commons commons-collections4 4.5.0
org.apache.commons commons-compress 1.28.0
org.apache.commons commons-configuration2 2.11.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.19.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.14.0
org.apache.curator curador-cliente 5.9.0
org.apache.curator marco de trabajo para curadores 5.9.0
org.apache.curator recetas del curador 5.9.0
org.apache.datasketches datasketches-java 6.2.0
org.apache.datasketches datasketches-memory 3.0.2
org.apache.derby Derbi 10.14.2.0
org.apache.hadoop Entorno de ejecución del cliente de Hadoop 3.4.2
org.apache.hive hive-beeline 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive hive-jdbc 2.3.10
org.apache.hive hive-llap-client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive Hive-shims 2.3.10
org.apache.hive API de almacenamiento de hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims hive-shims-common 2.3.10
org.apache.hive.shims hive-shims-scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy hiedra 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-layout-template-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.2.0-shaded-protobuf
org.apache.orc orc-format 1.1.1-shaded-protobuf
org.apache.orc orc-mapreduce 2.2.0-shaded-protobuf
org.apache.orc calzos de orco 2.2.0
org.apache.poi poi 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4.28
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus Anotaciones de audiencia 0.13.0
org.apache.zookeeper guardián de zoológico 3.9.4
org.apache.zookeeper Zookeeper-Jute 3.9.4
org.checkerframework checker-qual 3.43.0
org.codehaus.janino compilador común 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty Cliente Jetty-ALPN 10.0.26
org.eclipse.jetty jetty-client 10.0.26
org.eclipse.jetty jetty-http 10.0.26
org.eclipse.jetty jetty-io 10.0.26
org.eclipse.jetty jetty-jndi 10.0.26
org.eclipse.jetty jetty-plus 10.0.26
org.eclipse.jetty jetty-proxy 10.0.26
org.eclipse.jetty Seguridad de Jetty 10.0.26
org.eclipse.jetty servidor Jetty 10.0.26
org.eclipse.jetty jetty-servlet 10.0.26
org.eclipse.jetty jetty-servlets 10.0.26
org.eclipse.jetty jetty-util 10.0.26
org.eclipse.jetty Aplicación web de Jetty 10.0.26
org.eclipse.jetty jetty-xml 10.0.26
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers servlet de contenedor de Jersey 2.41
org.glassfish.jersey.containers jersey-container-servlet-core (núcleo del contenedor servlet de Jersey) 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-common 2.41
org.glassfish.jersey.core jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator validador de hibernación 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1.7
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.locationtech.jts jts-core 1.20.0
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.22.1
org.objenesis objenesis 3.4
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.4.0
org.scala-sbt interfaz de prueba 1.0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest compatible con ScalaTest 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1