Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Las notas de la versión siguientes proporcionan información sobre Databricks Runtime 18.2 (Beta).
Esta versión incorpora todas las características, mejoras y correcciones de errores de todas las versiones anteriores de Databricks Runtime. Databricks publicó esta versión en abril de 2026.
Importante
Databricks Runtime 18.2 está en beta. El contenido de los entornos admitidos puede cambiar durante la versión Beta. Los cambios pueden incluir la lista de paquetes o versiones de paquetes instalados.
Cambios de comportamiento
- XPath ya no captura DTD externos
- Conservación de estructuras NULL en INSERT, MERGE y escrituras en flujo con evolución del esquema
- Compatibilidad con NullType (VOID) en tablas delta
- SHOW CREATE TABLE admite vistas de métricas
- Corrección para el problema de eliminación de filas en la unión LATERAL IZQUIERDA EXTERNA JOIN
- NATURAL JOIN respeta la coincidencia de columnas que no distinguen mayúsculas de minúsculas
- Validación de dependencias de UDF de SQL en el catálogo de Unity
- Escrituras optimizadas para tablas de catálogo de Unity con particiones creadas con CRTAS
- Las dependencias de AWS SDK v1 están sombreadas
- Corrección de una autoridad EPSG incorrecta para SRID 102100 definida por ESRI
XPath ya no captura DTD externos
Al evaluar XPath a través de XML, Azure Databricks ya no carga definiciones de tipo de documento (DTD) externas declaradas en el documento. Anteriormente, XPath podía producir un error cuando el XML contenía una referencia de DTD externa que apuntaba a una dirección URL con formato incorrecto o a un punto de conexión inaccesible. Dado que la validación de DTD es independiente de la evaluación de XPath, las consultas que ya se han realizado correctamente devuelven los mismos resultados que antes. Las consultas que anteriormente fallaban solo durante la recuperación de DTD externa ahora pueden tener éxito.
Conservación de estructuras NULL en INSERT, MERGE y escrituras de streaming con evolución del esquema
Para INSERT, MERGE, y las escrituras de streaming que usan la evolución del esquema, una estructura NULL en el origen ahora se almacena como NULL en el destino. Anteriormente, ese valor se materializó incorrectamente como una estructura que no es NULL con cada campo establecido en NULL, mientras que las mismas operaciones sin evolución del esquema conservaron correctamente estructuras NULL. Si el código dependía de recibir una estructura que no sea NULL cuyos campos fueran NULL, actualice el código para controlar una estructura NULL en su lugar.
Compatibilidad con NullType (VOID) en tablas delta
Las tablas Delta ahora admiten columnas de Spark VOID (NullType).
VOID las columnas ya no se quitan del esquema de tabla tras las lecturas. Las operaciones de escritura no se ven afectadas. Consulte VOID el tipo de restricciones sobre dónde VOID pueden aparecer las columnas en el esquema.
SHOW CREATE TABLE admite vistas de métricas
SHOW CREATE TABLE ahora admite vistas de métricas. Anteriormente, al ejecutar este comando en una vista de métrica se produjo un error. La salida de las vistas de métricas incluye el nombre completo compuesto por tres partes, incluyendo el catálogo (por ejemplo, CREATE VIEW catalog.db.my_metric_view ...), lo que facilita recrear la vista de métricas en la ubicación correcta.
Corrección para las filas de colocación LATERAL IZQUIERDA EXTERNA JOIN
Ahora se ha corregido un error que eliminaba filas de las consultas LEFT OUTER JOIN LATERAL de forma incorrecta. Las consultas que usan esta construcción ahora devuelven los resultados correctos. Para revertir temporalmente al comportamiento anterior, establezca spark.databricks.sql.optimizer.lateralJoinPreserveOuterSemantic en true.
NATURAL JOIN respeta la coincidencia de columnas sin distinguir entre mayúsculas y minúsculas
NATURAL JOIN ahora usa correctamente la coincidencia de columnas sin distinguir mayúsculas de minúsculas cuando spark.sql.caseSensitive se establece en false (valor predeterminado). Anteriormente, NATURAL JOIN utilizaba una comparación que diferenciaba entre mayúsculas y minúsculas para identificar columnas comunes, lo que hacía que las columnas que solo se diferenciaban en mayúsculas y minúsculas (por ejemplo, ID frente a id) no se reconocieran como coincidentes. Esto provocaba que NATURAL JOIN produjera de forma silenciosa resultados de combinación cruzada. Esta corrección alinea el NATURAL JOIN comportamiento con USING uniones, que ya manejaba correctamente la insensibilidad a mayúsculas. Las consultas afectadas por este error ahora devuelven resultados correctos con columnas unidas correctamente.
Validación de la dependencia de UDF de SQL en Unity Catalog
El Catálogo de Unity ahora aplica validación de dependencias para funciones de SQL definidas por el usuario (UDF) a fin de prevenir la omisión del control de acceso. Anteriormente, las funciones SQL creadas a través de la API REST podían hacer referencia a las dependencias a las que el usuario no tenía acceso. Las UDF de SQL con configuraciones de dependencia no válidas ahora se bloquean de la ejecución.
Escrituras optimizadas para tablas particionadas de Unity Catalog creadas con CRTAS
Las escrituras optimizadas ahora se aplican correctamente a las tablas de Unity Catalog con particiones creadas con CREATE OR REPLACE TABLE ... AS SELECT (CRTAS). Anteriormente, CRTAS en nuevas tablas de catálogos de Unity con particiones no aplicaba escrituras optimizadas, lo que provocaba un mayor número de archivos pequeños por partición. Esta corrección puede aumentar la latencia de escritura. Para revertir al comportamiento anterior, establezca spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled a false.
Las dependencias de AWS SDK v1 están sombreadas
Las dependencias de AWS SDK v1 agrupadas con Databricks Runtime ahora están sombreadas y ya no están disponibles directamente en la ruta de clase. Si el código depende de las bibliotecas de AWS SDK v1 proporcionadas anteriormente por Databricks Runtime, agréguelas como dependencias explícitas en el proyecto. Este cambio se prepara para la migración a AWS SDK v2, después del final de la compatibilidad de AWS con SDK v1.
Corrección de una autoridad EPSG incorrecta para SRID 102100 definida por ESRI
La asignación del Sistema de referencia de coordenadas (CRS) para SRID 102100 ahora usa ESRI:102100 correctamente en lugar de la incorrecta EPSG:102100. Esta corrección garantiza que los datos geoespaciales se almacenen con la autoridad correcta para mejorar la interoperabilidad con otros sistemas.
Nuevas características y mejoras
- Compatibilidad con CREATE OR REPLACE para tablas temporales
-
agg()alias para lameasure()función - Actualización del controlador JDBC de Snowflake
-
pyspark.pipelines.testingalias de espacio de nombres - Mejora del rendimiento de la lista de Auto Loader
- El historial de tablas delta incluye marcas de opción de escritura
- Compatibilidad con rebobinado y reproducción de Structured Streaming
Compatibilidad con CREATE OR REPLACE para tablas temporales
CREATE OR REPLACE TEMP TABLE Ahora se admite la sintaxis, lo que permite crear o reemplazar tablas temporales en una sola instrucción. Esto elimina la necesidad de quitar y volver a crear tablas temporales explícitamente.
agg() alias para la measure() función
agg() ahora está disponible como alias para la measure() función. Este cambio es totalmente compatible con versiones anteriores. Las consultas existentes que usan measure() siguen funcionando sin modificaciones y agg() generan resultados idénticos cuando se usan con los mismos argumentos.
Actualización del controlador JDBC de Snowflake
El controlador JDBC de Snowflake se actualiza de 3.22.0 a 3.28.0.
pyspark.pipelines.testing alias de espacio de nombres
pyspark.pipelines.testing ahora está disponible como alias de conveniencia para dlt.testing las API. Importe las utilidades de prueba de canalizaciones declarativas de Spark de Lakeflow mediante cualquiera de los espacios de nombres.
Rendimiento mejorado del listado del cargador automático
Auto Loader ahora usa un método de lista más eficaz que mejora la velocidad de enumeración para los orígenes de almacenamiento en la nube. Si los disparadores de flujo se superponen debido a las operaciones de listado de larga duración, esta optimización puede dar lugar a un aumento de los costos de la API de listado en la nube. Monitorea los intervalos de activación y ajusta la programación para evitar operaciones superpuestas si se observan aumentos de costos.
El historial de la tabla Delta incluye marcas de opción de escritura
El historial de la tabla Delta (DESCRIBE HISTORY) ahora incluye marcas de opción de escritura en la columna operationParameters para las operaciones WRITE y REPLACE TABLE. Cuando se habilitan explícitamente las siguientes opciones, aparecen como marcas booleanas en el historial (solo se incluyen cuando true):
Para las operaciones WRITE y REPLACE TABLE :
-
isDynamicPartitionOverwrite: está presente cuando se usó el modo de sobrescritura de particiones dinámicas. -
canOverwriteSchema: está presente cuando se ha habilitado la sobrescritura de esquema (overwriteSchema) -
canMergeSchema: presente cuando se ha habilitado la combinación de esquemas (mergeSchema)
Para operaciones de REPLACE TABLE:
-
predicate: presente cuandoreplaceWherese usó -
isV1WriterSaveAsTableOverwrite: presente cuando se desencadenó el reemplazo mediante una.saveAsTablesobrescritura.
Compatibilidad con rebobinado y reproducción de Structured Streaming
Structured Streaming ahora admite rebobinado y reproducción para canalizaciones de streaming. Esta característica permite volver a procesar desde un punto anterior de la secuencia para recuperarse de errores, como cambios de esquema, datos de entrada con formato incorrecto o errores lógicos, sin necesidad de un restablecimiento de estado completo. Esto no modifica el comportamiento predeterminado de las cargas de trabajo de streaming existentes.
Actualizaciones de bibliotecas
Bibliotecas de Python actualizadas:
No se actualizaron bibliotecas en esta versión.
Bibliotecas de R actualizadas:
No se actualizaron bibliotecas en esta versión.
Bibliotecas de Java actualizadas:
- io.delta.delta-sharing-client_2.13 de 1.3.9 a 1.3.10
Apache Spark
Databricks Runtime 18.2 incluye Apache Spark 4.1.0. Esta versión incluye todas las correcciones y mejoras de Spark incluidas en Databricks Runtime 18.1, así como las siguientes correcciones de errores y mejoras adicionales realizadas en Spark:
- SPARK-56219 Revertir "[SC-225028][PS] Alinear groupby idxmax e idxmin skipna=False behavior with pandas 2/3"
-
SPARK-56204 Quitar
Aliascontenedores de expresiones de fila de tabla insertadas en el analizador - SPARK-56186 Retirar pypy
- SPARK-56202 Refactorización de pruebas de combinación de streaming: división de la jerarquía de Base/Suite y simplificación del envío del modo
- SPARK-56221 Paridad de características entre los comandos spark.catalog.* frente a DDL
-
SPARK-56301 Corrección de errores tipográficos en
error-conditions.json - SPARK-55729 Compatibilidad con el lector de orígenes de datos de estado para el nuevo formato de estado v4 en la combinación de secuencias de transmisión
- SPARK-56256 Adición de emptyDataFrame API a SparkSession
- SPARK-56205 Validación del identificador de punto de control del almacén de estado base antes de confirmar microbatch
- SPARK-55827 Sugerencia de tipo de corrección para los trabajadores de orígenes de datos
- SPARK-55579 Cambiar el nombre de las clases de error de PySpark para que sean independientes del tipo eval
- SPARK-56247 Corregir el comportamiento de reserva y la sugerencia de tipo de inheritable_thread_target
- SPARK-56244 Refinar el diseño de la clase de pruebas comparativas en bench_eval_type.py
- SPARK-56262 Eliminar la desactivación innecesaria de la comprobación de tipos de mypy
- SPARK-55969 regr_r2 debe tratar el primer parámetro como variable dependiente
- SPARK-56179 Consolidación de clases de error para errores de coincidencia de tipos: parte 3
- SPARK-55630 Omitir la actualización de la marca coincidente para el lado no externo en stream-stream join v4
- SPARK-56217 Corrección de excepciones bucketBy en la conexión
- SPARK-56225 Mensaje de error Mejorar vista WITH SCHEMA EVOLUTION
- SPARK-55865 Cambie el nombre de _LEGACY_ERROR_TEMP_1266 a CANNOT_TRUNCATE_EXTERNAL_TABLE
- SPARK-55861 Cambie el nombre de _LEGACY_ERROR_TEMP_2045 a UNSUPPORTED_TABLE_CHANGE
- SPARK-56166 Uso de ArrowBatchTransformer.enforce_schema para reemplazar la lógica de coerción de tipos de columna
- SPARK-56245 Corrección de la asignación de dataFrame.eval en el lugar en pandas 3
- SPARK-56062 Aislar memory_profiler para mejorar el tiempo de importación
- El catálogo de sistema SPARK-55964 predomina sobre el catálogo de usuario para los esquemas BUILTIN y SESSION.
-
SPARK-56226 Captura de errores de análisis antes
InternalFrame.__init__de en.loc - SPARK-55723 Generalización del error de enforce_schema a PySparkTypeError
- SPARK-54878 Adición de la opción sortKeys a to_json función
- SPARK-56219 Alinear el comportamiento de groupby idxmax e idxmin con skipna=False con pandas 2/3.
- SPARK-44065 Optimización de la asimetría de BroadcastHashJoin en OptimizeSkewedJoin
- SPARK-56179 Revert "[SC-225014][PYTHON] Consolidar clases de error para incompatibilidad de tipos - parte 3"
- SPARK-53399 Combinar Python UDFs
- SPARK-56224 Anotaciones de tipo polaco para accumulators.py
- SPARK-55448 Corrección de la pérdida de eventos de consulta cuando se cierra la sesión durante la ejecución de la consulta
- SPARK-55862 Cambie el nombre de _LEGACY_ERROR_TEMP_2027 a UNEXPECTED_OPERATOR_IN_CORRELATED_SUBQUERY
- SPARK-56201 Ejecute pruebas spark-49829 con combinaciones de VCF ahora que StateDataSource lo admite.
- SPARK-56179 Consolidación de clases de error para errores de coincidencia de tipos: parte 3
-
SPARK-56184 Reemplazar
assertpor elSparkRuntimeExceptionadecuado en el análisis de columnas particionadas - SPARK-56206 Corrección de la detección de nombres CTE duplicados que no distinguen mayúsculas de minúsculas
- SPARK-55866 Cambie el nombre de _LEGACY_ERROR_TEMP_2145 a OPTION_VALUE_EXCEEDS_ONE_CHARACTER
- SPARK-56067 Importar psutil de forma perezosa para mejorar la velocidad de importación
- SPARK-56066 Importación diferida de Numpy para mejorar la velocidad de importación
- SPARK-55719 Quitar la advertencia de desuso de spark.sql.hive.convertCTAS
- SPARK-56179 Consolidación de clases de error para desajuste de tipo: parte 2
- SPARK-55510 Actualizar el documento structured-streaming-state-data-source.md para reflejar el uso de deleteRange
- SPARK-56050 Resolver proactivamente IDENTIFIER() con literales de cadena durante el análisis
- SPARK-56151 Mejora de la cadena de presentación CreateVariable
- SPARK-55751 Añadir métricas sobre la carga del almacenamiento de estados desde DFS
- SPARK-56188 Alinear Series.map({}) con el comportamiento de pandas 3 para diccionarios vacíos
- SPARK-55964 Revertir "[SC-223957] el catálogo del sistema precede al catálogo de usuario para BUILTIN y los esquemas de SESIÓN".
- SPARK-55577 Refactorizar SQL_SCALAR_ARROW_ITER_UDF contenedor, asignador y lógica del serializador
- SPARK-55596 Filtrado de estadísticas de partición mejoradas de DSV2
- SPARK-56179 Revertir "[SC-224777][PYTHON] Consolidar las clases de errores para desajuste de tipos: parte 2"
- El catálogo de sistema SPARK-55964 predomina sobre el catálogo de usuario para los esquemas BUILTIN y SESSION.
- SPARK-56050 Revertir "[SC-224153][SQL] Resolver anticipadamente IDENTIFIER() con literales de cadena en tiempo de análisis"
- SPARK-56179 Consolidación de clases de error para desajuste de tipo: parte 2
-
SPARK-56102
UnionEstimationlimpieza de código - SPARK-51712 Tragar throwables no irrecuperables al resolver tablas o vistas en spark.catalog.listTables()
- SPARK-55881 Adición de queryId, errorMessage y rootExecutionId a la API REST de ejecución de SQL
- SPARK-56050 Resolver proactivamente IDENTIFIER() con literales de cadena durante el análisis
- SPARK-55628 Integración del formato de estado de combinación de stream-stream V4
- SPARK-56187 Corrección del manejo de valores nulos en Series.argsort para pandas 3
- SPARK-56167 Alinear astype con el comportamiento de cadena predeterminado de Pandas 3
- SPARK-56018 Usar ruff como formateador
- SPARK-56042 Corrección de métricas de recuento de familias col internas o externas intercambiadas en RocksDBStateStoreProvider
- SPARK-56179 Consolidación de clases de error para errores de coincidencia de tipos: parte 1
- SPARK-56089 Alinear asinh/acosh con el algoritmo fdlibm para la compatibilidad entre motores
- SPARK-55453 Corrección de la coincidencia de patrones LIKE para caracteres Unicode complementarios
- SPARK-52785 Simplificación de la sintaxis super() en PySpark
-
SPARK-56169 Corrección
ClassCastExceptionen los informes de errores cuandoGetStructFieldse cambia el tipo secundario mediante la transformación del plan - SPARK-55557 Las funciones hiperbólicas no deben desbordarse con entradas grandes
- SPARK-47997 Adición del parámetro errors a DataFrame.drop y Series.drop
- SPARK-55008 Mostrar el identificador de consulta en SparkUI
- SPARK-54660 Incorporación del desencadenador RTM a Python
-
SPARK-56047 Propagación
distinctCounta través de Union en la estimación de estadísticas de CBO - SPARK-56111 Agregue SparkContext.isDriver() y úselo en el código base.
- SPARK-55999 Habilitar forceSnapshotUploadOnLag de forma predeterminada
- SPARK-55610 Agregar getExecutorInfos a StatusTracker en Python
- SPARK-55728 Introducir conf para el tamaño del grupo de subprocesos de suma de comprobación de archivos y admitir la deshabilitación del grupo de subprocesos
- SPARK-55686 SizeEstimator se encarga de los encabezados de objeto compactos
- SPARK-56044 HistoryServerDiskManager no elimina la tienda de aplicaciones en versión cuando la aplicación no está en mapa activo
- SPARK-55809 HeapHistogram usa DiagnosticCommandMBean en lugar del subproceso jmap
- SPARK-56122 Uso de la comprobación de tipos numéricos compatibles con pandas en Series.cov
- SPARK-56113 Mejora de la restauración de cadenas de Pandas 3 en pandas-on-Spark
- SPARK-56118 Igualar el manejo de booleanos de Pandas 3.0 en GroupBy.quantile
- SPARK-53823 Implementación de la lista de autorizaciones para el modo en tiempo real
- SPARK-55977 Corrección de isin() para usar coincidencias de tipos estrictas como pandas
- SPARK-54027 Compatibilidad con RTM de origen de Kafka
- SPARK-50284 Cambio de documentos para la función parseJson
-
SPARK-56035 [SQL] Introducción
AggregationValidatora la validación de resoluciónAggregatede paso único - SPARK-55557 Revertir "[SC-223720][SQL] Las funciones hiperbólicas no deben desbordarse con entradas grandes".
- SPARK-56075 Eliminación de un lote de clases de error de Python inactivas
- SPARK-55967 Unificar la conversión de columnas para conectar dataframe
- SPARK-53915 Adición de RealTimeScanExec y capacidad para ejecutar lotes de larga duración
- SPARK-55557 Las funciones hiperbólicas no deben desbordarse con entradas grandes
- SPARK-55147 Delimitar rango de marcas de tiempo para la obtención de unión de intervalos de tiempo en formato de estado V4
- SPARK-56056 Compatibilidad con la generación de perfiles de trabajo más sencilla con viztracer
- SPARK-55948 Adición de la API del conector CDC DSv2, la resolución del analizador y la cláusula SQL CHANGES
- SPARK-54599 Volver a aplicar "[SC-219008][PYTHON] Refactorizar PythonExcept...
- SPARK-55390 Consolidar SQL_SCALAR_ARROW_UDF lógica de contenedor, asignador y serializador
- SPARK-56023 Mejor equilibrio de carga en LowLatencyMemoryStream
- SPARK-55986 Actualizar negro a 26.3.1
- SPARK-55667 Mover check_dependencies a init
- SPARK-55145 Compatibilidad con Avro para codificadores de clave de estado de RocksDB basados en marca de tiempo
- SPARK-53970 Quite la etiqueta "opcional" incorrecta para messageName...
- SPARK-55059 Revertir "[SC-224058][PYTHON] Eliminar solución temporal para tablas vacías en toPandas"
- SPARK-50111 Añadir compatibilidad con subgráficas para gráficos circulares en el backend de Plotly
- SPARK-56081 Alineación del control de idxmax e idxmin NA con pandas 3
- SPARK-56080 Alinear Series.argmax/argmin con control de pandas 3.0 NA
- SPARK-56060 Manejo de la conversión de cadenas nulas de Pandas 3 en describe() para marcos de tiempo vacíos
- SPARK-55059 Eliminación de la solución alternativa de tabla vacía en toPandas
- SPARK-55995 Compatibilidad con TIMESTAMP WITH LOCAL TIME ZONE en la sintaxis SQL
- SPARK-55976 Uso de Set en lugar de Seq para privilegios de escritura
-
SPARK-56073 Simplificación de la compilación de
PythonRunnerConfMap -
SPARK-55887 Manejo especial para
CollectLimitExec/CollectTailExecevitar escaneos completos de tablas - SPARK-55980 Aplicar siempre _cast_back_float en aritmética numérica
- SPARK-55357 Corrección de docstring para timestamp_add
- SPARK-55667 Revertir "[SC-223289][PYTHON][CONNECT] Mover check_dependencies a init"
- SPARK-54285 Revert "[PYTHON] Almacenar en caché la información de la zona horaria para evitar una costosa conversión de marcas de tiempo"
- SPARK-56021 Aumentar el umbral predeterminado de AutoSnapshotRepair maxChangeFileReplay de 50 a 500
- SPARK-55870 Añadir documentación para tipos geográficos
-
SPARK-55962 Usar
getShorten lugar degetInten la conversión enputShortsFromIntsLittleEndianplataformas Little Endian - SPARK-55903 Simplificación de la evolución del esquema MERGE y comprobación de privilegios de escritura
- SPARK-55326 Liberar sesión remota cuando se establece SPARK_CONNECT_RELEASE_SESSION_ON_EXIT
- SPARK-55667 Mover check_dependencies a init
- SPARK-55884 Agregar v1StatsToV2Stats a DataSourceV2Relation
- SPARK-55929 Añadir toString() faltante a TableChange.UpdateColumnDefaultValue
- SPARK-55851 Aclarar los tipos de partición de fuente de datos y lectura de datos
- SPARK-55828 Agregue DSV2 TableChange toString y corrija la clase de error que falta para Merge Into Schema Evolution
- SPARK-55790 Creación de un registro SRS completo mediante datos de PROJ 9.7.1
- SPARK-55645 Añadir serdeName a CatalogStorageFormat
- SPARK-54796 Corrección del NPE causado por la condición de carrera entre la inicialización del ejecutor y la migración aleatoria
- SPARK-55983 Nuevas funcionalidades y correcciones de errores del analizador de paso único
- SPARK-55964 Coherencia de la memoria caché: borrar el registro de funciones en DROP DATABASE
- SPARK-55868 Corrección de la inserción de predicado para InMemoryTable para V2Filters
- SPARK-55973 Optimización leftSemi para la combinación de flujo de flujo
- SPARK-54665 Corrección de la comparación booleana frente a cadenas para que coincida con el comportamiento de Pandas
- SPARK-55539 Permitir la conversión de GeographyType a GeometryType
- SPARK-55695 Evitar el planeamiento doble en operaciones de nivel de fila
- SPARK-55904 Uso de _check_same_session para restringir los tipos
- SPARK-55965 Agregar advertencia cuando pandas >= 3.0.0 se usa con PySpark
- SPARK-55493 [SS] No crear directorios en el registro de compensación o confirmación de puntos de control de transmisión en StateDataSource
- SPARK-55851 Revertir "[SC-223270][PYTHON] Aclarar los tipos de partición y lectura del origen de datos"
- SPARK-55645 Revertir "[SC-221839][SQL] Agregar serdeName a CatalogStorageFormat"
- SPARK-55640 Propagación de errores de análisis de WKB para geometría y geografía
- SPARK-55693 Evite el interbloqueo haciendo que SparkSession.observationManager sea una val no diferida
- SPARK-55528 Adición de compatibilidad con intercalación predeterminada para UDF de SQL
-
SPARK-55860 Usar
UNABLE_TO_INFER_SCHEMAen lugar deUNABLE_TO_INFER_SCHEMA_FOR_DATA_SOURCE - SPARK-55275 Agregar estados sql invalidPlanInput para sql/connect
- SPARK-55645 Añadir serdeName a CatalogStorageFormat
- SPARK-55716 Compatibilidad con la aplicación de restricciones NOT NULL para las inserciones de tabla de origen de archivos V1
- SPARK-53226 Hacer que ClosureCleaner funcione con Java22+
- SPARK-55997 Establecer un límite superior para "prefixScan" en el proveedor de almacenamiento de estado de RocksDB
- SPARK-55851 Aclarar los tipos de partición de fuente de datos y lectura de datos
- SPARK-55954 Quitar la sugerencia de tipo de sobrecarga incorrecta para fillna
- SPARK-56016 Conservar las columnas series con nombre en concat con ignore_index en pandas 3
- SPARK-55502 Unificar el control de errores de conversión de UDF y UDTF Arrow
-
SPARK-55989 Conservar tipos de datos de índice que no son int64 en
restore_index - SPARK-55955 Eliminar indicación de tipo de sobrecarga para eliminar
- SPARK-55945 [SDP] Admite identificadores estructurados para flujos en prototipos de análisis diligentes de SDP
- SPARK-55714 JDK podría producir ArithmeticException sin mensaje
- SPARK-55991 Corrección de la corrupción de texto SQL relacionado con Unicode cuando se utilizan parámetros
- SPARK-55696 Adición de un error explícito a Encoders.bean para la clase de interfaz
- SPARK-55533 Compatibilidad con IGNORE NULLS/RESPECT NULLS para collect_set
- SPARK-55987 Corrección de la extracción de marca de tiempo de unión en ventana V4 mediante findJoinKeyOrdinalForWatermark
- SPARK-55946 Configuración de pandas_priority para que las operaciones binarias mixtas se envíen correctamente a pandas-on-Spark
- SPARK-55264 Adición del comando ExecuteOutput a las canalizaciones de Spark Connect proto
- SPARK-47672 Evitar la doble evaluación del filtro pushDown con pushdown de proyección
- SPARK-55780 Reemplazar el logotipo PNG por SVG en la interfaz de usuario web de Spark
- SPARK-55821 Aplicar argumentos de solo palabra clave en los métodos de inicialización del serializador
- SPARK-55621 Corrección del uso ambiguo e innecesario de Unicode
- SPARK-55662 Implementación del argumento del eje idxmin
- SPARK-55631ALTER TABLE debe invalidar la caché de las tablas DSv2
-
SPARK-55692 Corrección de
SupportsRuntimeFilteringy laSupportsRuntimeV2Filteringdocumentación - SPARK-55928 Nuevo linter para la eficacia de la configuración en vistas y UDF
- SPARK-55440 Marco de tipos: fase 1a- Core Type System Foundation
- SPARK-55631 Revertir "[SC-221596][SQL] ALTER TABLE debe invalidar la caché para las tablas DSv2".
- SPARK-55631ALTER TABLE debe invalidar la caché de las tablas DSv2
-
SPARK-55683 Optimización
VectorizedPlainValuesReader.readUnsignedLongs - SPARK-55892 Corrección que no puede cargar el almacén de estado porque el mantenimiento eliminó el archivo SST reutilizado
- SPARK-55946 Revertir "[SC-223027][PS] Configurar pandas_priority para que las operaciones binarias mixtas se envíen correctamente a pandas-on-Spark".
- SPARK-55891 Conservar el contexto de SQL scripting dentro de EXECUTE IMMEDIATE
- SPARK-55907 Corrección de posiciones de error incorrectas para tipos de datos no válidos en CREATE FUNCTION
- SPARK-55946 Configuración de pandas_priority para que las operaciones binarias mixtas se envíen correctamente a pandas-on-Spark
- SPARK-55694 Restricciones de bloqueo en CTAS/RTAS en el nivel de analizador
-
SPARK-55682 ServiceLoader devuelto iterator puede iniciarse
NoClassDefFoundErrorhasNext() - SPARK-55155 Corregir SETCATALOG para usar caracteres especiales y comillas invertidas en el nombre del identificador
- SPARK-55932 Corrección para que el analizador de variantes XML no se bloquee con una escala negativa
- SPARK-55673 Adición de más pruebas para el codificador de tipos anidados
-
SPARK-55679 Corregir la detección de
sun.io.serialization.extendedDebugInfoen Java 25 - SPARK-55957 Agregar "DATA_SOURCE_NOT_FOUND" en Catalog.ERROR_HANDLING_RULES
- SPARK-55052 Agregar propiedades AQEShuffleRead al árbol de plan físico
-
SPARK-55652 Optimización
VectorizedPlainValuesReader.readShorts()con acceso directo a matrices para búferes de montón -
SPARK-55659 Mejorar
EventLogFileWriterpara registrar la operaciónstop -
SPARK-54666 Dejar los tipos numéricos sin cambios en
to_numeric - SPARK-55654 Habilitar la poda de TreePattern para EliminateSubqueryAliases y ResolveInlineTables
- SPARK-55533 Deshacer "[SC-220538][SQL] Compatibilidad con IGNORE NULLS/RESPECT NULLS para collect_set"
- SPARK-55901 Generar un error en Series.replace() sin argumentos
- SPARK-55896 Usar funciones numpy en lugar de funciones incorporadas
-
SPARK-55655 Hacer
CountVectorizerque el vocabulario sea determinista cuando los recuentos sean iguales -
SPARK-55811 [SQL] Captura
NonFatalen lugar deUnresolvedExceptional invocarnodeWithOutputColumnsString - SPARK-55533 Compatibilidad con IGNORE NULLS/RESPECT NULLS para collect_set
-
SPARK-55435 Usar
StringBuilderen lugar deStringBuffer - SPARK-54807 Permitir nombres cualificados para funciones integradas y de sesión (#198171)
- SPARK-55854 Etiquetar atributos duplicados de paso a través en la salida de Expandir para evitar AMBIGUOUS_REFERENCE
- SPARK-55261 Implementación de la compatibilidad de lectura de Parquet con tipos geográficos
- SPARK-55416 fuga de memoria en la fuente de datos de streaming de Python cuando no se actualiza el desplazamiento final
- SPARK-55465 Compatibilidad con GeometryType en convert_numpy
- SPARK-55801 Corregir la sugerencia de tipo de _SimpleStreamReaderWrapper.getCache
- SPARK-55800 Quitar la comprobación de tipo que no se usa para datetime.date
- SPARK-55663 Unificar módulo para funciones de origen de datos
- SPARK-55665 Unificar cómo los trabajadores establecen conexión con el executor
- SPARK-53446 Optimización de las operaciones de eliminación de BlockManager con asignaciones de bloques en caché
- SPARK-55867 Corrección de stringMethods con pandas 3
- SPARK-55501 Corrección de la diferencia de listagg distinct + dentro del orden del grupo por error
- SPARK-55558 Añadir soporte para las operaciones de conjunto Tuple/Theta
- SPARK-55636 Adición de errores detallados en caso de desduplicación de columnas no válidas
- SPARK-55788 Compatibilidad con ExtensionDType para enteros en UDF de Pandas
- SPARK-55464 Soporte para GeographyType en convert_numpy
- SPARK-55530 Compatibilidad con conjuntos de resultados geográficos en Hive y el servidor Thrift
- SPARK-55525 Corrección de UDTF_ARROW_TYPE_CONVERSION_ERROR con un parámetro de mensaje de error indefinido
- SPARK-55626 No cargue columnas de metadatos en Table a menos que sea necesario en V2TableUtil
- SPARK-55533 Deshacer "[SC-220538][SQL] Compatibilidad con IGNORE NULLS/RESPECT NULLS para collect_set"
-
SPARK-55435 Revertir "[SC-219656][CORE][SQL] Use
StringBuilderen lugar deStringBuffer" - SPARK-55533 Compatibilidad con IGNORE NULLS/RESPECT NULLS para collect_set
-
SPARK-54452 Corrección de una respuesta vacía del servidor SparkConnect para
spark.sql(...)dentro de FlowFunction - SPARK-55638 Refactorización de la serialización WKT en GeometryModel
-
SPARK-55551 Mejorar el particionamiento de la salida de
BroadcastHashJoinExec - SPARK-54314 Mejorar la capacidad de depuración del lado del servidor en Spark Connect mediante la captura del nombre de archivo y el número de línea de la aplicación cliente
-
SPARK-55517 Optimización
VectorizedPlainValuesReader.readBytes()con acceso directo a matrices para búferes de montón -
SPARK-55495 Solución
EventLogFileWriters.closeWriterpara manejarcheckError -
SPARK-55279 Agregar
sketch_funcsgrupo para funciones SQL de DataSketches -
SPARK-55435 Usar
StringBuilderen lugar deStringBuffer - SPARK-55064 Compatibilidad con el reintento aleatorio de nivel de consulta indeterminado
- SPARK-55411 SPJ puede iniciar ArrayIndexOutOfBoundsException cuando las claves de combinación son inferiores a las claves de clúster.
- SPARK-55451 Los cursores deben empezar a recopilar resultados en OPEN, no al primer FETCH.
- SPARK-54687 Añadir más casos extremos con generadores
- SPARK-55691 Cliente GetStatus
-
SPARK-55277 Adición
protobuf_funcsde un grupo para las funciones SQL de Protobuf -
SPARK-55822 Cambiar el nombre
_LEGACY_ERROR_TEMP_0052aCREATE_VIEW_WITH_IF_NOT_EXISTS_AND_REPLACE - SPARK-55236 Solucione una excepción inesperada en algunos casos de prueba de CoarseGrainedExecutorBackendSuite
- SPARK-55275 Cobertura del estado SQL: IllegalStateException
- SPARK-55462 Vuelva a aplicar "[SC-221123][PYTHON] Admita VariantType en convert_numpy"
- SPARK-55062 Compatibilidad con extensiones proto2 en funciones protobuf
-
SPARK-55248 Limpiar el uso de la API en desuso de Jackson en
streaming.checkpointing.Checksum - SPARK-55250 Reducción de las llamadas de cliente de Hive en CREATE NAMESPACE
-
SPARK-55247 Limpieza del uso de la API en desuso relacionado con
o.a.c.io.input.BoundedInputStream - SPARK-55198 spark-sql debe omitir la línea de comentarios con espacios en blanco iniciales
-
SPARK-55826 Cambiar el nombre
_LEGACY_ERROR_TEMP_0006aMERGE_INSERT_VALUE_COUNT_MISMATCH - SPARK-55127 Adición de un grupo de avro_funcs para las funciones de Avro SQL
- SPARK-54914 [SQL] Corrección del operador DROP en la sintaxis de canalización para admitir nombres de columna calificados
-
SPARK-55113
EnsureRequirementsdebe copiar etiquetas - SPARK-55074 Agregar prueba para coerción de tipos ANSI en Merge Into
- SPARK-54217 Sincronización de la decisión de eliminación de MonitorThread de PythonRunner
- SPARK-54374 Ampliar el atributo viewBox del SVG en la inicialización de la visualización del plan SQL
- SPARK-54971 Agregar la sintaxis WITH SCHEMA EVOLUTION para SQL INSERT
- SPARK-55065 Evite realizar dos llamadas API de JDBC
- SPARK-55033 Corregir stringArgs de los comandos de escritura de DSv2
- SPARK-55041 Limpieza de elementos privados sin usar del módulo principal
- SPARK-55338 Centralización de la lógica de descompresión de solicitudes de Spark Connect en el interceptor gRPC
-
SPARK-55825 Cambiar el nombre
_LEGACY_ERROR_TEMP_1309aPARTITION_BY_NOT_ALLOWED_WITH_INSERT_INTO - SPARK-55492 Validar que eventTime en withWatermark es una columna de nivel superior
- SPARK-55802 Corrección del desbordamiento de enteros al calcular los bytes de lotes de Arrow
- SPARK-55694 Restricciones de bloqueo en CTAS/RTAS en el nivel de analizador
- SPARK-55843 Controlar la unidad de datetime64 y timedelta64 dtypes
-
SPARK-55824 Cambiar el nombre
_LEGACY_ERROR_TEMP_1034aWINDOW_FUNCTION_NOT_ALLOWED_IN_CLAUSE - SPARK-55819 Refactorizar ExpandExec para que sea más concisa
- SPARK-55341 Agregar marca de nivel de almacenamiento para las relaciones locales almacenadas en caché
- SPARK-54599 Revert "[SC-219008][PYTHON] Refactorizar PythonException para que pueda tomar errorClass con sqlstate".
- SPARK-46167 Adición de la implementación del eje a DataFrame.rank
- SPARK-54599 Refactorización de PythonException para que pueda tomar errorClass con sqlstate
- SPARK-55529 Volver a aplicar [ES-1721989][SC-220716][PYTHON] Restaurar combinación por lotes a nivel de Arrow para applyInPandas no iterador
-
SPARK-55794 Siempre alias
OuterReference - SPARK-55583 Validar los tipos de esquema de Arrow en la fuente de datos de Python
- SPARK-37711 Reducción del recuento de trabajos de Pandas de O(N) a O(1)
- SPARK-46168 Agregar argumento de eje para idxmax
- SPARK-46162 Implementación de nunique con axis=1
- SPARK-55552 Agregar compatibilidad con VariantType a ColumnarBatchRow.copy() y MutableColumnarRow
-
SPARK-55647 Se ha corregido
ConstantPropagationla sustitución incorrecta de atributos por intercalaciones no estables binarias - SPARK-55747 Corrección de NPE al acceder a elementos de una matriz que es null
-
SPARK-55757 Mejora de la
spark.task.cpusvalidación - SPARK-55699 Lectura incoherente de LowLatencyClock cuando se usa junto con ManualClock
- SPARK-55702 Soporte de predicado de filtro en funciones de agregado de ventana
- SPARK-55510 Corregir deleteRange del almacén de estado de Rocksdb para invocar a changelogWriter
-
SPARK-55739 Optimizar
OnHeapColumnVector.putIntsLittleEndian/putLongsLittleEndianusandoPlatform.copyMemoryen plataformas little-endian - SPARK-55730 No poner en minúsculas la zona horaria
- SPARK-55701 ES-1694761[SS] Corregir la condición de carrera en CompactibleFileStreamLog.allFiles
- SPARK-55462 Revertir "[SC-221123][PYTHON] Soporta VariantType en convert_numpy"
- SPARK-55144 Introducción de una nueva versión de formato de estado para la unión de flujo a flujo eficiente
- SPARK-55606 Implementación del lado servidor de GetStatus API
- SPARK-55462 Compatibilidad con VariantType en convert_numpy
- SPARK-55600 Corrección de pandas en flecha pierde el recuento de filas cuando el esquema tiene 0 columnas en el modelo clásico
- SPARK-55700 Corrección del control de claves de enteros en series con índice no entero
- SPARK-55349 Consolidación de utilidades de conversión de pandas a Arrow en serializadores
- SPARK-55681 Corregir la igualdad del tipo de dato único después de la deserialización (reintento)
- SPARK-55681 Revertir "[SC-221427][SC-214079][SQL] Corregir la igualdad singleton DataType después de la deserialización"
- SPARK-55681 Corrige la igualdad de DataType singleton después de la deserialización
- SPARK-55674 Optimización de la conversión de tablas de 0 columnas en Spark Connect
- SPARK-55323 Volver a aplicar "[SC-218885][PYTHON] Mover metadatos de UDF a EvalConf para simplificar el protocolo de trabajo"
- SPARK-55322 Volver a aplicar [SC-221062][SQL] MaxBy y MinBy Overload con elementos K
- SPARK-55323 Revertir "[SC-218885][PYTHON] Mover metadatos de UDF a EvalConf para simplificar el protocolo de trabajo"
- SPARK-55615 Mover la importación de SparkContext a la rama de clase
- SPARK-55323 Traslado de metadatos de UDF a EvalConf para simplificar el protocolo de trabajo
- SPARK-55648 Manejar un error de argumento de palabra clave inesperado con pandas 3
-
SPARK-55647 Revertir "[SC-221274][SQL] Corregir
ConstantPropagationel reemplazo incorrecto de atributos por intercalaciones no estables binarias" - SPARK-55646 Se realizó una refactorización de SQLExecution.withThreadLocalCaptured para separar la captura de variables locales de subproceso de la ejecución.
- SPARK-54854 Agregar un identificador de consulta UUIDv7 a eventos de SQLExecution
- SPARK-55619 Corrección de métricas personalizadas en caso de particiones fusionadas
-
SPARK-55647 Se ha corregido
ConstantPropagationla sustitución incorrecta de atributos por intercalaciones no estables binarias -
SPARK-55322 Revertir "[SC-221062][SQL]
MaxByyMinBySobrecarga con elementos K" - SPARK-54740 Iniciar faulthandler al principio del modo de demonio
- SPARK-55493 [SS] No crear directorios (mkdirs) en el directorio de estado del punto de control de streaming en StateDataSource
-
SPARK-55322
MaxByyMinBySobrecarga con elementos K -
SPARK-55625 Corrección de StringOps para que
strdtype funcione correctamente - SPARK-55161 Reaplicar "[SC-218867][PYTHON] Soporte para generadores de perfiles en la fuente de datos de Python"
- SPARK-55505 Corrección del NPE en la lectura de EXECUTION_ROOT_ID_KEY en escenarios concurrentes
- SPARK-55111 Volver a comprobar la detección de reparticiones sin terminar en el reinicio de la consulta
- SPARK-55593 Unificar el estado de agregación para vector_avg/vector_sum
-
SPARK-55500 Corregir el ciclo del analizador entre
ApplyDefaultCollation,ExtractWindowExpressionsyCollationTypeCasts - SPARK-55494 Introducción de iterador/prefixScan con varios valores en StateStore API
- SPARK-55561 Adición de reintentos para todos los métodos de cliente de administración de Kafka
- SPARK-55296 Compatibilidad con el modo CoW con pandas 3
- SPARK-55479 Corrección de problemas de estilo en SparkShreddingUtils
- SPARK-55372 Corrección de SHOW CREATE TABLE para tablas o vistas con intercalación predeterminada
-
SPARK-55333 Habilitar
DateTypeyTimeTypeenconvert_numpy - SPARK-55129 Introducir nuevos codificadores de clave para la marca de tiempo como una primera clase (UnsafeRow)
- SPARK-46163 Parámetros filter_func y errores en DataFrame.update
- SPARK-55372 Revertir "[SC-220571][SQL] Corrección SHOW CREATE TABLE para tablas y vistas con intercalación predeterminada"
- SPARK-55480 Quitar todos los noqa sin usar para la trufa
- SPARK-55471 Adición de compatibilidad del optimizador para SequentialStreamingUnion
- SPARK-55584 Producir un mejor error en la subconsulta escalar para EXEC IMMEDIATE
- SPARK-55161 Revertir "[SC-218867][PYTHON] Soporte para generadores de perfiles en la fuente de datos de Python"
-
SPARK-55506 Pasar esquema de entrada explícito a
to_pandasenCogroupPandasUDFSerializer -
SPARK-55586 Agregar
jdbc.pyejemplo - SPARK-55161 Generadores de perfiles de soporte técnico en el origen de datos de Python
- SPARK-55529 Revertir "[SC-220716][PYTHON] Restaurar combinación por lotes de nivel de flecha para applyInPandas que no son iteradores"
-
SPARK-55385 Mitigación de la recomputación en
zipWithIndex - SPARK-55529 Restaurar combinación de lotes de nivel de flecha para applyInPandas que no son iteradores
- SPARK-55389 Consolidar la lógica de envoltorio, mapeador y serializador
- SPARK-55406 Reimplementar el grupo de hilos para ExecutePlanResponseReattachableIterator
-
SPARK-55372 Solución
SHOW CREATE TABLEpara tablas o vistas con intercalación predeterminada - SPARK-55367 Uso de venv para run-pip-tests
- SPARK-55355 Actualización de la versión de mypy a la versión más reciente
- SPARK-55460 Quitar E203 de la lista de ignorados de ruff
- SPARK-55541 Compatibilidad con geometría y geografía en convertidores de tipos de catalizador
- SPARK-55449 Habilitación del análisis y escritura de WKB para Geography
- SPARK-55339 Implementación de la compatibilidad con el escritor WKT para objetos geo
- SPARK-54122 Implementación de TwsTester en Scala
- SPARK-54805 Implementación de TwsTester en PySpark
- SPARK-55256 Vuelva a aplicar "[SC-218596][SQL] Admita IGNORE NULLS/RESPECT NULLS para array_agg y collect_list"
-
SPARK-55156 Tratar con
include_groupsparagroupby.apply - SPARK-55401 Adición de lógica de reintento y control de tiempo de espera a la descarga de instalación de pyspark
- SPARK-55229 Implementación de DataFrame.zipWithIndex en PySpark
- SPARK-55462 Compatibilidad con UserDefinedType en convert_numpy
- SPARK-55483 Corrección de NPE en PivotFirst cuando la columna dinámica es un tipo no atómico con valores NULL
-
SPARK-55490 Incluir
groupby(as_index=False)una agrupación que no está en el DataFrame con pandas 3 - SPARK-55473 Reemplace itertools.tee por cadena en applyInPandasWithState
- SPARK-55404 Generar siempre KeyboardInterrupt desde el controlador SIGINT
- SPARK-55407 Reemplace logger.warn por logger.warning
Compatibilidad con el controlador ODBC/JDBC de Databricks
Databricks admite controladores ODBC/JDBC publicados en los últimos 2 años. Descargue los controladores publicados recientemente y actualice (descargue ODBC, descargue JDBC).
Entorno del sistema
- Sistema operativo: Ubuntu 24.04.4 LTS
- Java: Zulu21.48+15-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.1.0
Bibliotecas de Python instaladas
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | aiohttp | 3.11.10 | aiosignal | 1.2.0 |
| documento anotado | 0.0.4 | tipos con anotaciones | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | arro3-core | 0.6.5 |
| flecha | 1.3.0 | "asttokens" | 3.0.0 | astunparse | 1.6.3 |
| async-lru | 2.0.4 | atributos | 24.3.0 | comando automático | 2.2.2 |
| azure-common | 1.1.28 | azure-core | 1.37.0 | azure-identity | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | azure-storage-blob | 12.28.0 |
| azure-storage-file-datalake (servicio para el almacenamiento de archivos en un lago de datos) | 12.22.0 | Babel | 2.16.0 | backports.tarfile | 1.2.0 |
| beautifulsoup4 | 4.12.3 | negro | 24.10.0 | blanquear | 6.2.0 |
| intermitente | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| cachetools | 5.5.1 | certifi | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | normalizador de conjuntos de caracteres | 3.3.2 | Haz clic | 8.1.8 |
| cloudpickle | 3.0.0 | Comunicación | 0.2.1 | contourpy | 1.3.1 |
| criptografía | 44.0.1 | ciclista | 0.11.0 | Cython | 3.1.5 |
| databricks-agents | 1.9.1 | databricks-sdk (kit de desarrollo de software de Databricks) | 0.67.0 | dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | decorador (en contexto técnico, "decorator" es un patrón de diseño) | 5.1.1 |
| defusedxml | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| distlib | 0.3.9 | Conversión de docstring a markdown | 0.11 | executing | 1.2.0 |
| visión general de las facetas | 1.1.1 | fastapi | 0.128.0 | fastjsonschema | 2.21.1 |
| bloqueo de archivos | 3.17.0 | fonttools | 4.55.3 | fqdn (nombre de dominio completo) | 1.5.1 |
| frozenlist | 1.5.0 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | google-auth | 2.47.0 |
| google-cloud-core | 2.5.0 | Google Cloud Storage (almacenamiento en la nube de Google) | 3.7.0 | google-crc32c | 1.8.0 |
| google-resumable-media (medios reanudables de Google) | 2.8.0 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | hf-xet | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | idna | 3.7 | importlib_metadata | 8.5.0 |
| inflect | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | isoduration | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | Jedi | 0.19.2 | Jinja2 | 3.1.6 |
| jiter | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | jsonschema-specifications | 2023.7.1 | jupyter_events | 0.12.0 |
| jupyter-lsp | 2.2.5 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| jupyter_server | 2.15.0 | jupyter_server_terminals | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server (servidor de JupyterLab) | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver | 1.4.8 | langchain-core | 1.2.6 | langchain-openai | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | malvavisco | 3.26.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | Mccabe | 0.7.0 | mdurl | 0.1.0 |
| mistune | 3.1.2 | mlflow-skinny | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | msal | 1.34.0 | msal-extensions | 1.3.1 |
| Multidic | 6.1.0 | mypy-extensions | 1.0.0 | nbclient | 0.10.2 |
| nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | notebook | 7.3.2 | notebook_shim | 0.2.4 |
| numpy | 2.1.3 | oauthlib | 3.2.2 | openai | 2.14.0 |
| opentelemetry-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.39.1 |
| convenciones-semánticas-de-opentelemetry | 0.60b1 | orjson | 3.11.5 | Anula | 7.4.0 |
| embalaje | 24,2 | Pandas | 2.2.3 | pandocfilters | 1.5.0 |
| parso | 0.8.4 | especificación de ruta (pathspec) | 0.10.3 | chivo expiatorio | 1.0.1 |
| pexpect | 4.8.0 | almohada | 11.1.0 | pip | 25.0.1 |
| platformdirs | 4.3.7 | plotly | 5.24.1 | pluggy | 1.5.0 |
| prometheus_client | 0.21.1 | prompt-toolkit | 3.0.43 | propcache | 0.3.1 |
| proto-plus | 1.27.0 | protobuf | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.71 | pycparser | 2.21 | pydantic (una biblioteca de validación de datos en Python) | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Pygments | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | pyright | 1.1.394 |
| piroaring | 1.0.3 | pytest | 8.3.5 | Python-dateutil | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-servidor | 1.12.2 | configuración de herramienta Python | 1.2.6 | pytz | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | Referencia | 0.30.2 |
| regex | 2024.11.6 | solicitudes | 2.32.3 | requests-toolbelt | 1.0.0 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | rico | 13.9.4 |
| cuerda | 1.13.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn | 1.6.1 | scipy | 1.15.3 |
| biblioteca de visualización de datos de Python llamada seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools | 78.1.1 |
| Shellingham | 1.5.4 | seis | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | sortedcontainers | 2.4.0 | soupsieve | 2,5 |
| sqlparse | 0.5.5 | ssh-import-id | 5.11 | stack-data | 0.6.3 |
| Starlette | 0.50.0 | strictyaml | 1.7.3 | tenacidad | 9.0.0 |
| terminado | 0.17.1 | threadpoolctl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | tokenizers | 0.22.2 |
| tomli | 2.0.1 | tornado | 6.5.1 | tqdm | 4.67.1 |
| traitlets | 5.14.3 | typeguard | 4.3.0 | typer-slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | inspección de escritura | 0.9.0 | typing_extensions | 4.12.2 |
| tzdata | 2024.1 | ujson | 5.10.0 | unattended-upgrades | 0,1 |
| uri-template | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth | 0.2.5 | webcolores | 25.10.0 | codificaciones web | 0.5.1 |
| cliente de websocket | 1.8.0 | ¿Qué es el parche? | 1.0.2 | rueda | 0.45.1 |
| cuando quiera | 0.7.3 | widgetsnbextension | 3.6.6 | envuelto | 1.17.0 |
| yapf | 0.40.2 | yarl | 1.18.0 | zipp | 3.21.0 |
| zstandard | 0.23.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea de CRAN del Posit Administrador de paquetes el 2025-11-20.
| Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
|---|---|---|---|---|---|
| flecha | 22.0.0 | askpass | 1.2.1 | asegúrate de que | 0.2.1 |
| backports | 1.5.0 | base | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | bit | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | mancha | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | escoba | 1.0.10 |
| bslib | 0.9.0 | cachemir | 1.1.0 | callr | 3.7.6 |
| caret | 7.0-1 | cellranger (herramienta de análisis de datos celulares) | 1.1.0 | chron | 2.3-62 |
| clase | 7.3-22 | Interfaz de línea de comandos (CLI) | 3.6.5 | clipr | 0.8.0 |
| reloj | 0.7.3 | conglomerado | 2.1.6 | codetools | 0.2-20 |
| commonmark | 2.0.0 | compilador | 4.5.1 | configuración | 0.3.2 |
| Confuso | 1.2.0 | cpp11 | 0.5.2 | crayón | 1.5.3 |
| credentials | 2.0.3 | curl | 7.0.0 | tabla de datos | 1.17.8 |
| Conjuntos de datos | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| descripción | 1.4.3 | devtools | 2.4.6 | diagrama | 1.6.5 |
| diffobj | 0.3.6 | digerir | 0.6.39 | iluminación descendente | 0.4.5 |
| dplyr | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| elipsis | 0.3.2 | evaluar | 1.0.5 | fans | 1.0.7 |
| colores | 2.1.2 | fastmap | 1.2.0 | fontawesome | 0.5.3 |
| forcats | 1.0.1 | foreach | 1.5.2 | extranjero | 0,8-86 |
| fs | 1.6.6 | futuro | 1.68.0 | aplicación futura | 1.20.0 |
| gargle | 1.6.0 | genéricos | 0.1.4 | gert | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | globals | 0.18.0 |
| adhesivo | 1.8.0 | googledrive | 2.1.2 | googlesheets4 | 1.1.2 |
| Gower | 1.0.2 | gráficos | 4.5.1 | grDevices | 4.5.1 |
| cuadrícula | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | gtable | 0.3.6 | hardhat | 1.4.2 |
| refugio | 2.5.5 | más alto | 0.11 | hms | 1.1.4 |
| herramientas de HTML | 0.5.8.1 | htmlwidgets | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | ids | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-15 | isoband | 0.2.7 |
| Iteradores | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| juicyjuice | 0.1.0 | KernSmooth | 2.23-22 | knitr (paquete de generación de informes dinámicos en R) | 1.50 |
| etiquetado | 0.4.3 | más tarde | 1.4.4 | retícula | 0.22-5 |
| lava | 1.8.2 | ciclo de vida | 1.0.4 | listenv | 0.10.0 |
| litedown | 0.8 | lubridate | 1.9.4 | magrittr | 2.0.4 |
| Formato Markdown | 2.0 | MASA | 7.3-60.0.1 | Matrix | 1.6-5 |
| memorización | 2.0.1 | métodos | 4.5.1 | mgcv | 1.9-1 |
| mime | 0,13 | miniUI (Interfaz de Usuario) | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modelr | 0.1.11 | nlme | 3.1-164 |
| nnet | 7.3-19 | numDeriv | 2016.8-1.1 | openssl (software de cifrado) | 2.3.4 |
| otel | 0.2.0 | paralelo | 4.5.1 | Paralelamente | 1.45.1 |
| pilar | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| plyr | 1.8.9 | elogio | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | processx | 3.8.6 | prodlim | 2025.04.28 |
| profvis | 0.4.0 | progreso | 1.2.3 | progressr | 0.18.0 |
| Promesas | 1.5.0 | prototipo | 1.0.0 | intermediario | 0.4-27 |
| ps | 1.9.1 | ronroneo | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | Bosque Aleatorio (randomForest) | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | r-reactable | 0.4.4 | reactR | 0.6.1 |
| readr | 2.1.6 | readxl | 1.4.5 | recetas | 1.3.1 |
| partido de revancha | 2.0.0 | segunda revancha | 2.1.2 | remotes | 2.5.0 |
| ejemplo reproducible | 2.1.1 | reshape2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2,30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1.8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| rvest | 1.0.5 | S7 | 0.2.1 | sass | 0.4.10 |
| balanzas | 1.4.0 | selectr | 0.4-2 | información de sesión | 1.2.3 |
| forma | 1.4.6.1 | brillante | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| espacial | 7.3-17 | splines | 4.5.1 | sqldf | 0.4-11 |
| SQUAREM | 2021.1 | estadísticas | 4.5.1 | estadísticas4 | 4.5.1 |
| stringi | 1.8.7 | stringr | 1.6.0 | supervivencia | 3.5-8 |
| swagger | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| tcltk | 4.5.1 | testthat | 3.3.0 | Formateo de texto | 1.0.4 |
| tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | cambio de hora | 0.3.0 | timeDate | 4051.111 |
| tinytex | 0.58 | herramientas | 4.5.1 | tzdb | 0.5.0 |
| verificador de URL | 1.0.1 | usa esto | 3.2.1 | utf8 | 1.2.6 |
| utils | 4.5.1 | Identificador Único Universal (UUID) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vroom | 1.6.6 |
| Waldo | 0.6.2 | whisker | 0.4.1 | withr | 3.0.2 |
| xfun | 0.54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.2.0 |
| archivo comprimido | 2.3.3 |
Bibliotecas de Java y Scala instaladas (versión del clúster de Scala 2.13)
| Identificador de grupo | Id. de artefacto | Versión |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.clearspring.analytics | flujo | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | kryo-shaded | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compañero de clase | 1.5.1 |
| com.fasterxml.jackson.core | jackson-annotations | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.cafeína | cafeína | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | referencia_nativa - java | 1.1 |
| com.github.fommil.netlib | referencia_nativa - java | 1.1. nativos |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1. nativos |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1. nativos |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1. nativos |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1.08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-auth-library-credentials | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | anotaciones de valor automático | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | anotaciones_propensas_a_errores | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | failureaccess | 1.0.3 |
| com.google.guava | guayaba | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profiler | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | código fuente_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK de Azure para almacenamiento en lago de datos) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | configuración | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | analizadores de univocidad | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack (software de cálculo numérico) | 3.0.4 |
| dev.ludovic.netlib | blas | 3.0.4 |
| dev.ludovic.netlib | lapack | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compresor de aire | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.10 |
| io.dropwizard.metrics | anotación de métricas | 4.2.37 |
| io.dropwizard.metrics | núcleo de métricas | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | métricas y verificaciones de salud | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | metrics-jmx | 4.2.37 |
| io.dropwizard.metrics | metrics-json | 4.2.37 |
| io.dropwizard.metrics | metrics-jvm | 4.2.37 |
| io.dropwizard.metrics | metrics-servlets | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.2.7.Final |
| io.netty | netty-buffer | 4.2.7.Final |
| io.netty | netty-codec | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | netty-codec-http | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | serialización de códecs de netty | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-socks | 4.2.7.Final |
| io.netty | netty-common | 4.2.7.Final |
| io.netty | netty-handler | 4.2.7.Final |
| io.netty | netty-handler-proxy | 4.2.7.Final |
| io.netty | netty-resolver (resolución de netty) | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | cliente_simple_común | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | coleccionista | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | activación | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | jta | 1.1 |
| javax.transaction | API de transacciones | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combinado_todo | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc (servicio de comunicación remota) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | plantilla de cadenas | 3.2.1 |
| org.apache.ant | hormiga | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | lanzador de aplicaciones Ant | 1.10.11 |
| org.apache.arrow | compresión de flecha | 18.3.0 |
| org.apache.arrow | arrow-format | 18.3.0 |
| org.apache.arrow | núcleo de memoria de flecha | 18.3.0 |
| org.apache.arrow | arrow-memory-netty | 18.3.0 |
| org.apache.arrow | arrow-memory-netty-buffer-patch | 18.3.0 |
| org.apache.arrow | arrow-vector | 18.3.0 |
| org.apache.avro | avro | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | commons-compress | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.14.0 |
| org.apache.curator | curador-cliente | 5.9.0 |
| org.apache.curator | marco de trabajo para curadores | 5.9.0 |
| org.apache.curator | recetas del curador | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | Derbi | 10.14.2.0 |
| org.apache.hadoop | Entorno de ejecución del cliente de Hadoop | 3.4.2 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | Hive-shims | 2.3.10 |
| org.apache.hive | API de almacenamiento de hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | hiedra | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-format | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | calzos de orco | 2.2.0 |
| org.apache.poi | poi | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | Anotaciones de audiencia | 0.13.0 |
| org.apache.zookeeper | guardián de zoológico | 3.9.4 |
| org.apache.zookeeper | Zookeeper-Jute | 3.9.4 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | compilador común | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | Cliente Jetty-ALPN | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | jetty-http | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | jetty-plus | 10.0.26 |
| org.eclipse.jetty | jetty-proxy | 10.0.26 |
| org.eclipse.jetty | Seguridad de Jetty | 10.0.26 |
| org.eclipse.jetty | servidor Jetty | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | jetty-util | 10.0.26 |
| org.eclipse.jetty | Aplicación web de Jetty | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | servlet de contenedor de Jersey | 2.41 |
| org.glassfish.jersey.containers | jersey-container-servlet-core (núcleo del contenedor servlet de Jersey) | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-common | 2.41 |
| org.glassfish.jersey.core | jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | validador de hibernación | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | interfaz de prueba | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatible con ScalaTest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |