Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
В следующих заметках о выпуске содержатся сведения о Databricks Runtime 18.2 (бета-версия).
Эта версия включает все функции, улучшения и исправления ошибок из всех предыдущих выпусков Databricks Runtime. Databricks выпустила эту версию в апреле 2026 года.
Это важно
Databricks Runtime 18.2 находится в бета-версии. Содержимое поддерживаемых сред может измениться во время бета-версии. Изменения могут включать список пакетов или версий установленных пакетов.
Изменения поведения
- XPath больше не извлекает внешние DTD
- Сохранение структуры NULL в INSERT, MERGE и потоковой записи с помощью эволюции схемы
- Поддержка NullType (VOID) в таблицах Delta
- SHOW CREATE TABLE поддерживает представления метрик
- Исправление для удаления строк ВЛЕВО ВНЕШНЕГО JOIN БОКОВОГО
- NATURAL JOIN осуществляет сопоставление столбцов без учета регистра
- Проверка зависимостей UDF SQL в каталоге Unity
- Оптимизированные записи для секционированных таблиц каталога Unity Catalog, созданных с помощью CRTAS
- Зависимости пакета SDK ДЛЯ AWS версии 1 оттеняются
- Исправлена неверная ссылка на орган EPSG для определенного ESRI SRID 102100
XPath больше не извлекает внешние DTD
При вычислении XPath по XML Azure Databricks больше не загружает определения внешних типов документов (DTD), объявленные в документе. Ранее XPath могла завершиться ошибкой, если XML-файл содержал внешнюю ссылку DTD, указывающую на неправильный URL-адрес или недоступную конечную точку. Так как проверка DTD отличается от оценки XPath, запросы, которые уже успешно возвращают те же результаты, что и раньше. Запросы, которые ранее не удавалось выполнить лишь при извлечении внешнего DTD, теперь могут завершиться успешно.
Сохранение структуры NULL в INSERT, MERGE и потоковой записи при изменении схемы
Для INSERT, MERGE, и потоковых записей, использующих эволюцию схемы, структура NULL в источнике теперь сохраняется как NULL в целевой системе. Ранее это значение было неправильно материализовано в виде структуры, отличной от NULL, при этом каждое поле имеет значение NULL, в то время как те же операции без эволюции схемы правильно сохранили структуры NULL. Если ваш код полагался на получение структуры с ненулевым значением, но все её поля были NULL, обновите код для обработки структуры со значением NULL.
Поддержка NullType (VOID) в таблицах Delta
Теперь таблицы Delta поддерживают столбцы VOID (Spark NullType).
VOID Столбцы больше не удаляются из схемы таблицы при чтении. На записи это не влияет. См. VOID тип для ограничений на размещение VOID столбцов в схеме.
SHOW CREATE TABLE поддерживает представления метрик
SHOW CREATE TABLE теперь поддерживает представления метрик. Ранее выполнение этой команды в представлении метрик вызвало ошибку. Выходные данные для представлений метрик включают полное трехкомпонентное имя с указанием каталога (например, CREATE VIEW catalog.db.my_metric_view ...), что упрощает повторное создание представления метрик в правильном месте.
Исправление для ЛЕВОГО ВНЕШНЕГО JOIN ЛАТЕРАЛЬНОГО, устраняющее проблему с удалением строк
Исправлена ошибка, которая неправильно сбрасывала строки из LEFT OUTER JOIN LATERAL запросов. Запросы, использующие эту конструкцию, теперь возвращают правильные результаты. Чтобы временно вернуться к предыдущему поведению, задайте значение spark.databricks.sql.optimizer.lateralJoinPreserveOuterSemantictrue.
NATURAL JOIN учитывает сопоставление столбцов без учета регистра
NATURAL JOIN теперь правильно использует сопоставление столбцов без учета регистра, если для spark.sql.caseSensitive установлено значение false (по умолчанию). Ранее NATURAL JOIN использовалось сравнение с учетом регистра для определения общих столбцов, из-за чего столбцы, различающиеся только регистром (например, ID и id), не признавались совпадающими. Это привело к неявному получению NATURAL JOIN результатов перекрёстного соединения. Это исправление выравнивает NATURAL JOIN поведение с USING соединениями, которые уже правильно обрабатывают нечувствительность регистра. Запросы, затронутые этой ошибкой, теперь возвращают правильные результаты с правильно присоединенными столбцами.
Проверка зависимостей UDF SQL в каталоге Unity
Каталог Unity теперь применяет проверку зависимостей для определяемых пользователем функций SQL ,чтобы предотвратить обход управления доступом. Ранее функции SQL, созданные с помощью REST API, могли ссылаться на зависимости, к которых пользователь не получил доступа. Теперь выполнение пользовательских функций SQL (UDF) с недопустимыми конфигурациями зависимостей блокируется.
Оптимизированные записи для секционированных таблиц каталога Unity, созданных с помощью CRTAS
Оптимизированная запись теперь правильно применяется к секционированных таблицам каталога Unity, созданным с помощью CREATE OR REPLACE TABLE ... AS SELECT CRTAS. Ранее CRTAS в новых секционированных таблицах каталога Unity не применял оптимизированные записи, что привело к более высокому количеству небольших файлов на секцию. Это исправление может увеличить задержку записи. Чтобы вернуться к предыдущему поведению, установите значение spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabledfalse.
Зависимости пакета SDK ДЛЯ AWS версии 1 оттеняются
Пакеты SDK для AWS версии 1, поставляемые с Databricks Runtime, теперь инкапсулированы и больше недоступны непосредственно на класс-пасе. Если ваш код зависит от библиотек SDK AWS версии 1, ранее предоставляемых Databricks Runtime, добавьте их в качестве явных зависимостей в проекте. Это изменение готовится к миграции в пакет SDK AWS версии 2 после окончания поддержки AWS для пакета SDK версии 1.
Исправлен неправильный код органа EPSG для установленного ESRI SRID 102100.
Система сопоставления эталонной системы координат (CRS) для SRID 102100 теперь правильно использует ESRI:102100 вместо неправильного EPSG:102100. Это исправление гарантирует, что геопространственные данные хранятся с правильным органом власти для улучшения взаимодействия с другими системами.
Новые функции и улучшения
- Поддержка CREATE OR REPLACE для временных таблиц
-
agg()псевдоним функцииmeasure() - Обновление JDBC-драйвера Snowflake
-
pyspark.pipelines.testingПсевдоним пространства имен - Улучшена производительность списков в автозагрузчике
- История таблицы Delta включает флаги опций записи
- Поддержка перемотки и воспроизведения структурированной потоковой передачи
Поддержка CREATE OR REPLACE для временных таблиц
CREATE OR REPLACE TEMP TABLE Теперь поддерживается синтаксис, позволяющий создавать или заменять временные таблицы в одной инструкции. Это устраняет необходимость явного удаления и повторного создания временных таблиц.
agg() псевдоним для функции measure()
agg() теперь доступен в качестве псевдонима measure() для функции. Это изменение полностью обратно совместимо. Существующие запросы, которые используют measure(), продолжают работать без изменений, и agg() производит идентичные результаты при использовании с теми же аргументами.
Обновление драйвера JDBC Snowflake
Драйвер Snowflake JDBC обновляется с 3.22.0 до 3.28.0.
pyspark.pipelines.testing Псевдоним пространства имен
pyspark.pipelines.testing теперь доступен в качестве удобного псевдонима для dlt.testing API. Импортируйте утилиты тестирования декларативных конвейеров Lakeflow Spark через любое пространство имен.
Улучшена производительность автозагрузчика
Автозагрузчик теперь использует более эффективный метод перечисления, который повышает скорость перечисления для источников облачного хранилища. Если триггеры вашего потока перекрываются из-за длительных операций перечисления, эта оптимизация может привести к увеличению затрат на использование облачного API для перечисления. Отслеживайте интервалы триггеров и настройте планирование, чтобы предотвратить перекрывающиеся операции, если наблюдается увеличение затрат.
Журнал таблиц Delta включает флаги параметров записи
Журнал разностных таблиц (DESCRIBE HISTORY) теперь включает флаги параметра записи в столбце operationParameters для WRITE и REPLACE TABLE операций. Если указанные ниже параметры явно включены, они отображаются как логические флаги в журнале (только если true):
Для операций WRITE и REPLACE TABLE:
-
isDynamicPartitionOverwrite: присутствует при использовании режима динамической перезаписи секции -
canOverwriteSchema: присутствует при включении перезаписи схемы (overwriteSchema) -
canMergeSchema: присутствует, когда включено объединение схем (mergeSchema)
Для операций REPLACE TABLE:
-
predicate: присутствует приreplaceWhereиспользовании -
isV1WriterSaveAsTableOverwrite: присутствует, когда замена.saveAsTableактивируется перезаписью
Поддержка перемотки и воспроизведения структурированной потоковой передачи
Структурированная потоковая передача теперь поддерживает перемотку и воспроизведение для конвейеров потоковой передачи. Эта функция позволяет повторно обработать данные с более ранней точки в потоке для восстановления после сбоев, таких как изменения схемы, некорректные входные данные или ошибки логики, без необходимости полного сброса состояния. Это не изменяет поведение по умолчанию существующих рабочих нагрузок потоковой передачи.
Обновления библиотек
Обновленные библиотеки Python:
В этой версии библиотеки не были обновлены.
Обновленные библиотеки R:
В этой версии библиотеки не были обновлены.
Обновленные библиотеки Java:
- io.delta.delta-sharing-client_2.13 от 1.3.9 до 1.3.10
Apache Spark
Databricks Runtime 18.2 включает Apache Spark 4.1.0. Этот выпуск включает все исправления и улучшения Spark, включенные в Databricks Runtime 18.1, а также следующие дополнительные исправления ошибок и улучшения, внесенные в Spark:
- SPARK-56219 Отменить изменения "[SC-225028][PS] Приведение поведения groupby idxmax и idxmin с skipna=False в соответствие с pandas 2/3"
-
SPARK-56204
AliasУдаление оболочек из встроенных в строку таблицы выражений в синтаксическом анализаторе - SPARK-56186 Выход на пенсию pypy
- SPARK-56202 Рефакторинг тестов потоковых соединений: разделение иерархии на Base и Suite и упрощение управления режимом
- SPARK-56221 Функциональное соответствие между командами spark.catalog.* и DDL
-
SPARK-56301 Исправление опечаток в
error-conditions.json - SPARK-55729 Поддержка средства чтения источников состояния данных для нового формата состояния версии 4 при объединении потока с потоком
- SPARK-56256 Добавление API emptyDataFrame в SparkSession.
- SPARK-56205 Проверка идентификатора контрольной точки хранилища базовых состояний перед фиксацией микробатча
- SPARK-55827 Исправление указания типа для рабочих ролей источника данных
- SPARK-55579 Переименование классов ошибок PySpark так, чтобы они были независимы от типа eval
- SPARK-56247 Исправление резервного поведения и подсказки типа inheritable_thread_target
- SPARK-56244 Уточнение макета класса benchmark в bench_eval_type.py
- SPARK-56262 Удалить ненужное отключение проверки mypy для типов
- SPARK-55969 regr_r2 должен рассматривать первый параметр как зависимые переменные
- SPARK-56179 Консолидация классов ошибок для несоответствия типов — часть 3
- SPARK-55630 Пропустить обновление флага совпадения для не внешней части в потоковом соединении версии 4
- SPARK-56217 Исправление исключений bucketBy при подключении
- SPARK-56225 Улучшить сообщение об ошибке для VIEW WITH EVOLUTION SCHEMA
- SPARK-55865 Переименование _LEGACY_ERROR_TEMP_1266 в CANNOT_TRUNCATE_EXTERNAL_TABLE
- SPARK-55861 Переименование _LEGACY_ERROR_TEMP_2045 на UNSUPPORTED_TABLE_CHANGE
- SPARK-56166 Используйте функцию ArrowBatchTransformer.enforce_schema для замены логики приведения типов по столбцам.
- SPARK-56245 Исправление присвоения на месте в DataFrame.eval для pandas 3
- SPARK-56062 Изолировать memory_profiler для улучшения времени импорта
- Системный каталог SPARK-55964 выигрывает над пользовательским каталогом для схем BUILTIN и SESSION.
-
SPARK-56226 Обнаружение ошибок анализа до
InternalFrame.__init__в.loc - SPARK-55723 Обобщение ошибки enforce_schema в PySparkTypeError
- SPARK-54878 Добавление параметра sortKeys в функцию to_json
- SPARK-56219 Приведение поведения функций groupby idxmax и idxmin с параметром skipna=False в соответствие с pandas 2/3
- SPARK-44065 Оптимизация перекоса BroadcastHashJoin в OptimizeSkewedJoin
- SPARK-56179 Отмена "[SC-225014][PYTHON] Консолидация классов ошибок для несоответствия типов - часть 3"
- SPARK-53399 Слияние Python определяемых пользователем функций
- SPARK-56224 Улучшение аннотаций типов для accumulators.py
- SPARK-55448 Исправлена потеря событий запроса при закрытии сеанса во время выполнения запроса
- SPARK-55862 Переименование _LEGACY_ERROR_TEMP_2027 в UNEXPECTED_OPERATOR_IN_CORRELATED_SUBQUERY
- SPARK-56201 Запуск тестов SPARK-49829 с соединениями VCF теперь, когда StateDataSource поддерживает его
- SPARK-56179 Консолидация классов ошибок для несоответствия типов — часть 3
-
SPARK-56184 Замена
assertна правильноеSparkRuntimeExceptionв синтаксическом анализе столбцов секционирования - SPARK-56206 Исправление обнаружения повторяющихся имен CTE без учета регистра
- SPARK-55866 Переименование _LEGACY_ERROR_TEMP_2145 на OPTION_VALUE_EXCEEDS_ONE_CHARACTER
- SPARK-56067 Отложенный импорт psutil для повышения скорости импорта
- SPARK-56066 Ленивый импорт numpy для повышения скорости импорта
- SPARK-55719 Удаление предупреждения об устаревании для spark.sql.hive.convertCTAS
- SPARK-56179 Консолидация классов ошибок для несоответствия типов — часть 2
- SPARK-55510 Обновить документ structured-streaming-state-data-source.md с целью отражения deleteRange
- SPARK-56050 Немедленно обрабатывать строковые литералы на этапе синтаксического анализа
- SPARK-56151 Улучшение строки отображения CreateVariable
- SPARK-55751 Добавьте метрики в хранилище состояний для загрузок из DFS
- SPARK-56188 Приведение Series.map({}) в соответствие с поведением empty-dict в pandas 3
- SPARK-55964 Возврат "[SC-223957] системный каталог выигрывает над каталогом пользователей для схем BUILTIN и SESSION".
- SPARK-55577 Рефакторинг SQL_SCALAR_ARROW_ITER_UDF логике оболочки, mapper и сериализатора
- SPARK-55596 Фильтрация расширенных статистик секций DSV2
- SPARK-56179 Отмена "[SC-224777][PYTHON] Консолидация классов ошибок для несоответствия типов - часть 2"
- Системный каталог SPARK-55964 выигрывает над пользовательским каталогом для схем BUILTIN и SESSION.
- SPARK-56050 Возврат "[SC-224153][SQL] С нетерпением разрешать IDENTIFIER() с строковыми литералами во время синтаксического анализа"
- SPARK-56179 Консолидация классов ошибок для несоответствия типов — часть 2
-
SPARK-56102
UnionEstimationочистка кода - SPARK-51712 Проглотить неустранимые вызовы при разрешении таблиц и представлений в spark.catalog.listTables()
- SPARK-55881 Добавление queryId, errorMessage и rootExecutionId в REST API выполнения SQL
- SPARK-56050 Немедленно разрешать IDENTIFIER() строковые литералы во время синтаксического анализа
- SPARK-55628 Интеграция формата состояния соединения stream-stream версии 4
- SPARK-56187 Исправление порядка сортировки null в Series.argsort для pandas 3
- SPARK-56167 Согласование astype с поведением строк по умолчанию в pandas 3
- SPARK-56018 Использовать ruff в качестве форматтера
- SPARK-56042 Исправление метрик подсчета числа семейств столбцов с поменянными местами внешним и внутренним в RocksDBStateStoreProvider
- SPARK-56179 Консолидация классов ошибок для несоответствия типов — часть 1
- SPARK-56089 Выравнивание asinh/acosh с помощью алгоритма fdlibm для совместимости кросс-двигателя
- SPARK-55453 Исправление сопоставления шаблонов LIKE для дополнительных символов Юникода
- SPARK-52785 Упрощение синтаксиса super() в PySpark
-
SPARK-56169 Исправление
ClassCastExceptionошибокGetStructFieldпри изменении дочернего типа путем преобразования плана - SPARK-55557 Гиперболические функции не должны переполнены большими входными данными
- SPARK-47997 Добавление параметра ошибок в DataFrame.drop и Series.drop.
- SPARK-55008 Отображение идентификатора запроса в SparkUI
- SPARK-54660 Добавление триггера RTM в Python
-
SPARK-56047 Распространение через Union в оценке
distinctCountстатистики CBO - SPARK-56111 Добавьте SparkContext.isDriver() и используйте его в базе кода
- SPARK-559999 Включение forceSnapshotUploadOnLag по умолчанию
- SPARK-55610 Добавление getExecutorInfos в StatusTracker в Python
- SPARK-55728 Введение настройки для размера пула потоков для контрольной суммы файлов и возможность отключения пула потоков
- SPARK-55686 SizeEstimator заботится о заголовках компактных объектов
- SPARK-56044 HistoryServerDiskManager не удаляет магазин приложений при выпуске, если приложение не находится на активной карте
- SPARK-55809 HeapHistogram использует DiagnosticCommandMBean вместо подпроцесса jmap
- SPARK-56122 Использование проверки числовых dtype с поддержкой pandas в Series.cov
- SPARK-56113 Улучшение восстановления строк pandas 3 в pandas-on-Spark
- SPARK-56118 Приведение к соответствию обработки булевых значений в pandas 3.0 в GroupBy.quantile
- SPARK-53823 Реализация списка разрешений для режима реального времени
- SPARK-55977 Исправление isin() для использования строгого сопоставления типов, как в pandas
- SPARK-54027 Поддержка источника RTM для Kafka
- SPARK-50284 Изменение документов для функции parseJson
-
Spark-56035 [SQL] Введение
AggregationValidatorдля проверки однопроходного сопоставителяAggregate - SPARK-55557 Возврат "[SC-223720][SQL] Гиперболические функции не должны переполнены большими входными данными".
- SPARK-56075 Удаление пакета мертвых классов ошибок Python
- SPARK-55967 Объединение преобразования столбцов для подключения кадра данных
- SPARK-53915 Добавление RealTimeScanExec и возможность выполнения длительных пакетов
- SPARK-55557 Гиперболические функции не должны переполнены большими входными данными
- SPARK-55147 Установить диапазон меток времени для извлечения временного интервала соединения в формате состояния V4
- SPARK-56056 Поддержка простого профилирования рабочих узлов с использованием viztracer
- SPARK-55948 Добавление API соединителя DSv2 CDC, разрешения анализатора и предложения SQL CHANGES
- SPARK-54599 Повторное применение "[SC-219008][PYTHON] Рефакторинг PythonExcept...
- SPARK-55390 Консолидация логики SQL_SCALAR_ARROW_UDF враппера, маппера и сериализатора
- SPARK-56023 Улучшение балансировки нагрузки в LowLatencyMemoryStream
- SPARK-55986 Обновление Black до версии 26.3.1
- SPARK-55667 Переместить check_dependencies в init
- SPARK-55145 Поддержка Avro для кодировщиков ключей состояния RocksDB на основе метки времени
- SPARK-53970 Удалите неправильный тег "необязательный" для messageName...
- SPARK-55059 Вернитесь на "[SC-224058][PYTHON] Удаление пустого обходного решения таблицы в toPandas"
- SPARK-50111 Добавление поддержки подграфиков для круговых диаграмм в серверной части Plotly
- SPARK-56081 Выравнивание idxmax и idxmin NA обработки с помощью pandas 3
- SPARK-56080 Приведение Series.argmax/argmin в соответствие с обработкой NA в pandas 3.0
- SPARK-56060 Обработка преобразования строк NULL в pandas 3 в функции describe() для пустых кадров метки времени
- SPARK-55059 Удаление обходного решения для пустой таблицы в toPandas
- SPARK-55995 Поддержка TIMESTAMP WITH LOCAL TIME ZONE в синтаксисе SQL
- SPARK-55976 Используйте Set вместо Seq для привилегий записи
-
SPARK-56073 Упрощение сборки
PythonRunnerConfMap -
SPARK-55887 Особая обработка
CollectLimitExec/CollectTailExecчтобы избежать полного сканирования таблицы - SPARK-55980 Всегда применять _cast_back_float в числовых вычислениях
- SPARK-55357 Исправление докстринга для timestamp_add
- SPARK-55667 Возврат "[SC-223289][PYTHON][CONNECT] Перемещение check_dependencies в init"
- SPARK-54285 Отменить изменение "[PYTHON] Кэширование сведений о часовом поясе для предотвращения ресурсоёмкого преобразования меток времени"
- SPARK-56021 Увеличьте значение по умолчанию для порога AutoSnapshotRepair maxChangeFileReplay с 50 до 500
- SPARK-55870 Добавление документов для геотипов
-
SPARK-55962 Используйте
getShortвместоgetIntприведения поputShortsFromIntsLittleEndianна платформах Little Endian - SPARK-55903 Упрощение эволюции схемы MERGE и проверки прав на запись
- SPARK-55326 Выпуск удаленного сеанса при установке SPARK_CONNECT_RELEASE_SESSION_ON_EXIT
- SPARK-55667 Переместить check_dependencies в init
- SPARK-55884 Добавление v1StatsToV2Stats в DataSourceV2Relation
- SPARK-55929 Добавить недостающий toString() в TableChange.UpdateColumnDefaultValue
- SPARK-55851 Уточнение типов секции источника данных и чтение
- SPARK-55828 Добавление DSV2 TableChange toString и исправление отсутствующих классов ошибок для слияния в схему эволюции
- SPARK-55790 Создание полного реестра SRS с помощью данных PROJ 9.7.1
- SPARK-55645 Добавить serdeName в CatalogStorageFormat
- SPARK-54796 Исправление NPE из-за гонки состояний между инициализацией исполнителя и миграцией shuffle.
- SPARK-55983 Новые функции однопроходного анализатора и исправления ошибок
- SPARK-55964 Согласованность кэша: очистка реестра функций в DROP DATABASE
- SPARK-55868 Исправление pushdown предиката для InMemoryTable для V2Filters
- SPARK-55973 Оптимизация LeftSemi для соединения потоков в потоковом режиме
- SPARK-54665 Исправление сравнения логического значения и строки для соответствия поведению pandas
- SPARK-55539 Разрешить приведение из GeographyType в GeometryType
- SPARK-55695 Избегайте двойного планирования в операциях на уровне строк
- SPARK-55904 Использовать _check_same_session для сужения типов
- SPARK-55965 Добавление предупреждения при использовании pandas >= 3.0.0 с PySpark
- SPARK-55493 [SS] Не создавать каталоги в журнале контрольной точки потока для смещения и фиксации в StateDataSource.
- SPARK-55851 Отменить изменения "[SC-223270][PYTHON] Уточнить типы секций источника данных и операции чтения"
- SPARK-55645 Отмена "[SC-221839][SQL] Добавление serdeName в CatalogStorageFormat"
- SPARK-55640 Распространение ошибок синтаксического анализа WKB для Geometry и Geography
- SPARK-55693 Избегайте взаимоблокировки, делая SparkSession.observationManager не ленивым val
- SPARK-55528 Добавление поддержки сортировки по умолчанию для определяемых пользователем sql файлов
-
SPARK-55860 Используйте
UNABLE_TO_INFER_SCHEMAвместоUNABLE_TO_INFER_SCHEMA_FOR_DATA_SOURCE - SPARK-55275 Добавление состояний SQL InvalidPlanInput для sql/connect
- SPARK-55645 Добавить serdeName в CatalogStorageFormat
- SPARK-55716 Поддержка принудительного применения ограничений NOT NULL для вставки исходной таблицы файлов версии 1
- SPARK-53226 Сделать ClosureCleaner совместимым с Java22+
- SPARK-55997 Установка верхнего предела для префиксаScan в поставщике хранилища состояний RocksDB
- SPARK-55851 Уточнение типов секции источника данных и чтение
- SPARK-55954 Удаление неверного указания типа перегрузки для fillna
- SPARK-56016 Сохранение именованных столбцов серии в сцепе с ignore_index на pandas 3
- SPARK-55502 Объединение обработки ошибок преобразования UDF и UDTF Arrow
-
SPARK-55989 Сохранение типов индексов, отличных от int64, в
restore_index - SPARK-55955 Удаление указания типа перегрузки для удаления
- SPARK-55945 [SDP] Поддержка структурированных идентификаторов для потоков в прототипах быстрого анализа SDP
- SPARK-55714 JDK может вызвать ArithmeticException без сообщения
- SPARK-55991 Исправление повреждения текста SQL в юникоде с параметрами
- SPARK-55696 Добавление явной ошибки в Encoders.bean для класса интерфейса
- SPARK-55533 Поддержка IGNORE NULLS / RESPECT NULLS для collect_set
- SPARK-55987 Исправление извлечения метки времени для оконного соединения версии 4 с помощью findJoinKeyOrdinalForWatermark
- SPARK-55946 Настройка pandas_priority так что смешанные двоичные операции отправляются правильно в pandas-on-Spark
- SPARK-55264 Добавление команды ExecuteOutput в конвейеры Spark Connect proto
- SPARK-47672 Избегайте двойной оценки от фильтра при совместном использовании с понижением проекции
- SPARK-55780 Замена логотипа PNG на SVG в веб-интерфейсе Spark
- SPARK-55821 Принудительное применение аргументов только для ключевых слов в методах инициализации сериализатора
- SPARK-55621 Исправление неоднозначного и ненужного использования юникода
- SPARK-55662 Реализация аргумента оси idxmin
- SPARK-55631ALTER TABLE Должен быть недопустимый кэш для таблиц DSv2
-
SPARK-55692 Исправление документации для
SupportsRuntimeFilteringиSupportsRuntimeV2Filtering - SPARK-55928 Новая функция linter для эффективности конфигурации в представлениях и определяемых пользователем учетных данных
- SPARK-55440 Платформа типов — этап 1a — Core Type System Foundation
- SPARK-55631 Отмена "[SC-221596][SQL] ALTER TABLE должен очищать кэш для таблиц DSv2".
- SPARK-55631ALTER TABLE должен сбрасывать кэш для таблиц DSv2
-
SPARK-55683 Оптимизировать
VectorizedPlainValuesReader.readUnsignedLongs - SPARK-55892 Исправление не удалось загрузить хранилище состояний, так как повторно использованный SST-файл был удален по обслуживанию
- SPARK-55946 Отмена изменений "[SC-223027][PS] Настройка pandas_priority чтобы смешанные двоичные операции правильно направлялись в pandas-on-Spark"
- SPARK-55891 Сохранение контекста скриптов SQL внутри EXECUTE IMMEDIATE
- SPARK-55907 Исправление некорректных позиций ошибок для недопустимых типов данных в CREATE FUNCTION
- SPARK-55946 Настройка pandas_priority так что смешанные двоичные операции отправляются правильно в pandas-on-Spark
- SPARK-55694 Ограничения блокировки в CTAS/RTAS на уровне синтаксического анализа
-
SPARK-55682 Итератор, возвращаемый ServiceLoader, может выдать
NoClassDefFoundErrorhasNext() - SPARK-55155 Исправление SETCATALOG для использования специальных символов и обратных апострофов в имени идентификатора
- SPARK-55932 Исправление проблемы зависания парсера XML для варианта при отрицательной шкале
- SPARK-55673 Добавление дополнительных тестов для кодировщика вложенных типов
-
SPARK-55679 Исправление дектектинга
sun.io.serialization.extendedDebugInfoна Java 25 - SPARK-55957 Добавьте "DATA_SOURCE_NOT_FOUND" в Catalog.ERROR_HANDLING_RULES
- SPARK-55052 Добавление свойств AQEShuffleRead в дерево физического плана
- SPARK-55652 Оптимизация при помощи прямого доступа к массивам для кучевых буферов
-
SPARK-55659 Улучшение
EventLogFileWriterоперации журналаstop -
SPARK-54666 Оставьте числовые типы без изменений
to_numeric - SPARK-55654 Включение обрезки TreePattern для EliminateSubqueryAliases и ResolveInlineTables
- SPARK-55533 Отмена изменений "[SC-220538][SQL] Поддержка ИГНОРИРОВАТЬ NULL/УЧИТЫВАТЬ NULL для collect_set"
- SPARK-55901 Создайте ошибку из Series.replace() без аргументов
- SPARK-55896 Используйте функции numpy вместо встроенных
-
SPARK-55655 Сделать
CountVectorizerсловарь детерминированным, когда значения равны -
SPARK-55811 [SQL] Catch
NonFatalвместоUnresolvedExceptionпри вызовеnodeWithOutputColumnsString - SPARK-55533 Поддержка IGNORE NULLS / RESPECT NULLS для collect_set
-
SPARK-55435 Используйте
StringBuilderвместоStringBuffer - SPARK-54807 Разрешить квалифицированные имена для встроенных функций и функций сеанса (#198171)
- SPARK-55854 Пометить сквозные дублирующие атрибуты в выходных данных операции Expand, чтобы предотвратить AMBIGUOUS_REFERENCE
- SPARK-55261 Реализация поддержки чтения Parquet для геотипов
- SPARK-55416 Утечка памяти источника потоковых данных Python, когда конечное смещение не обновляется
- SPARK-55465 Поддержка GeometryType в функции convert_numpy
- SPARK-55801 Исправить тип подсказки _SimpleStreamReaderWrapper.getCache
- SPARK-55800 Удалите неиспользуемый флажок типа datetime.date
- SPARK-55663 Объединение модуля для функций источника данных
- SPARK-55665 Унификация процесса установления связи рабочих с исполнителем
- SPARK-53446 Оптимизация операций удаления BlockManager с помощью кэшированных сопоставлений блоков
- SPARK-55867 Исправить StringMethods в pandas 3
- SPARK-55501 Исправление listagg distinct + в порядке группы по ошибке
- SPARK-55558 Добавление поддержки операций над множествами кортежей и Theta.
- SPARK-55636 Добавление подробных ошибок в случае дедупликации недопустимых столбцов
- SPARK-55788 Поддержка ExtensionDType для целых чисел в UDF Pandas
- SPARK-55464 Поддержка GeographyType в convert_numpy
- SPARK-55530 Поддержка географических наборов данных в серверах Hive и Thrift
- SPARK-55525 Исправление ошибки UDTF_ARROW_TYPE_CONVERSION_ERROR с неопределённым параметром сообщения об ошибке
- SPARK-55626 Не загружайте столбцы метаданных в таблицу, если не требуется в V2TableUtil
- SPARK-55533 Отмена "[SC-220538][SQL] Поддержка ИГНОРИРОВАТЬ NULL / УЧИТЫВАТЬ NULL для collect_set"
-
SPARK-55435 Отмена "[SC-219656][CORE][SQL] Использование
StringBuilderвместоStringBuffer" - SPARK-55533 Поддержка IGNORE NULLS / RESPECT NULLS для collect_set
-
SPARK-54452 Исправлена пустая реакция сервера SparkConnect для
spark.sql(...)внутри FlowFunction - SPARK-55638 Рефакторинг сериализации WKT в GeometryModel
-
SPARK-55551 Улучшение
BroadcastHashJoinExecсекционирования выходных данных - SPARK-54314 Улучшение отладки на стороне сервера в Spark Connect путем записи имени файла и номеров строк клиентского приложения
-
SPARK-55517 Оптимизировать
VectorizedPlainValuesReader.readBytes()с помощью прямого доступа к массивам для буферов кучи -
SPARK-55495 Исправление
EventLogFileWriters.closeWriterдля обработкиcheckError -
SPARK-55279 Добавить
sketch_funcsгруппу для функций SQL DataSketches -
SPARK-55435 Используйте
StringBuilderвместоStringBuffer - SPARK-55064 Поддержка повторной попытки перетасовки при неопределенном уровне запроса
- SPARK-55411 SPJ может вызвать исключение ArrayIndexOutOfBoundsException, если ключи соединения меньше, чем ключи кластера
- SPARK-55451 Курсоры должны начать сбор результатов при OPEN, а не при первом FETCH.
- SPARK-54687 Добавьте больше краевых случаев с генераторами
- SPARK-55691 Клиент GetStatus
-
SPARK-55277 Добавить
protobuf_funcsгруппу для функций SQL Protobuf -
SPARK-55822 Переименование
_LEGACY_ERROR_TEMP_0052вCREATE_VIEW_WITH_IF_NOT_EXISTS_AND_REPLACE - SPARK-55236 Устранение непредвиденного исключения в некоторых тестовых случаях CoarseGrainedExecutorBackendSuite
- SPARK-55275 Покрытие состояния SQL: IllegalStateException
- SPARK-55462 Повторное применение "[SC-221123][PYTHON] Support VariantType в convert_numpy"
- SPARK-55062 Поддержка расширений proto2 в функциях protobuf
-
SPARK-55248 Очистка нерекомендуемого использования API Джексона в
streaming.checkpointing.Checksum - SPARK-55250 Сокращение вызовов клиента Hive в CREATE NAMESPACE
-
SPARK-55247 Очистка устаревшего использования API, связанного с
o.a.c.io.input.BoundedInputStream - Spark-55198 spark-sql должен игнорировать строки комментариев с ведущими пробелами
-
SPARK-55826 Переименование
_LEGACY_ERROR_TEMP_0006вMERGE_INSERT_VALUE_COUNT_MISMATCH - SPARK-55127 Добавление группы avro_funcs для функций Avro SQL
- SPARK-54914 [SQL] Исправление оператора DROP в синтаксисе канала для поддержки квалифицированных имен столбцов
-
SPARK-55113
EnsureRequirementsдолжен копировать теги - SPARK-55074 Добавить тест для слияния с приведением типов ANSI
- SPARK-54217 Синхронизация решения о завершении работы MonitorThread в PythonRunner
- SPARK-54374 Увеличение размера атрибута viewBox SVG для инициализации визуализации плана SQL
- SPARK-54971 Добавление синтаксиса WITH SCHEMA EVOLUTION для SQL INSERT
- SPARK-55065 Избегайте двух вызовов API JDBC
- SPARK-55033 Исправление аргументов строк в командах записи DSv2
-
SPARK-55041 Очистка некоторых неиспользуемых приватных
funcion/valэлементов из основного модуля - SPARK-55338 Централизованная логика распаковки запроса Spark Connect в перехватчике gRPC
-
SPARK-55825 Переименование
_LEGACY_ERROR_TEMP_1309вPARTITION_BY_NOT_ALLOWED_WITH_INSERT_INTO - SPARK-55492 Проверка того, что eventTime в withWatermark является столбцом верхнего уровня
- SPARK-55802 Исправление целочисленного переполнения при вычислении пакетных байтов со стрелкой
- SPARK-55694 Ограничения блокировки в CTAS/RTAS на уровне синтаксического анализа
- SPARK-55843 Обработка единицы dtypes datetime64 и timedelta64
-
SPARK-55824 Переименование
_LEGACY_ERROR_TEMP_1034вWINDOW_FUNCTION_NOT_ALLOWED_IN_CLAUSE - SPARK-55819 Рефакторинг ExpandExec, чтобы сделать его более лаконичным
- SPARK-55341 Добавление флага уровня хранилища для кэшированных локальных отношений
- SPARK-54599 Вернитесь на "[SC-219008][PYTHON] Рефакторинг PythonException, чтобы он смог принять errorClass с sqlstate"
- SPARK-46167 Добавление реализации оси в DataFrame.rank
- SPARK-54599 Рефакторинг PythonException, чтобы он мог принимать errorClass с sqlstate
- SPARK-55529 Повторное применение [ES-1721989][SC-220716][PYTHON] Восстановление пакетного слияния на уровне Arrow для применения в Pandas без итератора
-
SPARK-55794 Всегда псевдонимы
OuterReference - SPARK-55583 Проверка типов схем со стрелками в источнике данных Python
- SPARK-37711 Сокращение количества заданий из O(N) в O(1)
- SPARK-46168 Добавление аргумента оси для idxmax
- SPARK-46162 Реализация nunique по оси=1
- SPARK-55552 Добавление поддержки VariantType в ColumnarBatchRow.copy() и MutableColumnarRow
-
SPARK-55647 Исправление
ConstantPropagationнеправильной замены атрибутов не двоичными стабильными параметрами сортировки - SPARK-55747 Исправление NPE при доступе к элементам из массива с значением NULL
-
SPARK-55757 Улучшение
spark.task.cpusпроверки - SPARK-55699 Несогласованное чтение LowLatencyClock при использовании вместе с ManualClock
- SPARK-55702 Поддержка предиката фильтра в функциях статистической обработки окон
- SPARK-55510 Исправлено удаление хранилища состояний Rocksdb для вызова changelogWriter
-
SPARK-55739 Оптимизация
OnHeapColumnVector.putIntsLittleEndian/putLongsLittleEndianиспользованияPlatform.copyMemoryна небольших платформах - SPARK-55730 Не преобразовывать часовой пояс в нижний регистр
- SPARK-55701 ES-1694761[SS] Исправление условия гонки в CompactibleFileStreamLog.allFiles
- SPARK-55462 Отмена "[SC-221123][PYTHON] Поддержка VariantType в convert_numpy"
- SPARK-55144 Введение новой версии формата состояния для эффективного соединения потоков
- SPARK-55606 Реализация API GetStatus на стороне сервера
- SPARK-55462 Поддержка VariantType в convert_numpy
- SPARK-55600 Исправление для pandas на arrow приводит к потере количества строк, если в классической версии схема содержит 0 столбцов
- SPARK-55700 Исправление обработки целых ключей в рядах с индексом без целочисленного числа
- SPARK-55349 Консолидация утилит для преобразования pandas в Arrow в сериализаторах
- SPARK-55681 Исправление равенства единичного типа DataType после десериализации (повторная попытка)
- SPARK-55681 Отменить изменения "[SC-221427][SC-214079][SQL] Исправление равенства одиночных типов данных после десериализации"
- SPARK-55681 Исправление проблемы равенства DataType для одиночных объектов после десериализации
- SPARK-55674 Оптимизация конвертации таблицы без столбцов в Spark Connect
- SPARK-55323 Повторное применение "[SC-218885][PYTHON] Перемещение метаданных UDF в EvalConf для упрощения рабочего протокола"
- SPARK-55322 Повторное применение [SC-221062][SQL] MaxBy и MinBy Overload с элементами K
- SPARK-55323 Возврат "[SC-218885][PYTHON] Перемещение метаданных UDF в EvalConf для упрощения рабочего протокола"
- SPARK-55615 Перемещение импорта SparkContext в ветвь класса
- SPARK-55323 Перемещение метаданных UDF в EvalConf для упрощения рабочего протокола
-
SPARK-55648 Обработка непредвиденной ошибки
groupby(axis)аргумента ключевого слова с помощью pandas 3 -
SPARK-55647 Возврат "[SC-221274][SQL] Исправлена
ConstantPropagationнеправильно замена атрибутов не двоичными стабильными параметрами сортировки" - SPARK-55646 Рефакторинг SQLExecution.withThreadLocalCaptured для разделения локального захвата потока от выполнения
- SPARK-54854 Добавление запроса UUIDv7 в события SQLExecution
- SPARK-55619 Исправление пользовательских метрик в случае объединения секций
-
SPARK-55647 Исправление
ConstantPropagationнеправильной замены атрибутов не двоичными стабильными параметрами сортировки -
SPARK-55322 Возврат "[SC-221062][SQL]
MaxByиMinByперегрузка с элементами K" - SPARK-54740 Запуск обработчика ошибок рано в режиме демона
- SPARK-55493 [SS] Не мкдиры в каталоге состояния контрольной точки потоковой передачи в StateDataSource
-
SPARK-55322
MaxByиMinByперегрузка с элементами K -
SPARK-55625 Исправление StringOps для правильной работы
strdtype - SPARK-55161 Повторно применить "[SC-218867][PYTHON] Поддержка профилировщиков для источника данных Python"
- SPARK-55505 Исправление NPE при чтении EXECUTION_ROOT_ID_KEY в параллельных сценариях
- SPARK-55111 Повторная проверка незавершенного обнаружения повторной части при перезапуске запроса
- SPARK-55593 Объединение состояния агрегирования для vector_avg/vector_sum
-
SPARK-55500 Исправлен цикл анализатора между
ApplyDefaultCollationиExtractWindowExpressionsCollationTypeCasts - SPARK-55494 Введение итератора или префиксаScan с несколькими значениями в API StateStore
- SPARK-55561 Добавление повторных попыток для всех методов клиента администратора Kafka
- SPARK-55296 Поддержка режима CoW с pandas 3
- SPARK-55479 Устранение проблем с стилем в SparkShreddingUtils
- SPARK-55372 Исправление SHOW CREATE TABLE для таблиц и представлений с параметрами сортировки по умолчанию
-
SPARK-553333 Включение
DateTypeиTimeTypeвключениеconvert_numpy - SPARK-55129 Введите новые кодировщики ключей для метки времени в качестве первого класса (UnsafeRow)
- SPARK-46163 Параметры DataFrame.update filter_func и ошибки
- SPARK-55372 Отмена "[SC-220571][SQL] Исправление SHOW CREATE TABLE для таблиц и представлений с сортировкой по умолчанию"
- SPARK-55480 Удалить все неиспользуемые noqa для ruff
- SPARK-55471 Добавление поддержки оптимизатора для SequentialStreamingUnion
- SPARK-55584 Создание более эффективной ошибки при скалярном подзапросе в EXEC IMMEDIATE
- SPARK-55161 Возврат "[SC-218867][PYTHON] Поддержка профилировщиков в источнике данных Python"
-
SPARK-55506 Передайте явно заданную входную схему
to_pandasвCogroupPandasUDFSerializer -
SPARK-55586 Добавление
jdbc.pyпримера - SPARK-55161 Поддержка профилировщиков в источнике данных Python
- SPARK-55529 Отмена "[SC-220716][PYTHON] Восстановление слияния пакетов на уровне Arrow для неитератора applyInPandas"
-
SPARK-55385 Устранение повторной компиляции в
zipWithIndex - SPARK-55529 Восстановление пакетного слияния со стрелками для неитератора applyInPandas
- SPARK-55389 Консолидация логики враппера, маппера и сериализатора
- SPARK-55406 Повторное выполнение пула потоков для ExecutePlanResponseReattachableIterator
-
SPARK-55372 Исправление
SHOW CREATE TABLEдля таблиц и представлений с параметрами сортировки по умолчанию - SPARK-55367 Использование venv для тестов run-pip-test
- SPARK-55355 Обновление версии mypy до последней версии
- SPARK-55460 Удалить E203 из списка игнорирования ruff
- SPARK-55541 Поддержка геометрии и географии в конвертерах типов catalyst
- SPARK-55449 Включение синтаксического анализа И записи WKB для Geography
- SPARK-55339 Реализация поддержки записи WKT для геообъектов
- SPARK-54122 Реализация TwsTester в Scala
- SPARK-54805 Реализация TwsTester в PySpark
- SPARK-55256 Повторное применение "[SC-218596][SQL] Поддержка IGNORE NULLS / RESPECT NULLS для array_agg и collect_list"
-
SPARK-55156 Сделка с
include_groupsgroupby.apply - SPARK-55401 Добавление логики повторных попыток и обработки времени ожидания в скачивание установки pyspark
- SPARK-55229 Реализация DataFrame.zipWithIndex в PySpark
- SPARK-55462 Поддержка UserDefinedType в convert_numpy
- SPARK-55483 Исправление NPE в PivotFirst, если столбец сводной таблицы является не атомарным типом со значениями NULL
-
SPARK-55490 Сделать так, чтобы
groupby(as_index=False)включала группировку, которая отсутствует в DataFrame с использованием pandas 3 - SPARK-55473 Замените itertools.tee цепочкой в applyInPandasWithState
- SPARK-55404 Всегда выбрасывать KeyboardInterrupt из обработчика SIGINT
- SPARK-55407 Замените logger.warn на logger.warning
Поддержка драйверов ODBC и JDBC в Databricks
Databricks поддерживает драйверы ODBC/JDBC, выпущенные за последние 2 года. Скачайте недавно выпущенные драйверы и обновление (скачайте ODBC, скачайте JDBC).
Системная среда
- Операционная система: Ubuntu 24.04.4 LTS
- Java: Zulu21.48+15-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.1.0
Установленные библиотеки Python
| Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | aiohttp | 3.11.10 | aiosignal | 1.2.0 |
| аннотированный документ | 0.0.4 | annotated-types | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | arro3-core | 0.6.5 |
| стрела | 1.3.0 | asttokens | 3.0.0 | astunparse | 1.6.3 |
| async-lru | 2.0.4 | атрибуты | 24.3.0 | автоматическая команда | 2.2.2 |
| azure-common | 1.1.28 | azure-core | 1.37.0 | azure-identity | 1.20.0 |
| Платформа управления Azure (azure-mgmt-core) | 1.6.0 | azure-mgmt-web | 8.0.0 | azure-storage-blob | 12.28.0 |
| хранилище файлов данных Azure Data Lake | 12.22.0 | Бабель | 2.16.0 | backports.tarfile | 1.2.0 |
| beautifulsoup4 | 4.12.3 | черный | 24.10.0 | отбеливатель | 6.2.0 |
| блинкер | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| инструменты для кэша | 5.5.1 | сертификат | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | нормализатор кодировки | 3.3.2 | click | 8.1.8 |
| Клаудпикл | 3.0.0 | коммуникация | 0.2.1 | Contourpy | 1.3.1 |
| криптография | 44.0.1 | велосипедист | 0.11.0 | Cython | 3.1.5 |
| databricks-агенты | 1.9.1 | databricks-sdk | 0.67.0 | dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | декоратор | 5.1.1 |
| defusedxml | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| Дистлиб | 0.3.9 | docstring-to-markdown | 0.11 | исполнение | 1.2.0 |
| Обзор аспектов | 1.1.1 | fastapi | 0.128.0 | fastjsonschema | 2.21.1 |
| файловая блокировка | 3.17.0 | шрифтовые инструменты | 4.55.3 | Полное доменное имя (FQDN) | 1.5.1 |
| замороженный список | 1.5.0 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | google-auth (аутентификация от Google) | 2.47.0 |
| google-cloud-core (основной модуль Google Cloud) | 2.5.0 | облачное хранилище Google | 3.7.0 | google-crc32c | 1.8.0 |
| google-resumable-media | 2.8.0 | googleapis-common-protos (общие протоколы googleapis) | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | hf-xet | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | IDNA | 3,7 | importlib_metadata | 8.5.0 |
| склонять | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | изодурация | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | jedi | 0.19.2 | Джинджа2 | 3.1.6 |
| джиттер | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | Джсонпоинтер (jsonpointer) | 3.0.0 |
| jsonschema (JSON-схема) | 4.23.0 | jsonschema-спецификации | 2023.7.1 | Jupyter-события | 0.12.0 |
| jupyter-lsp | 2.2.5 | клиент Jupyter | 8.6.3 | jupyter_core (ядро Jupyter) | 5.7.2 |
| Джупитер_сервер | 2.15.0 | терминалы_сервера_jupyter | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server (сервер для JupyterLab) | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| Кивисолвер | 1.4.8 | langchain-core | 1.2.6 | langchain-openai | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | зефир | 3.26.2 | matplotlib | 3.10.0 |
| матплотлиб-инлайн | 0.1.7 | mccabe | 0.7.0 | mdurl | 0.1.0 |
| Мистун | 3.1.2 | mlflow-skinny | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | msal | 1.34.0 | msal-extensions | 1.3.1 |
| мультидикт | 6.1.0 | mypy-extensions (расширения для mypy) | 1.0.0 | nbclient | 0.10.2 |
| Перекодировщик nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | notebook | 7.3.2 | ноутбук_шим | 0.2.4 |
| numpy (библиотека для работы с массивами и матрицами в Python) | 2.1.3 | oauthlib | 3.2.2 | openai | 2.14.0 |
| opentelemetry-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.39.1 |
| семантические соглашения opentelemetry | 0.60b1 | orjson | 3.11.5 | Переопределения | 7.4.0 |
| упаковка | 24,2 | Панды | 2.2.3 | пандокфильтры | 1.5.0 |
| Парсо | 0.8.4 | спецификация пути | 0.10.3 | простак | 1.0.1 |
| pexpect (библиотека Python для автоматизации взаимодействия с приложениями) | 4.8.0 | подушка | 11.1.0 | пит | 25.0.1 |
| platformdirs | 4.3.7 | библиотека Plotly для визуализации данных | 5.24.1 | менеджер плагинов Pluggy | 1.5.0 |
| prometheus_client | 0.21.1 | prompt-toolkit (инструментарий подсказок) | 3.0.43 | кэш свойств | 0.3.1 |
| proto-plus | 1.27.0 | protobuf (протобуф) | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| Пикколо | 0.0.71 | pycparser | 2.21 | pydantic | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Пигменты | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing (библиотека для синтаксического анализа в Python) | 3.2.0 | pyright | 1.1.394 |
| пироаринг | 1.0.3 | pytest | 8.3.5 | python-dateutil (библиотека для работы с датами и временем в Python) | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger (пакет для логирования JSON в Python) | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server (сервер Python LSP) | 1.12.2 | Pytoolconfig | 1.2.6 | pytz (библиотека Python для работы с часовыми поясами) | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | Ссылки | 0.30.2 |
| regex | 2024.11.6 | Запросы | 2.32.3 | requests-toolbelt | 1.0.0 |
| rfc3339-валидатор | 0.1.4 | rfc3986-validator | 0.1.1 | богатый | 13.9.4 |
| верёвка | 1.13.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn (библиотека машинного обучения) | 1.6.1 | scipy (библиотека Python) | 1.15.3 |
| мореборн | 0.13.2 | Send2Trash | 1.8.2 | setuptools (пакет для установки и управления Python-пакетами) | 78.1.1 |
| шеллингем | 1.5.4 | шесть | 1.17.0 | сммап | 5.0.0 |
| sniffio | 1.3.0 | отсортированные контейнеры | 2.4.0 | ситечко для супа | 2.5 |
| sqlparse | 0.5.5 | ssh-import-id | 5.11 | стековые данные | 0.6.3 |
| старлетка | 0.50.0 | strictyaml | 1.7.3 | упорство | 9.0.0 |
| закончено | 0.17.1 | Threadpoolctl | 3.5.0 | тиктокен | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | токенизаторы | 0.22.2 |
| томли | 2.0.1 | торнадо | 6.5.1 | tqdm | 4.67.1 |
| Трейтлеты | 5.14.3 | typeguard | 4.3.0 | typer-slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | ввод текста и проверка | 0.9.0 | typing_extensions (расширения для ввода текста) | 4.12.2 |
| tzdata | 2024.1 | ujson | 5.10.0 | обновления без вмешательства пользователя | 0,1 |
| URI-шаблон | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth (ширина символа в Unicode) | 0.2.5 | webcolors | 25.10.0 | веб-энкодинги | 0.5.1 |
| websocket-клиент | 1.8.0 | whatthepatch | 1.0.2 | колесо | 0.45.1 |
| когда бы ни | 0.7.3 | widgetsnbextension | 3.6.6 | завёрнут | 1.17.0 |
| yapf | 0.40.2 | ярл | 1.18.0 | ZIPP | 3.21.0 |
| zstandard | 0.23.0 |
Установленные библиотеки R
Библиотеки R установлены из снимка CRAN Posit диспетчер пакетов от 2025-11-20.
| Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
|---|---|---|---|---|---|
| стрела | 22.0.0 | аскпасс | 1.2.1 | утверждать, что | 0.2.1 |
| обратные порты | 1.5.0 | основа | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | кусочек | 4.6.0 | 64-бит | 4.6.0-1 |
| bitops | 1.0-9 | комок | 1.2.4 | сапог | 1.3-30 |
| варить | 1.0-10 | брио | 1.1.5 | метла | 1.0.10 |
| bslib | 0.9.0 | кашемир | 1.1.0 | звонящий | 3.7.6 |
| каретка | 7.0-1 | целлрейнджер | 1.1.0 | хронометр | 2.3-62 |
| класс | 7.3-22 | интерфейс командной строки (CLI) | 3.6.5 | клиппер | 0.8.0 |
| часы | 0.7.3 | кластер | 2.1.6 | codetools | 0.2-20 |
| коммонмарк | 2.0.0 | компилятор | 4.5.1 | config | 0.3.2 |
| испытывающий противоречивые чувства | 1.2.0 | cpp11 | 0.5.2 | карандаш | 1.5.3 |
| credentials | 2.0.3 | завиток | 7.0.0 | таблица данных | 1.17.8 |
| Наборы данных | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| описание | 1.4.3 | средства разработки | 2.4.6 | Схема | 1.6.5 |
| diffobj | 0.3.6 | дайджест | 0.6.39 | направленное вниз освещение | 0.4.5 |
| dplyr (пакет для обработки данных в R) | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| многоточие | 0.3.2 | оценивать | 1.0.5 | поклонники | 1.0.7 |
| Цвета | 2.1.2 | фастмап | 1.2.0 | fontawesome | 0.5.3 |
| Forcats (форкатс) | 1.0.1 | foreach | 1.5.2 | иностранный | 0.8-86 |
| fs | 1.6.6 | будущее | 1.68.0 | будущее.применить | 1.20.0 |
| полоскать горло | 1.6.0 | Дженерики | 0.1.4 | Герт | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | глобальные переменные | 0.18.0 |
| клей | 1.8.0 | googledrive | 2.1.2 | googlesheets4 | 1.1.2 |
| Говер | 1.0.2 | графика | 4.5.1 | grDevices | 4.5.1 |
| сеть | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | гтабл | 0.3.6 | каска | 1.4.2 |
| убежище | 2.5.5 | выше | 0.11 | HMS | 1.1.4 |
| инструменты для HTML | 0.5.8.1 | HTML-виджеты | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | удостоверения личности | 1.0.1 |
| ini | 0.3.1 | ипред | 0,9–15 | изо-лента | 0.2.7 |
| Itераторы | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| джуси джус | 0.1.0 | KernSmooth | 2,23-22 | knitr (пакет для динамической генерации отчетов в языке программирования R) | 1.50 |
| маркирование | 0.4.3 | позже | 1.4.4 | lattice | 0,22–5 |
| лава | 1.8.2 | жизненный цикл | 1.0.4 | слушай | 0.10.0 |
| litedown | 0.8 | лубридейт | 1.9.4 | магриттр | 2.0.4 |
| Markdown | 2.0 | Масса | 7.3-60.0.1 | Матрица | 1.6-5 |
| Запоминание | 2.0.1 | методы | 4.5.1 | mgcv | 1.9-1 |
| mime | 0,13 | мини-интерфейс | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | модельер | 0.1.11 | nlme | 3.1-164 |
| ннейронная сеть | 7.3-19 | numDeriv | 2016.8-1.1 | OpenSSL | 2.3.4 |
| otel | 0.2.0 | параллельный | 4.5.1 | параллельно | 1.45.1 |
| столб | 1.11.1 | пакджбилд | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | пкглоад (pkgload) | 1.4.1 | Плогр | 0.2.0 |
| плайр | 1.8.9 | похвала | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | Processx | 3.8.6 | Prodlim | 2025.04.28 |
| profvis | 0.4.0 | прогресс | 1.2.3 | progressr | 0.18.0 |
| обещания | 1.5.0 | прото | 1.0.0 | прокси | 0.4-27 |
| п.с. | 1.9.1 | мурлыканье | 1.2.0 | Р6 | 2.6.1 |
| ragg | 1.5.0 | randomForest (рандомФорест) | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | реактивный | 0.4.4 | ReactR | 0.6.1 |
| readr | 2.1.6 | readxl (пакет для чтения Excel-файлов) | 1.4.5 | Рецепты | 1.3.1 |
| реванш | 2.0.0 | реванш2 | 2.1.2 | дистанционное управление | 2.5.0 |
| репрекс | 2.1.1 | reshape2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown (инструмент для создания динамических документов в R) | 2,30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart (пакет для построения деревьев решений в языке программирования R) | 4.1.23 | rprojroot | 2.1.1 | Rserve (Рcерве) | 1.8-15 |
| RSQLite | 2.4.4 | рстудиоапи | 0.17.1 | rversions | 3.0.0 |
| Рвест | 1.0.5 | S7 | 0.2.1 | дерзость | 0.4.10 |
| весы | 1.4.0 | селектор | 0.4-2 | информация о сессии | 1.2.3 |
| форма | 1.4.6.1 | блестящий | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | Sparsevctrs | 0.3.4 |
| пространственный | 7.3-17 | Сплайны | 4.5.1 | SQLDF | 0,4-11 |
| SQUAREM | январь 2021 | статистика | 4.5.1 | статистика4 | 4.5.1 |
| стринги | 1.8.7 | стрингр | 1.6.0 | выживание | 3.5-8 |
| самоуверенность и стильный вид | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| язык программирования Tcl/Tk | 4.5.1 | testthat | 3.3.0 | форматирование текста | 1.0.4 |
| Tibble | 3.3.0 | Тидыр | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse (тайдивёрс) | 2.0.0 | смена времени | 0.3.0 | ТаймДата | 4051.111 |
| tinytex | 0.58 | инструменты | 4.5.1 | База данных часовых зон (tzdb) | 0.5.0 |
| URL-чекер | 1.0.1 | используйэто | 3.2.1 | utf8 | 1.2.6 |
| утилиты | 4.5.1 | UUID (Универсальный уникальный идентификатор) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | брррм | 1.6.6 |
| Уолдо | 0.6.2 | волосок | 0.4.1 | увядать | 3.0.2 |
| xfun | 0.54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | YAML | 2.3.10 | зилот | 0.2.0 |
| ZIP-архив | 2.3.3 |
Установленные Java и библиотеки Scala (версия кластера Scala 2.13)
| Идентификатор группы | Идентификатор артефакта | Версия |
|---|---|---|
| Антлер | Антлер | 2.7.7 |
| com.clearspring.analytics | поток | 2.9.8 |
| com.databricks | Rserve (Рcерве) | 1.8-3 |
| com.databricks | SDK для Java от Databricks | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | криогенное затенение | 4.0.3 |
| com.esotericsoftware | минлог | 1.3.0 |
| com.fasterxml | одноклассник | 1.5.1 |
| com.fasterxml.jackson.core | аннотации Джексона | 2.18.2 |
| com.fasterxml.jackson.core | джексон-ядро | 2.18.2 |
| com.fasterxml.jackson.core | джексон-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | Джексон-датаформат-ЯМЛ | 2.15.2 |
| com.fasterxml.jackson.datatype | джексон-дейтайп-джода | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | джексон-модуль-паранэймер | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | кофеин | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | нативная_ссылка-java | 1.1 |
| com.github.fommil.netlib | нативная_ссылка-java | 1.1-коренные жители |
| com.github.fommil.netlib | Нативная_система-java | 1.1 |
| com.github.fommil.netlib | Нативная_система-java | 1.1-коренные жители |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-коренные жители |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-коренные жители |
| com.github.luben | zstd-jni | 1.5.7-6 |
| com.github.virtuald | курвесапи | 1,08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-auth-library-учетные данные | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | автоматические аннотации значений | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | Gson | 2.11.0 |
| com.google.crypto.tink | тинк | 1.16.0 |
| com.google.errorprone | ошибкоопасные аннотации | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | ошибка доступа | 1.0.3 |
| com.google.guava | гуава | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-аннотации | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | Профилировщик | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK для Azure Data Lake Store) | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (метод сжатия данных) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON (формат обмена данными JavaScript) | 1.8 |
| com.thoughtworks.paranamer | Паранэймер | 2.8 |
| com.trueaccord.lenses | лензы_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | юнивосити-парсерс | 2.9.1 |
| com.zaxxer | ХикариCP | 4.0.3 |
| com.zaxxer | СпарсБитСет | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec | commons-codec | 1.19.0 |
| общие коллекции | общие коллекции | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| загрузка файлов через модуль commons | загрузка файлов через модуль commons | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| коммонс-логгинг | коммонс-логгинг | 1.1.3 |
| коммонс-пул | коммонс-пул | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | Блас | 3.0.4 |
| dev.ludovic.netlib | LAPACK (программная библиотека для линейной алгебры) | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | компрессор воздуха | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.10 |
| io.dropwizard.metrics | аннотация метрик | 4.2.37 |
| io.dropwizard.metrics | основные метрики | 4.2.37 |
| io.dropwizard.metrics | «metrics-graphite» | 4.2.37 |
| io.dropwizard.metrics | Метрики-Чек здоровья | 4.2.37 |
| io.dropwizard.metrics | метрики-jetty10 | 4.2.37 |
| io.dropwizard.metrics | Метрики-JMX | 4.2.37 |
| io.dropwizard.metrics | metrics-json | 4.2.37 |
| io.dropwizard.metrics | метрики для JVM | 4.2.37 |
| io.dropwizard.metrics | метрики и сервлеты | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all (все пакеты netty) | 4.2.7.Final |
| io.netty | буфер Netty | 4.2.7.Final |
| io.netty | netty-codec (кодек Netty) | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | netty-codec-http | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | netty-codec-маршаллинг | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-socks | 4.2.7.Final |
| io.netty | нетти-общий | 4.2.7.Final |
| io.netty | нетти-хэндлер | 4.2.7.Final |
| io.netty | нетти-обработчик-прокси | 4.2.7.Final |
| io.netty | Netty-резолвер | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes (классы netty-tcnative) | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | нетти-транспорт-натив-уникс-коммон | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | простыйклиент_общий | 0.16.1-databricks |
| io.prometheus | Симплклиент_дропвизард | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | коллекционер | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api (аннотация API Джакарты) | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | активация | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | джта | 1.1 |
| javax.transaction | интерфейс транзакций | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| джлайн | джлайн | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | джна | 5.8.0 |
| net.razorvine | рассол | 1.5 |
| net.sf.jpam | джпам | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv — инструмент для работы с CSV файлами | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (SDK для обработки данных Snowflake) | 0.9.6 |
| net.sourceforge.f2j | арпак_комбинированный_все | 0,1 |
| org.acplt.remotetea | «remotetea-oncrpc» | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | шаблон строки | 3.2.1 |
| org.apache.ant | муравей | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | Сжатие со стрелками | 18.3.0 |
| org.apache.arrow | формат стрелок | 18.3.0 |
| org.apache.arrow | ядро памяти Arrow | 18.3.0 |
| org.apache.arrow | арроу-мемори-нетти | 18.3.0 |
| org.apache.arrow | стрелка-память-netty-buffer-patch | 18.3.0 |
| org.apache.arrow | вектор стрелки | 18.3.0 |
| org.apache.avro | Авро | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | Коммонс-компресс | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | коммонс-матх3 | 3.6.1 |
| org.apache.commons | Общедоступный текст | 1.14.0 |
| org.apache.curator | куратор-клиент | 5.9.0 |
| org.apache.curator | кураторский фреймворк | 5.9.0 |
| org.apache.curator | куратор рецептов | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | Датаскетчес-мемори | 3.0.2 |
| org.apache.derby | дерби | 10.14.2.0 |
| org.apache.hadoop | среда выполнения hadoop-клиента | 3.4.2 |
| org.apache.hive | hive-beeline (инструмент командной строки для работы с Apache Hive) | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | hive-jdbc | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | Hive-Serde | 2.3.10 |
| org.apache.hive | хайв-шимы | 2.3.10 |
| org.apache.hive | hive-storage-api (интерфейс хранения данных Hive) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | хив-шимс-коммон | 2.3.10 |
| org.apache.hive.shims | планировщик hive-shims | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | плющ | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-layout-template-json (шаблон компоновки для log4j в формате JSON) | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | орк-кор | 2.2.0-shaded-protobuf |
| org.apache.orc | Формат ORC | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce (орч-мапредьюс) | 2.2.0-shaded-protobuf |
| org.apache.orc | орк-шимы | 2.2.0 |
| org.apache.poi | пои | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | аннотации для аудитории | 0.13.0 |
| org.apache.zookeeper | смотритель зоопарка | 3.9.4 |
| org.apache.zookeeper | Zookeeper-JUTE | 3.9.4 |
| org.checkerframework | checker-qual | 3.43.0 |
| org.codehaus.janino | commons-компилятор | 3.0.16 |
| org.codehaus.janino | джанино | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core (ядро датануклеус) | 4.1.17 |
| org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | «jetty-http» | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | Jetty Plus | 10.0.26 |
| org.eclipse.jetty | jetty-proxy (джетти-прокси) | 10.0.26 |
| org.eclipse.jetty | защита пристани | 10.0.26 |
| org.eclipse.jetty | сервер Jetty | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | джетти-ютил (jetty-util) | 10.0.26 |
| org.eclipse.jetty | Jetty - веб-приложение | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | хк2-локатор | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | локатор ресурсов OSGi | 1.0.3 |
| org.glassfish.hk2.external | «aopalliance-repackaged» | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | Jersey-container-servlet | 2.41 |
| org.glassfish.jersey.containers | джерси-контейнер-сервлет-кор | 2.41 |
| org.glassfish.jersey.core | jersey-client (джерси-клиент) | 2.41 |
| org.glassfish.jersey.core | джерси-коммон | 2.41 |
| org.glassfish.jersey.core | Джерси-сервер | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | гибернейт-валидатор | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (логирование в JBoss) | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | джлайн | 3.27.1-jdk8 |
| org.joda | joda-convert | 1.7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | Обдженесис | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rosuda.REngine | РЭнджин | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | тестовый интерфейс | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | совместимый с ScalaTest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j (адаптер для JCL, работающий поверх SLF4J) | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | хз | 1,10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Окончательная |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | SnakeYAML | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| стекс | stax-api | 1.0.1 |