Примечание.
Для доступа к этой странице требуется авторизация. Вы можете попробовать войти или изменить каталоги.
Для доступа к этой странице требуется авторизация. Вы можете попробовать изменить каталоги.
В 2026 году были выпущены следующие функции и улучшения Databricks SQL.
Март 2026 г.
Databricks SQL версия 2026.10 теперь доступна в предварительном просмотре.
26 марта 2026 г.
Databricks SQL версия 2026.10 теперь доступна в канале предварительного просмотра. Ознакомьтесь со следующим разделом, чтобы узнать о новых функциях, изменениях поведения и исправлениях ошибок.
Ошибки метрик наблюдения больше не приводят к сбою запросов
Ошибки во время сбора метрик наблюдения больше не вызывают сбоев выполнения запроса. Ранее ошибки в OBSERVE предложениях (например, деление по нулю) могли блокировать или завершить весь запрос. Теперь запрос завершается успешно, и ошибка возникает при вызове observation.get.
Предложение FILTER для агрегатных функций MEASURE
Агрегатные функции MEASURE теперь поддерживают предложения FILTER. Ранее фильтры были незаметно игнорированы.
Оптимизированные операции записи для операций CRTAS каталога Unity
СОЗДАНИЕ ИЛИ ЗАМЕНА TABLE Операции AS SELECT (CRTAS) на секционированных таблицах каталога Unity теперь по умолчанию применяют оптимизацию записей, создавая меньше, но большие файлы. Чтобы отключить, установите значение spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabledfalse.
Значения секций метки времени используют часовой пояс сеанса
Значения секций метки времени теперь используют часовой пояс сеанса хранилища SQL. Если у вас есть разделы временных меток, созданные до версии 2025.40 Databricks SQL, выполните SHOW PARTITIONS для проверки метаданных разделов перед записью новых данных.
Зарезервированное ключевое слово DESCRIBE FLOW
Команда DESCRIBE FLOW теперь доступна. Если у вас есть таблица с именем flow, используйте DESCRIBE schema.flow, DESCRIBE TABLE flow, или DESCRIBE `flow` с обратными апострофами.
Пространственные SQL операции логического типа
ST_Difference, ST_Intersectionи ST_Union используйте новую реализацию со следующими улучшениями:
- Допустимые входные геометрии всегда создают результат и больше не вызывают ошибок. Недопустимые входные данные не вызывают ошибок, но могут не создавать допустимые результаты.
- Производительность приблизительно в 2 раза быстрее.
- Результаты могут отличаться после 15-го десятичного разряда для пересечений сегментов линии из-за различных формул и порядка операций.
- Результаты нормализуются для согласованных, сопоставимых выходных данных:
- Точки сортируются по значениям координат.
- Линии создаются из самых длинных возможных путей.
- Круги многоугольников поворачиваются, поэтому первая точка имеет наименьшие значения координат.
- Эта нормализация применяется во всех случаях, за исключением вызовов
ST_Differenceс двумя неперекрывающимися геометриями, где первая геометрия возвращается неизмененную.
Типы исключений для SQLSTATE
Типы исключений теперь поддерживают SQLSTATE. Если код анализирует исключения по строковым сопоставлениям или перехватывает определенные типы исключений, обновите логику обработки ошибок.
Поддержка типа данных DATETIMEOFFSET для Microsoft Azure Synapse
Теперь тип DATETIMEOFFSET данных доступен для подключений Microsoft Azure Synapse.
Комментарии к таблицам Google BigQuery
Описания таблиц Google BigQuery интерпретируются и выводятся как комментарии к таблице.
Эволюция схемы с INSERT инструкциями
Используйте условие WITH SCHEMA EVOLUTION с инструкциями SQL INSERT для автоматического изменения схемы целевой таблицы во время операций вставки. Предложение поддерживается для INSERT INTO, INSERT OVERWRITE, и INSERT INTO ... REPLACE форм. Рассмотрим пример.
INSERT WITH SCHEMA EVOLUTION INTO students TABLE visiting_students_with_additional_id;
Схема целевой таблицы Delta Lake обновляется, чтобы учесть дополнительные столбцы или расширенные типы из источника. Дополнительные сведения см. в эволюции схемы и синтаксисе INSERT инструкций.
Сохранённые значения структуры NULL в операциях INSERT
INSERT операции с эволюцией схемы или неявным приведением теперь сохраняют NULL значения структуры, если исходные и целевые таблицы имеют разные порядок полей структуры.
функция parse_timestamp SQL
Функция SQL parse_timestamp анализирует строки метки времени с помощью нескольких шаблонов и выполняется в обработчике Photon для повышения производительности при анализе меток времени в нескольких форматах. Сведения о форматировании шаблонов даты и времени см. в шаблонах Datetime .
max_by и min_by с необязательным лимитом
Агрегатные функции max_by и min_by теперь принимают необязательный третий аргумент limit (до 100 000). При наличии, функции возвращают массив из до limit значений, соответствующих самым большим (или наименьшим) значениям выражения упорядочивания, упрощая запросы top-K и bottom-K без оконных функций или временных таблиц.
Векторные агрегатные и скалярные функции
Новые функции SQL работают с ARRAY<FLOAT> векторами для операций по встраиванию и вычислению схожести:
Агрегатные функции:
- vector_avg. Возвращает среднее значение векторов элемента в группе.
- vector_sum: возвращает элементную сумму векторов в группе.
Скалярные функции:
- vector_cosine_similarity. Возвращает сходство косинуса двух векторов.
- vector_inner_product: возвращает внутренний (точка) продукт двух векторов.
- vector_l2_distance. Возвращает расстояние Евклиида (L2) между двумя векторами.
- vector_norm: возвращает норму Lp вектора (1, 2 или бесконечность).
- vector_normalize. Возвращает вектор, нормализованный в единицу длины.
См. встроенные функции.
Поддержка курсора SQL в составных инструкциях
Составные операторы сценариев SQL теперь поддерживают обработку курсоров. Используйте DECLARE CURSOR для определения курсора, затем OPEN, FETCH и CLOSE для выполнения запроса и обработки строк по одной. Курсоры могут использовать маркеры параметров и обработчики условий, например NOT FOUND для обработки строк по строкам.
Приблизительные функции эскиза top-k
Новые функции позволяют создавать и объединять приблизительные эскизы top-K для распределенной агрегации top-K:
- approx_top_k_accumulate. Создает эскиз для каждой группы.
- approx_top_k_combine: слияние эскизов.
- approx_top_k_estimate: Возвращает наиболее часто встречающиеся K элементы с оценочными количествами.
Дополнительные сведения см. в разделе approx_top_k агрегатных функций и встроенных функций.
Функции наброска кортежей
Новые статистические и скалярные функции для эскизов кортежей поддерживают различные подсчет и агрегирование по парам сводки ключей.
Агрегатные функции:
-
tuple_sketch_agg_doubleагрегатная функция -
tuple_sketch_agg_integerагрегатная функция -
tuple_union_agg_doubleагрегатная функция -
tuple_union_agg_integerагрегатная функция -
tuple_intersection_agg_doubleагрегатная функция -
tuple_intersection_agg_integerагрегатная функция
Скалярные функции:
- tuple_sketch_estimate
- tuple_sketch_summary
- tuple_sketch_theta
- tuple_union
- tuple_intersection
- tuple_difference
См. встроенные функции.
Пользовательские зависимости для определяемых пользователем табличных функций Python в каталоге Unity
Определяемые пользователем функции таблиц (UDTFs) каталога Unity теперь могут использовать пользовательские зависимости для внешних библиотек, чтобы использовать пакеты за пределами доступных в среде хранилища SQL по умолчанию. См. Расширение UDF с использованием настраиваемых зависимостей.
Новые геопространственные функции
Теперь доступны следующие геопространственные функции:
-
st_estimatesridфункция: оценивает лучший проецируемый идентификатор пространственной ссылки (SRID) для входной геометрии. -
st_force2dфункция: преобразует географию или геометрию в его 2D-представление. -
st_nringsфункция: подсчитывает общее количество колец в многоугольнике или мульти-многоугольнике, включая внешние и внутренние кольца. -
st_numpointsфункция: подсчитывает количество непустых точек в географическом или геометрическом объекте.
Поддержка фотона для геопространственных функций
Следующие геопространственные функции теперь выполняются в подсистеме Фотона для повышения производительности:
Февраль 2026 г.
Databricks SQL версии 2025.40 развертывается в текущей версии.
23 февраля 2026 г.
Databricks SQL версии 2025.40 выпускается в канал Current. См. функции в 2025.40.
Databricks SQL версии 2025.40 теперь доступна в режиме предварительного просмотра
11 февраля 2026 г.
Databricks SQL версии 2025.40 теперь доступна в канале предварительного просмотра. Ознакомьтесь со следующим разделом, чтобы узнать о новых функциях, изменениях поведения и исправлениях ошибок.
SQL сценарии доступны для общего пользования
Скрипты SQL теперь общедоступны. Написание процедурной логики с помощью SQL, включая условные операторы, циклы, локальные переменные и обработку исключений.
Маркеры параметров теперь поддерживаются в дополнительных контекстах SQL
Теперь маркеры параметров с именем () и без имени (:param?) можно использовать в любом месте, где разрешено литеральное значение соответствующего типа. К ним относятся инструкции DDL, такие как CREATE VIEW v AS SELECT ? AS c1, типы столбцов, такие как DECIMAL(:p, :s), и комментарии, такие как COMMENT ON t IS :comment. Это позволяет параметризировать большое количество инструкций SQL, не открывая код атакам внедрения SQL. См. метки параметров.
IDENTIFIER предложение, развернутое до дополнительных контекстов SQL
Предложение IDENTIFIER, которое преобразует строки в имена объектов SQL, теперь поддерживается практически в любом контексте, где допустим идентификатор. В сочетании с расширенной поддержкой маркеров параметров и коалесценции литеральных строк, можно параметризировать всё: от псевдонимов столбцов (AS IDENTIFIER(:name)) до определений столбцов (IDENTIFIER(:pk) BIGINT NOT NULL). См. IDENTIFIER пункт.
Объединение литеральных строк поддерживается везде
Последовательные строковые литералы, такие как 'Hello' ' World', теперь объединяются в любом контексте, где разрешены строковые литералы, включая 'Hello World'. См. тип STRING.
Новая функция BITMAP_AND_AGG
Новая функция BITMAP_AND_AGG теперь доступна для дополнения существующей библиотеки BITMAP функций.
Новые функции Theta Sketch для приблизительных подсчетов уникальных значений
Теперь доступна новая библиотека функций для приблизительного подсчета уникальных элементов и выполнения операций с множествами с помощью Datasketches Theta Sketch.
-
theta_sketch_aggагрегатная функция -
theta_union_aggагрегатная функция -
theta_intersection_aggагрегатная функция -
theta_sketch_estimateфункция -
theta_unionфункция -
theta_differenceфункция -
theta_intersectionфункция
Новые функции эскиза KLL для приблизительных квантилей
Теперь доступна новая библиотека функций для создания KLL скетчей для приблизительного вычисления квантилей:
-
kll_sketch_agg_bigintагрегатная функция -
kll_sketch_get_quantile_bigintфункция -
kll_sketch_merge_bigintфункция -
kll_sketch_agg_doubleагрегатная функция -
kll_sketch_get_quantile_doubleфункция -
kll_sketch_merge_doubleфункция -
kll_sketch_agg_floatагрегатная функция -
kll_sketch_get_quantile_floatфункция -
kll_sketch_merge_floatфункция -
kll_sketch_get_n_bigintфункция -
kll_sketch_get_rank_bigintфункция -
kll_sketch_to_string_bigintфункция -
kll_sketch_get_n_doubleфункция -
kll_sketch_get_rank_doubleфункция -
kll_sketch_to_string_doubleфункция -
kll_sketch_get_n_floatфункция -
kll_sketch_get_rank_floatфункция -
kll_sketch_to_string_floatфункция
Можно объединить несколько эскизов KLL в контексте агрегирования с помощью kll_merge_agg_bigint, kll_merge_agg_double и kll_merge_agg_float.
Функции окна SQL в представлениях метрик
Теперь можно использовать функции окна SQL в представлениях метрик для вычисления итогов выполнения, ранжирования и других вычислений на основе окон.
Новые геопространственные функции
Теперь доступны следующие новые геопространственные функции:
-
st_azimuthфункция: возвращает азимут на севере от первой точки к второй в радианах[0, 2π). -
st_boundaryфункция: возвращает границу входной геометрии. -
st_closestpointфункция: возвращает 2D-проекцию точки на первой геометрии, ближайшей к второй геометрии. -
st_geogfromewktфункция: анализирует описание расширенного текста Well-Known (EWKT) для географии. -
st_geomfromewktфункция: анализирует описание расширенного Well-Known текста (EWKT) геометрии.
Поддержка входных данных EWKT для существующих функций геометрии и географии
Следующие функции теперь принимают Extended Well-Known Text (EWKT) в качестве входных данных:
Улучшенная производительность повторяющихся запросов по таблицам с фильтрами строк и масками столбцов
Повторяющиеся допустимые запросы по таблицам с фильтрами строк и масками столбцов теперь получают преимущество от улучшенного кэширования результатов запроса, что приводит к более быстрому времени выполнения.
Улучшенная производительность геопространственной функции
Производительность пространственного соединения улучшается с помощью поддержки смешанного пространственного соединения. В следующих функциях ST теперь реализованы реализации Photon:
FSCK REPAIR TABLE включает восстановление метаданных по умолчанию
FSCK REPAIR TABLE Теперь включает начальный этап восстановления метаданных перед проверкой отсутствующих файлов данных, что позволяет работать с таблицами с поврежденными контрольными точками или недопустимыми значениями секций. Кроме того, в выходной схеме dataFilePath столбец теперь допускает значение NULL для поддержки новых типов проблем, в которых путь к файлу данных не применяется.
DESCRIBE TABLE Выходные данные включают столбец метаданных
Результаты DESCRIBE TABLE [EXTENDED] теперь включают в себя столбец metadata для всех типов таблиц. Этот столбец содержит семантические метаданные (отображаемое имя, формат и синонимы), определенные в таблице в виде строки JSON.
Структуры NULL, сохраненные в операциях слияния, UPDATE, и потоковой записи
Теперь структуры NULL сохраняются как NULL в Delta Lake, а также в операциях потоковой записи, которые включают приведение типов структур. Ранее структуры NULL развертывались в структуры, в которых все поля были установлены в NULL.
Столбцы секционирования, материализованные в файлах Parquet
Секционированные таблицы Delta Lake теперь материализуют столбцы секций в недавно записанных файлах данных Parquet. Ранее значения секций хранились только в метаданных журнала транзакций Delta Lake. Рабочие нагрузки, которые непосредственно считывают файлы Parquet, написанные Delta Lake, видят дополнительные столбцы секционирования в только что написанных файлах.
Значения разделов метки времени учитывают часовой пояс сеанса
Теперь значения секции метки времени правильно корректируются с помощью spark.sql.session.timeZone конфигурации. Ранее они были неправильно преобразованы в UTC с помощью часового пояса JVM.
Обновленные ограничения на поездки во времени
Azure Databricks теперь блокирует запросы на временное путешествие за пределы порога deletedFileRetentionDuration для всех таблиц. Команда VACUUM игнорирует аргумент длительности хранения, за исключением случаев, когда значение равно 0 часов. Невозможно задать deletedFileRetentionDuration больше logRetentionDuration.
SHOW TABLES DROPPED уважает положение LIMIT
SHOW TABLES DROPPED теперь правильно учитывает LIMIT условие.