Notatka
Dostęp do tej strony wymaga autoryzacji. Może spróbować zalogować się lub zmienić katalogi.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga / Notatka
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby zapoznać się z datą zakończenia wsparcia, zobacz End-of-support and end-of-life history (Koniec wsparcia technicznego i historia zakończenia życia). Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w sekcji Notatki o wersjach i zgodności środowiska Databricks Runtime.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 11.2 obsługiwanym przez platformę Apache Spark 3.3.0. Usługa Databricks wydała tę wersję we wrześniu 2022 r.
Nowe funkcje i ulepszenia
- Zmień na uprawnienia ALTER TABLE w kontroli dostępu do tabel (ACL tabeli)
- dynamiczne przycinanie MERGE INTO
- Ulepszone wykrywanie konfliktów w Delta przy użyciu dynamicznego przycinania plików
- Nowa karta Integracji typu open source na stronach głównych DSE/SQL
- ulepszenia wykrywania partycji CONVERT TO DELTA
- Schematy tabel obsługują teraz wartości domyślne kolumn
- Nowe funkcje geoprzestrzenne H3
- Nowa zależność Databricks Runtime
- Użycie własnego klucza: szyfrowanie poświadczeń usługi Git
- SQL: Nowa funkcja agregacji any_value
- Polecenia systemu plików narzędzi Databricks są teraz dozwolone na większej liczbie typów klastrów
- Uprawnienia CREATE można teraz przyznać w metaskładnicach dla Unity Catalog
- Zoptymalizowane zapisy dla niepartycjonowanych tabel w klastrach z obsługą funkcji Photon
- Obsługa funkcji Photon dla większej liczby źródeł danych
- SQL: ALTER SHARE teraz obsługuje wersję startową
Zmiana uprawnień na ALTER TABLE w kontrolach dostępu do tabel (ACL tabeli)
Teraz użytkownicy potrzebują tylko MODIFY uprawnień do zmiany schematu lub właściwości tabeli za pomocą ALTER TABLE. Własność jest nadal wymagana, aby udzielić uprawnień do tabeli, zmienić jej właściciela i lokalizację lub zmienić jego nazwę. Ta zmiana powoduje, że model uprawnień dla ACL tabeli jest spójny z katalogiem Unity. Zobacz: ALTER TABLE.
Dynamiczne przycinanie dla MERGE INTO
W przypadku korzystania z obliczeń MERGE INTO z włączoną usługą Photon funkcja przycinania plików dynamicznych i partycji jest używana w razie potrzeby w celu zwiększenia wydajności, na przykład w przypadku scalenia małej tabeli źródłowej z większą tabelą docelową.
Ulepszone wykrywanie konfliktów w funkcji Delta przy użyciu dynamicznego oczyszczania plików
Podczas sprawdzania potencjalnych konfliktów przy zatwierdzaniu, wykrywanie konfliktów uwzględnia teraz pliki, które są przycinane przez dynamiczne przycinanie plików, ale nie byłyby przycinane przez filtry statyczne. Spowoduje to zmniejszenie liczby transakcji zakończonych niepowodzeniem.
Nowa karta Integracji typu open source na stronach głównych DSE/SQL
Wprowadzenie nowej karty "Open Source Integrations" na stronach głównych DSE/SQL, która wyświetla open source opcje integracji, takie jak DLT i dbt core.
CONVERT TO DELTA ulepszenia wykrywania partycji
CONVERT TO DELTA automatycznie generuje schemat partycji tabel Parquet zarejestrowanych w metastore Hive lub w katalogu Unity, eliminując konieczność podania klauzuli PARTITIONED BY.
CONVERT TO DELTA korzysta z informacji o partycji z magazynu metadanych w celu odnajdywania plików dla tabeli Parquet zamiast wyświetlania całej ścieżki podstawowej, dzięki czemu usunięte partycje nie są dodawane do tabeli delty.
Zobacz Konwersja na Delta Lake.
Schematy tabel obsługują teraz wartości domyślne kolumn
Schematy tabel obsługują teraz ustawianie wartości domyślnych dla kolumn.
INSERT, UPDATEi DELETE polecenia dla tych kolumn mogą odwoływać się do tych wartości za pomocą słowa kluczowego DEFAULT . Na przykład CREATE TABLE t (id INT, data INT DEFAULT 42) USING PARQUET , a następnie INSERT INTO t VALUES (1, DEFAULT) dołączy wiersz (1, 42). To zachowanie jest obsługiwane w przypadku źródeł danych CSV, JSON, Orc i Parquet.
Nowe funkcje geoprzestrzenne H3
Teraz można używać 28 nowych wbudowanych wyrażeń H3 na potrzeby przetwarzania geoprzestrzenowego w klastrach z obsługą funkcji Photon, dostępnych w usługach SQL, Scala i Python. Zobacz Funkcje geoprzestrzenne H3.
Nowa zależność środowiska wykonawczego usługi Databricks
Środowisko Databricks Runtime jest teraz zależne od biblioteki H3 Java w wersji 3.7.0.
Przynieś swój własny klucz: szyfrowanie poświadczeń Git
Za pomocą Azure Key Vault można szyfrować osobisty token dostępu usługi Git lub inne poświadczenia usługi Git.
Zobacz Konfigurowanie integracji z usługą Git dla folderów Git.
SQL: Nowa funkcja agregacji any_value
Nowa any_value funkcja agregacji zwraca dowolną losową wartość expr dla grupy wierszy. Zobacz funkcję agregacji any_value.
Polecenia systemu plików narzędzi usługi Databricks są dozwolone dla większej liczby typów klastrów
dbutils.fs Polecenia (z wyjątkiem poleceń związanych z montowaniem) są teraz dozwolone w klastrach z izolacją użytkowników z Unity Catalog, a także w starszych klastrach ACL tabel, gdy użytkownik ma ANY FILE uprawnienia.
Uprawnienia CREATE można teraz przyznać w metasklepach dla Unity Catalog
CREATE CATALOG, CREATE EXTERNAL LOCATION, CREATE SHARE, CREATE RECIPIENT, oraz uprawnienia CREATE PROVIDER można teraz przyznawać w metaskładnicach Unity Catalog.
Zoptymalizowane zapisy dla niepartycjonowanych tabel w klastrach z obsługą funkcji Photon
Zarządzane tabele w Unity Catalog automatycznie zapisują pliki o dobrze dostosowanym rozmiarze z niepartycyjnych tabel, aby poprawić szybkość zapytań i zoptymalizować wydajność.
Obsługa funkcji Photon dla większej liczby źródeł danych
Aplikacja Photon obsługuje teraz więcej źródeł danych, w tym CSV i Avro, a także jest zgodna z buforowanymi ramkami danych. Wcześniej skanowanie tych źródeł danych oznaczało, że całe zapytanie nie może być fotonizowane, niezależnie od operatorów lub wyrażeń zapytania. Teraz zapytania skanujące te źródła danych mogą być fotonizowane, zmniejszając znaczne opóźnienia i poprawiając TCO.
Ta funkcja jest domyślnie włączona w spark.databricks.photon.photonRowToColumnar.enabled konfiguracji.
Ograniczenia:
- Schematy z typami zagnieżdżonymi są nieobsługiwane (tj. tablice, mapy i struktury) w tej wersji.
- Źródła ORC, RDD, Kinesis, Kafka i EventHub nie są obsługiwane w tej wersji.
SQL: ALTER SHARE obsługuje teraz WERSJĘ POCZĄTKOWĄ
Polecenie ALTER SHARE obsługuje teraz funkcję START VERSION, która umożliwia dostawcom udostępnianie danych począwszy od określonej wersji tabeli. Zobacz: ALTER SHARE.
Uaktualnienia biblioteki
- Uaktualnione biblioteki Python:
- distlib z 0.3.4 do 0.3.5
- filelock z wersji 3.7.1 do wersji 3.8.0
- wykres z wersji 5.8.2 do 5.9.0
- protobuf z wersji 4.21.2 do wersji 4.21.5
- Uaktualnione biblioteki języka R:
- broom od 0.8.0 do 1.0.0
- bslib z 0.3.1 do 0.4.0
- callr od 3.7.0 do 3.7.1
- caret od 6.0-92 do 6.0-93
- dbplyr z wersji 2.2.0 do 2.2.1
- devtools z wersji 2.4.3 do 2.4.4
- ocena w zakresie od 0,15 do 0,16
- Aktualizacja wersji z 2.1.0 na 2.1.1
- fontawesome z 0.2.2 do 0.3.0
- przyszłość z wersji 1.26.1 do 1.27.0
- typy ogólne od 0.1.2 do 0.1.3
- aktualizacja wersji gert z 1.6.0 do 1.7.0
- globals z 0.15.1 do 0.16.0
- googlesheets4 z 1.0.0 do 1.0.1
- hardhat z 1.1.0 do 1.2.0
- htmltools z wersji 0.5.2 do 0.5.3
- równocześnie z aktualizacją z wersji 1.32.0 do 1.32.1
- filar od 1.7.0 do 1.8.0
- aktualizacja pkgload z wersji 1.2.4 na 1.3.0
- processx z wersji 3.6.1 do 3.7.0
- Program Rcpp z wersji 1.0.8.3 do 1.0.9
- przepisy od 0.2.0 do 1.0.1
- rlang z wersji 1.0.2 do 1.0.4
- roxygen2 z 7.2.0 do 7.2.1
- RSQLite z wersji 2.2.14 do 2.2.15
- sass z wersji 0.4.1 do 0.4.2
- błyszczące od 1.7.1 do 1.7.2
- stringi z wersji 1.7.6 do 1.7.8
- tibble z 3.1.7 do 3.1.8
- tidyverse z 1.3.1 do 1.3.2
- timeDate z 3043.102 do 4021.104
- xfun od 0.31 do 0.32
- Uaktualnione biblioteki Java:
- org.apache.orc.orc-core z wersji 1.7.4 na 1.7.5
- org.apache.orc.orc-mapreduce z wersji 1.7.4 do 1.7.5
- Aktualizacja org.apache.orc.orc-shims z wersji 1.7.4 do 1.7.5
Apache Spark
Środowisko Databricks Runtime 11.2 obejmuje platformę Apache Spark 3.3.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 11.1 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-40151] [WARMFIX][sc-109002][SC-108809][sql] Zwraca szersze typy interwałów ANSI z funkcji percentylu
- [SPARK-40054] [SQL] Przywracanie składni obsługi błędów try_cast()
- [SPARK-39489] [CORE] Zwiększanie wydajności rejestrowania zdarzeń JsonProtocol przy użyciu narzędzia Jackson zamiast Json4s
-
[SPARK-39319] [CORE][sql] Tworzenie kontekstów zapytań w ramach
SparkThrowable - [SPARK-40085] [SQL] Użyj klasy błędów INTERNAL_ERROR zamiast IllegalStateException, aby wskazać usterki
- [SPARK-40001] [SQL] Spraw, aby zapisy NULL w kolumnach DOMYŚLNYch JSON zapisywały 'null' do magazynu.
- [SPARK-39635] [SQL] Obsługa metryk modułów sterujących w interfejsie API metryk niestandardowych DS v2
- [SPARK-39184] [SQL] Zarządzanie zbyt małą tablicą wyników w sekwencjach dat i ciągach czasowych
-
[SPARK-40019] [SQL] Refaktoryzacja komentarza containNull w ArrayType i poprawa niejasności logiki w wyrażeniu collectionOperatora dotyczącym
containsNull - [SPARK-39989] [SQL] Obsługa szacowania statystyk kolumn, jeśli jest to wyrażenie z możliwością składania
- [SPARK-39926] [SQL] Naprawiono usterkę w obsłudze domyślnej kolumny dla niewektorowych skanowań Parquet
- [SPARK-40052] [SQL] Obsługa bezpośrednich buforów bajtowych w VectorizedDeltaBinaryPackedReader
- [SPARK-40044] [SQL] Naprawianie typu interwału docelowego w błędach przepełnienia rzutu
- [SPARK-39835] [SQL] Naprawiono problem z funkcją EliminateSorts, polegającą na usuwaniu globalnego sortowania umieszczonego poniżej lokalnego sortowania
- [SPARK-40002] [SQL] Nie wypychaj limitu przez okno przy użyciu ntile
- [SPARK-39976] [SQL] Funkcja ArrayIntersect powinna poprawnie obsługiwać wartość null w wyrażeniu po lewej stronie
- [SPARK-39985] [SQL] Włączanie niejawnych wartości domyślnych kolumn w we wstawieniach z DataFrames
- [SPARK-39776] [SQL] JOIN szczegółowy ciąg znaków powinien zawierać typ sprzężenia
- [SPARK-38901] [SQL] DS w wersji 2 obsługuje przesuwanie w dół różnorodnych funkcji
- [SPARK-40028] [SQL][kontynuacja] Ulepszenie przykładów funkcji tekstowych
- [SPARK-39983] [CORE][sql] Nie buforuj nieserializowane relacje emisji na sterowniku
-
[SPARK-39812] [SQL] Uprość kod, który konstruuje
AggregateExpressionz użyciemtoAggregateExpression - [SPARK-40028] [SQL] Dodawanie przykładów binarnych dla wyrażeń ciągu
- [SPARK-39981] [SQL] Rzuć wyjątek QueryExecutionErrors.castingCauseOverflowErrorInTableInsert w elemencie Cast
- [SPARK-40007] [PYTHON][sql] Dodawanie trybu do funkcji
- [SPARK-40008] [SQL] Obsługa rzutowania liczb całkowitych do interwałów ANSI
- [SPARK-40003] [PYTHON][sql] Dodawanie "mediany" do funkcji
- [SPARK-39952] [SQL] SaveIntoDataSourceCommand powinien ponownie zapisać relację wyników
- [SPARK-39951] [SQL] Aktualizacja sprawdzania kolumnowego Parquet V2 dla zagnieżdżonych pól
- [SPARK-33236] [shuffle] Backport do Databricks Runtime 11.x: Umożliwić usługę shuffle opartą na przesyłaniu do przechowywania stanu w bazie danych na poziomie NM dla restartu zachowującego pracę
- [SPARK-39836] [SQL] Uprość program V2ExpressionBuilder, wyodrębniając typową metodę.
-
[SPARK-39873] [SQL] Usuwanie
OptimizeLimitZeroi scalanie go zEliminateLimits - [SPARK-39961] [SQL] Rzutowanie z obsługą push-down w DS V2, jeśli rzutowanie jest bezpieczne
-
[SPARK-39872] [SQL] Zmiana na użycie
BytePackerForLong#unpack8Valuesz tablicowym API wejściowym wVectorizedDeltaBinaryPackedReader -
[SPARK-39858] [SQL] Usuń niepotrzebne
AliasHelperlubPredicateHelperdla niektórych reguł - [SPARK-39900] [SQL] Zajmowanie się częściowym lub negowanym warunkiem w przepychaniu predykatów formatu binarnego
- [SPARK-39904] [SQL] Zmień nazwę inferDate na preferujDate i wyjaśnij semantyka opcji w źródle danych CSV
- [SPARK-39958] [SQL] Dodawanie dziennika ostrzeżeń, gdy nie można załadować niestandardowego obiektu metryki
- [SPARK-39932] [SQL] WindowExec powinien wyczyścić bufor końcowej partycji
- [SPARK-37194] [SQL] Unikaj niepotrzebnego sortowania przy zapisie v1, jeśli nie jest to partycja dynamiczna
- [SPARK-39902] [SQL] Dodaj szczegóły skanowania do węzła skanowania planu Spark w SparkUI
- [SPARK-39865] [SQL] Pokaż odpowiednie komunikaty o błędach przepełnienia podczas wstawiania danych do tabeli
- [SPARK-39940] [SS] Odśwież tabelę katalogu dla zapytania strumieniowego z wykorzystaniem ujścia DSv1
-
[SPARK-39827] [SQL] Używanie klasy błędu
ARITHMETIC_OVERFLOWprzy przepełnieniu typu intadd_months() - [SPARK-39914] [SQL] Dodaj konwersję filtru DS V2 do filtru w wersji 1
- [SPARK-39857] [SQL] Ręczne przeportowanie Databricks Runtime 11.x; V2ExpressionBuilder używa nieprawidłowego typu LiteralValue dla warunku In #43454
- [SPARK-39840] [SQL][python] Wyodrębnij PythonArrowInput jako symetrię do PythonArrowOutput
- [SPARK-39651] [SQL] Przycinanie warunku filtru, jeśli porównanie z funkcją rand jest deterministyczne
- [SPARK-39877] [PYTHON] Dodawanie elementu unpivot do interfejsu API ramki danych PySpark
- [SPARK-39909] [SQL] Organizowanie sprawdzania informacji wypychanych dla aplikacji JDBCV2Suite
- [SPARK-39834] [SQL][ss] Uwzględnij statystyki źródła i ograniczenia dla LogicalRDD, jeśli pochodzą z DataFrame
- [SPARK-39849] [SQL] Dataset.as(StructType) wypełnia brakujące nowe kolumny z wartością null
- [SPARK-39860] [SQL] Więcej wyrażeń powinno rozszerzać predykat
- [SPARK-39823] [SQL][python] Zmień nazwę Dataset.as na Dataset.to i dodaj DataFrame.to w PySpark
- [SPARK-39918] [SQL][pomocnicza] Zastąp wyraz "nieporównywalny" ciągiem "nieporównywalny" w komunikacie o błędzie
- [SPARK-39857] [SQL][3.3] V2ExpressionBuilder używa nieprawidłowego typu danych LiteralValue dla predykatu In
- [SPARK-39862] [SQL] Ręczne przenoszenie wstecz dla PR 43654 dla Databricks Runtime 11.x: Aktualizacja SQLConf.DEFAULT_COLUMN_ALLOWED_PROVIDERS, aby umożliwić/zabronić ALTER TABLE ... Dodawaj polecenia COLUMN oddzielnie.
- [SPARK-39844] [SQL] Ręczne backportowanie dla PR 43652 dla Databricks Runtime 11.x
-
[SPARK-39899] [SQL] Napraw przekazywanie parametrów komunikatu do
InvalidUDFClassException - [SPARK-39890] [SQL] Spraw, aby TakeOrderedAndProjectExec dziedziczył AliasAwareOutputOrdering
- [SPARK-39809] [PYTHON] Obsługa obiektu CharType w narzędziu PySpark
- [SPARK-38864] [SQL] Dodaj unpivot / melt do zestawu danych
- [SPARK-39864] [SQL] Leniwie zarejestruj ExecutionListenerBus
- [SPARK-39808] [SQL] Obsługa trybu funkcji agregującej
-
[SPARK-39875] [SQL] Zmień
protectedmetodę w klasie końcowej naprivatelubpackage-visible - [SPARK-39731] [SQL] Rozwiązano problem ze źródłami danych CSV i JSON podczas analizowania dat w formacie "yyyyMMdd" przy użyciu zasad poprawionego analizatora czasu.
- [SPARK-39805] [SS] Wycofanie trigger.Once i promowanie trigger.AvailableNow
- [SPARK-39784] [SQL] Umieść wartości literałów po prawej stronie filtra źródła danych po przetłumaczeniu wyrażenia Catalyst na filtr źródła danych
- [SPARK-39672] [SQL][3.1] Naprawa problemu z usuwaniem projektu przed filtrem w kontekście skorelowanego podzapytania
-
[SPARK-39552] [SQL] Ujednolicenie wersji 1 i 2
DESCRIBE TABLE - [SPARK-39810] [SQL] Catalog.tableExists powinna obsługiwać zagnieżdżoną przestrzeń nazw
- [SPARK-37287] [SQL] Wydzielenie dynamicznej partycji i sortowania według kubełków z pliku FileFormatWriter
- [SPARK-39469] [SQL] Określanie typu daty dla wnioskowania schematu CSV
- [SPARK-39148] [SQL] Wypychanie agregacji w DS V2 może współpracować z OFFSET lub LIMIT
- [SPARK-39818] [SQL] Naprawiono usterkę w typach ARRAY, STRUCT i MAP z wartościami DOMYŚLNYmi z polami NULL
- [SPARK-39792] [SQL] Dodaj funkcję DecimalDivideWithOverflowCheck dla średniej dla liczb dziesiętnych
-
[SPARK-39798] [SQL] Zastąp
toSeq.toArrayna.toArray[Any]w konstruktorzeGenericArrayData - [SPARK-39759] [SQL] Implementowanie indeksów list w JDBC (dialekt H2)
-
[SPARK-39385] [SQL] Obsługuje popychanie w dół
REGR_AVGXiREGR_AVGY - [SPARK-39787] [SQL] Użyj klasy błędu w przypadku błędu analizowania funkcji to_timestamp
- [SPARK-39760] [PYTHON] Obsługa platformy Varchar w PySpark
- [SPARK-39557] [SQL] Ręczne backportowanie do środowiska Databricks Runtime 11.x: Obsługa typów tablic, struktur, mapy jako wartości domyślnych
- [SPARK-39758] [SQL][3.3] Naprawa NPE w funkcjach regexp z powodu nieprawidłowych wzorców
- [SPARK-39749] [SQL] Tryb SQL ANSI: użyj reprezentacji zwykłego ciągu podczas konwersji wartości dziesiętnej na ciąg znaków
- [SPARK-39704] [SQL] Implementowanie funkcji createIndex & dropIndex i indexExists w JDBC (dialekt H2)
-
[SPARK-39803] [SQL] Użyj
LevenshteinDistancezamiastStringUtils.getLevenshteinDistance - [SPARK-39339] [SQL] Obsługa typu TimestampNTZ w źródle danych JDBC
- [SPARK-39781] [SS] Dodano obsługę udostępniania max_open_files dostawcy magazynu stanów bazy danych Rocksdb
- [SPARK-39719] [R] Implementacja databaseExists/getDatabase w SparkR z obsługą przestrzeni nazw 3L
- [SPARK-39751] [SQL] Zmień nazwę metryki agregacji kluczy skrótu
- [SPARK-39772] [SQL] Przestrzeń nazw powinna mieć wartość null, gdy baza danych ma wartość null w starych konstruktorach
- [SPARK-39625] [ SPARK-38904][sql] Add Dataset.as(StructType)
- [SPARK-39384] [SQL] Kompilowanie wbudowanych funkcji agregacji regresji liniowej dla dialektu JDBC
- [SPARK-39720] [R] Implementowanie tableExists/getTable w usłudze SparkR dla przestrzeni nazw 3L
-
[SPARK-39744] [SQL]
REGEXP_INSTRDodawanie funkcji - [SPARK-39716] [R] Zrób tak, by currentDatabase/setCurrentDatabase/listCatalogs w SparkR obsługiwało przestrzeń nazw 3L
-
[SPARK-39788] [SQL] Zmień nazwę
catalogNamenadialectNamedlaJdbcUtils - [SPARK-39647] [CORE] Zarejestrować wykonawcę w ESS przed zarejestrowaniem BlockManagera
-
[SPARK-39754] [CORE][sql] Usuń nieużywane
importlub niepotrzebne{} -
[SPARK-39706] [SQL] Ustaw brakującą kolumnę z wartością defaultValue jako stałą w
ParquetColumnVector - [SPARK-39699] [SQL] Udoskonalenie CollapseProject dla bardziej inteligentnego tworzenia wyrażeń kolekcji
-
[SPARK-39737] [SQL]
PERCENTILE_CONTiPERCENTILE_DISCpowinien obsługiwać filtr agregowany - [SPARK-39579] [SQL][python][R] Umożliwienie kompatybilności ListFunctions/getFunction/functionExists z trójwarstwową przestrzenią nazw
- [SPARK-39627] [SQL] Przesuwanie JDBC V2 powinno ujednolicić interfejs API kompilacji
- [SPARK-39748] [SQL][ss] Uwzględnij plan logiczny źródła dla LogicalRDD, jeśli pochodzi z DataFrame
- [SPARK-39385] [SQL] Tłumaczenie funkcji agregacji regresji liniowej na potrzeby wypychania
-
[SPARK-39695] [SQL]
REGEXP_SUBSTRDodawanie funkcji - [SPARK-39667] [SQL] Dodaj inne obejście, jeśli nie ma wystarczającej ilości pamięci do skompilowania i emisji tabeli
-
[SPARK-39666] [ES-337834][sql] Użyj UnsafeProjection.create, aby spełniać
spark.sql.codegen.factoryModew ExpressionEncoder - [SPARK-39643] [SQL] Zakaz wyrażeń podzapytania w wartościach domyślnych
- [SPARK-38647] [SQL] Dodaj SupportsReportOrdering jako domieszkę w interfejsie dla Scan (DataSourceV2)
- [SPARK-39497] [SQL] Poprawa wyjątków analizy w przypadku braku kolumny klucza mapy
- [SPARK-39661] [SQL] Unikaj tworzenia niepotrzebnego rejestratora SLF4J
- [SPARK-39713] [SQL] Tryb ANSI: dodawanie sugestii dotyczących używania try_element_at dla błędu INVALID_ARRAY_INDEX
- [SPARK-38899] [SQL]Usługa DS w wersji 2 obsługuje funkcje wypychania daty/godziny
-
[SPARK-39638] [SQL] Zmiana sposobu użycia
ConstantColumnVectordo przechowywania kolumn partycji wOrcColumnarBatchReader -
[SPARK-39653] [SQL] Usuń
ColumnVectorUtils#populate(WritableColumnVector, InternalRow, int)zColumnVectorUtils -
[SPARK-39231] [SQL] Użyj
ConstantColumnVectorzamiastOn/OffHeapColumnVectordo przechowywania kolumn partycji wVectorizedParquetRecordReader - [SPARK-39547] [SQL] Element V2SessionCatalog nie powinien zgłaszać wyjątku NoSuchDatabaseException w elemenie loadNamspaceMetadata
- [SPARK-39447] [SQL] Unikaj błędu AssertionError w metodzie AdaptiveSparkPlanExec.doExecuteBroadcast
- [SPARK-39492] [SQL] Przeróbka MISSING_COLUMN
- [SPARK-39679] [SQL] TakeOrderedAndProjectExec powinien uwzględniać kolejność wyjściową elementów podrzędnych
- [SPARK-39606] [SQL] Używanie statystyk podrzędnych do szacowania operatora zamówienia
- [SPARK-39611] [PYTHON][ps] Naprawić nieprawidłowe aliasy w array_ufunc
- [SPARK-39656] [SQL][3.3] Naprawienie nieprawidłowej przestrzeni nazw w DescribeNamespaceExec
- [SPARK-39675] [SQL] Przełącz konfigurację "spark.sql.codegen.factoryMode" z celu testowania do celu wewnętrznego
- [SPARK-39139] [SQL] DS V2 obsługuje przesuwanie w dół DS V2 UDF
- [SPARK-39434] [SQL] Podaj kontekst zapytania dotyczący błędu czasu wykonania, gdy indeks tablicy wykracza poza zakres
- [SPARK-39479] [SQL] DS w wersji 2 obsługuje optymalizację funkcji matematycznych (niezgodne z ANSI)
-
[SPARK-39618] [SQL]
REGEXP_COUNTDodawanie funkcji - [SPARK-39553] [CORE] wielowątkowe wyrejestrowanie tasowania nie powinno rzucać NullPointerException (NPE) podczas używania Scala 2.13
- [SPARK-38755] [PYTHON][3.3] Dodawanie pliku w celu rozwiązania problemu brakujących ogólnych funkcji pandas
- [SPARK-39444] [SQL] Dodawanie funkcji OptimizeSubqueries do listy nonExcludableRules
- [SPARK-39316] [SQL] Scalanie funkcji PromotePrecision i CheckOverflow w arytmetykę binarną dziesiętną
- [SPARK-39505] [Interfejs użytkownika] Zawartość dziennika ucieczki renderowana w interfejsie użytkownika
-
[SPARK-39448] [SQL] Dodaj
ReplaceCTERefWithRepartitiondononExcludableRuleslisty - [SPARK-37961] [SQL] Zastąp maxRows/maxRowsPerPartition dla niektórych logicznych operatorów
- [SPARK-35223] Przywracanie dodawania problemuNavigationLink
- [SPARK-39633] [SQL] Obsługa znacznika czasowego w sekundach dla TimeTravel przy użyciu opcji DataFrame
- [SPARK-38796] [SQL] Zaktualizuj dokumentację dotyczącą formatów liczb za pomocą funkcji {try_}to_number
- [SPARK-39650] [SS] Naprawiono błędny schemat danych w deduplikacji przesyłania strumieniowego z zachowaniem zgodności wstecznej
- [SPARK-39636] [CORE][ui] Naprawiono wiele usterek w JsonProtocol, które wpływają na poziomy przechowywania (StorageLevels) i żądania zasobów zadania/wykonawcy (Task/Executor ResourceRequests)
- [SPARK-39432] [SQL] Zwracanie ELEMENT_AT_BY_INDEX_ZERO z element_at(*, 0)
- [SPARK-39349] Dodać scentralizowaną metodę CheckError dla zapewnienia jakości ścieżki błędów
- [SPARK-39453] [SQL] DS V2 obsługuje przesuwanie w dół różnych nieagregujących funkcji (nienależących do ANSI)
- [SPARK-38978] [SQL] DS V2 obsługuje operator push downOFFSET
- [SPARK-39567] [SQL] Obsługa interwałów ANSI w funkcjach percentylu
- [SPARK-39383] [SQL] Obsługa kolumn DOMYŚLNYCH w ALTER TABLE ALTER COLUMNS dla źródeł danych w wersji 2
- [SPARK-39396] [ SQL] Naprawienie wyjątku logowania LDAP "kod błędu 49 — nieprawidłowe poświadczenia"
- [SPARK-39548] [SQL] Polecenie CreateView z zapytaniem zawierającym klauzulę okna napotkało problem: nie znaleziono nieprawidłowej definicji okna.
- [SPARK-39575] [AVRO] dodaj funkcję ByteBuffer#rewind po ByteBuffer#get w Avr...
- [SPARK-39543] Opcja DataFrameWriterV2 powinna zostać przekazana do właściwości magazynu w przypadku powrotu do wersji 1
- [SPARK-39564] [SS] Ujawnia informacje tabeli katalogu w planie logicznym w zapytaniu przesyłanym strumieniowo
-
[SPARK-39582] [SQL] Popraw znacznik "Since" dla
array_agg -
[SPARK-39388] [SQL] Ponowne użycie
orcSchemaprzy przesuwaniu w dół predykatów Orc - [SPARK-39511] [SQL] Ulepszenie lokalnego limitu 1 dla prawej strony lewego półłączenia/antyłączenia, jeśli warunek łączenia jest pusty
- [SPARK-38614] [SQL] Nie wypychaj limitu przez okno korzystające z percent_rank
- [SPARK-39551] [SQL] Dodaj sprawdzanie nieprawidłowego planu AQE
- [SPARK-39383] [SQL] Obsługa kolumn DOMYŚLNYCH w ALTER TABLE ADD COLUMNS do źródeł danych V2
- [SPARK-39538] [SQL] Unikaj tworzenia niepotrzebnego rejestratora SLF4J
- [SPARK-39383] [SQL] Ręczne przeniesienie do środowiska Databricks Runtime 11.x: refaktoryzacja obsługi kolumny DEFAULT, aby zrezygnować z przekazywania głównego analizatora.
- [SPARK-39397] [SQL] Zrelaksuj aliasAwareOutputExpression, aby obsługiwać alias za pomocą wyrażenia
-
[SPARK-39496] [SQL] Obsługa struktury null w pliku
Inline.eval -
[SPARK-39545] [SQL] Zastąp metodę
concatwExpressionSetw Scali 2.13, aby zwiększyć wydajność - [SPARK-39340] [SQL] Funkcja DS v2 agg pushdown powinna zezwalać na kropki w nazwie kolumn najwyższego poziomu
- [SPARK-39488] [SQL] Upraszczanie obsługi błędów obiektu TempResolvedColumn
- [SPARK-38846] [SQL] Dodaj jawne mapowanie danych między typem liczbowym Teradata a typem DecimalType Spark
-
[SPARK-39520] [SQL] Przesłoń
--metodę dlaExpressionSetw Scala 2.13 - [SPARK-39470] [SQL] Obsługa rzutowania interwałów ANSI na liczby dziesiętne
- [SPARK-39477] [SQL] Usuń informacje o "liczbie zapytań" ze złotych plików aplikacji SQLQueryTestSuite
- [SPARK-39419] [SQL] Napraw klasę ArraySort, aby zgłosić wyjątek, gdy komparator zwraca wartość null
-
[SPARK-39061] [SQL] Ustaw prawidłowo nullowalność dla
Inlineatrybutów wyjściowych -
[SPARK-39320] [SQL] Obsługa funkcji agregującej
MEDIAN - [SPARK-39261] [CORE] Ulepszanie formatowania nowego wiersza dla komunikatów o błędach
- [SPARK-39355] [SQL] Pojedyncza kolumna używa cudzysłowia do konstruowania atrybutu UnresolvedAttribute
- [SPARK-39351] [SQL] SHOW CREATE TABLE powinien zredagować właściwości
- [SPARK-37623] [SQL] Obsługa funkcji agregującej ANSI: regr_intercept
- [SPARK-39374] [SQL] Ulepszanie komunikatu o błędzie dla listy kolumn określonej przez użytkownika
- [SPARK-39255] [SQL][3.3] Ulepszanie komunikatów o błędach
- [SPARK-39321] [SQL] Refaktoryzacja operatora TryCast w celu użycia elementu RuntimeReplaceable
- [SPARK-39406] [PYTHON] Akceptowanie tablicy NumPy w elemecie createDataFrame
- [SPARK-39267] [SQL] Czyszczenie niepotrzebnego symbolu dsl
- [SPARK-39171] [SQL] Ujednolicenie wyrażenia rzutowania
- [SPARK-28330] [SQL] Obsługa języka ANSI SQL: klauzula przesunięcia wyniku w wyrażeniu zapytania
- [SPARK-39203] [SQL] Przepisanie lokalizacji tabeli na bezwzględny identyfikator URI na podstawie identyfikatora URI bazy danych
-
[SPARK-39313] [SQL]
toCatalystOrderingpowinien zakończyć się niepowodzeniem, jeśli nie można przetłumaczyć V2Expression - [SPARK-39301] [SQL][python] Korzystanie z właściwości LocalRelation i uwzględnianie rozmiaru partii strzałki w elemenie createDataFrame z optymalizacją strzałek
- [SPARK-39400] [SQL] Spark SQL powinno usunąć katalog zasobów Hive w każdym przypadku
Aktualizacje konserwacji
Zobacz aktualizacje konserwacyjne środowiska Databricks Runtime 11.2.
Środowisko systemu
- System operacyjny: Ubuntu 20.04.4 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.1.3
- Delta Lake: 2.1.0
Zainstalowane biblioteki Python
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| Antergos Linux | 2015.10 (ISO w trybie ciągłym) | argon2-cffi | 20.1.0 | generator asynchroniczny | 1.10 |
| attrs | 21.2.0 | Wezwanie zwrotne | 0.2.0 | backports.ustawienia-punktów-wejścia | 1.1.1 |
| czarny | 22.3.0 | wybielacz | 4.0.0 | boto3 | 1.21.18 |
| botocore | 1.24.18 | certyfikat | 2021.10.8 | cffi | 1.14.6 |
| chardet | 4.0.0 | normalizator zestawu znaków | 2.0.4 | kliknij | 8.0.3 |
| kryptografia | 3.4.8 | rowerzysta | 0.10.0 | Cython | 0.29.24 |
| dbus-python | 1.2.16 | debugpy | 1.4.1 | dekorator | 5.1.0 |
| defusedxml (biblioteka zabezpieczająca przetwarzanie XML) | 0.7.1 | distlib | 0.3.5 | informacje o dystrybucji | 0.23ubuntu1 |
| punkty wejścia | 0,3 | aspekty — omówienie | 1.0.0 | blokada plików | 3.8.0 |
| IDNA | 3.2 | ipykernel | 6.12.1 | ipython | 7.32.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | Jedi | 0.18.0 |
| Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.0.1 |
| jsonschema | 3.2.0 | jupyter-client | 6.1.12 | jupyter-core | 4.8.1 |
| jupyterlab-pygments | 0.1.2 | Widżety JupyterLab | 1.0.0 | kiwisolver | 1.3.1 |
| MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-inline | 0.1.2 |
| Mistune | 0.8.4 | mypy-extensions | 0.4.3 | NBClient | 0.5.3 |
| nbconvert - narzędzie do konwersji plików Jupyter Notebook | 6.1.0 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
| notes | 6.4.5 | numpy | 1.20.3 | opakowanie | 21,0 |
| Pandas | 1.3.4 | pandocfilters | 1.4.3 | parso | 0.8.2 |
| specyfikacja ścieżki | 0.9.0 | ofiara | 0.5.2 | pexpect | 4.8.0 |
| pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) | 0.7.5 | Poduszka | 8.4.0 | pip | 21.2.4 |
| platformdirs | 2.5.2 | kreślenie | 5.9.0 | prometheus-client | 0.11.0 |
| zestaw narzędzi prompt | 3.0.20 | Protobuf (w skrócie od Protocol Buffers) | 4.21.5 | psutil (biblioteka Pythona do monitorowania systemów i procesów) | 5.8.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pyarrow | 7.0.0 |
| pycparser | 2,20 | Pygments | 2.10.0 | PyGObject | 3.36.0 |
| pyodbc | 4.0.31 | pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 3.0.4 | pyrsistent | 0.18.0 |
| python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil (biblioteka Pythona do zarządzania datami) | 2.8.2 | pytz (biblioteka Pythona do obliczeń stref czasowych) | 2021.3 |
| pyzmq | 22.2.1 | żądania | 2.26.0 | requests-unixsocket | 0.2.0 |
| s3transfer | 0.5.2 | scikit-learn | 0.24.2 | scipy (biblioteka naukowa dla Pythona) | 1.7.1 |
| urodzony na morzu | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 58.0.4 |
| sześć | 1.16.0 | ssh-import-id (narzędzie do importowania kluczy SSH) | 5.10 | statsmodels - biblioteka do modelowania statystycznego | 0.12.2 |
| Wytrzymałość | 8.0.1 | zakończony | 0.9.4 | ścieżka testowa | 0.5.0 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.1 | traitlets | 5.1.0 | wpisywanie rozszerzeń | 3.10.0.2 |
| nienadzorowane uaktualnienia | 0.1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
| szerokość(wcwidth) | 0.2.5 | kodowania webowe | 0.5.1 | wheel | 0.37.0 |
| widgetsnbextension | 3.6.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki Microsoft CRAN w wersji 2022-08-15.
| Biblioteka | wersja | Biblioteka | wersja | Biblioteka | wersja |
|---|---|---|---|---|---|
| askpass | 1.1 | potwierdzić to | 0.2.1 | porty wsteczne | 1.4.1 |
| baza | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
| bit-64 | 4.0.5 | blob | 1.2.3 | rozruch systemu | 1.3-28 |
| warzyć (piwo) / parzyć (kawę, herbatę) | 1.0-7 | Brio | 1.1.3 | miotła | 1.0.0 |
| bslib | 0.4.0 | kaszmir | 1.0.6 | dzwoniący | 3.7.1 |
| karetka | 6.0-93 | cellranger | 1.1.0 | Chroń | 2.3-57 |
| klasa | 7.3-20 | CLI | 3.3.0 | clipr | 0.8.0 |
| klaster | 2.1.3 | codetools | 0.2-18 | przestrzeń kolorów | 2.0-3 |
| commonmark | 1.8.0 | kompilator | 4.1.3 | konfig | 0.3.1 |
| cpp11 | 0.4.2 | crayon | 1.5.1 | dane logowania | 1.3.2 |
| skręt | 4.3.2 | tabela danych | 1.14.2 | zbiory danych | 4.1.3 |
| DBI | 1.1.3 | dbplyr | 2.2.1 | Opis | 1.4.1 |
| devtools | 2.4.4 | diffobj | 0.3.5 | skrót | 0.6.29 |
| przyciemnione oświetlenie | 0.4.2 | dplyr | 1.0.9 | dtplyr | 1.2.1 |
| e1071 | 1.7-11 | wielokropek | 0.3.2 | ocenić | 0,16 |
| fani | 1.0.3 | kolory | 2.1.1 | szybka mapa | 1.1.0 |
| Font Awesome | 0.3.0 | dla kotów | 0.5.1 | foreach | 1.5.2 |
| zagraniczny | 0.8-82 | kuźnia | 0.2.0 | fs | 1.5.2 |
| przyszłość | 1.27.0 | wprowadź przyszłość | 1.9.0 | płukać | 1.2.0 |
| typy ogólne | 0.1.3 | gert | 1.7.0 | ggplot2 | 3.3.6 |
| gh | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
| globalne | 0.16.0 | klej | 1.6.2 | googledrive | 2.0.0 |
| googlesheets4 | 1.0.1 | Gower | 1.0.0 | grafika | 4.1.3 |
| grDevices | 4.1.3 | siatka | 4.1.3 | gridExtra | 2.3 |
| gsubfn | 0.7 | gtabela | 0.3.0 | hełm ochronny | 1.2.0 |
| przystań | 2.5.0 | wyżej | 0,9 | HMS | 1.1.1 |
| htmltools – narzędzie do tworzenia stron internetowych | 0.5.3 | widżety HTML | 1.5.4 | httpuv | 1.6.5 |
| httr | 1.4.3 | Numery identyfikacyjne | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-13 | isoband | 0.2.5 | Obiekty iterujące | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
| knitr (narzędzie do generowania dynamicznych raportów w R) | 1.39 | etykietowanie | 0.4.2 | później | 1.3.0 |
| siatka | 0.20-45 | lawa | 1.6.10 | cykl życia | 1.0.1 |
| nasłuchiwanie | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
| Markdown | 1.1 | MASA | 7.3-56 | Matrix | 1.4-1 |
| zapamiętywanie | 2.0.1 | Metody | 4.1.3 | mgcv | 1.8-40 |
| pantomima | 0,12 | miniUI (interfejs użytkownika) | 0.1.1.1 | Metryki modelowe | 1.2.2.2 |
| modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-157 |
| sieć neuronowa (nnet) | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
| równoległy | 4.1.3 | równolegle | 1.32.1 | kolumna | 1.8.0 |
| pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
| pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
| uznanie | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
| Procesx | 3.7.0 | prodlim | 2019.11.13 | profvis | 0.3.7 |
| postęp | 1.2.2 | progressr | 0.10.1 | Obietnice | 1.2.0.1 |
| Prototyp | 1.0.0 | serwer proxy | 0.4-27 | Postscriptum | 1.7.1 |
| mruczenie | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
| ragg | 1.2.2 | "randomForest" | 4.7-1.1 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
| RcppEigen | 0.3.3.9.2 | czytnik | 2.1.2 | readxl (biblioteka do odczytu plików Excel) | 1.4.0 |
| przepisy | 1.0.1 | rewanż | 1.0.1 | rematch2 | 2.1.2 |
| urządzenia zdalne | 2.4.2 | przykład powtarzalny | 2.0.1 | zmień kształt2 | 1.4.4 |
| rlang | 1.0.4 | rmarkdown (narzędzie do tworzenia dokumentów w R) | 2.14 | RODBC | 1.3-19 |
| roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
| Rserve | 1.8-11 | RSQLite | 2.2.15 | rstudioapi | 0,13 |
| rversions | 2.1.1 | rvest | 1.0.2 | Sass | 0.4.2 |
| waga (urządzenie) | 1.2.0 | selektor | 0.4-2 | Informacje o sesji | 1.2.2 |
| kształt | 1.4.6 | błyszczący | 1.7.2 | sourcetools | 0.1.7 |
| sparklyr | 1.7.7 | SparkR | 3.3.0 | przestrzenny | 7.3-11 |
| Splatiny | 4.1.3 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| Statystyki | 4.1.3 | statystyki4 | 4.1.3 | łańcuchy | 1.7.8 |
| stringr | 1.4.0 | przetrwanie | 3.2-13 | sys | 3.4 |
| systemfonts | 1.0.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
| kształtowanie tekstu | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
| tidyselect | 1.1.2 | tidyverse | 1.3.2 | czasData | 4021.104 |
| tinytex | 0.40 | Narzędzia | 4.1.3 | Baza Danych Stref Czasowych (tzdb) | 0.3.0 |
| sprawdzacz URL | 1.0.1 | użyj tego | 2.1.6 | utf8 | 1.2.2 |
| programy użytkowe | 4.1.3 | UUID (Uniwersalny Unikalny Identyfikator) | 1.1-0 | vctrs (biblioteka R do przetwarzania danych wektorowych) | 0.4.1 |
| viridisLite | 0.4.0 | Vroom | 1.5.7 | Waldo | 0.4.0 |
| włosek czuciowy | 0,4 | Withr | 2.5.0 | xfun | 0.32 |
| xml2 | 1.3.3 | xopen | 1.0.0 | Xtable | 1.8-4 |
| yaml | 2.3.5 | zip | 2.2.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
| Identyfikator grupy | Identyfikator artefaktu | wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.12.189 |
| com.amazonaws | aws-java-sdk-core | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.12.189 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue | 1.12.189 |
| com.amazonaws | aws-java-sdk-iam | 1.12.189 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.12.189 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.12.189 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.12.189 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kriogenicznie cieniowany | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.3.4 |
| com.fasterxml.jackson.core | Jackson - adnotacje | 2.13.3 |
| com.fasterxml.jackson.core | jackson-core | 2.13.3 |
| com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.13.3 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.3 |
| com.github.ben-manes.kofeina | kofeina | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | rdzeń | 1.1.2 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | natywny_system java | 1.1 |
| com.github.fommil.netlib | system natywny-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | "netlib-native_system-linux-x86_64-natives" | 1.1 |
| com.github.luben | zstd-jni | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | tink | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | owoc guawy | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.lihaoyi | kodźródłowy_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.3.9 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | soczewki_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfig | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | parsery jednoznaczności | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| wspólne przesyłanie plików | wspólne przesyłanie plików | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | Blask | 2.2.1 |
| dev.ludovic.netlib | lapack | 2.2.1 |
| hadoop3 | jets3t-0.7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor powietrza | 0.21 |
| io.delta | delta-sharing-spark_2.12 | 0.5.0 |
| io.dropwizard.metrics | metryki —rdzeń | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | wskaźniki-kontrole zdrowia | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metryki w formacie JSON | 4.1.1 |
| io.dropwizard.metrics | metryki-JVM | 4.1.1 |
| io.dropwizard.metrics | serwlety metryczne | 4.1.1 |
| io.netty | netty-all | 4.1.74.Final |
| io.netty | Netty-buffer | 4.1.74.Final |
| io.netty | Netty-Codec | 4.1.74.Final |
| io.netty | netty-common (element wspólny) | 4.1.74.Final |
| io.netty | Netty Handler | 4.1.74.Final |
| io.netty | rozwiązywacz netty | 4.1.74.Final |
| io.netty | Klasy netty-tcnative | 2.0.48.Final |
| io.netty | Netty-transport | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-unix-common | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| \ jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | interfejs programistyczny transakcji | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| mvn | hadoop3 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | kiszonka | 1.2 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | SDK do pobierania danych Snowflake | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.14 |
| net.snowflake | spark-snowflake_2.12 | 2.10.0-spark_3.2 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea (pakiet oprogramowania) | remotetea-oncrpc (niedostępne w lokalnym języku) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | Szablon łańcucha | 3.2.1 |
| org.apache.ant | mrówka | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | program uruchamiający Ant | 1.9.2 |
| org.apache.arrow | format strzałki | 7.0.0 |
| org.apache.arrow | strzałka-pamięć-rdzeń | 7.0.0 |
| org.apache.arrow | arrow-memory-netty | 7.0.0 |
| org.apache.arrow | wektor strzałki | 7.0.0 |
| org.apache.avro | Avro | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | tekst wspólny | 1,9 |
| org.apache.curator | kurator-klient | 2.13.0 |
| org.apache.curator | Framework kuratora | 2.13.0 |
| org.apache.curator | przepisy wyselekcjonowane przez kuratora | 2.13.0 |
| org.apache.derby | mecz derbowy | 10.14.2.0 |
| org.apache.hadoop | API klienta Hadoop | 3.3.2-databricks |
| org.apache.hadoop | środowisko uruchomieniowe klienta Hadoop | 3.3.2 |
| org.apache.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | Klient hive-llap | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde (biblioteka do serializacji i deserializacji w Apache Hive) | 2.3.9 |
| org.apache.hive | podkładki hive | 2.3.9 |
| org.apache.hive | hive-storage-api (interfejs do przechowywania danych hive) | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | harmonogram osłon/imitacji ula | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | bluszcz | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
| org.apache.logging.log4j | log4j-api | 2.17.2 |
| org.apache.logging.log4j | log4j-core | 2.17.2 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.7.5 |
| org.apache.orc | orc-mapreduce | 1.7.5 |
| org.apache.orc | podkładki ORC | 1.7.5 |
| org.apache.parquet | parquet-column | 1.12.0-databricks-0004 |
| org.apache.parquet | parquet-common | 1.12.0-databricks-0004 |
| org.apache.parquet | parquet-encoding | 1.12.0-databricks-0004 |
| org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0004 |
| org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0004 |
| org.apache.parquet | parquet-jackson | 1.12.0-databricks-0004 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4,20 |
| org.apache.yetus | adnotacje dla widowni | 0.5.0 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zoo | 3.6.2 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | zookeeper-jute | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-kontynuacja | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-plus | 9.4.46.v20220331 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | serwer aplikacji Jetty | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util (biblioteka narzędziowa Jetty) | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | serwer WebSocket | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.34 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
| org.glassfish.jersey.core | jersey-client | 2.34 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.34 |
| org.glassfish.jersey.core | serwer jersey | 2.34 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
| org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.0 Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Adnotacje | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
| org.mlflow | mlflow-spark | 1.27.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | shims | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.24.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark | Nieużywane | 1.0.0 |
| org.threeten | ThreeTen Extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| oprogramowanie.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |