Condividi tramite


Databricks Runtime 18.2 (beta)

Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 18.2 (Beta).

Questa versione incorpora tutte le funzionalità, i miglioramenti e le correzioni di bug di tutte le versioni precedenti di Databricks Runtime. Databricks ha rilasciato questa versione nell'aprile 2026.

Importante

Databricks Runtime 18.2 è in versione beta. Il contenuto degli ambienti supportati potrebbe cambiare durante la versione beta. Le modifiche possono includere l'elenco dei pacchetti o delle versioni dei pacchetti installati.

Modifiche comportamentali

XPath non recupera più DTD esterni

Quando si valuta XPath su XML, Azure Databricks non carica più le definizioni dei tipi di documento esterne (DTD) dichiarate nel documento. In precedenza, XPath poteva non riuscire quando il codice XML conteneva un riferimento DTD esterno che puntava a un URL in formato non valido o a un endpoint non raggiungibile. Poiché la convalida DTD è separata dalla valutazione XPath, le query che hanno già avuto esito positivo restituiscono gli stessi risultati di prima. Le query che prima fallivano solo durante il recupero del DTD esterno ora possono riuscire.

Conservazione degli struct NULL in INSERT, MERGE e scritture di streaming con evoluzione dello schema

Per INSERT, MERGE e le scritture di streaming che usano l'evoluzione dello schema, uno struct NULL nell'origine viene ora memorizzato come NULL nella destinazione. In precedenza, tale valore veniva materializzato in modo non corretto come struct non Null con ogni campo impostato su NULL, mentre le stesse operazioni senza evoluzione dello schema conservavano correttamente gli struct NULL. Se il codice si basava sulla ricezione di uno struct non Null i cui campi erano tutti NULL, aggiornare il codice per gestire invece uno struct NULL.

Supporto NullType (VOID) nelle tabelle Delta

Le tabelle Delta ora supportano le colonne di Spark NullType. VOID le colonne non vengono più eliminate dallo schema della tabella dopo le letture. Le scritture non sono interessate. Consultare VOID tipo per le restrizioni su dove le colonne VOID possono apparire nello schema.

SHOW CREATE TABLE supporta le visualizzazioni delle metriche

SHOW CREATE TABLE supporta ora le visualizzazioni delle metriche. In precedenza, l'esecuzione di questo comando in una visualizzazione metrica generava un errore. L'output per le visualizzazioni delle metriche include il nome completo in tre parti con catalogo (ad esempio, CREATE VIEW catalog.db.my_metric_view ...), rendendo più semplice ricreare la visualizzazione delle metriche nella posizione corretta.

Correzione per la perdita di righe in LEFT OUTER JOIN LATERAL

È stato risolto un bug che eliminava erroneamente le righe dalle LEFT OUTER JOIN LATERAL query. Le query che usano questo costrutto restituiscono ora i risultati corretti. Per ripristinare temporaneamente il comportamento precedente, impostare spark.databricks.sql.optimizer.lateralJoinPreserveOuterSemantic su true.

NATURAL JOIN rispetta la corrispondenza di colonne senza distinzione di maiuscole

NATURAL JOIN ora utilizza correttamente la corrispondenza di colonne senza distinzione tra maiuscole e minuscole quando spark.sql.caseSensitive è impostato su false (di default). In precedenza, NATURAL JOIN veniva utilizzato un confronto con distinzione tra maiuscole e minuscole per identificare le colonne comuni, causando che colonne diverse solo per caso (ad esempio, ID rispetto a id) non venissero riconosciute come corrispondenti. Ciò ha NATURAL JOIN causato la generazione invisibile all'utente dei risultati di cross join. Questa correzione allinea il NATURAL JOIN comportamento ai USING join, che già gestivano correttamente l'insensibilità alle maiuscole. Le query interessate da questo bug restituiscono ora risultati corretti con colonne unite correttamente.

Convalida delle dipendenze delle funzioni definite dall'utente (UDF) SQL nel catalogo Unity

Il Catalogo Unity impone ora la convalida delle dipendenze per le funzioni definite dall'utente SQL per impedire il bypass dei controlli di accesso. In precedenza, le funzioni SQL create tramite l'API REST potevano fare riferimento alle dipendenze a cui l'utente non aveva accesso. Le funzioni SQL definite dall'utente con configurazioni di dipendenza non valide sono ora impedite dall'esecuzione.

Scritture ottimizzate per le tabelle partizionate del Catalogo Unity create con CRTAS

Le scritture ottimizzate vengono ora applicate correttamente alle tabelle del catalogo Unity partizionate create con CREATE OR REPLACE TABLE ... AS SELECT (CRTAS). In precedenza, CRTAS nelle nuove tabelle del catalogo Unity partizionate non applicava scritture ottimizzate, generando un numero più elevato di file di piccole dimensioni per partizione. Questa correzione può aumentare la latenza di scrittura. Per ripristinare il comportamento precedente, impostare spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled su false.

Le dipendenze di AWS SDK v1 sono ombreggiate

Le dipendenze di AWS SDK v1 in bundle con Databricks Runtime sono ora ombreggiate e non sono più disponibili direttamente nel classpath. Se il codice dipende dalle librerie di AWS SDK v1 fornite in precedenza da Databricks Runtime, aggiungerle come dipendenze esplicite nel progetto. Questa modifica prepara alla migrazione ad AWS SDK v2, dopo la fine del supporto AWS per SDK v1.

Correzione dell'autorità EPSG non corretta per SRID definito da ESRI 102100

Il mapping CRS (Coordinate Reference System) per SRID 102100 ora usa ESRI:102100 correttamente anziché .EPSG:102100 Questa correzione garantisce che i dati geospaziali vengano archiviati con l'autorità corretta per una migliore interoperabilità con altri sistemi.

Nuove funzionalità e miglioramenti

Supporto CREATE OR REPLACE per le tabelle temporanee

CREATE OR REPLACE TEMP TABLE la sintassi è ora supportata, consentendo di creare o sostituire tabelle temporanee in una singola istruzione. In questo modo si elimina la necessità di eliminare e ricreare in modo esplicito le tabelle temporanee.

agg() alias per measure() la funzione

agg() è ora disponibile come alias per la measure() funzione. Questa modifica è completamente compatibile con le versioni precedenti. Le query esistenti che usano measure() continuano a funzionare senza modifiche e agg() producono risultati identici se usati con gli stessi argomenti.

Aggiornamento del driver JDBC Snowflake

Il driver JDBC Snowflake viene aggiornato dalla versione 3.22.0 alla versione 3.28.0.

pyspark.pipelines.testing alias dello spazio dei nomi

pyspark.pipelines.testing è ora disponibile come alias pratico per dlt.testing le API. Importare le utilità di test delle pipeline dichiarative di Lakeflow Spark attraverso uno dei due namespace.

Miglioramento delle prestazioni di caricamento del caricatore automatico

Il caricatore automatico ora usa un metodo di presentazione più efficiente che migliora la velocità di presentazione per le origini di archiviazione cloud. Se i trigger di flusso si sovrappongono a causa di operazioni di presentazione a esecuzione prolungata, questa ottimizzazione può comportare un aumento dei costi dell'API di presentazione nel cloud. Monitorare gli intervalli di trigger e aggiustare la pianificazione per evitare la sovrapposizione delle operazioni se vengono osservati aumenti dei costi.

La cronologia delle tabelle Delta include parametri di opzione di scrittura

La cronologia della tabella Delta (DESCRIBE HISTORY) include ora i flag di opzione di scrittura nella colonna operationParameters per le operazioni WRITE e REPLACE TABLE. Quando le opzioni seguenti sono abilitate in modo esplicito, vengono visualizzate come flag booleani nella cronologia (incluso solo quando true):

Per le operazioni WRITE e REPLACE TABLE:

  • isDynamicPartitionOverwrite: presente quando è stata usata la modalità di sovrascrittura della partizione dinamica
  • canOverwriteSchema: presente quando è stata abilitata la sovrascrittura dello schema (overwriteSchema)
  • canMergeSchema: presente quando è stata abilitata l'unione dello schema (mergeSchema)

Per REPLACE TABLE operazioni:

  • predicate: presente quando replaceWhere è stato usato
  • isV1WriterSaveAsTableOverwrite: presente quando la sostituzione è stata attivata da una .saveAsTable sovrascrittura

Supporto di riavvolgimento e riproduzione di Structured Streaming

Structured Streaming ora supporta il riavvolgimento e la riproduzione per le pipeline di streaming. Questa funzionalità consente di rielaborare da un punto precedente del flusso per eseguire il ripristino da errori quali modifiche dello schema, dati di input in formato non valido o errori di logica, senza richiedere una reimpostazione dello stato completa. Questo non modifica il comportamento predefinito dei carichi di lavoro di streaming esistenti.

Aggiornamenti della libreria

  • Librerie di Python aggiornate:

    Nessuna libreria aggiornata in questa versione.

  • Librerie R aggiornate:

    Nessuna libreria aggiornata in questa versione.

  • Librerie Java aggiornate:

    • io.delta.delta-sharing-client_2.13 da 1.3.9 a 1.3.10

Apache Spark

Databricks Runtime 18.2 include Apache Spark 4.1.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 18.1, nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:

  • SPARK-56219 Ripristinare "[SC-225028][PS] Allinea il comportamento di groupby idxmax e idxmin con skipna=False a pandas 2/3"
  • SPARK-56204 Rimuovere gli wrapper da espressioni di riga di tabella in linea nel parser
  • SPARK-56186 Ritirare pypy
  • SPARK-56202 Eseguire il refactoring dei test di join in streaming: suddividere la gerarchia di Base/Suite e semplificare l'invio in modalità
  • SPARK-56221 Parità delle funzionalità tra i comandi spark.catalog.* e DDL
  • SPARK-56301 Correzione degli errori di digitazioni in error-conditions.json
  • SPARK-55729 Supporto per il lettore di origine dati dello stato nel nuovo formato di stato v4 nel join tra stream e stream.
  • SPARK-56256 Aggiungere l'API di emptyDataFrame a SparkSession
  • SPARK-56205 Convalidare l'ID del checkpoint dell'archivio stati di base prima di eseguire il commit del microbatch
  • SPARK-55827 Correzione del type hint per i worker del datasource
  • SPARK-55579 Rinominare le classi di errore di PySpark per essere indipendenti dal tipo di valutazione
  • SPARK-56247 Correggere il comportamento di ripiego e il suggerimento di tipo di inheritable_thread_target
  • SPARK-56244 Ridefinire il layout della classe di benchmark in bench_eval_type.py
  • SPARK-56262 Rimuovere la disabilitazione del controllo mypy non necessario per i tipi
  • SPARK-55969 regr_r2 deve considerare il primo parametro come variabile dipendente
  • SPARK-56179 Unificare le classi di errore per incompatibilità di tipo - parte 3
  • SPARK-55630 Evita di aggiornare il flag di corrispondenza per il lato non esterno nel join stream-stream v4
  • SPARK-56217 Correggere le eccezioni bucketBy nella connessione
  • SPARK-56225 Migliorare il messaggio di errore di visualizzazione CON SCHEMA EVOLUTION
  • SPARK-55865 Rinominare _LEGACY_ERROR_TEMP_1266 in CANNOT_TRUNCATE_EXTERNAL_TABLE
  • SPARK-55861 Rinominare _LEGACY_ERROR_TEMP_2045 con UNSUPPORTED_TABLE_CHANGE
  • SPARK-56166 Usare ArrowBatchTransformer.enforce_schema per sostituire la logica di coercizione dei tipi a colonne
  • SPARK-56245 Correzione dell'assegnazione di DataFrame.eval inplace in pandas 3
  • SPARK-56062 Isolare memory_profiler per migliorare il tempo di importazione
  • Il catalogo di sistema SPARK-55964 prevale sul catalogo utenti per gli schemi BUILTIN e SESSION.
  • SPARK-56226 Individuare gli errori di analisi prima InternalFrame.__init__ in .loc
  • SPARK-55723 Generalizzare l'errore enforce_schema in PySparkTypeError
  • SPARK-54878 Aggiungere l'opzione sortKeys alla funzione to_json
  • SPARK-56219 Allineare il comportamento di groupby idxmax e idxmin skipna=False con pandas 2/3
  • SPARK-44065 Ottimizzare l'asimmetria di BroadcastHashJoin in OptimizeSkewedJoin
  • SPARK-56179 Revertire "[SC-225014][PYTHON] Consolidare le classi di errore per la mancata corrispondenza del tipo - parte 3"
  • SPARK-53399 Unire Python funzioni definite dall'utente
  • SPARK-56224 Annotazioni di tipo polacco per accumulators.py
  • SPARK-55448 Correzione della perdita di eventi di query quando la sessione viene chiusa durante l'esecuzione della query
  • SPARK-55862 Rinominare _LEGACY_ERROR_TEMP_2027 in UNEXPECTED_OPERATOR_IN_CORRELATED_SUBQUERY
  • SPARK-56201 Eseguire test SPARK-49829 con join VCF ora che StateDataSource lo supporta
  • SPARK-56179 Consolidare le classi di errore per l'incompatibilità di tipo - parte 3
  • SPARK-56184 Sostituire assert con SparkRuntimeException corretto nella lettura della colonna di partizione
  • SPARK-56206 Correzione del rilevamento dei nomi CTE duplicati senza distinzione tra maiuscole e minuscole
  • SPARK-55866 Rinominare _LEGACY_ERROR_TEMP_2145 in OPTION_VALUE_EXCEEDS_ONE_CHARACTER
  • SPARK-56067 Importazione differita psutil per migliorare la velocità di importazione
  • SPARK-56066 Importazione lazy di numpy per migliorare la velocità di importazione
  • SPARK-55719 Rimuovere l'avviso di deprecazione per spark.sql.hive.convertCTAS
  • SPARK-56179 Consolidare le classi di errore per la mancata corrispondenza del tipo - parte 2
  • SPARK-55510 Aggiornare, per riflettere deleteRange, il documento structured-streaming-state-data-source.md.
  • SPARK-56050 Risolvere IDENTIFIEReagerly () con valori letterali stringa in fase di analisi
  • SPARK-56151 Migliorare la stringa di visualizzazione CreateVariable
  • SPARK-55751 Aggiungere metriche nei caricamenti dell'archivio stati da DFS
  • SPARK-56188 Allineare Series.map({}) con il comportamento di pandas 3 relativo a un dizionario vuoto.
  • SPARK-55964 Annulla "[SC-223957] il catalogo di sistema prevale sul catalogo utenti per gli schemi BUILTIN e SESSION".
  • SPARK-55577 Esegui il refactoring della logica di wrapper, mapper e serializer SQL_SCALAR_ARROW_ITER_UDF
  • SPARK-55596 DSV2 Filtraggio avanzato delle statistiche delle partizioni
  • SPARK-56179 Reversione di "[SC-224777][PYTHON] Consolidamento delle classi di errore per la mancata corrispondenza del tipo - parte 2"
  • Il catalogo di sistema SPARK-55964 prevale sul catalogo utenti per gli schemi BUILTIN e SESSION.
  • SPARK-56050 Ripristinare "[SC-224153][SQL] Eagerly resolve IDENTIFIER() con valori letterali stringa in fase di analisi"
  • SPARK-56179 Consolidare le classi di errore per la mancata corrispondenza del tipo - parte 2
  • SPARK-56102UnionEstimation pulizia del codice
  • SPARK-51712 Gestire le Throwable non fatali durante l'elaborazione delle tabelle/viste in spark.catalog.listTables()
  • SPARK-55881 Aggiungere queryId, errorMessage e rootExecutionId all'API REST di esecuzione SQL
  • SPARK-56050 Risolvere immediatamente IDENTIFIER() con letterali stringa in fase di analisi
  • SPARK-55628 Integrare il formato stato di join stream-stream V4
  • SPARK-56187 Correzione dell'ordinamento di Series.argsort null per pandas 3
  • SPARK-56167 Allineare astype con il comportamento predefinito della stringa pandas 3
  • SPARK-56018 Utilizzare ruff come formattatore
  • SPARK-56042 Correzione delle metriche relative al conteggio delle famiglie di colonne esterne/interne invertite in RocksDBStateStoreProvider
  • SPARK-56179 Consolidare le classi di errore per la mancata corrispondenza del tipo - parte 1
  • SPARK-56089 Allineare asinh/acosh con l'algoritmo fdlibm per la compatibilità tra motori
  • SPARK-55453 Correzione della corrispondenza dei criteri LIKE per i caratteri Unicode supplementari
  • SPARK-52785 Semplificazione della sintassi super() in PySpark
  • SPARK-56169 Correzione ClassCastException nella segnalazione degli errori quando GetStructField il tipo figlio viene modificato dalla trasformazione del piano
  • SPARK-55557 Le funzioni iperboliche non devono andare in overflow con valori elevati
  • SPARK-47997 Aggiungere il parametro errors a DataFrame.drop e Series.drop
  • SPARK-55008 Visualizzare l'ID della query in SparkUI
  • SPARK-54660 Aggiungere un trigger RTM a Python
  • SPARK-56047 Propagare distinctCount attraverso l'unione nella stima delle statistiche CBO
  • SPARK-56111 Aggiungere SparkContext.isDriver() e usarlo nella codebase
  • SPARK-55999 Abilitare forceSnapshotUploadOnLag per impostazione predefinita
  • SPARK-55610 Aggiungere getExecutorInfos a StatusTracker in Python
  • SPARK-55728 Introdurre la configurazione per le dimensioni del pool di thread del checksum del file e supportare la disabilitazione del pool di thread.
  • SPARK-55686 SizeEstimator si occupa delle intestazioni degli oggetti compatti
  • SPARK-56044 HistoryServerDiskManager non elimina app store al rilascio quando l'app non si trova nella mappa attiva
  • SPARK-55809 HeapHistogram usa DiagnosticCommandMBean invece del sottoprocesso jmap
  • SPARK-56122 Utilizzare il controllo di tipo numerico compatibile con pandas in Series.cov
  • SPARK-56113 Migliorare il ripristino delle stringhe di pandas 3 su pandas-on-Spark
  • SPARK-56118 Allineare la gestione dei valori booleani di pandas 3.0 nella funzione GroupBy.quantile
  • SPARK-53823 Implementare l'elenco consenti per la modalità in tempo reale
  • SPARK-55977 Correzione di isin() per usare una corrispondenza dei tipi rigorosa come pandas
  • SPARK-54027 Supporto di Kafka Source RTM
  • SPARK-50284 Modificare la documentazione per la funzione parseJson
  • SPARK-56035 [SQL] Introdurre AggregationValidator per la convalida dei resolver a passaggio singolo Aggregate
  • SPARK-55557 Ripristinare "[SC-223720][SQL] Le funzioni iperboliche non devono sovraflow con input di grandi dimensioni"
  • SPARK-56075 Rimuovere un batch di classi di errore Python non recapitabili
  • SPARK-55967 Unify column conversion for connect dataframe (Unify column conversion for connect dataframe)
  • SPARK-53915 Aggiungere RealTimeScanExec e la possibilità di eseguire batch con esecuzione prolungata
  • SPARK-55557 Le funzioni iperboliche non devono andare in overflow con gli input di grandi dimensioni
  • SPARK-55147 Delimitare l'intervallo di timestamp per il ripristino del join su intervallo di tempo nel formato di stato V4
  • SPARK-56056 Supportare la profilatura dei ruoli di lavoro più semplice con viztracer
  • SPARK-55948 Aggiungere l'API del connettore DSv2 CDC, la risoluzione dell'analizzatore e la clausola SQL CHANGES
  • SPARK-54599 Riapplicare "[SC-219008][PYTHON] Rifattorizzare PythonExcept...
  • SPARK-55390 Consolidare la logica di wrapper, mapper e serializer di SQL_SCALAR_ARROW_UDF
  • SPARK-56023 Bilanciamento del carico migliore in LowLatencyMemoryStream
  • SPARK-55986 Aggiornare il nero alla versione 26.3.1
  • SPARK-55667 Spostare check_dependencies in init
  • SPARK-55145 Supporto di Avro per codificatori di chiavi di stato RocksDB basati su timestamp
  • SPARK-53970 Rimuovere il tag 'facoltativo' non corretto per messageName...
  • SPARK-55059 Annullare "[SC-224058][PYTHON] Rimuovere la soluzione alternativa per la gestione delle tabelle vuote in toPandas"
  • SPARK-50111 Aggiungere il supporto dei sottoplot per i grafici a torta nel backend Plotly
  • SPARK-56081 Allineare la gestione idxmax e idxmin NA con pandas 3
  • SPARK-56080 Allineare Series.argmax/argmin alla gestione dei valori NA in pandas 3.0
  • SPARK-56060 Gestire la conversione delle stringhe null di pandas 3 in describe() per i frame di timestamp vuoti
  • SPARK-55059 Rimuovere la soluzione alternativa per gestire la tabella vuota in toPandas
  • SPARK-55995 Supporto di TIMESTAMP CON FUSO ORARIO LOCALE nella sintassi SQL
  • SPARK-55976 Usare Set anziché Seq per i privilegi di scrittura
  • SPARK-56073 Semplificare la compilazione di PythonRunnerConfMap
  • SPARK-55887 Gestione speciale per CollectLimitExec/CollectTailExec evitare analisi complete delle tabelle
  • SPARK-55980 Applicare sempre _cast_back_float nei calcoli numerici
  • SPARK-55357 Correzione della docstring per timestamp_add
  • SPARK-55667 Ripristina "[SC-223289][PYTHON][CONNECT] Reverti lo spostamento di check_dependencies in init"
  • SPARK-54285 Ripristinare "[PYTHON] Memorizzare nella cache le informazioni sul fuso orario per evitare una conversione di timestamp costosa"
  • SPARK-56021 Aumentare la soglia predefinita autoSnapshotRepair maxChangeFileReplay da 50 a 500
  • SPARK-55870 Aggiungere documenti per i tipi geografici
  • SPARK-55962 Usare getShort invece di eseguire il cast getInt su piattaforme putShortsFromIntsLittleEndian Little Endian
  • SPARK-55903 Semplificare l'evoluzione dello schema MERGE e controllare i privilegi di scrittura
  • SPARK-55326 Rilasciare una sessione remota quando SPARK_CONNECT_RELEASE_SESSION_ON_EXIT è impostato
  • SPARK-55667 Spostare check_dependencies nella funzione init
  • SPARK-55884 Aggiungere v1StatsToV2Stats alla relazione DataSourceV2Relation
  • SPARK-55929 Aggiungi la mancante toString() a TableChange.UpdateColumnDefaultValue
  • SPARK-55851 Chiarire i tipi di partizione e lettura dell'origine dati
  • SPARK-55828 Aggiungere DSV2 TableChange toString e correggere la classe di errore mancante per Merge into Schema Evolution
  • SPARK-55790 Costruire un registro SRS completo usando i dati PROJ 9.7.1
  • SPARK-55645 Aggiungere serdeName a CatalogStorageFormat
  • SPARK-54796 Correzione dell'NPE causata da una condizione di competizione tra l'inizializzazione dell'executor e la migrazione di shuffle
  • SPARK-55983 Nuove funzionalità dell'analizzatore a passaggio singolo e correzioni di bug
  • SPARK-55964 Coerenza della cache: cancella il registro delle funzioni su DROP DATABASE
  • SPARK-55868 Correzione del predicato pushdown di InMemoryTable per V2Filters
  • SPARK-55973 Ottimizzazione LeftSemi per unione di stream-stream
  • SPARK-54665 Correzione del confronto tra valori booleani e stringa in modo che corrisponda al comportamento pandas
  • SPARK-55539 Consenti cast da GeographyType a GeometryType
  • SPARK-55695 Evitare la doppia pianificazione nelle operazioni a livello di riga
  • SPARK-55904 Usare _check_same_session per restringere i tipi
  • SPARK-55965 Aggiungere un avviso quando pandas >= 3.0.0 viene usato con PySpark
  • SPARK-55493 [SS] Non creare directory nella directory di log di checkpoint streaming offset/commit nella StateDataSource.
  • SPARK-55851 Ripristina "[SC-223270][PYTHON] Chiarire i tipi di partizione e lettura della fonte dati"
  • SPARK-55645 Ripristinare "[SC-221839][SQL] Aggiungere serdeName a CatalogStorageFormat"
  • SPARK-55640 Propagare gli errori di analisi WKB per Geometry e Geography
  • SPARK-55693 Evitare lo stallo rendendo SparkSession.observationManager un valore non lazy
  • SPARK-55528 Aggiungere il supporto di collazione predefinito per le funzioni definite dall'utente di SQL
  • SPARK-55860 Usare UNABLE_TO_INFER_SCHEMA invece di UNABLE_TO_INFER_SCHEMA_FOR_DATA_SOURCE
  • SPARK-55275 Aggiungere gli stati SQL InvalidPlanInput per sql/connect
  • SPARK-55645 Aggiungere serdeName a CatalogStorageFormat
  • SPARK-55716 Supporta l'imposizione del vincolo NOT NULL per gli inserimenti nelle tabelle di origine file V1
  • SPARK-53226 Rendere ClosingCleaner funzionante con Java22+
  • SPARK-55997 Impostare il limite superiore sul prefissoScan nel provider dell'archivio stati di RocksDB
  • SPARK-55851 Chiarire i tipi di partizione e lettura dell'origine dati
  • SPARK-55954 Rimuovere l'hint per il tipo di overload non corretto per fillna
  • SPARK-56016 Preservare le colonne Serie denominate nella funzione concat con ignore_index in pandas 3
  • SPARK-55502 Unificare la gestione degli errori di conversione del framework Arrow in UDF e UDTF
  • SPARK-55989 Conservare i dtype degli indici non int64 in restore_index
  • SPARK-55955 Rimuovere l'hint per il tipo di overload per drop
  • SPARK-55945 [SDP] Supporta identificatori strutturati per i flussi nei protos di analisi eager SDP
  • SPARK-55714 JDK potrebbe generare un'eccezione ArithmeticException senza messaggio
  • SPARK-55991 Correggere il danneggiamento del testo SQL correlato a Unicode con i parametri
  • SPARK-55696 Aggiungere un errore esplicito a Encoders.bean per la classe di interfaccia
  • SPARK-55533 Supporto di IGNORE NULLS/RESPECT NULLS per collect_set
  • SPARK-55987 Correzione dell'estrazione del timestamp di join finestra V4 usando findJoinKeyOrdinalForWatermark
  • SPARK-55946 Configurare pandas_priority in modo che le operazioni binarie miste vengano inviate correttamente a pandas-on-Spark
  • SPARK-55264 Aggiungere il comando ExecuteOutput alle pipeline spark Connect proto
  • SPARK-47672 Evitare la doppia valutazione dal pushdown del filtro con il pushdown della proiezione
  • SPARK-55780 Sostituire il logo PNG con SVG nell'interfaccia utente Web Spark
  • SPARK-55821 Imporre argomenti solo per parola chiave nei metodi init del serializzatore
  • SPARK-55621 Correggere l'utilizzo unicode ambiguo e non necessario
  • SPARK-55662 Implementazione dell'argomento asse idxmin
  • SPARK-55631ALTER TABLE deve invalidare la cache per le tabelle DSv2
  • SPARK-55692 Correzione SupportsRuntimeFiltering e SupportsRuntimeV2Filtering documentazione
  • SPARK-55928 Nuovo linter per l'efficacia della configurazione nelle visualizzazioni e nelle funzioni definite dall'utente
  • SPARK-55440 Framework dei tipi - Fase 1a - Core Type System Foundation
  • SPARK-55631 Ripristinare "[SC-221596][SQL] ALTER TABLE deve invalidare la cache per le tabelle DSv2"
  • SPARK-55631ALTER TABLE deve invalidare la cache per le tabelle DSv2
  • SPARK-55683 Ottimizzare VectorizedPlainValuesReader.readUnsignedLongs
  • SPARK-55892 Correzione dell'impossibilità di caricare l'archivio stati perché il file SST riutilizzato è stato eliminato dalla manutenzione
  • SPARK-55946 Ripristinare "[SC-223027][PS] Configurare pandas_priority in modo che le operazioni binarie miste vengano inviate correttamente a pandas-on-Spark"
  • SPARK-55891 Mantenere il contesto di scripting SQL all'interno di EXECUTE IMMEDIATE
  • SPARK-55907 Correggere le posizioni di errore non corrette per i tipi di dati non validi in CREATE FUNCTION
  • SPARK-55946 Configurare pandas_priority in modo che le operazioni binarie miste vengano inviate correttamente a pandas-on-Spark
  • SPARK-55694 Blocchi di vincoli in CTAS/RTAS a livello del parser
  • SPARK-55682 L'iteratore restituito da ServiceLoader può generare un'eccezione NoClassDefFoundErrorhasNext()
  • SPARK-55155 Correzione per consentire l'uso di caratteri speciali e backtick nel nome dell'identificatore
  • SPARK-55932 Correzione dell'impasse del parser XML per varianti su scala negativa
  • SPARK-55673 Aggiungere altri test per il codificatore di tipi annidati
  • SPARK-55679 Correzione del rilevamento sun.io.serialization.extendedDebugInfo in Java 25
  • SPARK-55957 Aggiungere 'DATA_SOURCE_NOT_FOUND' in Catalog.ERROR_HANDLING_RULES
  • SPARK-55052 Aggiungere le proprietà di AQEShuffleRead all'albero del piano fisico
  • SPARK-55652 Ottimizzare VectorizedPlainValuesReader.readShorts() con l'accesso diretto alle matrici per i buffer heap
  • SPARK-55659 Migliorare EventLogFileWriter per registrare l'operazione stop
  • SPARK-54666 Lasciare i tipi numerici invariati su to_numeric
  • SPARK-55654 Abilitare l'eliminazione di TreePattern per EliminaSubqueryAliases e ResolveInlineTables
  • SPARK-55533 Ripristinare "[SC-220538][SQL] Supporto IGNORE NULLS/RESPECT NULLS for collect_set"
  • SPARK-55901 Generare un errore con Series.replace() senza argomenti
  • SPARK-55896 Usare funzioni numpy invece di builtins
  • SPARK-55655 Rendere CountVectorizer deterministico il vocabolario quando i conteggi sono uguali
  • SPARK-55811 [SQL] Catch NonFatal invece di UnresolvedException quando si chiama nodeWithOutputColumnsString
  • SPARK-55533 Supporto di IGNORE NULLS/RESPECT NULLS per collect_set
  • SPARK-55435 Usare StringBuilder invece di StringBuffer
  • SPARK-54807 Consenti nomi qualificati per le funzioni predefinite e di sessione (#198171)
  • SPARK-55854 Contrassegnare gli attributi duplicati di pass-through nell'output di Expand per prevenire AMBIGUOUS_REFERENCE
  • SPARK-55261 Implementare il supporto in lettura Parquet per i tipi di dati geografici
  • SPARK-55416 Perdita di memoria nella sorgente dati streaming di Python quando l'offset finale non viene aggiornato
  • SPARK-55465 Supporta GeometryType in convert_numpy
  • SPARK-55801 Correzione del suggerimento di tipo di _SimpleStreamReaderWrapper.getCache
  • SPARK-55800 Rimuovere il controllo del tipo inutilizzato per datetime.date
  • SPARK-55663 Unificare il modulo per le funzioni di origine dati
  • SPARK-55665 Unificare come i worker stabiliscono una connessione con l'executor
  • SPARK-53446 Ottimizzare le operazioni di rimozione di BlockManager con mapping di blocchi memorizzati nella cache
  • SPARK-55867 Risoluzione di StringMethods per compatibilità con pandas 3
  • SPARK-55501 Correzione per il bug di listagg distinct + within group order by
  • SPARK-55558 Aggiungi supporto per le operazioni con tuple/insiemi Theta
  • SPARK-55636 Aggiungere errori dettagliati in caso di deduplicazione di colonne non valide
  • SPARK-55788 Supporto di ExtensionDType per i numeri interi nelle UDF di Pandas
  • SPARK-55464 Implementazione del supporto per GeographyType in convert_numpy
  • SPARK-55530 Supporto dei set di risultati geo nel server Hive e Thrift
  • SPARK-55525 Correzione UDTF_ARROW_TYPE_CONVERSION_ERROR con il parametro del messaggio di errore non definito
  • SPARK-55626 Non caricare colonne di metadati nella tabella a meno che non sia necessario in V2TableUtil
  • SPARK-55533 Ripristinare "[SC-220538][SQL] Supporto IGNORE NULLS/RESPECT NULLS for collect_set"
  • SPARK-55435 Ripristinare "[SC-219656][CORE][SQL] Usare StringBuilder invece di StringBuffer"
  • SPARK-55533 Supporto di IGNORE NULLS/RESPECT NULLS per collect_set
  • SPARK-54452 Correzione della risposta vuota dal server SparkConnect all'interno di spark.sql(...) FlowFunction
  • SPARK-55638 Eseguire il refactoring della serializzazione WKT in GeometryModel
  • SPARK-55551 Migliorare il BroadcastHashJoinExec partizionamento dell'output
  • SPARK-54314 Migliorare la debuggabilità lato server in Spark Connect acquisendo il nome del file e i numeri di riga dell'applicazione client
  • SPARK-55517 Ottimizzare VectorizedPlainValuesReader.readBytes() con l'accesso diretto alle matrici per i buffer heap
  • SPARK-55495 Correggi EventLogFileWriters.closeWriter per gestire checkError
  • SPARK-55279 Aggiungere sketch_funcs un gruppo per le funzioni SQL di DataSketches
  • SPARK-55435 Usare StringBuilder invece di StringBuffer
  • SPARK-55064 Supporto del tentativo di riordino indeterminato a livello di query
  • SPARK-55411 SPJ può generare arrayIndexOutOfBoundsException quando le chiavi di join sono minori di quelle del cluster
  • SPARK-55451 I cursori devono iniziare a raccogliere i risultati in OPEN, non prima FETCH
  • SPARK-54687 Aggiungere altri casi limite con generatori
  • SPARK-55691 Client GetStatus
  • SPARK-55277 Aggiungere protobuf_funcs un gruppo per le funzioni SQL Protobuf
  • SPARK-55822 Rinominare _LEGACY_ERROR_TEMP_0052 in CREATE_VIEW_WITH_IF_NOT_EXISTS_AND_REPLACE
  • SPARK-55236 Affrontare un'eccezione imprevista in alcuni test case di CoarseGrainedExecutorBackendSuite
  • SPARK-55275 Copertura dello stato SQL: IllegalStateException
  • SPARK-55462 Riapplicare "[SC-221123][PYTHON] Support VariantType in convert_numpy"
  • SPARK-55062 Supportare le estensioni proto2 nelle funzioni protobuf
  • SPARK-55248 Risolvere l'uso deprecato dell'API Jackson in streaming.checkpointing.Checksum
  • SPARK-55250 Ridurre le chiamate client Hive su CREATE NAMESPACE
  • SPARK-55247 Pulire l'utilizzo deprecato dell'API correlato a o.a.c.io.input.BoundedInputStream
  • SPARK-55198 spark-sql deve ignorare la riga di commento con spazi vuoti iniziali
  • SPARK-55826 Rinominare _LEGACY_ERROR_TEMP_0006 in MERGE_INSERT_VALUE_COUNT_MISMATCH
  • SPARK-55127 Aggiungere avro_funcs gruppo per le funzioni SQL avro
  • SPARK-54914 [SQL] Correzione dell'operatore DROP nella sintassi pipe per supportare nomi di colonna qualificati
  • SPARK-55113EnsureRequirements deve copiare i tag
  • SPARK-55074 Aggiungere il test per la coercizione dei tipi ANSI
  • SPARK-54217 Sincronizzare la decisione di kill di MonitorThread di PythonRunner
  • SPARK-54374 Ingrandire l'attributo SVG viewBox nell'inizializzazione della visualizzazione del piano SQL.
  • SPARK-54971 Aggiungere la sintassi WITH SCHEMA EVOLUTION per SQL INSERT
  • SPARK-55065 Evitare di effettuare due chiamate API JDBC
  • SPARK-55033 Correzione di stringArgs dei comandi di scrittura DSv2
  • SPARK-55041 Pulizia di alcuni dati privati funcion/val inutilizzati dal modulo principale
  • SPARK-55338 Centralizzare la logica di decompressione della richiesta Spark Connect nell'intercettore gRPC
  • SPARK-55825 Rinominare _LEGACY_ERROR_TEMP_1309 in PARTITION_BY_NOT_ALLOWED_WITH_INSERT_INTO
  • SPARK-55492 Verificare che eventTime in withWatermark sia una colonna di primo livello
  • SPARK-55802 Correzione dell'overflow integer durante il calcolo dei byte batch freccia
  • SPARK-55694 Blocchi di vincoli in CTAS/RTAS a livello del parser
  • SPARK-55843 Gestire l'unità di dtype datetime64 e timedelta64
  • SPARK-55824 Rinominare _LEGACY_ERROR_TEMP_1034 in WINDOW_FUNCTION_NOT_ALLOWED_IN_CLAUSE
  • SPARK-55819 Effettuare il refactoring di ExpandExec per essere più conciso
  • SPARK-55341 Aggiungere il flag a livello di archiviazione per le relazioni locali memorizzate nella cache
  • SPARK-54599 Ripristinare "[SC-219008][PYTHON] Refactoring PythonException in modo che possa accettare errorClass con sqlstate"
  • SPARK-46167 Aggiungere l'implementazione dell'asse a DataFrame.rank
  • SPARK-54599 Effettuare il refactoring di PythonException in modo che possa accettare errorClass con sqlstate
  • SPARK-55529 Riapplicare [ES-1721989][SC-220716][PYTHON] Restore Arrow-level batch merge for non-iterator applyInPandas
  • SPARK-55794 Sempre alias OuterReference
  • SPARK-55583 Convalidare i tipi di schema Arrow nell'origine dati Python
  • SPARK-37711 Ridurre il numero di lavori di descrizione pandas da O(N) a O(1)
  • SPARK-46168 Aggiungere l'argomento asse alla funzione idxmax
  • SPARK-46162 Implementare nunique con axis=1
  • SPARK-55552 Aggiungere il supporto VariantType a ColumnarBatchRow.copy() e MutableColumnarRow
  • SPARK-55647 Correzione ConstantPropagation errata della sostituzione degli attributi con regole di confronto non binarie-stabili
  • SPARK-55747 Correzione dell'NPE durante l'accesso agli elementi da un array che è nullo
  • SPARK-55757 Migliorare la spark.task.cpus convalida
  • SPARK-55699 Lettura incoerente di LowLatencyClock se usata insieme a ManualClock
  • SPARK-55702 Supporto del predicato di filtro nelle funzioni di aggregazione finestra
  • SPARK-55510 Correzione del deleteRange dell'archivio di stato di Rocksdb per chiamare changelogWriter
  • SPARK-55739 Ottimizzare OnHeapColumnVector.putIntsLittleEndian/putLongsLittleEndian utilizzando Platform.copyMemory sulle piattaforme little-endian
  • SPARK-55730 Non convertire il fuso orario in minuscolo
  • SPARK-55701 ES-1694761[SS] Correzione della condizione di competizione in CompactibleFileStreamLog.allFiles
  • SPARK-55462 Ripristinare "[SC-221123][PYTHON] Support VariantType in convert_numpy"
  • SPARK-55144 Introdurre una nuova versione del formato di stato per un join stream-stream ad alte prestazioni
  • SPARK-55606 Implementazione lato server dell'API GetStatus
  • SPARK-55462 Supportare il VariantType in convert_numpy
  • SPARK-55600 Correzione: la conversione da pandas ad arrow perde il conteggio delle righe quando lo schema ha 0 colonne su classic
  • SPARK-55700 Correzione della gestione delle chiavi intere nella Series con indice non intero
  • SPARK-55349 Consolidare gli strumenti di conversione da pandas a Arrow nei serializzatori
  • SPARK-55681 Correzione dell'uguaglianza del tipo di dato singleton dopo la deserializzazione (nuovo tentativo)
  • SPARK-55681 Ripristina "[SC-221427][SC-214079][SQL] Correzione dell'uguaglianza DataType singleton dopo la deserializzazione"
  • SPARK-55681 Correzione dell'uguaglianza singleton DataType dopo la deserializzazione
  • SPARK-55674 Ottimizzare la conversione di tabelle a 0 colonne in Spark Connect
  • SPARK-55323 Riapplicare "[SC-218885][PYTHON] Spostare i metadati UDF in EvalConf per semplificare il protocollo di lavoro"
  • SPARK-55322 Riapplicare [SC-221062][SQL] MaxBy e MinBy Overload con K Elements
  • SPARK-55323 Ripristinare "[SC-218885][PYTHON] Spostare i metadati UDF in EvalConf per semplificare il protocollo di lavoro"
  • SPARK-55615 Spostare l'importazione SparkContext nel ramo della classe
  • SPARK-55323 Spostare i metadati della UDF in EvalConf per semplificare il protocollo dei worker
  • SPARK-55648 Gestire un errore groupby(axis) di argomento parola chiave imprevisto con pandas 3
  • SPARK-55647 Ripristinare "[SC-221274][SQL] Correzione ConstantPropagation errata della sostituzione degli attributi con regole di confronto non binarie stabili"
  • SPARK-55646 Rifattorizzazione di SQLExecution.withThreadLocalCaptured per separare l'acquisizione locale del thread dall'esecuzione
  • SPARK-54854 Aggiungere un ID query UUIDv7 agli eventi di esecuzione SQL
  • SPARK-55619 Correggere le metriche personalizzate in caso di partizioni coalesce
  • SPARK-55647 Correzione ConstantPropagation errata della sostituzione degli attributi con regole di confronto non binarie-stabili
  • SPARK-55322 Ripristinare "[SC-221062][SQL] MaxBy e MinBy Overload con K Elements"
  • SPARK-54740 Avviare il gestore errori nelle prime fasi della modalità daemon
  • SPARK-55493 [SS] Non eseguire mkdirs nella directory dello stato di checkpoint dello streaming nel contesto di StateDataSource
  • SPARK-55322MaxBy e MinBy Sovraccarico con gli elementi K
  • SPARK-55625 Correzione di StringOps per il str corretto funzionamento di dtype
  • SPARK-55161 Riapplicare "[SC-218867][PYTHON] Supportare i profiler nell'origine dati Python"
  • SPARK-55505 Risoluzione del NPE durante la lettura di EXECUTION_ROOT_ID_KEY in scenari concorrenti
  • SPARK-55111 Ricontrollare il rilevamento di ripartizioni non completate al riavvio della query
  • SPARK-55593 Unificare lo stato di aggregazione per vector_avg/vector_sum
  • SPARK-55500 Correzione del ciclo dell'analizzatore tra ApplyDefaultCollation, ExtractWindowExpressions e CollationTypeCasts
  • SPARK-55494 Introdurre iterator/prefix scan nell'API StateStore con più valori
  • SPARK-55561 Aggiungere nuovi tentativi per tutti i metodi del client amministrativo Kafka
  • SPARK-55296 Supportare la modalità CoW con pandas 3
  • SPARK-55479 Risolvere i problemi di stile in SparkShreddingUtils
  • SPARK-55372 Correzione SHOW CREATE TABLE per tabelle/viste con collazione predefinita.
  • SPARK-55333 Abilitare DateType e TimeType in convert_numpy
  • SPARK-55129 Introdurre nuovi codificatori di chiavi per timestamp come prima classe (UnsafeRow)
  • SPARK-46163 Parametri DataFrame.update filter_func ed errori
  • SPARK-55372 Ripristina "[SC-220571][SQL] Correzione SHOW CREATE TABLE per tabelle/viste con collazione predefinita"
  • SPARK-55480 Rimuovere tutti i noqa inutilizzati per ruff
  • SPARK-55471 Aggiungere il supporto di Optimizer per SequentialStreamingUnion
  • SPARK-55584 Generare un errore migliore eseguendo una sottoquery scalare con EXEC IMMEDIATE.
  • SPARK-55161 Annulla "[SC-218867][PYTHON] Supporto per profiler nell'origine dati Python"
  • SPARK-55506 Passare uno schema di input esplicito a to_pandas in CogroupPandasUDFSerializer
  • SPARK-55586 Aggiungi jdbc.py esempio
  • SPARK-55161 Abilitare i profiler nell'origine dati Python
  • SPARK-55529 Revertire "[SC-220716][PYTHON] Ripristinare l'unione batch a livello di Arrow per applyInPandas non iterativo"
  • SPARK-55385 Attenuare il ricalcolo in zipWithIndex
  • SPARK-55529 Ripristinare l'unione batch livello Arrow per applyInPandas non iteratore
  • SPARK-55389 Consolidare SQL_MAP_ARROW_ITER_UDF la logica di wrapping, mapping e serializzazione
  • SPARK-55406 Reimplementare il pool di thread per ExecutePlanResponseReattachableIterator
  • SPARK-55372 Correzione SHOW CREATE TABLE per tabelle/viste con regole di confronto predefinite
  • SPARK-55367 Utilizzare venv per eseguire i test pip
  • SPARK-55355 Aggiornare la versione di mypy alla versione più recente
  • SPARK-55460 Rimuovere E203 dall'elenco di ignorati di ruff
  • SPARK-55541 Supporto Geometria e Geografia nei convertitori tipo Catalyst
  • SPARK-55449 Abilitare l'analisi e la scrittura WKB per Geography
  • SPARK-55339 Implementare il supporto del writer WKT per gli oggetti Geo
  • SPARK-54122 Implementare TwsTester in Scala
  • SPARK-54805 Implementare TwsTester in PySpark
  • SPARK-55256 Riapplicare "[SC-218596][SQL] Supporto di IGNORE NULLS/RESPECT NULLS per array_agg e collect_list"
  • SPARK-55156 Affrontare la questione di include_groups per groupby.apply
  • SPARK-55401 Aggiungere la logica di ripetizione dei tentativi e la gestione del timeout al download dell'installazione di pyspark
  • SPARK-55229 Implementare DataFrame.zipWithIndex in PySpark
  • SPARK-55462 Supporto di UserDefinedType in convert_numpy
  • SPARK-55483 Correzione di NpE in PivotFirst quando la colonna pivot è un tipo non atomico con valori Null
  • SPARK-55490 Includere groupby(as_index=False) un raggruppamento che non si trova nel dataframe con pandas 3
  • SPARK-55473 Sostituire itertools.tee con chain in applyInPandasWithState
  • SPARK-55404 Generare sempre KeyboardInterrupt dal gestore SIGINT
  • SPARK-55407 Sostituire logger.warn con logger.warning

Supporto del driver ODBC/JDBC di Databricks

Databricks supporta i driver ODBC/JDBC rilasciati negli ultimi 2 anni. Scaricare i driver rilasciati di recente e aggiornare (scaricare ODBC, scaricare JDBC).

Ambiente di sistema

  • Sistema operativo: Ubuntu 24.04.4 LTS
  • Java: Zulu21.48+15-CA
  • Scala: 2.13.16
  • Python: 3.12.3
  • R: 4.5.1
  • Delta Lake: 4.1.0

Librerie di Python installate

Libreria Versione Libreria Versione Libreria Versione
aiohappyeyeballs 2.4.4 aiohttp 3.11.10 aiosignal 1.2.0
documento annotato 0.0.4 tipi annotati 0.7.0 anyio 4.7.0
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 arro3-core 0.6.5
freccia 1.3.0 asttoken 3.0.0 astunparse 1.6.3
async-lru 2.0.4 att. 24.3.0 comando automatico 2.2.2
azure-common 1.1.28 azure-core 1.37.0 azure-identity 1.20.0
azure-mgmt-core 1.6.0 azure-mgmt-web 8.0.0 Azure Storage Blob 12.28.0
file di archiviazione Azure Data Lake 12.22.0 Babele 2.16.0 backports.tarfile 1.2.0
beautifulsoup4 4.12.3 nero 24.10.0 candeggiare 6.2.0
indicatore di direzione 1.7.0 boto3 1.40.45 botocore 1.40.45
cachetools (strumento per la gestione della cache) 5.5.1 certifi 2025.4.26 cffi 1.17.1
chardet 4.0.0 normalizzatore di set di caratteri 3.3.2 fai clic 8.1.8
cloudpickle (libreria Python per la serializzazione degli oggetti) 3.0.0 comunicazione 0.2.1 contourpy 1.3.1
criptografia 44.0.1 ciclista 0.11.0 Cython, un linguaggio di programmazione 3.1.5
databricks-agents 1.9.1 Databricks SDK 0.67.0 dataclasses-json 0.6.7
dbus-python 1.3.2 debugpy 1.8.11 Decoratore 5.1.1
defusedxml 0.7.1 deltalake 1.1.4 Deprecated 1.2.18
distlib 0.3.9 Conversione da docstring a markdown 0.11 esecuzione 1.2.0
panoramica delle facette 1.1.1 fastapi 0.128.0 fastjsonschema 2.21.1
blocco dei file 3.17.0 fonttools (strumenti per caratteri) 4.55.3 fqdn (nome di dominio completo) 1.5.1
frozenlist 1.5.0 fsspec 2023.5.0 gitdb 4.0.11
GitPython 3.1.43 google-api-core 2.28.1 google-auth (autenticazione Google) 2.47.0
google-cloud-core 2.5.0 archiviazione su Google Cloud 3.7.0 google-crc32c 1.8.0
google-resumable-media (media riprendibile di Google) 2.8.0 googleapis-common-protos 1.65.0 grpcio 1.67.0
grpcio-status 1.67.0 h11 0.16.0 hf-xet 1.2.0
httpcore 1.0.9 httplib2 0.20.4 httpx 0.28.1
huggingface_hub 1.2.4 IDNA 3.7 importlib_metadata 8.5.0
inflettere 7.3.1 iniconfig 1.1.1 ipyflow-core 0.0.209
ipykernel 6.29.5 ipython 8.30.0 ipython-genutils 0.2.0
ipywidgets 7.8.1 isodate 0.7.2 isodurazione 20.11.0
jaraco.collections 5.1.0 jaraco.context 5.3.0 jaraco.functools 4.0.1
jaraco.text 3.12.1 jedi 0.19.2 Jinja2 3.1.6
jiter 0.12.0 jmespath 1.0.1 joblib 1.4.2
json5 0.9.25 jsonpatch 1.33 jsonpointer 3.0.0
jsonschema 4.23.0 jsonschema-specifications 2023.7.1 eventi-jupyter 0.12.0
jupyter-lsp 2.2.5 jupyter_client 8.6.3 jupyter_core 5.7.2
jupyter_server 2.15.0 terminali_del_server_Jupyter 0.5.3 jupyterlab 4.3.4
jupyterlab_pygments 0.3.0 jupyterlab_server 2.27.3 jupyterlab_widgets 1.1.11
kiwisolver 1.4.8 langchain-core 1.2.6 langchain-openai 1.1.6
langsmith 0.6.1 launchpadlib 1.11.0 lazr.restfulclient 0.14.6
lazr.uri 1.0.6 litellm 1.75.9 markdown-it-py 2.2.0
MarkupSafe 3.0.2 zefiro 3.26.2 matplotlib 3.10.0
matplotlib-inline 0.1.7 mccabe 0.7.0 mdurl 0.1.0
Mistune 3.1.2 mlflow versione leggera 3.8.1 mmh3 5.2.0
more-itertools 10.3.0 msal 1.34.0 msal-extensions 1.3.1
multidict 6.1.0 mypy-extensions 1.0.0 nbclient 0.10.2
nbconvert 7.16.6 nbformat 5.10.4 nest-asyncio 1.6.0
nodeenv 1.10.0 taccuino 7.3.2 notebook_shim 0.2.4
numpy 2.1.3 oauthlib 3.2.2 OpenAI 2.14.0
opentelemetry-api 1.39.1 opentelemetry-proto 1.39.1 opentelemetry-sdk 1.39.1
Convenzioni Semanticche di OpenTelemetry 0.60b1 orjson 3.11.5 sostituisce 7.4.0
imballaggio 24,2 Panda 2.2.3 pandocfilters 1.5.0
parso 0.8.4 pathspec 0.10.3 vittima 1.0.1
pexpect 4.8.0 guanciale 11.1.0 seme 25.0.1
platformdirs 4.3.7 plotly (software di visualizzazione dati) 5.24.1 connettivita 1.5.0
prometheus_client 0.21.1 prompt-toolkit 3.0.43 propcache 0.3.1
proto-plus 1.27.0 protobuf 5.29.4 psutil 5.9.0
psycopg2 2.9.11 ptyprocess 0.7.0 pure-eval 0.2.2
pyarrow 21.0.0 pyasn1 0.4.8 pyasn1-modules 0.2.8
pyccolo 0.0.71 pycparser (un parser scritto in Python) 2.21 pydantic 2.10.6
pydantic_core 2.27.2 pyflakes 3.2.0 Pygments 2.19.1
PyGObject 3.48.2 pyiceberg 0.10.0 PyJWT 2.10.1
pyodbc 5.2.0 pyparsing 3.2.0 pyright 1.1.394
piroaring 1.0.3 pytest 8.3.5 python-dateutil (libreria Python per la gestione delle date) 2.9.0.post0
python-dotenv 1.2.1 python-json-logger (registratore JSON per Python) 3.2.1 python-lsp-jsonrpc 1.1.2
python-lsp-server 1.12.2 pytoolconfig 1.2.6 pytz 2024.1
PyYAML 6.0.2 pyzmq 26.2.0 Riferimento 0.30.2
regex 2024.11.6 richieste 2.32.3 requests-toolbelt 1.0.0
rfc3339-validator 0.1.4 rfc3986-validator 0.1.1 ricco 13.9.4
corda 1.13.0 rpds-py 0.22.3 rsa 4.9.1
s3transfer 0.14.0 scikit-learn 1.6.1 scipy 1.15.3
Seaborn 0.13.2 Send2Trash 1.8.2 setuptools (pacchetto Python per gestire la configurazione e la distribuzione) 78.1.1
"Shellingham" 1.5.4 sei 1.17.0 smmap 5.0.0
sniffio 1.3.0 contenitori ordinati 2.4.0 colino per la zuppa 2.5
sqlparse 0.5.5 ssh-import-id (comando per l'importazione di chiavi SSH) 5.11 dati accatastati 0.6.3
starlette 0.50.0 strictyaml 1.7.3 tenacità 9.0.0
finito 0.17.1 threadpoolctl 3.5.0 tiktoken 0.12.0
tinycss2 1.4.0 tokenize_rt 6.1.0 tokenizzatori 0.22.2
tomli 2.0.1 tornado 6.5.1 tqdm 4.67.1
traitlets (una libreria per la configurazione dei parametri nei programmi Python) 5.14.3 typeguard 4.3.0 typer-slim 0.21.1
types-python-dateutil 2.9.0.20251115 ispezione di digitazione 0.9.0 typing_extensions 4.12.2
tzdata 2024.1 ujson (una libreria per la gestione di JSON in Python) 5.10.0 aggiornamenti non supervisionati 0,1
Modello URI 1.3.0 urllib3 2.3.0 uuid_utils 0.12.0
uvicorn 0.40.0 virtualenv 20.29.3 wadllib 1.3.6
wcwidth (funzione per determinare la larghezza dei caratteri) 0.2.5 webcolors 25.10.0 codifiche web 0.5.1
cliente WebSocket 1.8.0 whatthepatch 1.0.2 ruota 0.45.1
ogni volta 0.7.3 widgetsnbextension 3.6.6 rapito 1.17.0
yapf 0.40.2 yarl 1.18.0 Zipp 3.21.0
zstandard 0.23.0

Librerie R installate

Le librerie R vengono installate dal Posit Gestione pacchetti CRAN snapshot del 20 novembre 2025.

Libreria Versione Libreria Versione Libreria Versione
freccia 22.0.0 askpass 1.2.1 assicura che 0.2.1
retroportazioni 1.5.0 base 4.5.1 base64enc 0.1-3
bigD 0.3.1 bit 4.6.0 bit 64 4.6.0-1
bitops 1.0-9 massa amorfa 1.2.4 avvio 1,3-30
fermentare 1.0-10 Brio 1.1.5 scopa 1.0.10
bslib 0.9.0 cashmere 1.1.0 chiamante 3.7.6
caret 7.0-1 cellranger 1.1.0 cronometro 2.3-62
class 7.3-22 CLI 3.6.5 Clipr 0.8.0
orologio 0.7.3 raggruppamento 2.1.6 strumenti per la codifica 0.2-20
segno comune 2.0.0 compilatore 4.5.1 configurazione 0.3.2
Confuso 1.2.0 cpp11 0.5.2 crayon 1.5.3
credenziali 2.0.3 curva 7.0.0 tabella di dati 1.17.8
Insiemi di dati 4.5.1 DBI 1.2.3 dbplyr 2.5.1
descrizione 1.4.3 strumenti per sviluppatori 2.4.6 diagramma 1.6.5
diffobj 0.3.6 digerire 0.6.39 illuminazione rivolta verso il basso 0.4.5
dplyr 1.1.4 dtplyr 1.3.2 e1071 1.7-16
puntini di sospensione 0.3.2 valutare 1.0.5 fan 1.0.7
colori 2.1.2 mappatura veloce 1.2.0 fontawesome 0.5.3
forzati 1.0.1 foreach 1.5.2 straniero 0.8 - 86
fs 1.6.6 futuro 1.68.0 futuro.applicare 1.20.0
fare gargarismi 1.6.0 elementi generici 0.1.4 gert 2.2.0
ggplot2 4.0.1 gh 1.5.0 git2r 0.36.2
gitcreds 0.1.2 glmnet 4.1-10 elementi globali 0.18.0
colla 1.8.0 Google Drive 2.1.2 googlesheets4 1.1.2
Gower 1.0.2 grafica 4.5.1 grDispositivi 4.5.1
griglia 4.5.1 gridExtra 2.3 gsubfn 0.7
gt 1.1.0 gtable 0.3.6 casco protettivo 1.4.2
rifugio 2.5.5 più alto 0.11 HMS 1.1.4
strumenti HTML 0.5.8.1 htmlwidgets 1.6.4 httpuv 1.6.16
httr 1.4.7 httr2 1.2.1 documenti di identità 1.0.1
ini 0.3.1 ipred 0.9-15 banderelle isografiche 0.2.7
Iteratori 1.0.14 jquerylib 0.1.4 jsonlite 2.0.0
juicyjuice 0.1.0 KernSmooth 2.23-22 knitr 1,50
etichettatura 0.4.3 più tardi 1.4.4 reticolo 0,22-5
lava 1.8.2 ciclo di vita 1.0.4 ascolta 0.10.0
litedown 0.8 lubridate 1.9.4 magrittr 2.0.4
Markdown 2.0 Massa 7.3-60.0.1 Matrice 1.6-5
memorizza 2.0.1 metodi 4.5.1 mgcv 1.9-1
mime 0.13 miniUI 0.1.2 mlflow 3.6.0
ModelMetrics 1.2.2.2 modelr 0.1.11 nlme 3.1-164
nnet (rete neurale) 7.3-19 Derivazione numerica 2016.8-1.1 openssl 2.3.4
0.2.0 parallelo 4.5.1 parallelamente 1.45.1
pilastro 1.11.1 pkgbuild 1.4.8 pkgconfig 2.0.3
pkgdown 2.2.0 pkgload 1.4.1 plogr 0.2.0
plyr 1.8.9 elogio 1.0.0 prettyunits 1.2.0
pROC 1.19.0.1 processx 3.8.6 prodlim 2025.04.28
profvis 0.4.0 Avanzamento 1.2.3 progressr 0.18.0
promesse 1.5.0 proto / prototipo 1.0.0 intermediario 0,4–27
P.S. 1.9.1 purrr 1.2.0 R6 2.6.1
ragg 1.5.0 randomForest 4.7-1.2 rappdirs 0.3.3
rcmdcheck 1.4.0 RColorBrewer 1.1-3 Rcpp (una libreria per il linguaggio di programmazione R) 1.1.0
RcppEigen 0.3.4.0.2 reagibile 0.4.4 reactR 0.6.1
readr 2.1.6 readxl (software per leggere documenti Excel) 1.4.5 ricette 1.3.1
nuovo incontro 2.0.0 rematch2 2.1.2 Telecomandi 2.5.0
esempio riproducibile (reprex) 2.1.1 reshape2 1.4.5 rlang 1.1.6
rmarkdown 2.30 RODBC 1.3-26 roxygen2 7.3.3
rpart 4.1.23 rprojroot 2.1.1 Rserve 1,8-15
RSQLite 2.4.4 rstudioapi 0.17.1 rversions 3.0.0
rvest 1.0.5 S7 0.2.1 Sass 0.4.10
Scala 1.4.0 selettore 0,4-2 informazioni sulla sessione 1.2.3
Forma 1.4.6.1 brillante 1.11.1 sourcetools 0.1.7-1
sparklyr 1.9.3 SparkR 4.1.0 sparsevctrs 0.3.4
spaziale 7.3-17 Spline 4.5.1 sqldf 0,4-11
SQUAREM 2021.1 statistiche 4.5.1 statistiche4 4.5.1
string 1.8.7 stringr 1.6.0 Sopravvivenza 3,5-8
spavalderia 5.17.14.1 sys 3.4.3 systemfonts 1.3.1
tcltk 4.5.1 testthat 3.3.0 modellazione del testo 1.0.4
Tibble 3.3.0 tidyr 1.3.1 tidyselect 1.2.1
tidyverse 2.0.0 cambio d'ora 0.3.0 data e ora 4051.111
tinytex 0.58 strumenti 4.5.1 tzdb 0.5.0
verificatore di URL 1.0.1 Usa questo 3.2.1 utf8 1.2.6
Utilità 4.5.1 UUID (Identificatore Unico Universale) 1.2-1 V8 8.0.1
vctrs 0.6.5 viridisLite 0.4.2 vrooom 1.6.6
Waldo 0.6.2 filo sottile 0.4.1 withr 3.0.2
xfun 0,54 xml2 1.5.0 xopen 1.0.1
xtable 1.8-4 yaml 2.3.10 zeallot 0.2.0
formato zip 2.3.3

Librerie Java e Scala installate (versione del cluster Scala 2.13)

ID del Gruppo ID dell'artefatto Versione
antlr antlr 2.7.7
com.clearspring.analytics torrente 2.9.8
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.53.0
com.databricks jets3t 0.7.1-0
com.databricks.scalapb scalapb-runtime_2.13 0.4.15-11
com.esotericsoftware ombreggiato criogenico 4.0.3
com.esotericsoftware minlog 1.3.0
com.fasterxml compagno di classe 1.5.1
com.fasterxml.jackson.core Annotazioni di Jackson 2.18.2
com.fasterxml.jackson.core jackson-core 2.18.2
com.fasterxml.jackson.core jackson-databind 2.18.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.18.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.18.3
com.fasterxml.jackson.module jackson-module-paranamer 2.18.2
com.fasterxml.jackson.module jackson-module-scala_2.13 2.18.2
com.github.ben-manes.caffeine caffeina 2.9.3
com.github.blemale scaffeine_2.13 4.1.0
com.github.fommil jniloader 1.1
com.github.fommil.netlib riferimento_nativo-java 1.1
com.github.fommil.netlib riferimento_nativo-java 1.1-indigeni
com.github.fommil.netlib sistema_nativo-java 1.1
com.github.fommil.netlib sistema_nativo-java 1.1-indigeni
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-indigeni
com.github.fommil.netlib netlib-sistema_nativo-linux-x86_64 1.1-indigeni
com.github.luben zstd-jni (libreria open-source per compressione con Java Native Interface) 1.5.7-6
com.github.virtuald curvesapi 1,08
com.github.wendykierp JTransforms 3.1
com.google.api.grpc proto-google-common-protos 2.5.1
com.google.auth google-auth-library-credentials 1.20.0
com.google.auth google-auth-library-oauth2-http 1.20.0
com.google.auto.value annotazioni a valore automatico 1.10.4
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.11.0
com.google.crypto.tink tink 1.16.0
com.google.errorprone annotazioni soggette a errori 2.36.0
com.google.flatbuffers flatbuffers-java 25.2.10
com.google.guava errore di accesso 1.0.3
com.google.guava guaiava 33.4.8-jre
com.google.http-client google-http-client 1.43.3
com.google.http-client google-http-client-gson 1.43.3
com.google.j2objc j2objc-annotations 3.0.0
com.google.protobuf protobuf-java 3.25.5
com.google.protobuf protobuf-java-util 3.25.5
com.helger profilatore 1.1.1
com.ibm.icu icu4j 75.1
com.jcraft jsch 0.1.55
com.lihaoyi sourcecode_2.13 0.1.9
com.microsoft.azure Azure Data Lake Store SDK 2.3.10
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre11
com.microsoft.sqlserver mssql-jdbc 12.8.0.jre8
com.ning compress-lzf (algoritmo di compressione) 1.1.2
com.sun.mail javax.mail (package Java per la gestione della posta elettronica) 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenti_2.13 0.4.13
com.twitter chill-java 0.10.0
com.twitter chill_2.13 0.10.0
com.twitter util-app_2.13 19.8.1
com.twitter util-core_2.13 19.8.1
com.twitter util-function_2.13 19.8.1
com.twitter util-jvm_2.13 19.8.1
com.twitter util-lint_2.13 19.8.1
com.twitter util-registry_2.13 19.8.1
com.twitter util-stats_2.13 19.8.1
com.typesafe configurazione 1.4.3
com.typesafe.scala-logging scala-logging_2.13 3.9.2
com.uber h3 3.7.3
com.univocity parser di univocità 2.9.1
com.zaxxer HikariCP 4.0.3
com.zaxxer SparseBitSet 1.3
commons-cli commons-cli 1.10.0
commons-codec (libreria per la codifica comune) commons-codec (libreria per la codifica comune) 1.19.0
collezioni-comuni collezioni-comuni 3.2.2
commons-dbcp commons-dbcp 1.4
funzione di caricamento file dei Commons funzione di caricamento file dei Commons 1.6.0
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.21.0
commons-lang commons-lang 2.6
commons-logging (no translation needed) commons-logging (no translation needed) 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.4
dev.ludovic.netlib Blas 3.0.4
dev.ludovic.netlib LAPACK 3.0.4
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift compressore d'aria 2.0.2
io.delta delta-sharing-client_2.13 1.3.10
io.dropwizard.metrics annotazione delle metriche 4.2.37
io.dropwizard.metrics nucleo delle metriche 4.2.37
io.dropwizard.metrics metrics-graphite 4.2.37
io.dropwizard.metrics metriche-controlli di salute 4.2.37
io.dropwizard.metrics metrics-jetty10 4.2.37
io.dropwizard.metrics metrics-jmx 4.2.37
io.dropwizard.metrics metrics-json (Specificare ulteriormente se necessario a seconda del contesto) 4.2.37
io.dropwizard.metrics metrics-jvm 4.2.37
io.dropwizard.metrics metriche-servlet 4.2.37
io.github.java-diff-utils java-diff-utils 4.15
io.netty netty-all 4.2.7.Final
io.netty netty-buffer 4.2.7.Final
io.netty netty-codec 4.2.7.Final
io.netty netty-codec-base 4.2.7.Final
io.netty netty-codec-classes-quic 4.2.7.Final
io.netty netty-codec-compression 4.2.7.Final
io.netty netty-codec-http (codec HTTP di Netty) 4.2.7.Final
io.netty netty-codec-http2 4.2.7.Final
io.netty netty-codec-http3 4.2.7.Final
io.netty netty-codec-marshalling 4.2.7.Final
io.netty netty-codec-native-quic 4.2.7.Final-linux-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-linux-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-aarch_64
io.netty netty-codec-native-quic 4.2.7.Final-osx-x86_64
io.netty netty-codec-native-quic 4.2.7.Final-windows-x86_64
io.netty netty-codec-protobuf 4.2.7.Final
io.netty netty-codec-socks 4.2.7.Final
io.netty netty-common 4.2.7.Final
io.netty netty-handler 4.2.7.Final
io.netty netty-handler-proxy 4.2.7.Final
io.netty netty-resolver 4.2.7.Final
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.74.Final-db-r0-windows-x86_64
io.netty netty-tcnative-classes 2.0.74.Final
io.netty netty-transport 4.2.7.Final
io.netty netty-transport-classes-epoll 4.2.7.Final
io.netty netty-transport-classes-io_uring 4.2.7.Final
io.netty netty-transport-classes-kqueue 4.2.7.Final
io.netty netty-transport-native-epoll 4.2.7.Final
io.netty netty-transport-native-epoll 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-epoll 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-aarch_64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-riscv64
io.netty netty-transport-native-io_uring 4.2.7.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.2.7.Final-osx-x86_64
io.netty netty-transport-native-unix-comune 4.2.7.Final
io.opencensus opencensus-api 0.31.1
io.opencensus opencensus-contrib-http-util 0.31.1
io.prometheus simpleclient 0.16.1-databricks
io.prometheus sempliceclient_comune 0.16.1-databricks
io.prometheus simpleclient_dropwizard 0.16.1-databricks
io.prometheus simpleclient_pushgateway 0.16.1-databricks
io.prometheus simpleclient_servlet 0.16.1-databricks
io.prometheus simpleclient_servlet_common 0.16.1-databricks
io.prometheus simpleclient_tracer_common 0.16.1-databricks
io.prometheus simpleclient_tracer_otel 0.16.1-databricks
io.prometheus simpleclient_tracer_otel_agent 0.16.1-databricks
io.prometheus.jmx collezionista 0.18.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation attivazione 1.1.1
javax.annotation javax.annotation-api 1.3.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.media jai_core jai_core_dummy
javax.transaction Java Transaction API (JTA) 1.1
javax.transaction API per le transazioni 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.14.0
net.java.dev.jna jna 5.8.0
net.razorvine sottaceto 1.5
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv (formato CSV avanzato) 2.2.0
net.snowflake snowflake-ingest-sdk (kit di sviluppo software per l'ingestione dati) 0.9.6
net.sourceforge.f2j arpack_combinato_tutto 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.13.1
org.antlr modello di stringa 3.2.1
org.apache.ant formica 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant ant launcher 1.10.11
org.apache.arrow compressione freccia 18.3.0
org.apache.arrow formato a freccia 18.3.0
org.apache.arrow arrow-nucleo-di-memoria 18.3.0
org.apache.arrow arrow-memory-netty 18.3.0
org.apache.arrow patch-buffer-netty-memoria-freccia 18.3.0
org.apache.arrow freccia-vettore 18.3.0
org.apache.avro Avro 1.12.1
org.apache.avro avro-ipc 1.12.1
org.apache.avro avro-mapred 1.12.1
org.apache.commons commons-collections4 4.5.0
org.apache.commons commons-compress 1.28.0
org.apache.commons commons-configuration2 2.11.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.19.0
org.apache.commons commons-math3 3.6.1
org.apache.commons testo comune 1.14.0
org.apache.curator curatore-cliente 5.9.0
org.apache.curator framework del curatore 5.9.0
org.apache.curator ricette del curatore 5.9.0
org.apache.datasketches datasketches-java 6.2.0
org.apache.datasketches datasketches-memory 3.0.2
org.apache.derby derby sportivo 10.14.2.0
org.apache.hadoop runtime del client Hadoop 3.4.2
org.apache.hive hive-beeline 2.3.10
org.apache.hive hive-cli 2.3.10
org.apache.hive Hive-JDBC 2.3.10
org.apache.hive hive-llap-client 2.3.10
org.apache.hive hive-llap-common 2.3.10
org.apache.hive hive-serde 2.3.10
org.apache.hive spessori del sistema Hive 2.3.10
org.apache.hive API di archiviazione Hive 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.10
org.apache.hive.shims Hive-shims-common 2.3.10
org.apache.hive.shims hive-shims-scheduler 2.3.10
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy Edera 2.5.3
org.apache.logging.log4j log4j-1.2-api 2.24.3
org.apache.logging.log4j log4j-api 2.24.3
org.apache.logging.log4j log4j-core 2.24.3
org.apache.logging.log4j log4j-struttura-modello-json 2.24.3
org.apache.logging.log4j log4j-slf4j2-impl 2.24.3
org.apache.orc orc-core 2.2.0-shaded-protobuf
org.apache.orc formato orc 1.1.1-shaded-protobuf
org.apache.orc orc-mapreduce 2.2.0-shaded-protobuf
org.apache.orc orc-shims 2.2.0
org.apache.poi POI 5.4.1
org.apache.poi poi-ooxml 5.4.1
org.apache.poi poi-ooxml-full 5.4.1
org.apache.poi poi-ooxml-lite 5.4.1
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.16.0
org.apache.ws.xmlschema xmlschema-core 2.3.1
org.apache.xbean xbean-asm9-shaded 4.28
org.apache.xmlbeans xmlbeans 5.3.0
org.apache.yetus annotazioni per il pubblico 0.13.0
org.apache.zookeeper guardiano dello zoo 3.9.4
org.apache.zookeeper guardiano dello zoo-juta 3.9.4
org.checkerframework verificatore qualità 3.43.0
org.codehaus.janino Commons-Compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus Datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-alpn-client 10.0.26
org.eclipse.jetty jetty-client 10.0.26
org.eclipse.jetty jetty-http 10.0.26
org.eclipse.jetty jetty-io 10.0.26
org.eclipse.jetty jetty-jndi 10.0.26
org.eclipse.jetty Jetty Plus 10.0.26
org.eclipse.jetty jetty-proxy 10.0.26
org.eclipse.jetty sicurezza del molo 10.0.26
org.eclipse.jetty Jetty Server 10.0.26
org.eclipse.jetty jetty-servlet 10.0.26
org.eclipse.jetty jetty-servlets 10.0.26
org.eclipse.jetty jetty-util 10.0.26
org.eclipse.jetty applicazione web di Jetty 10.0.26
org.eclipse.jetty jetty-xml 10.0.26
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-localizzatore 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 localizzatore di risorse OSGi 1.0.3
org.glassfish.hk2.external aopalliance-riconfezionato 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet (servlet del contenitore Jersey) 2.41
org.glassfish.jersey.containers modulo-nucleo-servlet-contenitore-jersey (if a translation is required as per the context) 2.41
org.glassfish.jersey.core jersey-client 2.41
org.glassfish.jersey.core jersey-comune 2.41
org.glassfish.jersey.core Jersey-server 2.41
org.glassfish.jersey.inject jersey-hk2 2.41
org.hibernate.validator validatore di Hibernate 6.2.5.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging (strumento di registrazione per JBoss) 3.4.1.Final
org.jdbi jdbi 2.63.1
org.jline jline 3.27.1-jdk8
org.joda joda-convert 1,7
org.json4s json4s-ast_2.13 4.0.7
org.json4s json4s-core_2.13 4.0.7
org.json4s json4s-jackson-core_2.13 4.0.7
org.json4s json4s-jackson_2.13 4.0.7
org.json4s json4s-scalap_2.13 4.0.7
org.locationtech.jts jts-core 1.20.0
org.lz4 lz4-java 1.8.0-databricks-1
org.mlflow mlflow-spark_2.13 2.22.1
org.objenesis objenesis 3.4
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 1.2.1
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.13 2.13.16
org.scala-lang scala-library_2.13 2.13.16
org.scala-lang scala-reflect_2.13 2.13.16
org.scala-lang.modules scala-collection-compat_2.13 2.11.0
org.scala-lang.modules scala-java8-compat_2.13 0.9.1
org.scala-lang.modules scala-parallel-collections_2.13 1.2.0
org.scala-lang.modules scala-parser-combinators_2.13 2.4.0
org.scala-lang.modules scala-xml_2.13 2.4.0
org.scala-sbt interfaccia di prova 1.0
org.scalacheck scalacheck_2.13 1.18.0
org.scalactic scalactic_2.13 3.2.19
org.scalanlp breeze-macros_2.13 2.1.0
org.scalanlp breeze_2.13 2.1.0
org.scalatest compatibile con scalatest 3.2.19
org.scalatest scalatest-core_2.13 3.2.19
org.scalatest scalatest-diagrams_2.13 3.2.19
org.scalatest scalatest-featurespec_2.13 3.2.19
org.scalatest scalatest-flatspec_2.13 3.2.19
org.scalatest scalatest-freespec_2.13 3.2.19
org.scalatest scalatest-funspec_2.13 3.2.19
org.scalatest scalatest-funsuite_2.13 3.2.19
org.scalatest scalatest-matchers-core_2.13 3.2.19
org.scalatest scalatest-mustmatchers_2.13 3.2.19
org.scalatest scalatest-propspec_2.13 3.2.19
org.scalatest scalatest-refspec_2.13 3.2.19
org.scalatest scalatest-shouldmatchers_2.13 3.2.19
org.scalatest scalatest-wordspec_2.13 3.2.19
org.scalatest scalatest_2.13 3.2.19
org.slf4j jcl-over-slf4j 2.0.16
org.slf4j jul-to-slf4j 2.0.16
org.slf4j slf4j-api 2.0.16
org.slf4j slf4j-simple 1.7.25
org.threeten threeten-extra 1.8.0
org.tukaani xz 1.10
org.typelevel algebra_2.13 2.8.0
org.typelevel cats-kernel_2.13 2.8.0
org.typelevel spire-macros_2.13 0.18.0
org.typelevel spire-platform_2.13 0.18.0
org.typelevel spire-util_2.13 0.18.0
org.typelevel spire_2.13 0.18.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 2.5.0-linux-x86_64
Stax stax-api 1.0.1