Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 18.2 (Beta).
Questa versione incorpora tutte le funzionalità, i miglioramenti e le correzioni di bug di tutte le versioni precedenti di Databricks Runtime. Databricks ha rilasciato questa versione nell'aprile 2026.
Importante
Databricks Runtime 18.2 è in versione beta. Il contenuto degli ambienti supportati potrebbe cambiare durante la versione beta. Le modifiche possono includere l'elenco dei pacchetti o delle versioni dei pacchetti installati.
Modifiche comportamentali
- XPath non recupera più DTD esterni
- Conservazione degli struct NULL in INSERT, MERGE e scritture di streaming con evoluzione dello schema
- Supporto nullType (VOID) nelle tabelle Delta
- SHOW CREATE TABLE supporta le visualizzazioni delle metriche
- Correzione per LEFT OUTER JOIN LATERAL che elimina righe
- NATURAL JOIN rispetta la corrispondenza delle colonne senza distinzione di maiuscole
- Convalida delle dipendenze delle funzioni definite dall'utente SQL in Unity Catalog
- Scritture ottimizzate per le tabelle del Unity Catalog partizionate create con CRTAS
- Le dipendenze di AWS SDK v1 sono ombreggiate
- Correggere l'autorità EPSG errata per l'SRID 102100 definito da ESRI
XPath non recupera più DTD esterni
Quando si valuta XPath su XML, Azure Databricks non carica più le definizioni dei tipi di documento esterne (DTD) dichiarate nel documento. In precedenza, XPath poteva non riuscire quando il codice XML conteneva un riferimento DTD esterno che puntava a un URL in formato non valido o a un endpoint non raggiungibile. Poiché la convalida DTD è separata dalla valutazione XPath, le query che hanno già avuto esito positivo restituiscono gli stessi risultati di prima. Le query che prima fallivano solo durante il recupero del DTD esterno ora possono riuscire.
Conservazione degli struct NULL in INSERT, MERGE e scritture di streaming con evoluzione dello schema
Per INSERT, MERGE e le scritture di streaming che usano l'evoluzione dello schema, uno struct NULL nell'origine viene ora memorizzato come NULL nella destinazione. In precedenza, tale valore veniva materializzato in modo non corretto come struct non Null con ogni campo impostato su NULL, mentre le stesse operazioni senza evoluzione dello schema conservavano correttamente gli struct NULL. Se il codice si basava sulla ricezione di uno struct non Null i cui campi erano tutti NULL, aggiornare il codice per gestire invece uno struct NULL.
Supporto NullType (VOID) nelle tabelle Delta
Le tabelle Delta ora supportano le colonne di Spark NullType.
VOID le colonne non vengono più eliminate dallo schema della tabella dopo le letture. Le scritture non sono interessate. Consultare VOID tipo per le restrizioni su dove le colonne VOID possono apparire nello schema.
SHOW CREATE TABLE supporta le visualizzazioni delle metriche
SHOW CREATE TABLE supporta ora le visualizzazioni delle metriche. In precedenza, l'esecuzione di questo comando in una visualizzazione metrica generava un errore. L'output per le visualizzazioni delle metriche include il nome completo in tre parti con catalogo (ad esempio, CREATE VIEW catalog.db.my_metric_view ...), rendendo più semplice ricreare la visualizzazione delle metriche nella posizione corretta.
Correzione per la perdita di righe in LEFT OUTER JOIN LATERAL
È stato risolto un bug che eliminava erroneamente le righe dalle LEFT OUTER JOIN LATERAL query. Le query che usano questo costrutto restituiscono ora i risultati corretti. Per ripristinare temporaneamente il comportamento precedente, impostare spark.databricks.sql.optimizer.lateralJoinPreserveOuterSemantic su true.
NATURAL JOIN rispetta la corrispondenza di colonne senza distinzione di maiuscole
NATURAL JOIN ora utilizza correttamente la corrispondenza di colonne senza distinzione tra maiuscole e minuscole quando spark.sql.caseSensitive è impostato su false (di default). In precedenza, NATURAL JOIN veniva utilizzato un confronto con distinzione tra maiuscole e minuscole per identificare le colonne comuni, causando che colonne diverse solo per caso (ad esempio, ID rispetto a id) non venissero riconosciute come corrispondenti. Ciò ha NATURAL JOIN causato la generazione invisibile all'utente dei risultati di cross join. Questa correzione allinea il NATURAL JOIN comportamento ai USING join, che già gestivano correttamente l'insensibilità alle maiuscole. Le query interessate da questo bug restituiscono ora risultati corretti con colonne unite correttamente.
Convalida delle dipendenze delle funzioni definite dall'utente (UDF) SQL nel catalogo Unity
Il Catalogo Unity impone ora la convalida delle dipendenze per le funzioni definite dall'utente SQL per impedire il bypass dei controlli di accesso. In precedenza, le funzioni SQL create tramite l'API REST potevano fare riferimento alle dipendenze a cui l'utente non aveva accesso. Le funzioni SQL definite dall'utente con configurazioni di dipendenza non valide sono ora impedite dall'esecuzione.
Scritture ottimizzate per le tabelle partizionate del Catalogo Unity create con CRTAS
Le scritture ottimizzate vengono ora applicate correttamente alle tabelle del catalogo Unity partizionate create con CREATE OR REPLACE TABLE ... AS SELECT (CRTAS). In precedenza, CRTAS nelle nuove tabelle del catalogo Unity partizionate non applicava scritture ottimizzate, generando un numero più elevato di file di piccole dimensioni per partizione. Questa correzione può aumentare la latenza di scrittura. Per ripristinare il comportamento precedente, impostare spark.databricks.delta.optimizeWrite.UCTableCRTAS.enabled su false.
Le dipendenze di AWS SDK v1 sono ombreggiate
Le dipendenze di AWS SDK v1 in bundle con Databricks Runtime sono ora ombreggiate e non sono più disponibili direttamente nel classpath. Se il codice dipende dalle librerie di AWS SDK v1 fornite in precedenza da Databricks Runtime, aggiungerle come dipendenze esplicite nel progetto. Questa modifica prepara alla migrazione ad AWS SDK v2, dopo la fine del supporto AWS per SDK v1.
Correzione dell'autorità EPSG non corretta per SRID definito da ESRI 102100
Il mapping CRS (Coordinate Reference System) per SRID 102100 ora usa ESRI:102100 correttamente anziché .EPSG:102100 Questa correzione garantisce che i dati geospaziali vengano archiviati con l'autorità corretta per una migliore interoperabilità con altri sistemi.
Nuove funzionalità e miglioramenti
- Supporto CREATE OR REPLACE per le tabelle temporanee
-
agg()un alias permeasure()funzione - Aggiornamento del driver JDBC Snowflake
-
pyspark.pipelines.testingalias dello spazio dei nomi - Miglioramento delle prestazioni di elencazione dell'Auto Loader
- La cronologia della tabella Delta include flag delle opzioni di scrittura
- Supporto per il riavvolgimento e la riproduzione di Structured Streaming
Supporto CREATE OR REPLACE per le tabelle temporanee
CREATE OR REPLACE TEMP TABLE la sintassi è ora supportata, consentendo di creare o sostituire tabelle temporanee in una singola istruzione. In questo modo si elimina la necessità di eliminare e ricreare in modo esplicito le tabelle temporanee.
agg() alias per measure() la funzione
agg() è ora disponibile come alias per la measure() funzione. Questa modifica è completamente compatibile con le versioni precedenti. Le query esistenti che usano measure() continuano a funzionare senza modifiche e agg() producono risultati identici se usati con gli stessi argomenti.
Aggiornamento del driver JDBC Snowflake
Il driver JDBC Snowflake viene aggiornato dalla versione 3.22.0 alla versione 3.28.0.
pyspark.pipelines.testing alias dello spazio dei nomi
pyspark.pipelines.testing è ora disponibile come alias pratico per dlt.testing le API. Importare le utilità di test delle pipeline dichiarative di Lakeflow Spark attraverso uno dei due namespace.
Miglioramento delle prestazioni di caricamento del caricatore automatico
Il caricatore automatico ora usa un metodo di presentazione più efficiente che migliora la velocità di presentazione per le origini di archiviazione cloud. Se i trigger di flusso si sovrappongono a causa di operazioni di presentazione a esecuzione prolungata, questa ottimizzazione può comportare un aumento dei costi dell'API di presentazione nel cloud. Monitorare gli intervalli di trigger e aggiustare la pianificazione per evitare la sovrapposizione delle operazioni se vengono osservati aumenti dei costi.
La cronologia delle tabelle Delta include parametri di opzione di scrittura
La cronologia della tabella Delta (DESCRIBE HISTORY) include ora i flag di opzione di scrittura nella colonna operationParameters per le operazioni WRITE e REPLACE TABLE. Quando le opzioni seguenti sono abilitate in modo esplicito, vengono visualizzate come flag booleani nella cronologia (incluso solo quando true):
Per le operazioni WRITE e REPLACE TABLE:
-
isDynamicPartitionOverwrite: presente quando è stata usata la modalità di sovrascrittura della partizione dinamica -
canOverwriteSchema: presente quando è stata abilitata la sovrascrittura dello schema (overwriteSchema) -
canMergeSchema: presente quando è stata abilitata l'unione dello schema (mergeSchema)
Per REPLACE TABLE operazioni:
-
predicate: presente quandoreplaceWhereè stato usato -
isV1WriterSaveAsTableOverwrite: presente quando la sostituzione è stata attivata da una.saveAsTablesovrascrittura
Supporto di riavvolgimento e riproduzione di Structured Streaming
Structured Streaming ora supporta il riavvolgimento e la riproduzione per le pipeline di streaming. Questa funzionalità consente di rielaborare da un punto precedente del flusso per eseguire il ripristino da errori quali modifiche dello schema, dati di input in formato non valido o errori di logica, senza richiedere una reimpostazione dello stato completa. Questo non modifica il comportamento predefinito dei carichi di lavoro di streaming esistenti.
Aggiornamenti della libreria
Librerie di Python aggiornate:
Nessuna libreria aggiornata in questa versione.
Librerie R aggiornate:
Nessuna libreria aggiornata in questa versione.
Librerie Java aggiornate:
- io.delta.delta-sharing-client_2.13 da 1.3.9 a 1.3.10
Apache Spark
Databricks Runtime 18.2 include Apache Spark 4.1.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 18.1, nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- SPARK-56219 Ripristinare "[SC-225028][PS] Allinea il comportamento di groupby idxmax e idxmin con skipna=False a pandas 2/3"
- SPARK-56204 Rimuovere gli wrapper da espressioni di riga di tabella in linea nel parser
- SPARK-56186 Ritirare pypy
- SPARK-56202 Eseguire il refactoring dei test di join in streaming: suddividere la gerarchia di Base/Suite e semplificare l'invio in modalità
- SPARK-56221 Parità delle funzionalità tra i comandi spark.catalog.* e DDL
-
SPARK-56301 Correzione degli errori di digitazioni in
error-conditions.json - SPARK-55729 Supporto per il lettore di origine dati dello stato nel nuovo formato di stato v4 nel join tra stream e stream.
- SPARK-56256 Aggiungere l'API di emptyDataFrame a SparkSession
- SPARK-56205 Convalidare l'ID del checkpoint dell'archivio stati di base prima di eseguire il commit del microbatch
- SPARK-55827 Correzione del type hint per i worker del datasource
- SPARK-55579 Rinominare le classi di errore di PySpark per essere indipendenti dal tipo di valutazione
- SPARK-56247 Correggere il comportamento di ripiego e il suggerimento di tipo di inheritable_thread_target
- SPARK-56244 Ridefinire il layout della classe di benchmark in bench_eval_type.py
- SPARK-56262 Rimuovere la disabilitazione del controllo mypy non necessario per i tipi
- SPARK-55969 regr_r2 deve considerare il primo parametro come variabile dipendente
- SPARK-56179 Unificare le classi di errore per incompatibilità di tipo - parte 3
- SPARK-55630 Evita di aggiornare il flag di corrispondenza per il lato non esterno nel join stream-stream v4
- SPARK-56217 Correggere le eccezioni bucketBy nella connessione
- SPARK-56225 Migliorare il messaggio di errore di visualizzazione CON SCHEMA EVOLUTION
- SPARK-55865 Rinominare _LEGACY_ERROR_TEMP_1266 in CANNOT_TRUNCATE_EXTERNAL_TABLE
- SPARK-55861 Rinominare _LEGACY_ERROR_TEMP_2045 con UNSUPPORTED_TABLE_CHANGE
- SPARK-56166 Usare ArrowBatchTransformer.enforce_schema per sostituire la logica di coercizione dei tipi a colonne
- SPARK-56245 Correzione dell'assegnazione di DataFrame.eval inplace in pandas 3
- SPARK-56062 Isolare memory_profiler per migliorare il tempo di importazione
- Il catalogo di sistema SPARK-55964 prevale sul catalogo utenti per gli schemi BUILTIN e SESSION.
-
SPARK-56226 Individuare gli errori di analisi prima
InternalFrame.__init__in.loc - SPARK-55723 Generalizzare l'errore enforce_schema in PySparkTypeError
- SPARK-54878 Aggiungere l'opzione sortKeys alla funzione to_json
- SPARK-56219 Allineare il comportamento di groupby idxmax e idxmin skipna=False con pandas 2/3
- SPARK-44065 Ottimizzare l'asimmetria di BroadcastHashJoin in OptimizeSkewedJoin
- SPARK-56179 Revertire "[SC-225014][PYTHON] Consolidare le classi di errore per la mancata corrispondenza del tipo - parte 3"
- SPARK-53399 Unire Python funzioni definite dall'utente
- SPARK-56224 Annotazioni di tipo polacco per accumulators.py
- SPARK-55448 Correzione della perdita di eventi di query quando la sessione viene chiusa durante l'esecuzione della query
- SPARK-55862 Rinominare _LEGACY_ERROR_TEMP_2027 in UNEXPECTED_OPERATOR_IN_CORRELATED_SUBQUERY
- SPARK-56201 Eseguire test SPARK-49829 con join VCF ora che StateDataSource lo supporta
- SPARK-56179 Consolidare le classi di errore per l'incompatibilità di tipo - parte 3
-
SPARK-56184 Sostituire
assertconSparkRuntimeExceptioncorretto nella lettura della colonna di partizione - SPARK-56206 Correzione del rilevamento dei nomi CTE duplicati senza distinzione tra maiuscole e minuscole
- SPARK-55866 Rinominare _LEGACY_ERROR_TEMP_2145 in OPTION_VALUE_EXCEEDS_ONE_CHARACTER
- SPARK-56067 Importazione differita psutil per migliorare la velocità di importazione
- SPARK-56066 Importazione lazy di numpy per migliorare la velocità di importazione
- SPARK-55719 Rimuovere l'avviso di deprecazione per spark.sql.hive.convertCTAS
- SPARK-56179 Consolidare le classi di errore per la mancata corrispondenza del tipo - parte 2
- SPARK-55510 Aggiornare, per riflettere deleteRange, il documento structured-streaming-state-data-source.md.
- SPARK-56050 Risolvere IDENTIFIEReagerly () con valori letterali stringa in fase di analisi
- SPARK-56151 Migliorare la stringa di visualizzazione CreateVariable
- SPARK-55751 Aggiungere metriche nei caricamenti dell'archivio stati da DFS
- SPARK-56188 Allineare Series.map({}) con il comportamento di pandas 3 relativo a un dizionario vuoto.
- SPARK-55964 Annulla "[SC-223957] il catalogo di sistema prevale sul catalogo utenti per gli schemi BUILTIN e SESSION".
- SPARK-55577 Esegui il refactoring della logica di wrapper, mapper e serializer SQL_SCALAR_ARROW_ITER_UDF
- SPARK-55596 DSV2 Filtraggio avanzato delle statistiche delle partizioni
- SPARK-56179 Reversione di "[SC-224777][PYTHON] Consolidamento delle classi di errore per la mancata corrispondenza del tipo - parte 2"
- Il catalogo di sistema SPARK-55964 prevale sul catalogo utenti per gli schemi BUILTIN e SESSION.
- SPARK-56050 Ripristinare "[SC-224153][SQL] Eagerly resolve IDENTIFIER() con valori letterali stringa in fase di analisi"
- SPARK-56179 Consolidare le classi di errore per la mancata corrispondenza del tipo - parte 2
-
SPARK-56102
UnionEstimationpulizia del codice - SPARK-51712 Gestire le Throwable non fatali durante l'elaborazione delle tabelle/viste in spark.catalog.listTables()
- SPARK-55881 Aggiungere queryId, errorMessage e rootExecutionId all'API REST di esecuzione SQL
- SPARK-56050 Risolvere immediatamente IDENTIFIER() con letterali stringa in fase di analisi
- SPARK-55628 Integrare il formato stato di join stream-stream V4
- SPARK-56187 Correzione dell'ordinamento di Series.argsort null per pandas 3
- SPARK-56167 Allineare astype con il comportamento predefinito della stringa pandas 3
- SPARK-56018 Utilizzare ruff come formattatore
- SPARK-56042 Correzione delle metriche relative al conteggio delle famiglie di colonne esterne/interne invertite in RocksDBStateStoreProvider
- SPARK-56179 Consolidare le classi di errore per la mancata corrispondenza del tipo - parte 1
- SPARK-56089 Allineare asinh/acosh con l'algoritmo fdlibm per la compatibilità tra motori
- SPARK-55453 Correzione della corrispondenza dei criteri LIKE per i caratteri Unicode supplementari
- SPARK-52785 Semplificazione della sintassi super() in PySpark
-
SPARK-56169 Correzione
ClassCastExceptionnella segnalazione degli errori quandoGetStructFieldil tipo figlio viene modificato dalla trasformazione del piano - SPARK-55557 Le funzioni iperboliche non devono andare in overflow con valori elevati
- SPARK-47997 Aggiungere il parametro errors a DataFrame.drop e Series.drop
- SPARK-55008 Visualizzare l'ID della query in SparkUI
- SPARK-54660 Aggiungere un trigger RTM a Python
-
SPARK-56047 Propagare
distinctCountattraverso l'unione nella stima delle statistiche CBO - SPARK-56111 Aggiungere SparkContext.isDriver() e usarlo nella codebase
- SPARK-55999 Abilitare forceSnapshotUploadOnLag per impostazione predefinita
- SPARK-55610 Aggiungere getExecutorInfos a StatusTracker in Python
- SPARK-55728 Introdurre la configurazione per le dimensioni del pool di thread del checksum del file e supportare la disabilitazione del pool di thread.
- SPARK-55686 SizeEstimator si occupa delle intestazioni degli oggetti compatti
- SPARK-56044 HistoryServerDiskManager non elimina app store al rilascio quando l'app non si trova nella mappa attiva
- SPARK-55809 HeapHistogram usa DiagnosticCommandMBean invece del sottoprocesso jmap
- SPARK-56122 Utilizzare il controllo di tipo numerico compatibile con pandas in Series.cov
- SPARK-56113 Migliorare il ripristino delle stringhe di pandas 3 su pandas-on-Spark
- SPARK-56118 Allineare la gestione dei valori booleani di pandas 3.0 nella funzione GroupBy.quantile
- SPARK-53823 Implementare l'elenco consenti per la modalità in tempo reale
- SPARK-55977 Correzione di isin() per usare una corrispondenza dei tipi rigorosa come pandas
- SPARK-54027 Supporto di Kafka Source RTM
- SPARK-50284 Modificare la documentazione per la funzione parseJson
-
SPARK-56035 [SQL] Introdurre
AggregationValidatorper la convalida dei resolver a passaggio singoloAggregate - SPARK-55557 Ripristinare "[SC-223720][SQL] Le funzioni iperboliche non devono sovraflow con input di grandi dimensioni"
- SPARK-56075 Rimuovere un batch di classi di errore Python non recapitabili
- SPARK-55967 Unify column conversion for connect dataframe (Unify column conversion for connect dataframe)
- SPARK-53915 Aggiungere RealTimeScanExec e la possibilità di eseguire batch con esecuzione prolungata
- SPARK-55557 Le funzioni iperboliche non devono andare in overflow con gli input di grandi dimensioni
- SPARK-55147 Delimitare l'intervallo di timestamp per il ripristino del join su intervallo di tempo nel formato di stato V4
- SPARK-56056 Supportare la profilatura dei ruoli di lavoro più semplice con viztracer
- SPARK-55948 Aggiungere l'API del connettore DSv2 CDC, la risoluzione dell'analizzatore e la clausola SQL CHANGES
- SPARK-54599 Riapplicare "[SC-219008][PYTHON] Rifattorizzare PythonExcept...
- SPARK-55390 Consolidare la logica di wrapper, mapper e serializer di SQL_SCALAR_ARROW_UDF
- SPARK-56023 Bilanciamento del carico migliore in LowLatencyMemoryStream
- SPARK-55986 Aggiornare il nero alla versione 26.3.1
- SPARK-55667 Spostare check_dependencies in init
- SPARK-55145 Supporto di Avro per codificatori di chiavi di stato RocksDB basati su timestamp
- SPARK-53970 Rimuovere il tag 'facoltativo' non corretto per messageName...
- SPARK-55059 Annullare "[SC-224058][PYTHON] Rimuovere la soluzione alternativa per la gestione delle tabelle vuote in toPandas"
- SPARK-50111 Aggiungere il supporto dei sottoplot per i grafici a torta nel backend Plotly
- SPARK-56081 Allineare la gestione idxmax e idxmin NA con pandas 3
- SPARK-56080 Allineare Series.argmax/argmin alla gestione dei valori NA in pandas 3.0
- SPARK-56060 Gestire la conversione delle stringhe null di pandas 3 in describe() per i frame di timestamp vuoti
- SPARK-55059 Rimuovere la soluzione alternativa per gestire la tabella vuota in toPandas
- SPARK-55995 Supporto di TIMESTAMP CON FUSO ORARIO LOCALE nella sintassi SQL
- SPARK-55976 Usare Set anziché Seq per i privilegi di scrittura
-
SPARK-56073 Semplificare la compilazione di
PythonRunnerConfMap -
SPARK-55887 Gestione speciale per
CollectLimitExec/CollectTailExecevitare analisi complete delle tabelle - SPARK-55980 Applicare sempre _cast_back_float nei calcoli numerici
- SPARK-55357 Correzione della docstring per timestamp_add
- SPARK-55667 Ripristina "[SC-223289][PYTHON][CONNECT] Reverti lo spostamento di check_dependencies in init"
- SPARK-54285 Ripristinare "[PYTHON] Memorizzare nella cache le informazioni sul fuso orario per evitare una conversione di timestamp costosa"
- SPARK-56021 Aumentare la soglia predefinita autoSnapshotRepair maxChangeFileReplay da 50 a 500
- SPARK-55870 Aggiungere documenti per i tipi geografici
- SPARK-55962 Usare
getShortinvece di eseguire il castgetIntsu piattaformeputShortsFromIntsLittleEndianLittle Endian - SPARK-55903 Semplificare l'evoluzione dello schema MERGE e controllare i privilegi di scrittura
- SPARK-55326 Rilasciare una sessione remota quando SPARK_CONNECT_RELEASE_SESSION_ON_EXIT è impostato
- SPARK-55667 Spostare check_dependencies nella funzione init
- SPARK-55884 Aggiungere v1StatsToV2Stats alla relazione DataSourceV2Relation
- SPARK-55929 Aggiungi la mancante toString() a TableChange.UpdateColumnDefaultValue
- SPARK-55851 Chiarire i tipi di partizione e lettura dell'origine dati
- SPARK-55828 Aggiungere DSV2 TableChange toString e correggere la classe di errore mancante per Merge into Schema Evolution
- SPARK-55790 Costruire un registro SRS completo usando i dati PROJ 9.7.1
- SPARK-55645 Aggiungere serdeName a CatalogStorageFormat
- SPARK-54796 Correzione dell'NPE causata da una condizione di competizione tra l'inizializzazione dell'executor e la migrazione di shuffle
- SPARK-55983 Nuove funzionalità dell'analizzatore a passaggio singolo e correzioni di bug
- SPARK-55964 Coerenza della cache: cancella il registro delle funzioni su DROP DATABASE
- SPARK-55868 Correzione del predicato pushdown di InMemoryTable per V2Filters
- SPARK-55973 Ottimizzazione LeftSemi per unione di stream-stream
- SPARK-54665 Correzione del confronto tra valori booleani e stringa in modo che corrisponda al comportamento pandas
- SPARK-55539 Consenti cast da GeographyType a GeometryType
- SPARK-55695 Evitare la doppia pianificazione nelle operazioni a livello di riga
- SPARK-55904 Usare _check_same_session per restringere i tipi
- SPARK-55965 Aggiungere un avviso quando pandas >= 3.0.0 viene usato con PySpark
- SPARK-55493 [SS] Non creare directory nella directory di log di checkpoint streaming offset/commit nella StateDataSource.
- SPARK-55851 Ripristina "[SC-223270][PYTHON] Chiarire i tipi di partizione e lettura della fonte dati"
- SPARK-55645 Ripristinare "[SC-221839][SQL] Aggiungere serdeName a CatalogStorageFormat"
- SPARK-55640 Propagare gli errori di analisi WKB per Geometry e Geography
- SPARK-55693 Evitare lo stallo rendendo SparkSession.observationManager un valore non lazy
- SPARK-55528 Aggiungere il supporto di collazione predefinito per le funzioni definite dall'utente di SQL
-
SPARK-55860 Usare
UNABLE_TO_INFER_SCHEMAinvece diUNABLE_TO_INFER_SCHEMA_FOR_DATA_SOURCE - SPARK-55275 Aggiungere gli stati SQL InvalidPlanInput per sql/connect
- SPARK-55645 Aggiungere serdeName a CatalogStorageFormat
- SPARK-55716 Supporta l'imposizione del vincolo NOT NULL per gli inserimenti nelle tabelle di origine file V1
- SPARK-53226 Rendere ClosingCleaner funzionante con Java22+
- SPARK-55997 Impostare il limite superiore sul prefissoScan nel provider dell'archivio stati di RocksDB
- SPARK-55851 Chiarire i tipi di partizione e lettura dell'origine dati
- SPARK-55954 Rimuovere l'hint per il tipo di overload non corretto per fillna
- SPARK-56016 Preservare le colonne Serie denominate nella funzione concat con ignore_index in pandas 3
- SPARK-55502 Unificare la gestione degli errori di conversione del framework Arrow in UDF e UDTF
-
SPARK-55989 Conservare i dtype degli indici non int64 in
restore_index - SPARK-55955 Rimuovere l'hint per il tipo di overload per drop
- SPARK-55945 [SDP] Supporta identificatori strutturati per i flussi nei protos di analisi eager SDP
- SPARK-55714 JDK potrebbe generare un'eccezione ArithmeticException senza messaggio
- SPARK-55991 Correggere il danneggiamento del testo SQL correlato a Unicode con i parametri
- SPARK-55696 Aggiungere un errore esplicito a Encoders.bean per la classe di interfaccia
- SPARK-55533 Supporto di IGNORE NULLS/RESPECT NULLS per collect_set
- SPARK-55987 Correzione dell'estrazione del timestamp di join finestra V4 usando findJoinKeyOrdinalForWatermark
- SPARK-55946 Configurare pandas_priority in modo che le operazioni binarie miste vengano inviate correttamente a pandas-on-Spark
- SPARK-55264 Aggiungere il comando ExecuteOutput alle pipeline spark Connect proto
- SPARK-47672 Evitare la doppia valutazione dal pushdown del filtro con il pushdown della proiezione
- SPARK-55780 Sostituire il logo PNG con SVG nell'interfaccia utente Web Spark
- SPARK-55821 Imporre argomenti solo per parola chiave nei metodi init del serializzatore
- SPARK-55621 Correggere l'utilizzo unicode ambiguo e non necessario
- SPARK-55662 Implementazione dell'argomento asse idxmin
- SPARK-55631ALTER TABLE deve invalidare la cache per le tabelle DSv2
-
SPARK-55692 Correzione
SupportsRuntimeFilteringeSupportsRuntimeV2Filteringdocumentazione - SPARK-55928 Nuovo linter per l'efficacia della configurazione nelle visualizzazioni e nelle funzioni definite dall'utente
- SPARK-55440 Framework dei tipi - Fase 1a - Core Type System Foundation
- SPARK-55631 Ripristinare "[SC-221596][SQL] ALTER TABLE deve invalidare la cache per le tabelle DSv2"
- SPARK-55631ALTER TABLE deve invalidare la cache per le tabelle DSv2
-
SPARK-55683 Ottimizzare
VectorizedPlainValuesReader.readUnsignedLongs - SPARK-55892 Correzione dell'impossibilità di caricare l'archivio stati perché il file SST riutilizzato è stato eliminato dalla manutenzione
- SPARK-55946 Ripristinare "[SC-223027][PS] Configurare pandas_priority in modo che le operazioni binarie miste vengano inviate correttamente a pandas-on-Spark"
- SPARK-55891 Mantenere il contesto di scripting SQL all'interno di EXECUTE IMMEDIATE
- SPARK-55907 Correggere le posizioni di errore non corrette per i tipi di dati non validi in CREATE FUNCTION
- SPARK-55946 Configurare pandas_priority in modo che le operazioni binarie miste vengano inviate correttamente a pandas-on-Spark
- SPARK-55694 Blocchi di vincoli in CTAS/RTAS a livello del parser
-
SPARK-55682 L'iteratore restituito da ServiceLoader può generare un'eccezione
NoClassDefFoundErrorhasNext() - SPARK-55155 Correzione per consentire l'uso di caratteri speciali e backtick nel nome dell'identificatore
- SPARK-55932 Correzione dell'impasse del parser XML per varianti su scala negativa
- SPARK-55673 Aggiungere altri test per il codificatore di tipi annidati
-
SPARK-55679 Correzione del rilevamento
sun.io.serialization.extendedDebugInfoin Java 25 - SPARK-55957 Aggiungere 'DATA_SOURCE_NOT_FOUND' in Catalog.ERROR_HANDLING_RULES
- SPARK-55052 Aggiungere le proprietà di AQEShuffleRead all'albero del piano fisico
-
SPARK-55652 Ottimizzare
VectorizedPlainValuesReader.readShorts()con l'accesso diretto alle matrici per i buffer heap -
SPARK-55659 Migliorare
EventLogFileWriterper registrare l'operazionestop -
SPARK-54666 Lasciare i tipi numerici invariati su
to_numeric - SPARK-55654 Abilitare l'eliminazione di TreePattern per EliminaSubqueryAliases e ResolveInlineTables
- SPARK-55533 Ripristinare "[SC-220538][SQL] Supporto IGNORE NULLS/RESPECT NULLS for collect_set"
- SPARK-55901 Generare un errore con Series.replace() senza argomenti
- SPARK-55896 Usare funzioni numpy invece di builtins
-
SPARK-55655 Rendere
CountVectorizerdeterministico il vocabolario quando i conteggi sono uguali -
SPARK-55811 [SQL] Catch
NonFatalinvece diUnresolvedExceptionquando si chiamanodeWithOutputColumnsString - SPARK-55533 Supporto di IGNORE NULLS/RESPECT NULLS per collect_set
-
SPARK-55435 Usare
StringBuilderinvece diStringBuffer - SPARK-54807 Consenti nomi qualificati per le funzioni predefinite e di sessione (#198171)
- SPARK-55854 Contrassegnare gli attributi duplicati di pass-through nell'output di Expand per prevenire AMBIGUOUS_REFERENCE
- SPARK-55261 Implementare il supporto in lettura Parquet per i tipi di dati geografici
- SPARK-55416 Perdita di memoria nella sorgente dati streaming di Python quando l'offset finale non viene aggiornato
- SPARK-55465 Supporta GeometryType in convert_numpy
- SPARK-55801 Correzione del suggerimento di tipo di _SimpleStreamReaderWrapper.getCache
- SPARK-55800 Rimuovere il controllo del tipo inutilizzato per datetime.date
- SPARK-55663 Unificare il modulo per le funzioni di origine dati
- SPARK-55665 Unificare come i worker stabiliscono una connessione con l'executor
- SPARK-53446 Ottimizzare le operazioni di rimozione di BlockManager con mapping di blocchi memorizzati nella cache
- SPARK-55867 Risoluzione di StringMethods per compatibilità con pandas 3
- SPARK-55501 Correzione per il bug di listagg distinct + within group order by
- SPARK-55558 Aggiungi supporto per le operazioni con tuple/insiemi Theta
- SPARK-55636 Aggiungere errori dettagliati in caso di deduplicazione di colonne non valide
- SPARK-55788 Supporto di ExtensionDType per i numeri interi nelle UDF di Pandas
- SPARK-55464 Implementazione del supporto per GeographyType in convert_numpy
- SPARK-55530 Supporto dei set di risultati geo nel server Hive e Thrift
- SPARK-55525 Correzione UDTF_ARROW_TYPE_CONVERSION_ERROR con il parametro del messaggio di errore non definito
- SPARK-55626 Non caricare colonne di metadati nella tabella a meno che non sia necessario in V2TableUtil
- SPARK-55533 Ripristinare "[SC-220538][SQL] Supporto IGNORE NULLS/RESPECT NULLS for collect_set"
-
SPARK-55435 Ripristinare "[SC-219656][CORE][SQL] Usare
StringBuilderinvece diStringBuffer" - SPARK-55533 Supporto di IGNORE NULLS/RESPECT NULLS per collect_set
-
SPARK-54452 Correzione della risposta vuota dal server SparkConnect all'interno di
spark.sql(...)FlowFunction - SPARK-55638 Eseguire il refactoring della serializzazione WKT in GeometryModel
-
SPARK-55551 Migliorare il
BroadcastHashJoinExecpartizionamento dell'output - SPARK-54314 Migliorare la debuggabilità lato server in Spark Connect acquisendo il nome del file e i numeri di riga dell'applicazione client
-
SPARK-55517 Ottimizzare
VectorizedPlainValuesReader.readBytes()con l'accesso diretto alle matrici per i buffer heap -
SPARK-55495 Correggi
EventLogFileWriters.closeWriterper gestirecheckError -
SPARK-55279 Aggiungere
sketch_funcsun gruppo per le funzioni SQL di DataSketches -
SPARK-55435 Usare
StringBuilderinvece diStringBuffer - SPARK-55064 Supporto del tentativo di riordino indeterminato a livello di query
- SPARK-55411 SPJ può generare arrayIndexOutOfBoundsException quando le chiavi di join sono minori di quelle del cluster
- SPARK-55451 I cursori devono iniziare a raccogliere i risultati in OPEN, non prima FETCH
- SPARK-54687 Aggiungere altri casi limite con generatori
- SPARK-55691 Client GetStatus
-
SPARK-55277 Aggiungere
protobuf_funcsun gruppo per le funzioni SQL Protobuf -
SPARK-55822 Rinominare
_LEGACY_ERROR_TEMP_0052inCREATE_VIEW_WITH_IF_NOT_EXISTS_AND_REPLACE - SPARK-55236 Affrontare un'eccezione imprevista in alcuni test case di CoarseGrainedExecutorBackendSuite
- SPARK-55275 Copertura dello stato SQL: IllegalStateException
- SPARK-55462 Riapplicare "[SC-221123][PYTHON] Support VariantType in convert_numpy"
- SPARK-55062 Supportare le estensioni proto2 nelle funzioni protobuf
-
SPARK-55248 Risolvere l'uso deprecato dell'API Jackson in
streaming.checkpointing.Checksum - SPARK-55250 Ridurre le chiamate client Hive su CREATE NAMESPACE
-
SPARK-55247 Pulire l'utilizzo deprecato dell'API correlato a
o.a.c.io.input.BoundedInputStream - SPARK-55198 spark-sql deve ignorare la riga di commento con spazi vuoti iniziali
-
SPARK-55826 Rinominare
_LEGACY_ERROR_TEMP_0006inMERGE_INSERT_VALUE_COUNT_MISMATCH - SPARK-55127 Aggiungere avro_funcs gruppo per le funzioni SQL avro
- SPARK-54914 [SQL] Correzione dell'operatore DROP nella sintassi pipe per supportare nomi di colonna qualificati
-
SPARK-55113
EnsureRequirementsdeve copiare i tag - SPARK-55074 Aggiungere il test per la coercizione dei tipi ANSI
- SPARK-54217 Sincronizzare la decisione di kill di MonitorThread di PythonRunner
- SPARK-54374 Ingrandire l'attributo SVG viewBox nell'inizializzazione della visualizzazione del piano SQL.
- SPARK-54971 Aggiungere la sintassi WITH SCHEMA EVOLUTION per SQL INSERT
- SPARK-55065 Evitare di effettuare due chiamate API JDBC
- SPARK-55033 Correzione di stringArgs dei comandi di scrittura DSv2
-
SPARK-55041 Pulizia di alcuni dati privati
funcion/valinutilizzati dal modulo principale - SPARK-55338 Centralizzare la logica di decompressione della richiesta Spark Connect nell'intercettore gRPC
-
SPARK-55825 Rinominare
_LEGACY_ERROR_TEMP_1309inPARTITION_BY_NOT_ALLOWED_WITH_INSERT_INTO - SPARK-55492 Verificare che eventTime in withWatermark sia una colonna di primo livello
- SPARK-55802 Correzione dell'overflow integer durante il calcolo dei byte batch freccia
- SPARK-55694 Blocchi di vincoli in CTAS/RTAS a livello del parser
- SPARK-55843 Gestire l'unità di dtype datetime64 e timedelta64
-
SPARK-55824 Rinominare
_LEGACY_ERROR_TEMP_1034inWINDOW_FUNCTION_NOT_ALLOWED_IN_CLAUSE - SPARK-55819 Effettuare il refactoring di ExpandExec per essere più conciso
- SPARK-55341 Aggiungere il flag a livello di archiviazione per le relazioni locali memorizzate nella cache
- SPARK-54599 Ripristinare "[SC-219008][PYTHON] Refactoring PythonException in modo che possa accettare errorClass con sqlstate"
- SPARK-46167 Aggiungere l'implementazione dell'asse a DataFrame.rank
- SPARK-54599 Effettuare il refactoring di PythonException in modo che possa accettare errorClass con sqlstate
- SPARK-55529 Riapplicare [ES-1721989][SC-220716][PYTHON] Restore Arrow-level batch merge for non-iterator applyInPandas
-
SPARK-55794 Sempre alias
OuterReference - SPARK-55583 Convalidare i tipi di schema Arrow nell'origine dati Python
- SPARK-37711 Ridurre il numero di lavori di descrizione pandas da O(N) a O(1)
- SPARK-46168 Aggiungere l'argomento asse alla funzione idxmax
- SPARK-46162 Implementare nunique con axis=1
- SPARK-55552 Aggiungere il supporto VariantType a ColumnarBatchRow.copy() e MutableColumnarRow
-
SPARK-55647 Correzione
ConstantPropagationerrata della sostituzione degli attributi con regole di confronto non binarie-stabili - SPARK-55747 Correzione dell'NPE durante l'accesso agli elementi da un array che è nullo
-
SPARK-55757 Migliorare la
spark.task.cpusconvalida - SPARK-55699 Lettura incoerente di LowLatencyClock se usata insieme a ManualClock
- SPARK-55702 Supporto del predicato di filtro nelle funzioni di aggregazione finestra
- SPARK-55510 Correzione del deleteRange dell'archivio di stato di Rocksdb per chiamare changelogWriter
-
SPARK-55739 Ottimizzare
OnHeapColumnVector.putIntsLittleEndian/putLongsLittleEndianutilizzandoPlatform.copyMemorysulle piattaforme little-endian - SPARK-55730 Non convertire il fuso orario in minuscolo
- SPARK-55701 ES-1694761[SS] Correzione della condizione di competizione in CompactibleFileStreamLog.allFiles
- SPARK-55462 Ripristinare "[SC-221123][PYTHON] Support VariantType in convert_numpy"
- SPARK-55144 Introdurre una nuova versione del formato di stato per un join stream-stream ad alte prestazioni
- SPARK-55606 Implementazione lato server dell'API GetStatus
- SPARK-55462 Supportare il VariantType in convert_numpy
- SPARK-55600 Correzione: la conversione da pandas ad arrow perde il conteggio delle righe quando lo schema ha 0 colonne su classic
- SPARK-55700 Correzione della gestione delle chiavi intere nella Series con indice non intero
- SPARK-55349 Consolidare gli strumenti di conversione da pandas a Arrow nei serializzatori
- SPARK-55681 Correzione dell'uguaglianza del tipo di dato singleton dopo la deserializzazione (nuovo tentativo)
- SPARK-55681 Ripristina "[SC-221427][SC-214079][SQL] Correzione dell'uguaglianza DataType singleton dopo la deserializzazione"
- SPARK-55681 Correzione dell'uguaglianza singleton DataType dopo la deserializzazione
- SPARK-55674 Ottimizzare la conversione di tabelle a 0 colonne in Spark Connect
- SPARK-55323 Riapplicare "[SC-218885][PYTHON] Spostare i metadati UDF in EvalConf per semplificare il protocollo di lavoro"
- SPARK-55322 Riapplicare [SC-221062][SQL] MaxBy e MinBy Overload con K Elements
- SPARK-55323 Ripristinare "[SC-218885][PYTHON] Spostare i metadati UDF in EvalConf per semplificare il protocollo di lavoro"
- SPARK-55615 Spostare l'importazione SparkContext nel ramo della classe
- SPARK-55323 Spostare i metadati della UDF in EvalConf per semplificare il protocollo dei worker
-
SPARK-55648 Gestire un errore
groupby(axis)di argomento parola chiave imprevisto con pandas 3 -
SPARK-55647 Ripristinare "[SC-221274][SQL] Correzione
ConstantPropagationerrata della sostituzione degli attributi con regole di confronto non binarie stabili" - SPARK-55646 Rifattorizzazione di SQLExecution.withThreadLocalCaptured per separare l'acquisizione locale del thread dall'esecuzione
- SPARK-54854 Aggiungere un ID query UUIDv7 agli eventi di esecuzione SQL
- SPARK-55619 Correggere le metriche personalizzate in caso di partizioni coalesce
-
SPARK-55647 Correzione
ConstantPropagationerrata della sostituzione degli attributi con regole di confronto non binarie-stabili -
SPARK-55322 Ripristinare "[SC-221062][SQL]
MaxByeMinByOverload con K Elements" - SPARK-54740 Avviare il gestore errori nelle prime fasi della modalità daemon
- SPARK-55493 [SS] Non eseguire mkdirs nella directory dello stato di checkpoint dello streaming nel contesto di StateDataSource
-
SPARK-55322
MaxByeMinBySovraccarico con gli elementi K -
SPARK-55625 Correzione di StringOps per il
strcorretto funzionamento di dtype - SPARK-55161 Riapplicare "[SC-218867][PYTHON] Supportare i profiler nell'origine dati Python"
- SPARK-55505 Risoluzione del NPE durante la lettura di EXECUTION_ROOT_ID_KEY in scenari concorrenti
- SPARK-55111 Ricontrollare il rilevamento di ripartizioni non completate al riavvio della query
- SPARK-55593 Unificare lo stato di aggregazione per vector_avg/vector_sum
-
SPARK-55500 Correzione del ciclo dell'analizzatore tra
ApplyDefaultCollation,ExtractWindowExpressionseCollationTypeCasts - SPARK-55494 Introdurre iterator/prefix scan nell'API StateStore con più valori
- SPARK-55561 Aggiungere nuovi tentativi per tutti i metodi del client amministrativo Kafka
- SPARK-55296 Supportare la modalità CoW con pandas 3
- SPARK-55479 Risolvere i problemi di stile in SparkShreddingUtils
- SPARK-55372 Correzione SHOW CREATE TABLE per tabelle/viste con collazione predefinita.
-
SPARK-55333 Abilitare
DateTypeeTimeTypeinconvert_numpy - SPARK-55129 Introdurre nuovi codificatori di chiavi per timestamp come prima classe (UnsafeRow)
- SPARK-46163 Parametri DataFrame.update filter_func ed errori
- SPARK-55372 Ripristina "[SC-220571][SQL] Correzione SHOW CREATE TABLE per tabelle/viste con collazione predefinita"
- SPARK-55480 Rimuovere tutti i noqa inutilizzati per ruff
- SPARK-55471 Aggiungere il supporto di Optimizer per SequentialStreamingUnion
- SPARK-55584 Generare un errore migliore eseguendo una sottoquery scalare con EXEC IMMEDIATE.
- SPARK-55161 Annulla "[SC-218867][PYTHON] Supporto per profiler nell'origine dati Python"
-
SPARK-55506 Passare uno schema di input esplicito a
to_pandasinCogroupPandasUDFSerializer -
SPARK-55586 Aggiungi
jdbc.pyesempio - SPARK-55161 Abilitare i profiler nell'origine dati Python
- SPARK-55529 Revertire "[SC-220716][PYTHON] Ripristinare l'unione batch a livello di Arrow per applyInPandas non iterativo"
-
SPARK-55385 Attenuare il ricalcolo in
zipWithIndex - SPARK-55529 Ripristinare l'unione batch livello Arrow per applyInPandas non iteratore
-
SPARK-55389 Consolidare
SQL_MAP_ARROW_ITER_UDFla logica di wrapping, mapping e serializzazione - SPARK-55406 Reimplementare il pool di thread per ExecutePlanResponseReattachableIterator
-
SPARK-55372 Correzione
SHOW CREATE TABLEper tabelle/viste con regole di confronto predefinite - SPARK-55367 Utilizzare venv per eseguire i test pip
- SPARK-55355 Aggiornare la versione di mypy alla versione più recente
- SPARK-55460 Rimuovere E203 dall'elenco di ignorati di ruff
- SPARK-55541 Supporto Geometria e Geografia nei convertitori tipo Catalyst
- SPARK-55449 Abilitare l'analisi e la scrittura WKB per Geography
- SPARK-55339 Implementare il supporto del writer WKT per gli oggetti Geo
- SPARK-54122 Implementare TwsTester in Scala
- SPARK-54805 Implementare TwsTester in PySpark
- SPARK-55256 Riapplicare "[SC-218596][SQL] Supporto di IGNORE NULLS/RESPECT NULLS per array_agg e collect_list"
-
SPARK-55156 Affrontare la questione di
include_groupspergroupby.apply - SPARK-55401 Aggiungere la logica di ripetizione dei tentativi e la gestione del timeout al download dell'installazione di pyspark
- SPARK-55229 Implementare DataFrame.zipWithIndex in PySpark
- SPARK-55462 Supporto di UserDefinedType in convert_numpy
- SPARK-55483 Correzione di NpE in PivotFirst quando la colonna pivot è un tipo non atomico con valori Null
-
SPARK-55490 Includere
groupby(as_index=False)un raggruppamento che non si trova nel dataframe con pandas 3 - SPARK-55473 Sostituire itertools.tee con chain in applyInPandasWithState
- SPARK-55404 Generare sempre KeyboardInterrupt dal gestore SIGINT
- SPARK-55407 Sostituire logger.warn con logger.warning
Supporto del driver ODBC/JDBC di Databricks
Databricks supporta i driver ODBC/JDBC rilasciati negli ultimi 2 anni. Scaricare i driver rilasciati di recente e aggiornare (scaricare ODBC, scaricare JDBC).
Ambiente di sistema
- Sistema operativo: Ubuntu 24.04.4 LTS
- Java: Zulu21.48+15-CA
- Scala: 2.13.16
- Python: 3.12.3
- R: 4.5.1
- Delta Lake: 4.1.0
Librerie di Python installate
| Libreria | Versione | Libreria | Versione | Libreria | Versione |
|---|---|---|---|---|---|
| aiohappyeyeballs | 2.4.4 | aiohttp | 3.11.10 | aiosignal | 1.2.0 |
| documento annotato | 0.0.4 | tipi annotati | 0.7.0 | anyio | 4.7.0 |
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | arro3-core | 0.6.5 |
| freccia | 1.3.0 | asttoken | 3.0.0 | astunparse | 1.6.3 |
| async-lru | 2.0.4 | att. | 24.3.0 | comando automatico | 2.2.2 |
| azure-common | 1.1.28 | azure-core | 1.37.0 | azure-identity | 1.20.0 |
| azure-mgmt-core | 1.6.0 | azure-mgmt-web | 8.0.0 | Azure Storage Blob | 12.28.0 |
| file di archiviazione Azure Data Lake | 12.22.0 | Babele | 2.16.0 | backports.tarfile | 1.2.0 |
| beautifulsoup4 | 4.12.3 | nero | 24.10.0 | candeggiare | 6.2.0 |
| indicatore di direzione | 1.7.0 | boto3 | 1.40.45 | botocore | 1.40.45 |
| cachetools (strumento per la gestione della cache) | 5.5.1 | certifi | 2025.4.26 | cffi | 1.17.1 |
| chardet | 4.0.0 | normalizzatore di set di caratteri | 3.3.2 | fai clic | 8.1.8 |
| cloudpickle (libreria Python per la serializzazione degli oggetti) | 3.0.0 | comunicazione | 0.2.1 | contourpy | 1.3.1 |
| criptografia | 44.0.1 | ciclista | 0.11.0 | Cython, un linguaggio di programmazione | 3.1.5 |
| databricks-agents | 1.9.1 | Databricks SDK | 0.67.0 | dataclasses-json | 0.6.7 |
| dbus-python | 1.3.2 | debugpy | 1.8.11 | Decoratore | 5.1.1 |
| defusedxml | 0.7.1 | deltalake | 1.1.4 | Deprecated | 1.2.18 |
| distlib | 0.3.9 | Conversione da docstring a markdown | 0.11 | esecuzione | 1.2.0 |
| panoramica delle facette | 1.1.1 | fastapi | 0.128.0 | fastjsonschema | 2.21.1 |
| blocco dei file | 3.17.0 | fonttools (strumenti per caratteri) | 4.55.3 | fqdn (nome di dominio completo) | 1.5.1 |
| frozenlist | 1.5.0 | fsspec | 2023.5.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.28.1 | google-auth (autenticazione Google) | 2.47.0 |
| google-cloud-core | 2.5.0 | archiviazione su Google Cloud | 3.7.0 | google-crc32c | 1.8.0 |
| google-resumable-media (media riprendibile di Google) | 2.8.0 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | h11 | 0.16.0 | hf-xet | 1.2.0 |
| httpcore | 1.0.9 | httplib2 | 0.20.4 | httpx | 0.28.1 |
| huggingface_hub | 1.2.4 | IDNA | 3.7 | importlib_metadata | 8.5.0 |
| inflettere | 7.3.1 | iniconfig | 1.1.1 | ipyflow-core | 0.0.209 |
| ipykernel | 6.29.5 | ipython | 8.30.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.8.1 | isodate | 0.7.2 | isodurazione | 20.11.0 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | jedi | 0.19.2 | Jinja2 | 3.1.6 |
| jiter | 0.12.0 | jmespath | 1.0.1 | joblib | 1.4.2 |
| json5 | 0.9.25 | jsonpatch | 1.33 | jsonpointer | 3.0.0 |
| jsonschema | 4.23.0 | jsonschema-specifications | 2023.7.1 | eventi-jupyter | 0.12.0 |
| jupyter-lsp | 2.2.5 | jupyter_client | 8.6.3 | jupyter_core | 5.7.2 |
| jupyter_server | 2.15.0 | terminali_del_server_Jupyter | 0.5.3 | jupyterlab | 4.3.4 |
| jupyterlab_pygments | 0.3.0 | jupyterlab_server | 2.27.3 | jupyterlab_widgets | 1.1.11 |
| kiwisolver | 1.4.8 | langchain-core | 1.2.6 | langchain-openai | 1.1.6 |
| langsmith | 0.6.1 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | litellm | 1.75.9 | markdown-it-py | 2.2.0 |
| MarkupSafe | 3.0.2 | zefiro | 3.26.2 | matplotlib | 3.10.0 |
| matplotlib-inline | 0.1.7 | mccabe | 0.7.0 | mdurl | 0.1.0 |
| Mistune | 3.1.2 | mlflow versione leggera | 3.8.1 | mmh3 | 5.2.0 |
| more-itertools | 10.3.0 | msal | 1.34.0 | msal-extensions | 1.3.1 |
| multidict | 6.1.0 | mypy-extensions | 1.0.0 | nbclient | 0.10.2 |
| nbconvert | 7.16.6 | nbformat | 5.10.4 | nest-asyncio | 1.6.0 |
| nodeenv | 1.10.0 | taccuino | 7.3.2 | notebook_shim | 0.2.4 |
| numpy | 2.1.3 | oauthlib | 3.2.2 | OpenAI | 2.14.0 |
| opentelemetry-api | 1.39.1 | opentelemetry-proto | 1.39.1 | opentelemetry-sdk | 1.39.1 |
| Convenzioni Semanticche di OpenTelemetry | 0.60b1 | orjson | 3.11.5 | sostituisce | 7.4.0 |
| imballaggio | 24,2 | Panda | 2.2.3 | pandocfilters | 1.5.0 |
| parso | 0.8.4 | pathspec | 0.10.3 | vittima | 1.0.1 |
| pexpect | 4.8.0 | guanciale | 11.1.0 | seme | 25.0.1 |
| platformdirs | 4.3.7 | plotly (software di visualizzazione dati) | 5.24.1 | connettivita | 1.5.0 |
| prometheus_client | 0.21.1 | prompt-toolkit | 3.0.43 | propcache | 0.3.1 |
| proto-plus | 1.27.0 | protobuf | 5.29.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.11 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 21.0.0 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.71 | pycparser (un parser scritto in Python) | 2.21 | pydantic | 2.10.6 |
| pydantic_core | 2.27.2 | pyflakes | 3.2.0 | Pygments | 2.19.1 |
| PyGObject | 3.48.2 | pyiceberg | 0.10.0 | PyJWT | 2.10.1 |
| pyodbc | 5.2.0 | pyparsing | 3.2.0 | pyright | 1.1.394 |
| piroaring | 1.0.3 | pytest | 8.3.5 | python-dateutil (libreria Python per la gestione delle date) | 2.9.0.post0 |
| python-dotenv | 1.2.1 | python-json-logger (registratore JSON per Python) | 3.2.1 | python-lsp-jsonrpc | 1.1.2 |
| python-lsp-server | 1.12.2 | pytoolconfig | 1.2.6 | pytz | 2024.1 |
| PyYAML | 6.0.2 | pyzmq | 26.2.0 | Riferimento | 0.30.2 |
| regex | 2024.11.6 | richieste | 2.32.3 | requests-toolbelt | 1.0.0 |
| rfc3339-validator | 0.1.4 | rfc3986-validator | 0.1.1 | ricco | 13.9.4 |
| corda | 1.13.0 | rpds-py | 0.22.3 | rsa | 4.9.1 |
| s3transfer | 0.14.0 | scikit-learn | 1.6.1 | scipy | 1.15.3 |
| Seaborn | 0.13.2 | Send2Trash | 1.8.2 | setuptools (pacchetto Python per gestire la configurazione e la distribuzione) | 78.1.1 |
| "Shellingham" | 1.5.4 | sei | 1.17.0 | smmap | 5.0.0 |
| sniffio | 1.3.0 | contenitori ordinati | 2.4.0 | colino per la zuppa | 2.5 |
| sqlparse | 0.5.5 | ssh-import-id (comando per l'importazione di chiavi SSH) | 5.11 | dati accatastati | 0.6.3 |
| starlette | 0.50.0 | strictyaml | 1.7.3 | tenacità | 9.0.0 |
| finito | 0.17.1 | threadpoolctl | 3.5.0 | tiktoken | 0.12.0 |
| tinycss2 | 1.4.0 | tokenize_rt | 6.1.0 | tokenizzatori | 0.22.2 |
| tomli | 2.0.1 | tornado | 6.5.1 | tqdm | 4.67.1 |
| traitlets (una libreria per la configurazione dei parametri nei programmi Python) | 5.14.3 | typeguard | 4.3.0 | typer-slim | 0.21.1 |
| types-python-dateutil | 2.9.0.20251115 | ispezione di digitazione | 0.9.0 | typing_extensions | 4.12.2 |
| tzdata | 2024.1 | ujson (una libreria per la gestione di JSON in Python) | 5.10.0 | aggiornamenti non supervisionati | 0,1 |
| Modello URI | 1.3.0 | urllib3 | 2.3.0 | uuid_utils | 0.12.0 |
| uvicorn | 0.40.0 | virtualenv | 20.29.3 | wadllib | 1.3.6 |
| wcwidth (funzione per determinare la larghezza dei caratteri) | 0.2.5 | webcolors | 25.10.0 | codifiche web | 0.5.1 |
| cliente WebSocket | 1.8.0 | whatthepatch | 1.0.2 | ruota | 0.45.1 |
| ogni volta | 0.7.3 | widgetsnbextension | 3.6.6 | rapito | 1.17.0 |
| yapf | 0.40.2 | yarl | 1.18.0 | Zipp | 3.21.0 |
| zstandard | 0.23.0 |
Librerie R installate
Le librerie R vengono installate dal Posit Gestione pacchetti CRAN snapshot del 20 novembre 2025.
| Libreria | Versione | Libreria | Versione | Libreria | Versione |
|---|---|---|---|---|---|
| freccia | 22.0.0 | askpass | 1.2.1 | assicura che | 0.2.1 |
| retroportazioni | 1.5.0 | base | 4.5.1 | base64enc | 0.1-3 |
| bigD | 0.3.1 | bit | 4.6.0 | bit 64 | 4.6.0-1 |
| bitops | 1.0-9 | massa amorfa | 1.2.4 | avvio | 1,3-30 |
| fermentare | 1.0-10 | Brio | 1.1.5 | scopa | 1.0.10 |
| bslib | 0.9.0 | cashmere | 1.1.0 | chiamante | 3.7.6 |
| caret | 7.0-1 | cellranger | 1.1.0 | cronometro | 2.3-62 |
| class | 7.3-22 | CLI | 3.6.5 | Clipr | 0.8.0 |
| orologio | 0.7.3 | raggruppamento | 2.1.6 | strumenti per la codifica | 0.2-20 |
| segno comune | 2.0.0 | compilatore | 4.5.1 | configurazione | 0.3.2 |
| Confuso | 1.2.0 | cpp11 | 0.5.2 | crayon | 1.5.3 |
| credenziali | 2.0.3 | curva | 7.0.0 | tabella di dati | 1.17.8 |
| Insiemi di dati | 4.5.1 | DBI | 1.2.3 | dbplyr | 2.5.1 |
| descrizione | 1.4.3 | strumenti per sviluppatori | 2.4.6 | diagramma | 1.6.5 |
| diffobj | 0.3.6 | digerire | 0.6.39 | illuminazione rivolta verso il basso | 0.4.5 |
| dplyr | 1.1.4 | dtplyr | 1.3.2 | e1071 | 1.7-16 |
| puntini di sospensione | 0.3.2 | valutare | 1.0.5 | fan | 1.0.7 |
| colori | 2.1.2 | mappatura veloce | 1.2.0 | fontawesome | 0.5.3 |
| forzati | 1.0.1 | foreach | 1.5.2 | straniero | 0.8 - 86 |
| fs | 1.6.6 | futuro | 1.68.0 | futuro.applicare | 1.20.0 |
| fare gargarismi | 1.6.0 | elementi generici | 0.1.4 | gert | 2.2.0 |
| ggplot2 | 4.0.1 | gh | 1.5.0 | git2r | 0.36.2 |
| gitcreds | 0.1.2 | glmnet | 4.1-10 | elementi globali | 0.18.0 |
| colla | 1.8.0 | Google Drive | 2.1.2 | googlesheets4 | 1.1.2 |
| Gower | 1.0.2 | grafica | 4.5.1 | grDispositivi | 4.5.1 |
| griglia | 4.5.1 | gridExtra | 2.3 | gsubfn | 0.7 |
| gt | 1.1.0 | gtable | 0.3.6 | casco protettivo | 1.4.2 |
| rifugio | 2.5.5 | più alto | 0.11 | HMS | 1.1.4 |
| strumenti HTML | 0.5.8.1 | htmlwidgets | 1.6.4 | httpuv | 1.6.16 |
| httr | 1.4.7 | httr2 | 1.2.1 | documenti di identità | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-15 | banderelle isografiche | 0.2.7 |
| Iteratori | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 2.0.0 |
| juicyjuice | 0.1.0 | KernSmooth | 2.23-22 | knitr | 1,50 |
| etichettatura | 0.4.3 | più tardi | 1.4.4 | reticolo | 0,22-5 |
| lava | 1.8.2 | ciclo di vita | 1.0.4 | ascolta | 0.10.0 |
| litedown | 0.8 | lubridate | 1.9.4 | magrittr | 2.0.4 |
| Markdown | 2.0 | Massa | 7.3-60.0.1 | Matrice | 1.6-5 |
| memorizza | 2.0.1 | metodi | 4.5.1 | mgcv | 1.9-1 |
| mime | 0.13 | miniUI | 0.1.2 | mlflow | 3.6.0 |
| ModelMetrics | 1.2.2.2 | modelr | 0.1.11 | nlme | 3.1-164 |
| nnet (rete neurale) | 7.3-19 | Derivazione numerica | 2016.8-1.1 | openssl | 2.3.4 |
| rà | 0.2.0 | parallelo | 4.5.1 | parallelamente | 1.45.1 |
| pilastro | 1.11.1 | pkgbuild | 1.4.8 | pkgconfig | 2.0.3 |
| pkgdown | 2.2.0 | pkgload | 1.4.1 | plogr | 0.2.0 |
| plyr | 1.8.9 | elogio | 1.0.0 | prettyunits | 1.2.0 |
| pROC | 1.19.0.1 | processx | 3.8.6 | prodlim | 2025.04.28 |
| profvis | 0.4.0 | Avanzamento | 1.2.3 | progressr | 0.18.0 |
| promesse | 1.5.0 | proto / prototipo | 1.0.0 | intermediario | 0,4–27 |
| P.S. | 1.9.1 | purrr | 1.2.0 | R6 | 2.6.1 |
| ragg | 1.5.0 | randomForest | 4.7-1.2 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp (una libreria per il linguaggio di programmazione R) | 1.1.0 |
| RcppEigen | 0.3.4.0.2 | reagibile | 0.4.4 | reactR | 0.6.1 |
| readr | 2.1.6 | readxl (software per leggere documenti Excel) | 1.4.5 | ricette | 1.3.1 |
| nuovo incontro | 2.0.0 | rematch2 | 2.1.2 | Telecomandi | 2.5.0 |
| esempio riproducibile (reprex) | 2.1.1 | reshape2 | 1.4.5 | rlang | 1.1.6 |
| rmarkdown | 2.30 | RODBC | 1.3-26 | roxygen2 | 7.3.3 |
| rpart | 4.1.23 | rprojroot | 2.1.1 | Rserve | 1,8-15 |
| RSQLite | 2.4.4 | rstudioapi | 0.17.1 | rversions | 3.0.0 |
| rvest | 1.0.5 | S7 | 0.2.1 | Sass | 0.4.10 |
| Scala | 1.4.0 | selettore | 0,4-2 | informazioni sulla sessione | 1.2.3 |
| Forma | 1.4.6.1 | brillante | 1.11.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.9.3 | SparkR | 4.1.0 | sparsevctrs | 0.3.4 |
| spaziale | 7.3-17 | Spline | 4.5.1 | sqldf | 0,4-11 |
| SQUAREM | 2021.1 | statistiche | 4.5.1 | statistiche4 | 4.5.1 |
| string | 1.8.7 | stringr | 1.6.0 | Sopravvivenza | 3,5-8 |
| spavalderia | 5.17.14.1 | sys | 3.4.3 | systemfonts | 1.3.1 |
| tcltk | 4.5.1 | testthat | 3.3.0 | modellazione del testo | 1.0.4 |
| Tibble | 3.3.0 | tidyr | 1.3.1 | tidyselect | 1.2.1 |
| tidyverse | 2.0.0 | cambio d'ora | 0.3.0 | data e ora | 4051.111 |
| tinytex | 0.58 | strumenti | 4.5.1 | tzdb | 0.5.0 |
| verificatore di URL | 1.0.1 | Usa questo | 3.2.1 | utf8 | 1.2.6 |
| Utilità | 4.5.1 | UUID (Identificatore Unico Universale) | 1.2-1 | V8 | 8.0.1 |
| vctrs | 0.6.5 | viridisLite | 0.4.2 | vrooom | 1.6.6 |
| Waldo | 0.6.2 | filo sottile | 0.4.1 | withr | 3.0.2 |
| xfun | 0,54 | xml2 | 1.5.0 | xopen | 1.0.1 |
| xtable | 1.8-4 | yaml | 2.3.10 | zeallot | 0.2.0 |
| formato zip | 2.3.3 |
Librerie Java e Scala installate (versione del cluster Scala 2.13)
| ID del Gruppo | ID dell'artefatto | Versione |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.clearspring.analytics | torrente | 2.9.8 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.53.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.13 | 0.4.15-11 |
| com.esotericsoftware | ombreggiato criogenico | 4.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | compagno di classe | 1.5.1 |
| com.fasterxml.jackson.core | Annotazioni di Jackson | 2.18.2 |
| com.fasterxml.jackson.core | jackson-core | 2.18.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.18.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.18.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.18.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.18.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.13 | 2.18.2 |
| com.github.ben-manes.caffeine | caffeina | 2.9.3 |
| com.github.blemale | scaffeine_2.13 | 4.1.0 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | riferimento_nativo-java | 1.1 |
| com.github.fommil.netlib | riferimento_nativo-java | 1.1-indigeni |
| com.github.fommil.netlib | sistema_nativo-java | 1.1 |
| com.github.fommil.netlib | sistema_nativo-java | 1.1-indigeni |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-indigeni |
| com.github.fommil.netlib | netlib-sistema_nativo-linux-x86_64 | 1.1-indigeni |
| com.github.luben | zstd-jni (libreria open-source per compressione con Java Native Interface) | 1.5.7-6 |
| com.github.virtuald | curvesapi | 1,08 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.api.grpc | proto-google-common-protos | 2.5.1 |
| com.google.auth | google-auth-library-credentials | 1.20.0 |
| com.google.auth | google-auth-library-oauth2-http | 1.20.0 |
| com.google.auto.value | annotazioni a valore automatico | 1.10.4 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.11.0 |
| com.google.crypto.tink | tink | 1.16.0 |
| com.google.errorprone | annotazioni soggette a errori | 2.36.0 |
| com.google.flatbuffers | flatbuffers-java | 25.2.10 |
| com.google.guava | errore di accesso | 1.0.3 |
| com.google.guava | guaiava | 33.4.8-jre |
| com.google.http-client | google-http-client | 1.43.3 |
| com.google.http-client | google-http-client-gson | 1.43.3 |
| com.google.j2objc | j2objc-annotations | 3.0.0 |
| com.google.protobuf | protobuf-java | 3.25.5 |
| com.google.protobuf | protobuf-java-util | 3.25.5 |
| com.helger | profilatore | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.lihaoyi | sourcecode_2.13 | 0.1.9 |
| com.microsoft.azure | Azure Data Lake Store SDK | 2.3.10 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre11 |
| com.microsoft.sqlserver | mssql-jdbc | 12.8.0.jre8 |
| com.ning | compress-lzf (algoritmo di compressione) | 1.1.2 |
| com.sun.mail | javax.mail (package Java per la gestione della posta elettronica) | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenti_2.13 | 0.4.13 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.13 | 0.10.0 |
| com.twitter | util-app_2.13 | 19.8.1 |
| com.twitter | util-core_2.13 | 19.8.1 |
| com.twitter | util-function_2.13 | 19.8.1 |
| com.twitter | util-jvm_2.13 | 19.8.1 |
| com.twitter | util-lint_2.13 | 19.8.1 |
| com.twitter | util-registry_2.13 | 19.8.1 |
| com.twitter | util-stats_2.13 | 19.8.1 |
| com.typesafe | configurazione | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.13 | 3.9.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | parser di univocità | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| com.zaxxer | SparseBitSet | 1.3 |
| commons-cli | commons-cli | 1.10.0 |
| commons-codec (libreria per la codifica comune) | commons-codec (libreria per la codifica comune) | 1.19.0 |
| collezioni-comuni | collezioni-comuni | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| funzione di caricamento file dei Commons | funzione di caricamento file dei Commons | 1.6.0 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.21.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging (no translation needed) | commons-logging (no translation needed) | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.4 |
| dev.ludovic.netlib | Blas | 3.0.4 |
| dev.ludovic.netlib | LAPACK | 3.0.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | compressore d'aria | 2.0.2 |
| io.delta | delta-sharing-client_2.13 | 1.3.10 |
| io.dropwizard.metrics | annotazione delle metriche | 4.2.37 |
| io.dropwizard.metrics | nucleo delle metriche | 4.2.37 |
| io.dropwizard.metrics | metrics-graphite | 4.2.37 |
| io.dropwizard.metrics | metriche-controlli di salute | 4.2.37 |
| io.dropwizard.metrics | metrics-jetty10 | 4.2.37 |
| io.dropwizard.metrics | metrics-jmx | 4.2.37 |
| io.dropwizard.metrics | metrics-json (Specificare ulteriormente se necessario a seconda del contesto) | 4.2.37 |
| io.dropwizard.metrics | metrics-jvm | 4.2.37 |
| io.dropwizard.metrics | metriche-servlet | 4.2.37 |
| io.github.java-diff-utils | java-diff-utils | 4.15 |
| io.netty | netty-all | 4.2.7.Final |
| io.netty | netty-buffer | 4.2.7.Final |
| io.netty | netty-codec | 4.2.7.Final |
| io.netty | netty-codec-base | 4.2.7.Final |
| io.netty | netty-codec-classes-quic | 4.2.7.Final |
| io.netty | netty-codec-compression | 4.2.7.Final |
| io.netty | netty-codec-http (codec HTTP di Netty) | 4.2.7.Final |
| io.netty | netty-codec-http2 | 4.2.7.Final |
| io.netty | netty-codec-http3 | 4.2.7.Final |
| io.netty | netty-codec-marshalling | 4.2.7.Final |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-codec-native-quic | 4.2.7.Final-windows-x86_64 |
| io.netty | netty-codec-protobuf | 4.2.7.Final |
| io.netty | netty-codec-socks | 4.2.7.Final |
| io.netty | netty-common | 4.2.7.Final |
| io.netty | netty-handler | 4.2.7.Final |
| io.netty | netty-handler-proxy | 4.2.7.Final |
| io.netty | netty-resolver | 4.2.7.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.74.Final-db-r0-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.74.Final |
| io.netty | netty-transport | 4.2.7.Final |
| io.netty | netty-transport-classes-epoll | 4.2.7.Final |
| io.netty | netty-transport-classes-io_uring | 4.2.7.Final |
| io.netty | netty-transport-classes-kqueue | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-aarch_64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-riscv64 |
| io.netty | netty-transport-native-io_uring | 4.2.7.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.2.7.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-comune | 4.2.7.Final |
| io.opencensus | opencensus-api | 0.31.1 |
| io.opencensus | opencensus-contrib-http-util | 0.31.1 |
| io.prometheus | simpleclient | 0.16.1-databricks |
| io.prometheus | sempliceclient_comune | 0.16.1-databricks |
| io.prometheus | simpleclient_dropwizard | 0.16.1-databricks |
| io.prometheus | simpleclient_pushgateway | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet | 0.16.1-databricks |
| io.prometheus | simpleclient_servlet_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_common | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel | 0.16.1-databricks |
| io.prometheus | simpleclient_tracer_otel_agent | 0.16.1-databricks |
| io.prometheus.jmx | collezionista | 0.18.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | attivazione | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.media | jai_core | jai_core_dummy |
| javax.transaction | Java Transaction API (JTA) | 1.1 |
| javax.transaction | API per le transazioni | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.14.0 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | sottaceto | 1.5 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv (formato CSV avanzato) | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk (kit di sviluppo software per l'ingestione dati) | 0.9.6 |
| net.sourceforge.f2j | arpack_combinato_tutto | 0,1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.13.1 |
| org.antlr | modello di stringa | 3.2.1 |
| org.apache.ant | formica | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant launcher | 1.10.11 |
| org.apache.arrow | compressione freccia | 18.3.0 |
| org.apache.arrow | formato a freccia | 18.3.0 |
| org.apache.arrow | arrow-nucleo-di-memoria | 18.3.0 |
| org.apache.arrow | arrow-memory-netty | 18.3.0 |
| org.apache.arrow | patch-buffer-netty-memoria-freccia | 18.3.0 |
| org.apache.arrow | freccia-vettore | 18.3.0 |
| org.apache.avro | Avro | 1.12.1 |
| org.apache.avro | avro-ipc | 1.12.1 |
| org.apache.avro | avro-mapred | 1.12.1 |
| org.apache.commons | commons-collections4 | 4.5.0 |
| org.apache.commons | commons-compress | 1.28.0 |
| org.apache.commons | commons-configuration2 | 2.11.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.19.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | testo comune | 1.14.0 |
| org.apache.curator | curatore-cliente | 5.9.0 |
| org.apache.curator | framework del curatore | 5.9.0 |
| org.apache.curator | ricette del curatore | 5.9.0 |
| org.apache.datasketches | datasketches-java | 6.2.0 |
| org.apache.datasketches | datasketches-memory | 3.0.2 |
| org.apache.derby | derby sportivo | 10.14.2.0 |
| org.apache.hadoop | runtime del client Hadoop | 3.4.2 |
| org.apache.hive | hive-beeline | 2.3.10 |
| org.apache.hive | hive-cli | 2.3.10 |
| org.apache.hive | Hive-JDBC | 2.3.10 |
| org.apache.hive | hive-llap-client | 2.3.10 |
| org.apache.hive | hive-llap-common | 2.3.10 |
| org.apache.hive | hive-serde | 2.3.10 |
| org.apache.hive | spessori del sistema Hive | 2.3.10 |
| org.apache.hive | API di archiviazione Hive | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.10 |
| org.apache.hive.shims | Hive-shims-common | 2.3.10 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.10 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | Edera | 2.5.3 |
| org.apache.logging.log4j | log4j-1.2-api | 2.24.3 |
| org.apache.logging.log4j | log4j-api | 2.24.3 |
| org.apache.logging.log4j | log4j-core | 2.24.3 |
| org.apache.logging.log4j | log4j-struttura-modello-json | 2.24.3 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.24.3 |
| org.apache.orc | orc-core | 2.2.0-shaded-protobuf |
| org.apache.orc | formato orc | 1.1.1-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 2.2.0-shaded-protobuf |
| org.apache.orc | orc-shims | 2.2.0 |
| org.apache.poi | POI | 5.4.1 |
| org.apache.poi | poi-ooxml | 5.4.1 |
| org.apache.poi | poi-ooxml-full | 5.4.1 |
| org.apache.poi | poi-ooxml-lite | 5.4.1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.16.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.1 |
| org.apache.xbean | xbean-asm9-shaded | 4.28 |
| org.apache.xmlbeans | xmlbeans | 5.3.0 |
| org.apache.yetus | annotazioni per il pubblico | 0.13.0 |
| org.apache.zookeeper | guardiano dello zoo | 3.9.4 |
| org.apache.zookeeper | guardiano dello zoo-juta | 3.9.4 |
| org.checkerframework | verificatore qualità | 3.43.0 |
| org.codehaus.janino | Commons-Compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | Datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-alpn-client | 10.0.26 |
| org.eclipse.jetty | jetty-client | 10.0.26 |
| org.eclipse.jetty | jetty-http | 10.0.26 |
| org.eclipse.jetty | jetty-io | 10.0.26 |
| org.eclipse.jetty | jetty-jndi | 10.0.26 |
| org.eclipse.jetty | Jetty Plus | 10.0.26 |
| org.eclipse.jetty | jetty-proxy | 10.0.26 |
| org.eclipse.jetty | sicurezza del molo | 10.0.26 |
| org.eclipse.jetty | Jetty Server | 10.0.26 |
| org.eclipse.jetty | jetty-servlet | 10.0.26 |
| org.eclipse.jetty | jetty-servlets | 10.0.26 |
| org.eclipse.jetty | jetty-util | 10.0.26 |
| org.eclipse.jetty | applicazione web di Jetty | 10.0.26 |
| org.eclipse.jetty | jetty-xml | 10.0.26 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-localizzatore | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | localizzatore di risorse OSGi | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-riconfezionato | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet (servlet del contenitore Jersey) | 2.41 |
| org.glassfish.jersey.containers | modulo-nucleo-servlet-contenitore-jersey (if a translation is required as per the context) | 2.41 |
| org.glassfish.jersey.core | jersey-client | 2.41 |
| org.glassfish.jersey.core | jersey-comune | 2.41 |
| org.glassfish.jersey.core | Jersey-server | 2.41 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.41 |
| org.hibernate.validator | validatore di Hibernate | 6.2.5.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging (strumento di registrazione per JBoss) | 3.4.1.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jline | jline | 3.27.1-jdk8 |
| org.joda | joda-convert | 1,7 |
| org.json4s | json4s-ast_2.13 | 4.0.7 |
| org.json4s | json4s-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson-core_2.13 | 4.0.7 |
| org.json4s | json4s-jackson_2.13 | 4.0.7 |
| org.json4s | json4s-scalap_2.13 | 4.0.7 |
| org.locationtech.jts | jts-core | 1.20.0 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.13 | 2.22.1 |
| org.objenesis | objenesis | 3.4 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 1.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.13 | 2.13.16 |
| org.scala-lang | scala-library_2.13 | 2.13.16 |
| org.scala-lang | scala-reflect_2.13 | 2.13.16 |
| org.scala-lang.modules | scala-collection-compat_2.13 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.13 | 0.9.1 |
| org.scala-lang.modules | scala-parallel-collections_2.13 | 1.2.0 |
| org.scala-lang.modules | scala-parser-combinators_2.13 | 2.4.0 |
| org.scala-lang.modules | scala-xml_2.13 | 2.4.0 |
| org.scala-sbt | interfaccia di prova | 1.0 |
| org.scalacheck | scalacheck_2.13 | 1.18.0 |
| org.scalactic | scalactic_2.13 | 3.2.19 |
| org.scalanlp | breeze-macros_2.13 | 2.1.0 |
| org.scalanlp | breeze_2.13 | 2.1.0 |
| org.scalatest | compatibile con scalatest | 3.2.19 |
| org.scalatest | scalatest-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-diagrams_2.13 | 3.2.19 |
| org.scalatest | scalatest-featurespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-flatspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-freespec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-funsuite_2.13 | 3.2.19 |
| org.scalatest | scalatest-matchers-core_2.13 | 3.2.19 |
| org.scalatest | scalatest-mustmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-propspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-refspec_2.13 | 3.2.19 |
| org.scalatest | scalatest-shouldmatchers_2.13 | 3.2.19 |
| org.scalatest | scalatest-wordspec_2.13 | 3.2.19 |
| org.scalatest | scalatest_2.13 | 3.2.19 |
| org.slf4j | jcl-over-slf4j | 2.0.16 |
| org.slf4j | jul-to-slf4j | 2.0.16 |
| org.slf4j | slf4j-api | 2.0.16 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.8.0 |
| org.tukaani | xz | 1.10 |
| org.typelevel | algebra_2.13 | 2.8.0 |
| org.typelevel | cats-kernel_2.13 | 2.8.0 |
| org.typelevel | spire-macros_2.13 | 0.18.0 |
| org.typelevel | spire-platform_2.13 | 0.18.0 |
| org.typelevel | spire-util_2.13 | 0.18.0 |
| org.typelevel | spire_2.13 | 0.18.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.5.0-linux-x86_64 |
| Stax | stax-api | 1.0.1 |