Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
Una lakehouse in Microsoft Fabric combina la scalabilità di un data lake con le funzionalità di query di un data warehouse. I dati strutturati e non strutturati vengono archiviati in un'unica posizione, gestirli con Delta Lake e analizzarli con Apache Spark e SQL, senza spostare dati tra sistemi. Con i tasti di scelta rapida di OneLake e la condivisione dei dati tra tenant, è anche possibile accedere ai dati regolati da origini esterne e altre organizzazioni senza duplicazione.
Una lakehouse offre:
- Una copia dei dati sia per i carichi di lavoro di ingegneria dei dati che per i carichi di lavoro di analisi
- Formato Delta Lake per transazioni ACID, imposizione dello schema e tempo di spostamento
- Accesso a Spark e SQL in modo che i data engineer usino notebook mentre gli analisti usano T-SQL
- Integrazione integrata con Power BI, pipeline, flussi di dati e altri elementi di Fabric
Lakehouse contro data warehouse
Le principali differenze tra un lakehouse e un data warehouse in Microsoft Fabric riguardano gli strumenti di sviluppo preferiti, i tipi di dati e i modelli di carico di lavoro. Entrambi condividono lo stesso motore SQL e archiviano i dati in formato Delta in OneLake, ma sono progettati per scenari diversi:
| Lakehouse | Magazzino dati | |
|---|---|---|
| Strumento di sviluppo principale | Apache Spark (Python, Scala, SQL, R) | T-SQL |
| Tipo di dati | Strutturati e non strutturati | dati strutturati |
| Transazioni a più tabelle | NO | Sì |
| Inserimento dati | Notebook, pipeline, flussi di dati, collegamenti OneLake (accesso in tempo reale senza copia) | T-SQL (COPY INTO, INSERT, CTAS), pipeline |
| migliore per | Ingegneria dei dati, scienza dei dati, architetture medallion | Creazione di report BI, modellazione dimensionale, team SQL-first |
È possibile usarli entrambi nella stessa area di lavoro, ad esempio acquisire e trasformare i dati in un lakehouse con Spark, quindi esporre set di dati curati a un data warehouse per la creazione di report basati su SQL. Per indicazioni dettagliate, vedere Scegliere tra warehouse e Lakehouse.
Lavorare con i dati lakehouse
È possibile caricare, trasformare ed eseguire query sui dati in una lakehouse tramite diversi strumenti di Fabric:
Collegamenti a OneLake : consente di accedere ai dati da origini esterne (inclusi altri tenant tramite la condivisione dei dati tra tenant) senza copiarli nel lakehouse. Le scorciatoie forniscono riferimenti in tempo reale e di sola lettura ai dati operativi e analitici in OneLake. Vedere Collegamenti a OneLake.
Lakehouse Explorer : esplorare tabelle e file, caricare i dati e gestire i metadati direttamente nel browser. È possibile passare dalla visualizzazione tabella alla visualizzazione file e aggiungere più lakehouse all'esploratore. Vedere Navigate the Fabric Lakehouse explorer.
Notebooks : scrivere codice Spark (Python, Scala, SQL, R) per leggere, trasformare e scrivere dati in tabelle e cartelle lakehouse. Vedere Esplorare i dati con un notebook e Caricare dati con un notebook.
Pipeline — usare l'attività di copia e altri strumenti di integrazione dei dati per il trasferimento dei dati da origini esterne nel data lakehouse. Vedere Copiare dati usando l'attività di copia.
definizioni di job Spark — Eseguire applicazioni Spark compilate in Java, Scala o Python per ETL di livello di produzione. Vedere Che cos'è una definizione di processo Apache Spark?.
Flussi di dati Gen 2 : inserire e preparare i dati con un'interfaccia visiva con poco codice. Vedere Creare il primo flusso di dati.
Per un confronto completo delle opzioni di inserimento, vedere Options per ottenere i dati nel Fabric Lakehouse.
SQL Analytics Endpoint di Lakehouse
Quando si crea un lakehouse, Fabric genera automaticamente un endpoint di analisi SQL. Questo endpoint consente di:
- Eseguire query su tabelle Delta con T-SQL : usare una sintassi SQL familiare senza configurare un warehouse separato.
- Connect Power BI direttamente : creare un modello semantico Power BI per creare report sui dati lakehouse.
- Condividere l'accesso in sola lettura : gli analisti e i generatori di report possono eseguire query sui dati senza influire sui carichi di lavoro Spark.
Nota
Dal 5 settembre 2025, i modelli semantici predefiniti non vengono più creati automaticamente quando si crea un lakehouse. I modelli semantici predefiniti esistenti sono stati separati dai relativi elementi padre entro il 30 novembre 2025 e sono diventati modelli semantici indipendenti. Per altre informazioni, vedere Power BI modelli semantici in Microsoft Fabric.
L'endpoint di analisi SQL è di sola lettura e non supporta la superficie T-SQL completa di un data warehouse. Usarlo per l'esplorazione, la creazione di report e le query ad hoc.
Nota
Solo le tabelle Delta vengono visualizzate nell'endpoint di analisi SQL. Sono incluse le tabelle Delta raggiunte tramite collegamenti OneLake, visibili e interrogabili insieme alle tabelle archiviate in locale. Non è possibile eseguire query su Parquet, CSV e altri formati tramite questo endpoint. Se la tabella non viene visualizzata, convertirla in formato Delta.
Individuazione e registrazione automatica delle tabelle
Una lakehouse organizza i dati in due cartelle di primo livello: tabelle per tabelle Delta gestite e file per dati non strutturati o non Delta. Quando si inserisce un file nella cartella Tables, Fabric automaticamente:
- Convalida il file in base ai formati supportati (attualmente solo tabelle Delta).
- Estrae i metadati: nomi di colonna, tipi di dati, compressione e partizionamento.
- Registra la tabella nel metastore in modo da poterla eseguire immediatamente con Spark SQL o T-SQL.
Questa esperienza gestita da file a tabella significa che non è necessario scrivere CREATE TABLE istruzioni manualmente per i dati inseriti nell'area gestita.
Multitasking con il lakehouse
Il lakehouse utilizza un design a schede simile a quello del browser che consente di aprire e passare tra molteplici elementi senza perdere la posizione.
Mantenere le operazioni in esecuzione: I caricamenti e i caricamenti dei dati continuano a essere eseguiti quando si passa a una scheda diversa.
Mantenere il contesto: Le tabelle, i file e gli oggetti selezionati rimangono aperti quando si passa da una scheda all'altro.
Ricarica dell'elenco senza blocco: Il refresh dell'elenco di file e tabelle avviene in background senza bloccare il lavoro.
Notifiche con ambito: Le notifiche di tipo avviso popup identificano da quale lakehouse provengono, in modo da poter tenere traccia degli aggiornamenti tra le schede.
Progettazione di un lakehouse accessibile
Il sistema lakehouse supporta le tecnologie assistive e modelli d'interazione agevoli.
- Compatibilità con lettori di schermo: Funziona con i lettori di schermo più diffusi per la navigazione e l'interazione.
- Testo alternativo per le immagini: Tutte le immagini includono testo alternativo descrittivo.
- Campi modulo etichettati: Tutti i campi modulo hanno etichette associate per il lettore di schermo e gli utenti che utilizzano la tastiera.
- Ridisposizione del testo: Disposizione reattiva che si adatta a diverse dimensioni dello schermo e orientamenti.
- Spostamento tramite tastiera: Supporto completo della tastiera per la navigazione nel lakehouse senza mouse.