Configuración de las opciones de escalado

Completado

El modelo está diseñado. Ahora configure las opciones que controlan cómo controla grandes conjuntos de datos, consultas simultáneas y acceso a herramientas externas. Esta configuración determina si el modelo puede mantenerse al día a medida que crecen los volúmenes de datos y más usuarios y herramientas lo consumen.

Formato de almacenamiento de modelos semánticos de gran tamaño

El formato de almacenamiento de modelos semánticos de gran tamaño cambia la forma en que el modelo almacena y comprime los datos. De forma predeterminada, Power BI limita las cargas del modelo a 10 GB. Con esta configuración habilitada, los modelos pueden crecer más allá de ese límite en la actualización. El tamaño máximo es igual al tamaño de capacidad Fabric o el límite establecido por el administrador de capacidad.

Los modelos de Direct Lake habilitan automáticamente esta configuración, por lo que no es necesario configurarlos manualmente para esos modelos. Para los modelos de modo de importación, debe habilitarlo explícitamente.

Esta configuración también es un requisito previo para el acceso de lectura y escritura de punto de conexión XMLA y el escalado horizontal de consultas. Debe habilitarlo primero al usar los modos de almacenamiento Import o DirectQuery.

Habilite el formato de almacenamiento del modelo semántico grande cuando:

  • Los volúmenes de datos requieren modelos que crezcan más allá del límite de subida de 10 GB.
  • Necesitas acceso al punto de conexión XMLA para herramientas externas.
  • Tienes planeado utilizar el escalado horizontal de consultas para lograr alta concurrencia.
  • Tiene previsto usar la actualización incremental con tablas particionadas.

Acceso de lectura y escritura del extremo XMLA

El punto de conexión XMLA permite que las herramientas externas se conecten al modelo semántico. Las herramientas como editor tabular, DAX Studio y ALM Toolkit usan este punto de conexión para las operaciones de desarrollo, depuración e implementación que no están disponibles en la interfaz de servicio de Fabric.

El acceso de lectura y escritura del punto de conexión XMLA requiere el formato de almacenamiento del modelo semántico de gran tamaño como requisito previo necesario. Una vez habilitados ambos, puede hacer lo siguiente:

  • Use el Editor tabular para el desarrollo de modelos y la integración del control de código fuente.
  • Use DAX Studio para el análisis de consultas y el ajuste del rendimiento.
  • Implemente los modelos a través de canalizaciones de CI/CD utilizando las bibliotecas cliente de Analysis Services.

A escala, estas herramientas externas son esenciales. Las modificaciones manuales a través de la interfaz de servicio no admiten el nivel de desarrollo de modelos que requieren modelos grandes y mantenidos por el equipo.

Sugerencia

Obtenga más información sobre la conectividad del endpoint XMLA.

Escalado horizontal de consultas

El escalado horizontal de consultas distribuye consultas de lectura entre réplicas de solo lectura de tu modelo semántico. Cuando cientos de usuarios acceden al mismo modelo simultáneamente, una sola instancia puede convertirse en un cuello de botella. La escalabilidad horizontal de consultas añade réplicas que comparten la carga de la consulta.

Al habilitar el escalado horizontal de consultas, las réplicas de lectura usan una copia independiente del modelo. Esta copia se sincroniza después de cada actualización. Puede haber un breve retraso entre el modelo principal que finaliza una actualización y las réplicas que reflejan los datos actualizados.

El escalado de consultas requiere como condición previa un formato de almacenamiento grande para modelos semánticos.

Habilite el escalado horizontal de consultas cuando:

  • El modelo sirve a cientos de usuarios simultáneos.
  • El rendimiento de las consultas se degrada durante los períodos de uso máximo.
  • El modelo está respaldado por una capacidad de Fabric que admite réplicas.

Sugerencia

Obtenga más información sobre el escalado horizontal de consultas para los modelos semánticos.

Configuración de contingencia de Direct Lake

Direct Lake lee las tablas delta directamente desde OneLake en la memoria. Algunas consultas pueden hacer que el modelo vuelva al modo DirectQuery, lo que cambia las características de rendimiento. La configuración de respaldo determina cómo maneja el modelo estas situaciones.

  • Permitir conmutación (valor predeterminado): las consultas que no se pueden ejecutar en el modo Direct Lake cambian automáticamente a DirectQuery. Los usuarios obtienen resultados, pero el rendimiento podría disminuir.
  • No permitir alternativas: las consultas que no se pueden ejecutar en el modo Direct Lake devuelven un error. Esto aplica un rendimiento coherente, pero requiere que todas las consultas permanezcan dentro de las funcionalidades de Direct Lake.

Para modelos a escala, comience con la opción de contingencia permitida. Monitoree qué consultas la desencadenan, luego optimice esas consultas o estructuras de datos para reducir la frecuencia de retroceso. Deshabilitar el retroceso solo cuando todos los patrones de consulta estén dentro de los límites de Direct Lake y se necesite una consistencia de rendimiento garantizada.

Integración de OneLake

La integración de OneLake hace que los datos del modelo semántico puedan ser accesibles como tablas Delta en OneLake. Cuando se habilita, los elementos Fabric descendentes, como cuadernos, canalizaciones y otros servicios, pueden leer datos directamente desde el modelo semántico sin volver a generarlos desde el origen.

Esto amplía el alcance del modelo más allá de los informes. Un modelo semántico con un esquema de estrella bien estructurado y lógica de cálculo se convierte en un origen de datos seleccionado para la plataforma de análisis más amplia.

Habilite la integración de OneLake cuando:

  • Los ingenieros de datos o científicos de datos deben consumir datos de modelo semántico en cuadernos u otros elementos de Fabric.
  • Desea usar el modelo semántico como origen de datos compartido en todo Fabric.
  • Los consumidores posteriores necesitan acceso a datos curados enriquecidos con lógica empresarial sin tener que reconstruirlos a partir de fuentes sin procesar.

Nota:

La integración de OneLake solo exporta tablas del modo de importación. No se pueden exportar tablas de Direct Lake, tablas de DirectQuery, medidas y tablas de grupo de cálculo. Si el modelo usa Direct Lake exclusivamente, las tablas Delta subyacentes de OneLake ya son accesibles para otros elementos de Fabric directamente.

Marco de decisión de configuración

En la tabla siguiente se resumen las decisiones clave de configuración para la escala:

Configuración Predeterminado Habilitar cuando
Formato de almacenamiento de modelos semánticos de gran tamaño Apagado Los volúmenes de datos superan los 10 GB, o necesita el acceso al punto de conexión XMLA o el escalado horizontal de consultas.
Lectura y escritura del punto de conexión XMLA Solo lectura Las herramientas externas deben modificar el modelo para el desarrollo o la implementación
Escalado horizontal de consultas Apagado La alta simultaneidad degrada el rendimiento de las consultas (requiere un formato de almacenamiento de modelo semántico grande)
Reserva de Direct Lake Permitido Cambiar a no permitido solo cuando todas las consultas se mantienen dentro de los límites de Direct Lake
Integración de OneLake Apagado Los elementos de red aguas abajo deben consumir datos del modelo semántico

Sugerencia

Esta configuración aborda la escala y el consumo. Otras configuraciones, como la validación, la aprobación de Copilot y la preparación de datos para el consumo de IA, se tratan en módulos independientes. Para obtener una referencia completa, consulte semantic model settings in the Fabric service.