Compartir a través de


Listo para IA

En este artículo se describe el proceso organizativo para crear cargas de trabajo de inteligencia artificial en Azure. En el artículo se proporcionan recomendaciones para tomar decisiones clave de diseño y proceso para adoptar cargas de trabajo de inteligencia artificial a escala. Se centra en las instrucciones específicas de la inteligencia artificial para la organización de recursos y la conectividad.

Diagrama que muestra las 6 fases de adopción de la inteligencia artificial: Estrategia, Plan, Listo, Gobierno, Seguro, Administrar.

Establecimiento de la gobernanza de la inteligencia artificial

La gobernanza de la inteligencia artificial requiere una organización de recursos adecuada y la administración de directivas para garantizar operaciones seguras, compatibles y rentables. Debe crear límites de gobernanza claros para proteger los datos confidenciales y controlar el acceso eficaz a los recursos de inteligencia artificial. A continuación se muestra cómo hacerlo:

  1. Cree grupos de administración independientes para cargas de trabajo de inteligencia artificial internas y accesibles desde Internet. La separación de grupos de administración establece límites críticos de gobernanza de datos entre aplicaciones externas ("en línea") e internas ("corporativas"). Esta separación impide que los usuarios externos accedan a datos empresariales internos confidenciales mientras mantiene los controles de acceso adecuados. El enfoque se alinea con Azure grupo de administración de zonas de aterrizaje y admite la herencia de directivas en los tipos de carga de trabajo.

  2. Aplique políticas específicas de IA a cada grupo de administración. Comience con las directivas de línea base de zonas de aterrizaje de Azure y agregue definiciones de políticas de Azure para Foundry, Foundry Tools, Búsqueda de Azure AI y Azure Virtual Machines. La aplicación de directivas garantiza una gobernanza uniforme de la inteligencia artificial en toda la plataforma y reduce la supervisión manual del cumplimiento.

  3. Implemente recursos de IA en suscripciones específicas para cargas de trabajo. Los recursos de inteligencia artificial deberán heredar políticas de gobernanza de su grupo de gestión de cargas de trabajo en lugar de suscripciones de plataforma. Esta separación evita cuellos de botella de desarrollo que los controles del equipo de plataforma crean y permiten a los equipos de carga de trabajo operar con la autonomía adecuada. Implemente cargas de trabajo de IA en suscripciones de zona de aterrizaje de aplicaciones en entornos de zona de aterrizaje de Azure.

Establecimiento de redes de IA

Las redes de IA abarcan el diseño de la infraestructura de red, las medidas de seguridad y los patrones de transferencia de datos eficaces para las cargas de trabajo de IA. Debe implementar los controles de seguridad adecuados y las opciones de conectividad para evitar interrupciones basadas en red y mantener un rendimiento coherente. A continuación se muestra cómo hacerlo:

  1. Activate Azure DDoS Protection for Internet-facing AI workloads.Azure DDoS Protection protege a los servicios de inteligencia artificial frente a posibles interrupciones y tiempos de inactividad que provocan ataques de denegación de servicio distribuidos. La protección contra DDoS en el nivel de red virtual protege contra las inundaciones de tráfico que tienen como destino aplicaciones accesibles desde Internet y mantiene la disponibilidad del servicio durante los ataques.

  2. Proteja el acceso operativo a las cargas de trabajo de inteligencia artificial con Azure Bastion. Use un jumpbox y Azure Bastion para proteger el acceso operativo a las cargas de trabajo de IA y evitar la exposición directa a Internet de las interfaces de administración. Este enfoque crea una puerta de enlace segura para tareas administrativas al tiempo que mantiene el aislamiento de red para los recursos de IA.

  3. Elija la conectividad adecuada para los orígenes de datos locales. Las organizaciones que transfieren grandes cantidades de datos de orígenes locales a entornos en la nube necesitan conexiones de ancho de banda alto para admitir los requisitos de rendimiento de la carga de trabajo de IA.

    • Use Azure ExpressRoute para la transferencia de datos de gran volumen.Azure ExpressRoute proporciona conectividad dedicada para grandes volúmenes de datos, procesamiento en tiempo real o cargas de trabajo que requieren un rendimiento coherente. ExpressRoute incluye una función FastPath que mejora el rendimiento de la trayectoria de datos eludiendo la puerta de enlace de ExpressRoute para determinados flujos de tráfico.

    • Use Azure VPN Gateway para la transferencia de datos moderada.Azure VPN Gateway funciona bien para volúmenes de datos moderados, transferencia de datos poco frecuentes o cuando se requiere acceso a Internet público. VPN Gateway ofrece una configuración más sencilla y una operación rentable para conjuntos de datos más pequeños en comparación con ExpressRoute. Use la topología y el diseño adecuados para las cargas de trabajo de IA, incluida la VPN de sitio a sitio para la conectividad entre locales y la VPN de punto a sitio para el acceso seguro al dispositivo.

Establecimiento de la confiabilidad de la inteligencia artificial

La confiabilidad de la inteligencia artificial requiere la selección estratégica de ubicación de regiones y la planeación de redundancia para garantizar un rendimiento coherente y una alta disponibilidad. Las organizaciones deben abordar el hospedaje del modelo, la localidad de datos y la recuperación ante desastres para mantener servicios de INTELIGENCIA ARTIFICIAL confiables. Debe planear la estrategia de implementación regional para evitar interrupciones del servicio y optimizar el rendimiento. A continuación se muestra cómo hacerlo:

  1. Implemente puntos de conexión de IA en varias regiones para cargas de trabajo de producción. Las cargas de trabajo de inteligencia artificial de producción requieren hospedaje en al menos dos regiones para proporcionar redundancia y garantizar la alta disponibilidad. Las implementaciones de varias regiones permiten una conmutación ante fallos y recuperación más rápidas durante los fallos regionales. Para Azure OpenAI en Foundry, utilice implementaciones globales que enrutan automáticamente las solicitudes a las regiones con capacidad disponible. En el caso de las implementaciones regionales, implemente Azure API Management para equilibrar la carga de las solicitudes de API en los puntos de conexión de IA.

  2. Compruebe la disponibilidad del servicio ai en las regiones de destino antes de la implementación. Las distintas regiones proporcionan distintos niveles de disponibilidad del servicio de inteligencia artificial y compatibilidad con características. Compruebe Azure disponibilidad del servicio por región para confirmar que los servicios de IA necesarios están disponibles. Modelos de implementación de Azure OpenAI incluyen opciones estándar global, aprovisionado global, estándar regional y aprovisionado regional con patrones de disponibilidad regionales diferentes.

  3. Evalúe los límites de cuota regionales y los requisitos de capacidad. Foundry Tools tiene límites de suscripción regionales que afectan a las implementaciones de modelos a gran escala y las cargas de trabajo de inferencia. Póngase en contacto con Soporte técnico de Azure de forma proactiva cuando anticipa las necesidades de capacidad que superan las cuotas estándar para evitar interrupciones del servicio durante el escalado.

  4. Optimice la ubicación de los datos para las aplicaciones de generación aumentada de recuperación. La ubicación de almacenamiento de datos afecta significativamente al rendimiento de la aplicación en escenarios RAG. La colocalización de datos con modelos de inteligencia artificial en la misma región reduce la latencia y mejora la eficacia de la recuperación de datos, aunque las configuraciones entre regiones siguen siendo viables para requisitos empresariales específicos.

  5. Replique los recursos críticos de inteligencia artificial en regiones secundarias para la continuidad empresarial. La continuidad empresarial requiere la replicación de modelos optimizados, conjuntos de datos RAG, modelos entrenados y datos de entrenamiento en regiones secundarias. La replicación de recursos permite una recuperación más rápida durante las interrupciones y mantiene la disponibilidad del servicio en distintos escenarios de error.

Establecimiento de una base de IA

Una base de inteligencia artificial proporciona la infraestructura principal y la jerarquía de recursos que admiten cargas de trabajo de inteligencia artificial en Azure. Incluye la configuración de entornos escalables y seguros que se alinean con las necesidades operativas y de gobernanza. Una base de inteligencia artificial sólida permite una implementación y administración eficientes de las cargas de trabajo de IA. También garantiza la seguridad y la flexibilidad para el crecimiento futuro.

Uso de una zona de aterrizaje de Azure

Una zona de aterrizaje de Azure es el punto de partida recomendado para preparar tu entorno de Azure. Proporciona una configuración predefinida para los recursos de plataforma y aplicación. Una vez implementada la plataforma, puede implementar cargas de trabajo de inteligencia artificial en zonas de aterrizaje de aplicaciones dedicadas.

Si su organización usa Azure zonas de aterrizaje para cargas de trabajo, siga utilizándolas para cargas de trabajo que usan inteligencia artificial. Implemente las cargas de trabajo de IA en zonas de aterrizaje de aplicaciones convencionales, tal como lo haría con cualquier otra carga de trabajo. Consulte IA en las zonas de aterrizaje de Azure. En la figura 2 siguiente se muestra cómo se integran las cargas de trabajo de IA dentro de una zona de aterrizaje de Azure.

Diagrama que muestra las cargas de trabajo de IA dentro de una zona de aterrizaje de Azure. Figura 2. Carga de trabajo de IA en una zona de aterrizaje de Azure.

Creación de un entorno de IA

Si no usa una zona de aterrizaje de Azure, siga las recomendaciones de este artículo para crear el entorno de IA. En el diagrama siguiente se muestra una jerarquía de recursos de línea base. Segmenta las cargas de trabajo de IA internas y las cargas de trabajo de IA accesibles desde Internet. Las cargas de trabajo internas usan la política para denegar el acceso en línea a los clientes. Esta separación protege los datos internos de la exposición a los usuarios externos. El desarrollo de inteligencia artificial debe usar un jumpbox para administrar los datos y los recursos de inteligencia artificial.

Diagrama que muestra la organización de recursos para cargas de trabajo de IA internas y orientadas a Internet. Figura 3. Jerarquía de recursos de línea base para cargas de trabajo de IA.

Pasos siguientes

El siguiente paso consiste en crear e implementar cargas de trabajo de inteligencia artificial en el entorno de IA. Use los vínculos siguientes para encontrar las instrucciones de arquitectura que satisfagan sus necesidades. Empiece con arquitecturas de plataforma como servicio (PaaS). PaaS es Microsoft enfoque recomendado para adoptar la inteligencia artificial.