Datos, privacidad y seguridad de Microsoft 365 Copilot en Viva Glint

Microsoft 365 Copilot en Viva Glint es una herramienta de análisis con tecnología de inteligencia artificial que ayuda a los usuarios de RR. HH. y a los líderes de la organización a comprender y actuar rápidamente en función de los comentarios de los empleados. Copilot en Viva Glint coordina los siguientes componentes:

  • Modelos de lenguaje grande (LLM) hospedados por Microsoft proporcionados a través de Azure servicio OpenAI
  • Respuestas de encuesta sin procesar, incluidos comentarios y clasificaciones
  • Preguntas de la encuesta y configuración del programa
  • Filtros demográficos basados en permisos de usuario

Importante

  • Las respuestas a encuestas sin procesar, los mensajes y los atributos de usuario encuestados procesados por Copilot en Viva Glint no se usan para entrenar los LLM básicos, incluidas las respuestas de encuestas sin procesar, los mensajes y los atributos de usuario encuestados usados por Microsoft 365 Copilot.
  • Las respuestas de encuestas sin procesar y los atributos de usuario encuestados almacenados en Viva Glint no se usan para entrenar los LLM básicos.
  • Copilot en Viva Glint respeta los permisos de acceso a datos y los umbrales de confidencialidad existentes de la organización.

Quién usa Copilot en Viva Glint

Copilot en Viva Glint está diseñado para varios roles organizativos:

  • Administradores y líderes de RR. HH.: resumen de grandes conjuntos de datos para identificar información clave y admitir solicitudes de las partes interesadas
  • Líderes de la organización: analice los comentarios de sus equipos y descubra patrones entre las poblaciones de empleados.
  • Administradores: identificar temas de los comentarios del equipo para guiar las conversaciones y el planeamiento de acciones

Lo que trata este artículo

En este artículo se proporciona información sobre los datos, la privacidad y la seguridad de Microsoft 365 Copilot en Viva Glint, incluidas las respuestas a las siguientes preguntas:

  • ¿Cuál es el requisito de licencia para acceder a Copilot en Viva Glint?
  • ¿Cómo funciona Copilot en Viva Glint con Microsoft 365 Copilot en límites distintos?
  • ¿Cómo protege Copilot en Viva Glint la privacidad de los datos de comentarios de los empleados?
  • ¿Qué protecciones de datos empresariales se aplican a Copilot en Viva Glint?
  • ¿Dónde se almacenan y procesan los datos cuando se usa Copilot en Viva Glint?
  • ¿Cómo Copilot en Viva Glint ayuda a los clientes a cumplir los requisitos de cumplimiento normativo?
  • ¿Cómo revisa Microsoft Copilot en Viva Glint la inteligencia artificial responsable?
  • ¿Qué medidas de seguridad protegen contra contenido dañino y ataques por inyección rápida?

Requisitos de licencia

  • Se requiere una licencia para Viva Glint, Microsoft Viva Suite o Microsoft Viva Workplace Analytics y comentarios del empleado para acceder a Copilot en Viva Glint.
  • No se requiere una licencia para Microsoft 365 Copilot para acceder a Copilot en Viva Glint.

Copilot en Viva Glint y Microsoft 365 Copilot

Copilot en Viva Glint funciona dentro de una arquitectura de datos dedicada para procesar los comentarios de los empleados y los datos de la encuesta. Esto es independiente de los límites de procesamiento de datos de Microsoft 365 Copilot, diseñado para admitir el aislamiento de datos adecuado.

Copilot en Viva características de Glint

Al usar Copilot en Viva características de Glint (como el resumen de comentarios en Copilot en Viva Glint), las respuestas de encuestas sin procesar, las solicitudes y los atributos de usuario encuestados se procesan completamente dentro del límite del servicio Microsoft 365. Las respuestas, los mensajes y los atributos de usuario encuestados sin procesar no se comparten con Microsoft 365 Copilot.

Copilot en Viva Glint usa modelos de lenguaje grande hospedados por Microsoft proporcionados a través de Azure servicio OpenAI. Las solicitudes de modelo se procesan dentro del límite de cumplimiento de Microsoft 365 mediante la infraestructura administrada por Microsoft.

Importante

  • Las respuestas de encuesta sin procesar, los mensajes y los atributos de usuario encuestados procesados por Copilot en Viva Glint no se usan para entrenar los LLM básicos.
  • Las respuestas de la encuesta sin procesar y los atributos de usuario encuestados almacenados en la base de datos Viva Glint no se usan para entrenar los LLM básicos.

Copilot en Viva límites de servicio y flujo de datos de Glint

Cómo Copilot en Viva Glint protege la privacidad de los datos de comentarios de los empleados

Copilot en Viva Glint respeta los permisos de acceso a datos y las protecciones de confidencialidad existentes de su organización. Cuando Copilot resume los comentarios de los empleados, aplica los mismos mecanismos de privacidad que protegen los informes y paneles de Viva Glint.

Mecanismos de protección de la privacidad

Viva Glint protege la privacidad de los encuestadores a través de tres mecanismos principales:

Umbrales mínimos de respuesta

Los resultados de la encuesta solo se notifican cuando se recibe un número mínimo de respuestas. El mínimo predeterminado es 5 respuestas para preguntas de clasificación y 10 respuestas para comentarios. Las organizaciones pueden configurar estos umbrales por programa de encuesta para equilibrar la protección de la privacidad con las necesidades de informes.

Controles de acceso basados en rol

Copilot en Viva Glint solo procesa los resultados de la encuesta, el usuario que ha iniciado sesión tiene permiso para ver en Viva Glint según lo configurado por el administrador del cliente. El rol del usuario en la jerarquía de informes determina el acceso. Si un equipo no cumple el umbral mínimo de respuesta, la característica Copilot en Viva Glint no está disponible para el usuario o Copilot en Viva Glint informa al usuario de que no puede proporcionar un resumen de las respuestas de la encuesta.

Umbrales de supresión

Incluso cuando se cumplen los umbrales mínimos de respuesta, los comentarios se pueden suprimir si el filtrado por atributos demográficos podría permitir la identificación de encuestados individuales. La lógica de supresión de Viva Glint garantiza que la comparación de resultados filtrados no pueda revelar respuestas individuales.

Cómo Copilot aplica las protecciones de privacidad

Cuando pida a Copilot que resuma los comentarios:

  • Copilot solo puede acceder a respuestas, comentarios y clasificaciones de encuestas sin procesar que el usuario que ha iniciado sesión tiene permiso para ver según lo configurado por el administrador.
  • Los resúmenes respetan los mismos umbrales de confidencialidad que los informes de Viva Glint.
  • Si las respuestas de la encuesta no cumplen los umbrales mínimos de respuesta, Copilot no puede acceder a esos comentarios ni resumirlo.
  • El filtrado demográfico en Copilot sigue las mismas reglas de supresión que los paneles de Viva Glint.

Para obtener más información, consulte Protección de privacidad en informes.

Protección de datos de la empresa

Copilot en Viva Glint sigue los mismos principios de protección de datos empresariales que Microsoft Viva y Microsoft 365. Estas protecciones están diseñadas para ayudar a mantener los datos de los clientes seguros, privados y bajo su control. Para obtener más información, consulte Seguridad Viva.

Copilot en Viva residencia de datos de Glint

Copilot en Viva Glint sigue los mismos compromisos de residencia de datos que Viva Glint para el almacenamiento y procesamiento de datos del cliente.

Almacenamiento de datos del cliente

Los datos de los clientes (incluidas las respuestas a encuestas, los comentarios y los atributos de usuario encuestados) se almacenan en uno de los tres centros de datos regionales en función de la ubicación del inquilino de Microsoft 365. Para obtener detalles completos sobre la residencia de datos Viva Glint, consulte Residencia de datos para Viva Glint.

Procesamiento de LLM y límite de datos de la UE

Cuando Copilot en Viva Glint llama a modelos de lenguaje grande hospedados por Microsoft para procesar respuestas, mensajes y atributos de usuario encuestados sin procesar, el procesamiento se alinea con los compromisos de residencia de datos de Viva Glint para la región del inquilino. Para obtener detalles completos sobre la residencia de datos Viva Glint, consulte Residencia de datos para Viva Glint.

Cómo Copilot en Viva Glint admite el cumplimiento normativo

Copilot en Viva Glint sigue el mismo marco de seguridad y cumplimiento que Viva Glint. Viva Glint proporciona controles y protecciones que ayudan a su organización a cumplir sus obligaciones en virtud de las regulaciones de protección de datos aplicables, como el Reglamento General de Protección de Datos (RGPD) de la Unión Europea. Para obtener información detallada, consulte Seguridad y cumplimiento del uso de datos.

Ley de inteligencia artificial de la UE

Microsoft evalúa sus servicios en consonancia con las clasificaciones aplicables de la Ley de inteligencia artificial de la UE. Microsoft no clasifica Copilot en Viva Glint como una solución de inteligencia artificial de alto riesgo en virtud de la Ley de inteligencia artificial de la UE. Copilot en Viva Glint está diseñado para resumir los comentarios de los empleados para los líderes de RR. HH. y de la organización, y no realiza funciones como la toma de decisiones que afecten a los términos de las relaciones relacionadas con el trabajo, la identificación biométrica, la administración crítica de infraestructuras u otras actividades que lo colocarían en la categoría de alto riesgo definida por la Ley de inteligencia artificial de la UE. Para obtener más información sobre el enfoque de Microsoft con respecto al cumplimiento de la Ley de IA de la UE, consulte Innovación en consonancia con la Ley de inteligencia artificial de la UE.

Revisiones responsables de inteligencia artificial y seguridad de datos para Copilot en Viva Glint

Copilot en Viva características de Glint se basan en las mismas bases de protección de datos, privacidad, seguridad e inteligencia artificial responsable que rigen Microsoft 365 Copilot. Para mantener la confianza del cliente y reducir el riesgo de daños, cada versión de características se evalúa a través de procesos de evaluación de impacto de IA responsable y revisión de seguridad de datos diseñados para identificar, evaluar y mitigar posibles riesgos antes de que las características estén disponibles.

Estos procesos de revisión están diseñados para reducir los daños que pueden surgir de los sistemas de inteligencia artificial en escenarios de trabajo, incluidos:

  • Sesgo, injusticia o resultados discriminatorios, especialmente en conclusiones y resúmenes relacionados con las personas.
  • Daños en el lugar de trabajo, como inferencias o juicios inadecuados sobre el rendimiento de los empleados, el estado emocional o las características personales.
  • Contenido generado por IA inexacto o engañoso que podría ser de confianza o de aplicación incorrecta.
  • Acceso a datos no autorizados, exposición o uso indebido, incluidos los riesgos relacionados con el aislamiento de inquilinos y los límites de permisos.
  • Riesgos de seguridad y privacidad que podrían poner en peligro la confidencialidad, integridad o residencia de los datos de los clientes.

Copilot en Viva Glint está diseñado para ayudar a mitigar estos riesgos a través de un enfoque de defensa en profundidad que combina la gobernanza de la inteligencia artificial responsable, las medidas de seguridad técnicas y los controles de seguridad y privacidad.

Evaluación responsable del impacto de la inteligencia artificial

Copilot en Viva características de Glint están sujetas a una evaluación de impacto de IA responsable alineada con los principios y estándares de inteligencia artificial responsable de Microsoft. Estas evaluaciones están diseñadas para evaluar cómo las funcionalidades de inteligencia artificial pueden afectar a los usuarios y organizaciones en escenarios reales y para identificar posibles daños al principio del ciclo de vida del producto.

Como se describe en Microsoft 365 Copilot gobernanza, las revisiones de inteligencia artificial responsable consideran:

  • Uso previsto y limitaciones de la característica y si las salidas podrían malinterpretarse o utilizarse de forma incorrecta.
  • Posibilidad de sesgo o trato injusto, incluidos los daños relacionados con la equidad.
  • Riesgo de daños en el lugar de trabajo, definidos como sistemas de inteligencia artificial que realizan inferencias, juicios o evaluaciones sobre los empleados en función de la comunicación en el lugar de trabajo.
  • Adecuación de las medidas de seguridad, como el filtrado de contenido, el bloqueo de escenarios restringidos y el diseño del usuario en el bucle.

Microsoft restringe explícitamente el uso de inteligencia artificial generativa para realizar inferencias o juicios sobre el rendimiento, la actitud, el estado interno o las características personales de los empleados, y aplica mitigaciones para ayudar a evitar estos daños en el lugar de trabajo.

Los resultados de las evaluaciones de impacto de inteligencia artificial responsable informan de las decisiones de diseño, incluidos el ámbito de las características, las barreras de protección, las indicaciones de transparencia y los controles de usuario.

Importante

  • Las evaluaciones de impacto de IA responsables se revisan a medida que evolucionan las características, de modo que las mitigaciones de riesgos sigan siendo adecuadas a medida que las funcionalidades cambian o se expanden.

Revisión de seguridad de datos

En paralelo, Copilot en Viva características de Glint se revisan con respecto a los compromisos establecidos de seguridad y privacidad de datos de Microsoft para Microsoft 365 Copilot.

Estas revisiones validan que las características:

  • Acceda y procese los datos solo dentro de los límites de permisos existentes de Microsoft 365 y Viva Glint del usuario.
  • Respetar el aislamiento de inquilinos, el control de acceso basado en rol y la autorización basada en identidades.
  • Compruebe que las respuestas de encuestas sin procesar, los mensajes, los atributos de usuario encuestados y las salidas generadas por IAno se usan para entrenar los LLM básicos.
  • Proteja los datos mediante tecnologías de cifrado alineadas con los compromisos de seguridad de Microsoft.
  • Alinearse con los compromisos de residencia de datos, límite de datos de la UE y privacidad contractual.

Estos controles están diseñados para ayudar a Copilot en Viva características de Glint a cumplir las expectativas de seguridad, privacidad y cumplimiento de Microsoft antes del lanzamiento. Para obtener más información sobre los principios y estándares de inteligencia artificial responsable de Microsoft, consulte:

¿Cómo Copilot en Viva Glint bloquea el contenido dañino?

Copilot en Viva Glint usa las mismas medidas de seguridad que Microsoft 365 Copilot para ayudar a reducir el riesgo de detectar y bloquear contenido dañino. Estas protecciones se aplican tanto a los mensajes de usuario como a las respuestas generadas por IA.

Filtros de daño de contenido

Microsoft 365 Copilot emplea filtros de daño de contenido que identifican contenido dañino en cuatro categorías:

  • Odio & equidad: lenguaje peyorativo o discriminatorio basado en atributos protegidos
  • Contenido sexual: discusiones inapropiadas de órganos reproductivos, actos eróticos o abuso sexual
  • Violencia: lenguaje relacionado con acciones físicas destinadas a dañar o matar, armas y entidades relacionadas
  • Autolesionarse: Contenido relacionado con acciones deliberadas destinadas a herir o matarse a sí mismo

Filtro de daños en el área de trabajo

Algunos escenarios Microsoft 365 Copilot incluyen mitigaciones para evitar daños en el lugar de trabajo al restringir el uso de IA generativa para realizar inferencias, juicios o evaluaciones sobre los empleados con respecto al rendimiento, la actitud, el estado interno o emocional o las características personales.

Protecciones adicionales

Microsoft 365 Copilot proporciona la detección de materiales protegidos, incluido el texto sujeto a derechos de autor y código sujeto a restricciones de licencia. Para obtener información detallada sobre las protecciones de contenido perjudicial, consulte ¿Cómo bloquea Copilot el contenido dañino?

¿Bloquea Copilot las inserciones de mensajes (ataques de jailbreak)?

Copilot en Viva Glint usa las mismas medidas de seguridad que Microsoft 365 Copilot para ayudar a detectar y bloquear los ataques de inyección y jailbreak. Estas medidas de seguridad funcionan junto con filtros de daño de contenido y mitigaciones de seguridad de modelos integradas como parte de una estrategia de seguridad en capas. Para obtener información detallada, consulte ¿Copilot bloquea las inyecciones de mensajes?

¿Qué ocurre cuando se producen cambios de LLM de base?

Los modelos de inteligencia artificial que potencian Copilot en Viva Glint se actualizan y mejoran periódicamente. Las actualizaciones del modelo proporcionan mejoras de rendimiento, razonamientos más avanzados y funcionalidades ampliadas, pero no cambian la configuración de seguridad, privacidad o cumplimiento. Para obtener más información, consulte Descripción de los cambios del modelo básico en Microsoft 365 Copilot

Administración de cambios y notificación del cliente

Viva Glint sigue el proceso de administración de cambios estándar de Microsoft para notificar a los clientes sobre las actualizaciones. Microsoft proporciona un aviso con al menos 30 días de antelación para los cambios que requieren la acción del administrador.

Canales de comunicación:

  • Centro de mensajes: origen principal para notificaciones de cambios en el Centro de Administración de Microsoft 365
  • Hoja de ruta de Microsoft 365: Sitio web público que muestra el estado de desarrollo y las fechas de lanzamiento
  • Blog de Microsoft 365: Anuncios sobre las últimas versiones y características

Para obtener información completa sobre el proceso de administración de cambios de Microsoft, consulte la guía de cambios de Microsoft 365.

Preguntas frecuentes

¿Dónde se procesan las llamadas LLM para clientes de la UE, no de la UE y de Australia?

  • Para los clientes de la UE: el procesamiento de LLM permanece dentro del límite de datos de la UE. El tráfico de la UE se enruta a centros de datos dentro de la UE, en consonancia con los compromisos de límite de datos de la UE.
  • Para clientes que no son de la UE: las llamadas LLM se enrutan a los centros de datos disponibles más cercanos de la región. Durante períodos de uso elevados, las llamadas se pueden enrutar a otras regiones donde la capacidad está disponible.
  • Para los clientes australianos: los datos de los clientes pueden trasladarse temporalmente fuera de Australia para su procesamiento a través de los servicios básicos de Microsoft 365, pero no residen fuera de Australia durante más de 24 horas.