Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Microsoft 365 Copilot in Viva Glint ist ein KI-gestütztes Analysetool, das Hr-Benutzern und Organisationsleitern hilft, mitarbeiterfeedback schnell zu verstehen und darauf zu reagieren. Copilot in Viva Glint koordiniert die folgenden Komponenten:
- Von Microsoft gehostete große Sprachmodelle (LLMs), die über Azure OpenAI-Dienst bereitgestellt werden
- Unformatierte Umfrageantworten, einschließlich Kommentaren und Bewertungen
- Fragen zur Umfrage und Programmkonfiguration
- Demografische Filter basierend auf Benutzerberechtigungen
Wichtig
- Unformatierte Umfrageantworten, Eingabeaufforderungen und Benutzerattribute, die von Copilot in Viva Glint verarbeitet werden, werden nicht zum Trainieren grundlegender LLMs verwendet, einschließlich der von Microsoft 365 Copilot verwendeten unformatierten Umfrageantworten, -eingabeaufforderungen und -benutzerattribute.
- Unformatierte Umfrageantworten und in Viva Glint gespeicherte Benutzerattribute werden nicht zum Trainieren von Grundlegenden LLMs verwendet.
- Copilot in Viva Glint respektiert die vorhandenen Datenzugriffsberechtigungen und Vertraulichkeitsschwellenwerte Ihrer organization.
Wer verwendet Copilot in Viva Glint
Copilot in Viva Glint ist für mehrere Organisationsrollen konzipiert:
- Administratoren und Personalverantwortliche: Zusammenfassen großer Datasets, um wichtige Erkenntnisse zu identifizieren und Anfragen von Beteiligten zu unterstützen
- Organisationsleiter: Analysieren von Kommentaren für ihre Teams und Aufdecken von Mustern für mitarbeiterübergreifende Mitarbeiterpopulationen
- Manager: Identifizieren von Themen aus Teamfeedback, um Unterhaltungen und Aktionsplanung zu leiten
Was in diesem Artikel behandelt wird
Dieser Artikel enthält Informationen zu Daten, Datenschutz und Sicherheit für Microsoft 365 Copilot in Viva Glint, einschließlich Antworten auf die folgenden Fragen:
- Was ist die Lizenzanforderung für den Zugriff auf Copilot in Viva Glint?
- Wie funktioniert Copilot in Viva Glint mit Microsoft 365 Copilot in unterschiedlichen Grenzen?
- Wie schützt Copilot in Viva Glint den Datenschutz von Mitarbeiterfeedback?
- Welche Unternehmensdatenschutzmechanismen gelten für Copilot in Viva Glint?
- Wo werden Daten gespeichert und verarbeitet, wenn Copilot in Viva Glint verwendet wird?
- Wie unterstützt Copilot in Viva Glint Kunden bei der Einhaltung gesetzlicher Bestimmungen?
- Wie überprüft Microsoft Copilot in Viva Glint für verantwortungsvolle KI?
- Welche Schutzmechanismen schützen vor schädlichen Inhalten und Prompt Injection-Angriffen?
Lizenzanforderungen
- Für den Zugriff auf Copilot in Viva Glint ist eine Lizenz für Viva Glint, Microsoft Viva Suite oder Microsoft Viva Workplace Analytics and Employee Feedback erforderlich.
- Für den Zugriff auf Copilot in Viva Glint ist keine Lizenz für Microsoft 365 Copilot erforderlich.
Copilot in Viva Glint und Microsoft 365 Copilot
Copilot in Viva Glint arbeitet innerhalb einer dedizierten Datenarchitektur zur Verarbeitung von Mitarbeiterfeedback und Umfragedaten. Dies ist getrennt von den Datenverarbeitungsgrenzen von Microsoft 365 Copilot, die eine angemessene Datenisolation unterstützen.
features von Copilot in Viva Glint
Bei Verwendung Copilot in Viva Glint-Features (z. B. Kommentarzusammenfassung in Copilot in Viva Glint) werden unformatierte Umfrageantworten, Eingabeaufforderungen und Befragte-Benutzerattribute vollständig innerhalb der Microsoft 365-Dienstgrenze verarbeitet. Unformatierte Umfrageantworten, Eingabeaufforderungen und Benutzerattribute der Befragten werden nicht für Microsoft 365 Copilot freigegeben.
Copilot in Viva Glint verwendet von Microsoft gehostete große Sprachmodelle, die über Azure OpenAI-Dienst bereitgestellt werden. Modellanforderungen werden innerhalb der Microsoft 365-Compliancegrenze von Microsoft mithilfe einer von Microsoft verwalteten Infrastruktur verarbeitet.
Wichtig
- Unformatierte Umfrageantworten, Eingabeaufforderungen und Benutzerattribute, die von Copilot in Viva Glint verarbeitet werden, werden nicht zum Trainieren grundlegender LLMs verwendet.
- Unformatierte Umfrageantworten und in der Viva Glint-Datenbank gespeicherte Benutzerattribute werden nicht zum Trainieren von grundlegenden LLMs verwendet.
Wie Copilot in Viva Glint den Datenschutz von Mitarbeiterfeedback schützt
Copilot in Viva Glint respektiert die bestehenden Datenzugriffsberechtigungen und Vertraulichkeitsschutze Ihrer organization. Wenn Copilot Feedback von Mitarbeitern zusammenfasst, wendet es dieselben Datenschutzmechanismen an, die Viva Glint-Berichte und Dashboards schützen.
Datenschutzmechanismen
Viva Glint schützt die Privatsphäre von Umfrageabgängern durch drei Kernmechanismen:
Minimale Antwortschwellenwerte
Umfrageergebnisse werden nur gemeldet, wenn eine Mindestanzahl von Antworten empfangen wird. Der Standardwert ist mindestens 5 Antworten für Bewertungsfragen und 10 Antworten für Kommentare. Organisationen können diese Schwellenwerte pro Umfrageprogramm konfigurieren, um den Datenschutz mit den Berichtsanforderungen in Einklang zu bringen.
Rollenbasierte Zugriffssteuerungen
Copilot in Viva Glint nur Umfrageergebnisse verarbeitet, die der angemeldete Benutzer in Viva Glint anzeigen darf, wie vom Administrator des Kunden konfiguriert. Die Rolle des Benutzers in der Berichtshierarchie bestimmt den Zugriff. Wenn ein Team den mindesten Antwortschwellenwert nicht erfüllt, ist das Copilot in Viva Glint-Feature für den Benutzer entweder nicht verfügbar, oder Copilot in Viva Glint den Benutzer darüber informiert, dass es keine Zusammenfassung der Umfrageantworten bereitstellen kann.
Unterdrückungsschwellenwerte
Selbst wenn mindeste Antwortschwellenwerte erreicht werden, kann Feedback unterdrückt werden, wenn die Filterung nach demografischen Attributen die Identifizierung einzelner Befragten ermöglichen könnte. Die Unterdrückungslogik von Viva Glint stellt sicher, dass beim Vergleichen gefilterter Ergebnisse keine einzelnen Antworten angezeigt werden können.
Wie Copilot Datenschutze anwendet
Wenn Sie Copilot bitten, Feedback zusammenzufassen:
- Copilot kann nur auf unformatierte Umfrageantworten, Kommentare und Bewertungen zugreifen, für die der angemeldete Benutzer die Berechtigung hat, die vom Administrator konfiguriert anzuzeigen.
- Zusammenfassungen beachten die gleichen Vertraulichkeitsschwellenwerte wie Viva Glint berichtet.
- Wenn die Umfrageantworten die Mindestantwortschwellenwerte nicht erfüllen, kann Copilot nicht auf dieses Feedback zugreifen oder diese zusammenfassen.
- Die demografische Filterung in Copilot folgt den gleichen Unterdrückungsregeln wie Viva Glint-Dashboards.
Weitere Informationen finden Sie unter Datenschutz in der Berichterstellung.
Unternehmensdatenschutz
Copilot in Viva Glint folgt den gleichen Datenschutzprinzipien für Unternehmen wie Microsoft Viva und Microsoft 365. Diese Schutzmaßnahmen sind so konzipiert, dass Kundendaten sicher, privat und unter Ihrer Kontrolle bleiben. Weitere Informationen finden Sie unter Viva-Sicherheit.
Copilot in Viva Glint Data Residency
Copilot in Viva Glint folgt den gleichen Datenresidenzverpflichtungen wie Viva Glint für die Speicherung und Verarbeitung von Kundendaten.
Kundendatenspeicher
Kundendaten (einschließlich Umfrageantworten, Kommentare und Benutzerattribute der Befragten) werden basierend auf Ihrem Microsoft 365-Mandantenstandort in einem von drei regionalen Rechenzentren gespeichert. Ausführliche Informationen zur Datenresidenz von Viva Glint finden Sie unter Datenresidenz für Viva Glint.
LLM-Verarbeitung und die EU-Datengrenze
Wenn Copilot in Viva Glint von Microsoft gehostete große Sprachmodelle aufruft, um unformatierte Umfrageantworten, -eingabeaufforderungen und -benutzerattribute zu verarbeiten, wird die Verarbeitung an den Datenresidenzverpflichtungen von Viva Glint für die Region Ihres Mandanten ausgerichtet. Ausführliche Informationen zur Datenresidenz von Viva Glint finden Sie unter Datenresidenz für Viva Glint.
Wie Copilot in Viva Glint die Einhaltung gesetzlicher Bestimmungen unterstützt
Copilot in Viva Glint folgt demselben Sicherheits- und Complianceframework wie Viva Glint. Viva Glint bietet Kontrollen und Schutzmaßnahmen, die Ihrem organization dabei helfen, seine Verpflichtungen aus den geltenden Datenschutzbestimmungen wie der Datenschutz-Grundverordnung (DSGVO) der Europäischen Union zu erfüllen. Ausführliche Informationen finden Sie unter Sicherheit und Compliance für die Datennutzung.
EU-KI-Gesetz
Microsoft bewertet seine Dienste in Übereinstimmung mit den geltenden Klassifizierungen des EU-KI-Gesetzes. Microsoft klassifiziert Copilot in Viva Glint nicht als KI-Lösung mit hohem Risiko gemäß dem KI-Gesetz der EU. Copilot in Viva Glint ist darauf ausgelegt, Mitarbeiterfeedback für Personal- und Organisationsleiter zusammenzufassen und führt keine Funktionen wie das Treffen von Entscheidungen, die sich auf geschäftsbezogene Beziehungen auswirken, die biometrische Identifizierung, das Management kritischer Infrastrukturen oder andere Aktivitäten aus, die es in platzieren würden. die risikoreiche Kategorie im Sinne des EU-KI-Gesetzes. Weitere Informationen zum Ansatz von Microsoft zur Einhaltung des EU-KI-Gesetzes finden Sie unter Innovation im Einklang mit dem EU-KI-Gesetz.
Verantwortungsvolle KI- und Datensicherheitsüberprüfungen für Copilot in Viva Glint
Copilot in Viva Glint-Features basieren auf denselben Grundlagen für Datenschutz, Datenschutz, Sicherheit und verantwortungsvolle KI, die Microsoft 365 Copilot. Um das Vertrauen der Kunden aufrechtzuerhalten und das Risiko von Schäden zu verringern, wird jedes Featurerelease durch die Folgenabschätzung für verantwortungsvolle KI und Prozesse zur Überprüfung der Datensicherheit bewertet, die darauf ausgelegt sind, potenzielle Risiken zu identifizieren, zu bewerten und zu mindern, bevor Features verfügbar gemacht werden.
Diese Überprüfungsprozesse sollen Schäden reduzieren, die durch KI-Systeme in Arbeitsplatzszenarien entstehen können, einschließlich:
- Voreingenommenheit, Unfairness oder diskriminierende Ergebnisse, insbesondere bei personenbezogenen Erkenntnissen und Zusammenfassungen.
- Schäden am Arbeitsplatz, z. B. unangemessene Rückschlüsse oder Urteile über die Leistung der Mitarbeiter, den emotionalen Zustand oder persönliche Merkmale.
- Ungenaue oder irreführende KI-generierte Inhalte , die über vertrauenswürdig oder falsch angewendet werden können.
- Nicht autorisierter Datenzugriff, Offenlegung oder Missbrauch, einschließlich Risiken im Zusammenhang mit Mandantenisolation und Berechtigungsgrenzen.
- Sicherheits- und Datenschutzrisiken , die die Vertraulichkeit, Integrität oder Datenspeicherung von Kundendaten gefährden könnten.
Copilot in Viva Glint wurde entwickelt, um diese Risiken durch einen tiefgehenden Verteidigungsansatz zu minimieren, der verantwortungsvolle KI-Governance, technische Sicherheitsmaßnahmen sowie Sicherheits- und Datenschutzkontrollen kombiniert.
Folgenabschätzung für verantwortungsvolle KI
Copilot in Viva Glint-Features unterliegen der Folgenabschätzung für verantwortungsvolle KI, die an den Prinzipien und Standards der verantwortungsbewussten KI von Microsoft ausgerichtet ist. Diese Bewertungen dienen dazu, zu bewerten, wie sich KI-Funktionen in realen Szenarien auf Benutzer und Organisationen auswirken können, und um potenzielle Schäden frühzeitig im Produktlebenszyklus zu identifizieren.
Wie in Microsoft 365 Copilot Governance beschrieben, berücksichtigen Überprüfungen für verantwortungsvolle KI Folgendes:
- Beabsichtigte Verwendung und Einschränkungen des Features und ob Ausgaben falsch verstanden oder missbraucht werden können.
- Mögliche Voreingenommenheit oder unfaire Behandlung, einschließlich Fairnessschäden.
- Risiko von Schäden am Arbeitsplatz, definiert als KI-Systeme, die Rückschlüsse, Urteile oder Bewertungen über Mitarbeiter basierend auf der Kommunikation am Arbeitsplatz treffen.
- Angemessenheit von Sicherheitsvorkehrungen, z. B. Inhaltsfilterung, Blockieren eingeschränkter Szenarien und Design von Benutzern in der Schleife.
Microsoft schränkt die Verwendung von generativer KI explizit ein, um Rückschlüsse oder Urteile über die Leistung, die Einstellung, den internen Zustand oder persönliche Merkmale der Mitarbeiter zu treffen, und wendet Entschärfungen an, um diese Schäden am Arbeitsplatz zu verhindern.
Die Ergebnisse der Folgenabschätzungen für verantwortungsvolle KI sind die Grundlage für Entwurfsentscheidungen, einschließlich Featureumfang, Schutzmaßnahmen, Transparenzhinweise und Benutzersteuerungen.
Wichtig
- Verantwortungsvolle KI-Folgenabschätzungen werden im Zuge der Weiterentwicklung der Features erneut überprüft, sodass Risikominderungen bei der Änderung oder Erweiterung der Funktionen angemessen bleiben.
Überprüfung der Datensicherheit
Parallel dazu werden Copilot in Viva Glint-Features anhand der von Microsoft festgelegten Datenschutz- und Datenschutzverpflichtungen für Microsoft 365 Copilot überprüft.
Diese Überprüfungen überprüfen, ob Features:
- Zugriff auf und Verarbeitung von Daten nur innerhalb der vorhandenen Microsoft 365- und Viva Glint-Berechtigungsgrenzen des Benutzers.
- Berücksichtigen Sie Mandantenisolation, rollenbasierte Zugriffssteuerung und identitätsbasierte Autorisierung.
- Stellen Sie sicher , dass unformatierte Umfrageantworten, Eingabeaufforderungen, Benutzerattribute der Befragten und KI-generierte Ausgabennicht zum Trainieren von grundlegenden LLMs verwendet werden.
- Schützen Sie Daten mithilfe von Verschlüsselungstechnologien , die den Sicherheitsverpflichtungen von Microsoft entsprechen.
- Übereinstimmung mit Datenresidenz, EU-Datenbegrenzung und vertraglichen Datenschutzverpflichtungen.
Diese Steuerelemente sind so konzipiert, dass Copilot in Viva Glint-Features die Sicherheits-, Datenschutz- und Complianceerwartungen von Microsoft vor der Veröffentlichung erfüllen. Weitere Informationen zu den Prinzipien und Standards für verantwortungsvolle KI von Microsoft finden Sie unter:
Wie blockiert Copilot in Viva Glint schädliche Inhalte?
Copilot in Viva Glint verwendet dieselben Sicherheitsvorkehrungen wie Microsoft 365 Copilot, um das Risiko der Erkennung und Blockierung schädlicher Inhalte zu verringern. Diese Schutzmaßnahmen gelten sowohl für Benutzereingabeaufforderungen als auch für KI-generierte Antworten.
Filter für Inhaltsschäden
Microsoft 365 Copilot verwendet Filter zur Beeinträchtigung von Inhalten, die schädliche Inhalte in vier Kategorien identifizieren:
- Hass & Fairness: Abwertende oder diskriminierende Sprache basierend auf geschützten Attributen
- Sexuelle Inhalte: Unangemessene Diskussionen über Fortpflanzungsorgane, erotische Handlungen oder sexuellen Missbrauch
- Gewalt: Sprache im Zusammenhang mit körperlichen Handlungen, die dazu bestimmt sind, zu schaden oder zu töten, Waffen und verwandte Entitäten
- Selbstverletzung: Inhalte im Zusammenhang mit vorsätzlichen Handlungen, die dazu dienen, sich selbst zu verletzen oder zu töten
Filter für Schäden am Arbeitsplatz
Bestimmte Microsoft 365 Copilot Szenarien umfassen Entschärfungen, um Schäden am Arbeitsplatz zu verhindern, indem die Verwendung von generativer KI daran gehindert wird, Rückschlüsse, Urteile oder Bewertungen über Mitarbeiter in Bezug auf Leistung, Einstellung, internen oder emotionalen Zustand oder persönliche Merkmale zu treffen.
Zusätzliche Schutzfunktionen
Microsoft 365 Copilot ermöglicht die Erkennung geschützter Materialien, einschließlich Texten, die dem Urheberrecht unterliegen, und Code, der Lizenzbeschränkungen unterliegt. Ausführliche Informationen zum Schutz schädlicher Inhalte finden Sie unter Wie blockiert Copilot schädliche Inhalte?
Blockiert Copilot Prompt-Injektionen (Jailbreak-Angriffe)?
Copilot in Viva Glint verwendet dieselben Sicherheitsvorkehrungen wie Microsoft 365 Copilot, um Einschleusungs- und Jailbreakangriffe zu erkennen und zu blockieren. Diese Schutzmaßnahmen funktionieren zusammen mit Filtern für Inhaltsschäden und integrierten Modellsicherheitsminderungen als Teil einer mehrstufigen Sicherheitsstrategie. Ausführliche Informationen finden Sie unter Blockiert Copilot Eingabeaufforderungsinjektionen?
Was geschieht, wenn grundlegende LLM-Änderungen auftreten?
Die KI-Modelle, die Copilot in Viva Glint unterstützen, werden regelmäßig aktualisiert und verbessert. Modellupdates bieten Leistungsverbesserungen, erweitertes Denken und erweiterte Funktionen, ändern jedoch nicht Ihre Sicherheits-, Datenschutz- oder Complianceeinstellungen. Weitere Informationen finden Sie unter Grundlegendes zu Änderungen des Basismodells in Microsoft 365 Copilot
Änderungsmanagement und Kundenbenachrichtigung
Viva Glint folgt dem standardmäßigen Change Management-Prozess von Microsoft, um Kunden über Updates zu informieren. Microsoft informiert sie mindestens 30 Tage im Voraus über Änderungen, die eine Administratoraktion erfordern.
Kommunikationskanäle:
- Nachrichtencenter: Primäre Quelle für Änderungsbenachrichtigungen im Microsoft 365 Admin Center
- Microsoft 365 Roadmap: Öffentliche Website mit Entwicklungs- status und Veröffentlichungsterminen
- Microsoft 365-Blog: Ankündigungen zu den neuesten Releases und Features
Umfassende Informationen zum Change Management-Prozess von Microsoft finden Sie im Microsoft 365-Änderungsleitfaden.
Häufig gestellte Fragen
Wo werden LLM-Anrufe für Kunden aus der EU, Nicht-EU und Australien verarbeitet?
- Für EU-Kunden: Die LLM-Verarbeitung bleibt innerhalb der EU-Datengrenze. Eu-Datenverkehr wird an Rechenzentren innerhalb der EU geleitet, in Übereinstimmung mit den Eu-Datenbegrenzungsverpflichtungen.
- Für Nicht-EU-Kunden: LLM-Anrufe werden an die nächstgelegenen verfügbaren Rechenzentren in der Region weitergeleitet. Während Zeiten mit hoher Auslastung können Anrufe an andere Regionen weitergeleitet werden, in denen Kapazität verfügbar ist.
- Für australische Kunden: Kundendaten können vorübergehend außerhalb Australiens zur Verarbeitung über Microsoft 365 Core Services verschoben werden, befinden sich aber nicht länger als 24 Stunden außerhalb Australiens.