Nota
O acesso a esta página requer autorização. Pode tentar iniciar sessão ou alterar os diretórios.
O acesso a esta página requer autorização. Pode tentar alterar os diretórios.
Aplica-se a: Dynamics 365 Contact Center — incorporado, Dynamics 365 Contact Center — autónomo e Dynamics 365 Customer Service
Este artigo de FAQ ajuda a responder às questões sobre o uso responsável da IA nas funcionalidades do Copilot no Serviço ao Cliente.
O que é o Copilot no Dynamics 365 Customer Service?
O Copilot é uma ferramenta com tecnologia de IA que transforma a experiência do representante de suporte ao cliente (representante de suporte ou representante) no Dynamics 365 Customer Service. Fornece assistência em tempo real, impulsionada por IA, que ajuda os representantes a resolver questões mais rapidamente, gerir casos de forma mais eficiente e automatizar tarefas rotineiras para que possam focar-se em prestar um serviço ao cliente de alta qualidade.
Quais são as capacidades do sistema?
O Copilot fornece as seguintes funcionalidades principais:
Faça uma pergunta: O primeiro separador que os representantes de serviço veem quando ativam o painel de ajuda do Copilot. É uma interface de conversação com o Copilot, que ajuda a fornecer respostas contextuais às perguntas dos representantes. As respostas do Copilot baseiam-se tanto nas origens de conhecimentos internas como externas fornecidas pela sua organização durante a configuração.
Escreva um email: O segundo separador do painel de ajuda Copilot ajuda os representantes a criar rapidamente respostas por email com base no contexto do caso, reduzindo o tempo que os utilizadores precisam de gastar a criar emails.
Analise o sentimento do email: Deteta se um email do cliente expressa sentimentos positivos, negativos ou neutros. Esta perspetiva ajuda os representantes a compreender o tom e a responder de forma mais eficaz. Esta funcionalidade aplica-se apenas a emails de clientes recebidos e não implica emoções específicas. Não avalia o desempenho dos representantes e não deve ser usado como único input para a gestão do desempenho dos representantes de apoio ao cliente. Qualquer utilização de dados de sentimento para avaliação deve incluir supervisão humana.
Rascunho de uma resposta de chat: permite que os representantes criem uma resposta num único clique à conversação de mensagens digitais em curso a partir de origens de conhecimento configuradas pela sua organização.
Resumir um caso: o Copilot fornece aos representantes um resumo de um caso no formulário do mesmo, para que possam obter rapidamente os detalhes importantes de um caso.
Resumir uma conversa: o Copilot fornece aos representantes um resumo de uma conversa em pontos-chave ao longo do percurso do cliente, como, por exemplo, a transferência de responsabilidades do representante virtual, transferências e mediante solicitação.
Gerar rascunho de conhecimento a partir do caso (pré-visualização): O Copilot gera um rascunho de artigo de conhecimento como proposta, baseado em informações do caso. Os representantes podem rever e refinar o rascunho dando instruções de revisão ao Copilot e depois guardá-lo.
Resume um registo personalizado: Copilot fornece um resumo de um registo utilizando campos configurados por um administrador para a tabela personalizada. Este resumo ajuda os representantes a compreender rapidamente os detalhes chave de um registo de apoio.
Gerar notas de resolução: o Copilot fornece aos representantes um resumo dos detalhes do caso, e-mails e notas associadas ao caso no separador Fazer uma pergunta, para que possam fechar o caso ou incidente mais depressa.
Previsão utilizando seleção ótima de métodos (pré-visualização) orientada por IA: Melhora os cenários de previsão ao recomendar e aplicar de forma inteligente o método mais adequado com base nos inputs do cenário. Os administradores podem optar por aderir durante a configuração e escolher entre a abordagem tradicional e a opção baseada em IA. Os supervisores também podem fazer previsões quando necessário, em vez de esperar pelas execuções programadas, dando às equipas flexibilidade e perceções mais rápidas.
Qual é a utilização pretendida do sistema?
O Copilot no Customer Service destina-se a ajudar os representantes do suporte ao cliente trabalhar de forma mais eficiente e eficaz. Os representantes do suporte ao cliente podem utilizar as respostas baseadas em conhecimentos do Copilot para poupar tempo a procurar artigos de conhecimento e elaborar respostas. Os resumos do Copilot são concebidos para ajudar os representantes a aumentar rapidamente os casos e conversações. O conteúdo gerado pelo Copilot no Customer Service não se destina a ser utilizado sem revisão ou supervisão humana.
Como é que o Copilot é avaliado no Customer Service? Que métricas são usadas para medir o desempenho?
O Copilot no Serviço ao Cliente é avaliado com base em cenários reais de clientes ao longo das fases de conceção, desenvolvimento e lançamento. Utilizando uma combinação de investigação e estudos de impacto empresarial, avaliamos métricas quantitativas e qualitativas para o Copilot, incluindo precisão, utilidade e confiança dos representantes. Mais informações em Relatório de Transparência de IA Responsável.
Quais são as limitações do Copilot no Customer Service? Como é que os utilizadores podem minimizar o impacto das limitações do Copilot?
As capacidades baseadas em conhecimento do Copilot, como fazer uma pergunta, escrever um email e redigir uma resposta por chat, dependem de artigos de conhecimento de alta qualidade e atualizados para se fundamentarem. Sem estes artigos de conhecimento, os utilizadores têm mais probabilidades de encontrar respostas do Copilot que não sejam factuais.
Para reduzir o risco de respostas não factuais, a Microsoft utiliza práticas rigorosas de gestão do conhecimento. Estas práticas ajudam a garantir que o conhecimento empresarial associado ao Copilot se mantém preciso e atualizado.
Que fatores operacionais e definições permitem o uso efetivo e responsável do sistema?
Reveja sempre os resultados do Copilot
O Copilot foi criado com base na tecnologia de Modelo de Linguagem de Grande Escala, que é probabilística na sua essência. Quando lhe é apresentado um segmento de texto de entrada, o modelo calcula a probabilidade de cada palavra nesse texto considerando as palavras anteriores. Em seguida, o modelo escolhe a palavra mais provável de seguir. Contudo, dado que o modelo se baseia em probabilidades, não pode dizer com certeza qual é a palavra correta seguinte. Em vez disso, dá a sua melhor estimativa com base em padrões de probabilidade aprendidos com os seus dados de treino.
O Copilot utiliza uma abordagem denominada "grounding", que envolve a adição de informações suplementares à entrada para contextualizar a saída para a sua organização. Utiliza pesquisa semântica para compreender a entrada e recuperar documentos internos relevantes e resultados públicos confiáveis na web. Depois, orienta o modelo para gerar uma resposta baseada nesse conteúdo. Embora esta abordagem ajude a garantir que as respostas do Copilot estejam alinhadas com os dados organizacionais, deve sempre rever os resultados antes de os utilizar.
Tirar o máximo partido do Copilot
Quando está a interagir com o Copilot, é importante ter em atenção que a estrutura das perguntas pode afetar bastante a resposta do Copilot. Para interagir com o Copilot de forma eficaz, é crucial fazer perguntas claras e específicas, fornecer contexto para ajudar a IA a compreender melhor a sua intenção, fazer uma pergunta de cada vez e evitar termos técnicos para maior clareza e acessibilidade.
Fazer perguntas claras e específicas
A intencionalidade clara é essencial ao fazer perguntas, uma vez que afeta diretamente a qualidade da resposta. Por exemplo, fazer uma pergunta ampla como "Porque é que a máquina de café do cliente não arranca?" é menos provável de dar uma resposta útil comparada com uma pergunta mais específica, como "Que passos posso seguir para determinar porque é que a máquina de café do cliente não está a arrancar?"
No entanto, colocar uma pergunta ainda mais detalhada como "Que passos posso seguir para determinar porque é que uma máquina de café Contoso 900 com uma pressão nominal de 5 bar não está a arrancar?" reduz o âmbito do problema e fornece mais contexto, levando a respostas mais precisas e direcionadas.
Adicionar contexto
A adição de contexto ajuda o sistema de IA de conversação a compreender melhor a intenção do utilizador e a fornecer respostas mais precisas e relevantes. Sem contexto, o sistema poderá compreender mal a pergunta do utilizador ou fornecer respostas genéricas ou irrelevantes.
Por exemplo, "Porque é que a máquina de café não está a arrancar?" resulta numa resposta genérica quando comparada com uma pergunta com mais contexto, como por exemplo: "Recentemente, o cliente iniciou o modo de descalcificação na sua máquina de café e concluiu a descalcificação com sucesso." Até receberam três intermitências da luz de energia no final para confirmar que a descalcificação foi concluída. Por que é que não consegue ligar a máquina de café?"
A adição de contexto da forma exemplificada é importante porque ajuda o Copilot a compreender melhor a intenção do utilizador e a fornecer respostas mais precisas e relevantes.
Evitar termos técnicos, se possível
Recomendamos que evite usar termos e nomes de recursos altamente técnicos quando interagir com o Copilot, pois o sistema pode nem sempre compreendê-los de forma precisa ou adequada. A utilização de uma linguagem natural mais simples ajuda a garantir que o sistema pode compreender corretamente a intenção do utilizador e fornecer respostas claras e úteis.
Por exemplo, podes reformular "O cliente não pode fazer SSH na VM depois de ter alterado a configuração do firewall" para O cliente alterou as regras do firewall na sua máquina virtual. Já não conseguem ligar-se usando Secure Shell (SSH)." Podes ajudar?"
Ao seguir as sugestões, os representantes podem melhorar as suas interações com o Copilot e aumentar a probabilidade de receber respostas precisas e confiantes dele.
Resumir ou expandir uma resposta
Por vezes, a resposta do Copilot pode ser mais longa do que o esperado. Este cenário pode ocorrer quando o representante está numa conversa de chat ao vivo com um cliente e precisa de enviar respostas concisas em comparação com enviar uma resposta por email. Nesses casos, pedir ao Copilot para "resumir a resposta" resulta numa resposta concisa à pergunta. Da mesma forma, se precisar de mais detalhes, pedir ao Copilot para "fornecer mais detalhes" resulta numa resposta mais detalhada à sua pergunta. Se a resposta for truncada, digitar "continue" mostra a parte restante da resposta.
Como posso influenciar as respostas geradas pelo Copilot? Posso afinar o LLM subjacente?
Não é possível personalizar diretamente o LLM (large language model). As respostas do Copilot podem ser influenciadas pela atualização da documentação de origem. O conteúdo de feedback das respostas do Copilot é armazenado. É possível criar relatórios utilizando estes dados para determinar as origens de dados que necessitam de ser atualizadas. Recomendamos que, periodicamente, tenha processos para rever os dados de feedback e garantir que os artigos de conhecimento forneçam a melhor e mais atualizada informação para o Copilot.
Qual é o modelo de segurança de dados do Copilot?
O Copilot impõe os controlos de acesso baseados em funções (RBAC) definidos e cumpre todas as construções de segurança existentes. Portanto, os representantes não podem ver dados a que não têm acesso. Além disso, apenas as fontes de dados a que o representante tem acesso são usadas para a geração de respostas do Copilot.
Como é que o Copilot determina se o conteúdo é ofensivo ou prejudicial?
O Copilot determina se o conteúdo é prejudicial através de um sistema de classificação de gravidade baseado em categorias distintas de conteúdo censurável. Saiba mais nas categorias de Danos na Segurança de conteúdo de IA do Azure.
Onde ocorre o processamento e a recuperação de dados para gerar respostas do Copilot?
O Copilot não utiliza o serviço público OpenAI que alimenta o ChatGPT. Copilot no Serviço ao Cliente utiliza o Microsoft Azure OpenAI Service, alojado num ambiente gerido por Microsoft. Todo o processamento e recuperação de dados ocorre em ambientes geridos pela Microsoft. Os dados dos clientes não são partilhados com modelos públicos nem usados para os treinar.
Quais são as limitações de idioma para resumos que o Copilot gera a partir de casos e conversas?
Muitos idiomas são suportados em resumos de casos e conversas gerados pelo Copilot. Espera-se que a qualidade destes resumos seja a mais elevada em inglês, enquanto nos outros idiomas se espera que a qualidade melhore ao longo do tempo. Obtenha mais informações sobre os idiomas suportados em Suporte a idiomas para caraterísticas do Copilot
O modelo é testado e monitorizado de forma contínua? Em caso afirmativo, com que frequência? Que testes são realizados?
O modelo é testado e monitorizado continuamente. O modelo é avaliado quanto à qualidade e ao conteúdo prejudicial sempre que há uma alteração na versão do modelo ou nas suas interações. Mais informações em Relatório de Transparência de IA Responsável.
Com que frequência é monitorizado o modelo para detetar degradação do desempenho?
O Azure OpenAI aloja e gere o Modelo GPT de IA generativa. Práticas responsáveis de IA e verificações do Conselho de Segurança de Implementação regulam como o modelo é utilizado em cenários de atendimento ao cliente. Quaisquer alterações às versões do modelo ou aos comandos subjacentes são validadas quanto à qualidade e ao conteúdo prejudicial. Mais informações no Relatório de Transparência de IA Responsável.
O produto ou serviço utiliza mais do que um modelo ou um sistema de modelos interdependentes?
Diferentes caraterísticas no sistema podem estar a usar versões diferentes dos modelos do Serviço OpenAI do Azure. Mais informações em Modelos do Serviço OpenAI do Azure.
O Copilot usa um produto ou serviço de modelo que não é da Microsoft e a documentação para este modelo está disponível?
O Copilot foi criado com o OpenAI do Azure, um serviço de IA totalmente gerido que integra o OpenAI com o modelos de filtragem de conteúdo e de deteção de abusos desenvolvidos pela Microsoft. Mais informações em Nota de transparência para OpenAI do Azure.
Existe um processo definido para comunicar quaisquer alterações em modelos, modelos a montante ou saídas usadas por outras soluções de IA/ML ou modelos?
Quaisquer alterações planeadas às caraterísticas do Copilot são comunicadas através de documentação pública. No entanto, processos responsáveis de IA internos regulam as alterações às versões dos modelos e às incitações. Estas mudanças não são comunicadas, pois são melhorias funcionais incrementais e contínuas.
O feedback literal do utilizador está disponível para a Microsoft para melhorar o produto?
Não
A Microsoft tem políticas e procedimentos que definem e diferenciam as várias responsabilidades e funções humanas quando interagem ou monitorizam sistemas de IA?
Sim. No processo de IA responsável, todos os intervenientes e utilizadores envolvidos são considerados, e a sua utilização ou utilização não intencional do sistema é debatido. Com base nos cenários identificados, as mitigações necessárias são introduzidas no produto ou através de documentação. Mais informações em Relatório de Transparência de IA Responsável.
A Microsoft identifica e documenta formas de recolher contributos dos utilizadores finais e partes interessadas para monitorizar potenciais impactos e riscos?
Sim. Mais informações em Relatório de Transparência de IA Responsável.
A Microsoft documenta, pratica e mede planos de resposta a incidentes para incidentes do sistema de IA, incluindo a medição de tempos de resposta e inatividade?
Sim. O processo responsável de IA exige que a equipa tenha um plano de resposta a incidentes para questões de IA, semelhante ao processo para questões funcionais. As equipas de funcionalidades monitorizam ativamente o desempenho e a fiabilidade do sistema. Mais informações em Relatório de Transparência de IA Responsável.
A Microsoft estabelece procedimentos para partilhar informações sobre incidências de erros e impactos negativos com intervenientes, operadores, profissionais, utilizadores e partes relevantes afetadas?
Sim. Para problemas de gravidade elevada, as equipas de funcionalidades devem comunicar a interrupção aos clientes afetados.
A Microsoft mede e monitoriza o desempenho do sistema em tempo real para permitir uma resposta rápida quando um incidente do sistema de IA é detetado?
Sim. As equipas de funcionalidades monitorizam continuamente o desempenho e a fiabilidade do sistema.
A Microsoft testa a qualidade das explicações dos sistemas com os utilizadores finais e outros intervenientes?
Sim. Mais informações em Relatório de Transparência de IA Responsável.
A Microsoft tem políticas e procedimentos para monitorizar e abordar o desempenho, fiabilidade, viés e segurança do modelo ao longo do ciclo de vida do modelo?
Sim. Mais informações em Relatório de Transparência de IA Responsável.
A Microsoft realiza avaliações de equidade para gerir formas computacionais e de estatísticas de desvio?
Sim. Saiba mais no Relatório de Transparência de IA Responsável.
A Microsoft monitoriza as saídas do sistema para verificar a existência de problemas de desempenho ou desvios?
Sim. Os filtros de moderação são aplicados em várias camadas, inclusive na saída, para garantir que não há conteúdo nocivo na resposta. Saiba mais no Relatório de Transparência de Inteligência Artificial Responsável.
Qual é o nível de resiliência na operação do modelo? Por exemplo, existe um plano de recuperação de desastres e contingência para quando o modelo não está disponível?
À semelhança de todos os serviços do Azure, a cópia de segurança e a recuperação são suportados através de vários centros de dados para elevada disponibilidade.
O modelo depende, está embutido em ferramentas ou soluções que não são da Microsoft que dificultam a migração do modelo para outro ambiente (incluindo variáveis como provedor de alojamento, hardware, sistemas de software) que dificultariam a explicabilidade do modelo?
Não
Está estabelecida uma política de governação de modelos?
Sim. O Azure OpenAI suporta uma política de governação estabelecida. Saiba mais no Relatório de Transparência de IA Responsável.
Há protocolos estabelecidos e documentados (autorização, duração, tipo) e controlos de acesso para conjuntos de dados de preparação ou produção que contêm PII de acordo com as políticas de privacidade e governação de dados?
Atualmente, não há treino de modelos, assim, não há nenhum requisito em torno do conjunto de dados. No entanto, quando um representante de apoio ao cliente interage com o Copilot, dependendo da funcionalidade, são usados dados de contexto (caso ou chat) para gerar uma resposta.
As divulgações de PII e a inferência de atributos sensíveis ou legalmente protegidos são monitorizadas?
Sim. É realizada uma revisão de privacidade para todas as funcionalidades.
A Microsoft tem um processo para considerar problemas legais e regulamentares e requisitos específicos para o respetivo setor, propósito comercial e ambiente de aplicação dos sistemas de IA implementados?
Sim. É realizada uma revisão jurídica para cada funcionalidade para ajudar nos requisitos regulamentares e outras questões legais.
Informações relacionadas
Utilizar as funcionalidade do Copilot
Utilizar o Copilot para gerar rascunhos de conhecimentos a partir de incidentes
Disponibilidade regional do Copilot
FAQ sobre a segurança de dados e a privacidade do Copilot no Microsoft Power Platform