애플리케이션 또는 플랫폼 카드 무엇인가요?
Microsoft의 애플리케이션 및 플랫폼 카드는 AI 기술의 작동 방식, 애플리케이션 소유자가 애플리케이션 성능 및 동작에 영향을 줄 수 있는 선택 사항, 기술, 사용자 및 환경을 비롯한 전체 애플리케이션을 고려하는 것의 중요성을 이해하는 데 도움을 주기 위한 것입니다. 애플리케이션 카드는 AI 애플리케이션용으로 만들어지고 플랫폼 카드는 AI 플랫폼 서비스를 위해 만들어집니다. 이러한 리소스는 자체 애플리케이션의 개발 또는 배포를 지원할 수 있으며 영향을 받는 사용자 또는 이해 관계자와 공유할 수 있습니다.
책임 있는 AI에 대한 노력의 일환으로 Microsoft는 공정성, 안정성 및 안전, 개인 정보 보호 및 보안, 포용성, 투명성 및 책임의 6가지 핵심 원칙을 준수합니다. 이러한 원칙은 책임 있는 AI Standard 포함되며, 이는 AI 애플리케이션을 설계, 빌드 및 테스트하는 팀을 안내합니다. 애플리케이션 및 플랫폼 카드는 기능, 의도된 사용 및 제한 사항에 대한 투명성을 제공하여 이러한 원칙을 운영하는 데 핵심적인 역할을 합니다. 추가 인사이트를 위해 독자는 Microsoft의 책임 있는 AI 투명성 보고서를 살펴보는 것이 좋습니다. 고객은 책임 있게 AI에 참여하는 방법을 간략하게 설명하는 조직의 Microsoft Enterprise AI 서비스 행동 강령 을 준수하여 서비스를 사용해야 합니다.
개요
Copilot Studio는 조직이 AI 기반 에이전트를 빌드, 사용자 지정 및 배포하여 작업을 자동화하고, 질문에 답변하고, 비즈니스 프로세스를 간소화할 수 있는 플랫폼입니다. 비즈니스 분석가 및 IT 전문가부터 개발자에 이르기까지 다양한 사용자가 고급 인공 지능에 액세스할 수 있도록 하는 것이 목적입니다. 대화형 에이전트를 만들고 웹 사이트, Microsoft Teams 및 기타 채널에 통합하기 위한 직관적인 도구를 제공하여 반복적인 수동 작업, 고객 지원 자동화 및 데이터 기반 의사 결정과 같은 일반적인 문제를 해결하는 데 도움이 됩니다. 효율성 향상, 향상된 사용자 환경 및 확장 가능한 자동화와 같은 이점을 제공합니다.
이 플랫폼은 심층 코딩 전문 지식 없이 생성 AI를 활용하려는 엔터프라이즈 고객, 솔루션 개발자 및 IT 팀을 위해 설계되었습니다. 의도된 사용자에는 워크플로를 자동화하거나, 고객 참여를 강화하거나, 셀프 서비스 지원을 제공하려는 조직이 포함됩니다. Copilot Studio는 사용자가 자연어 지침을 사용하거나 사용자 지정 도구 및 커넥터를 사용하여 기능을 확장하여 에이전트를 만들 수 있도록 낮은 코드 및 프로 코드 접근 방식을 모두 지원합니다. 이러한 유연성은 금융 및 의료에서 교육 및 소매에 이르기까지 다양한 산업에 적합합니다.
핵심 용어
다음 표에서는 Microsoft Copilot Studio 관련된 주요 용어를 정의합니다.
| 기말 | 설명 |
|---|---|
| Agent | 구성된 지침, 도구 및 데이터 원본을 사용하여 질문에 대답하거나, 조치를 취하거나, 비즈니스 프로세스를 자동화할 수 있는 Copilot Studio에서 만든 AI 기반 대화형 또는 자율 구성 요소입니다. |
| 에이전트 조율 | Copilot Studio에서 에이전트 작업, 도구 및 하위 에이전트를 계획, 라우팅 및 조정하여 사용자 요청 또는 작업을 수행하는 프로세스입니다. |
| 사용자 프롬프트 | 사용자가 일반적으로 자연어로 대화 또는 작업을 시작하는 에이전트에 제공하는 입력입니다. |
| 접지 | 에이전트 응답이 컨텍스트적으로 정확하고 조직 정보에 맞게 조정되도록 관련 엔터프라이즈 또는 외부 데이터를 모델에 제공하는 프로세스입니다. |
| 지식 출처 | Microsoft Graph 데이터, Dataverse, 업로드된 문서 또는 외부 시스템과 같이 에이전트에 연결된 데이터 원본으로, 응답을 접지하는 데 사용할 수 있습니다. |
| 도구 | API 호출, Power Automate 흐름 실행 또는 시스템 쿼리와 같이 에이전트가 텍스트 생성 이외의 작업을 수행하는 데 사용하는 호출 가능한 기능입니다. |
| Connector | Copilot Studio 에이전트가 외부 서비스 또는 엔터프라이즈 시스템에 액세스할 수 있도록 하는 미리 빌드된 또는 사용자 지정 통합입니다. |
| 생성적 인공지능 | 에이전트가 큰 언어 모델 및 제공된 컨텍스트를 기반으로 텍스트, 요약, 계획 또는 결정을 생성할 수 있도록 하는 AI 기술입니다. |
| LLM(큰 언어 모델) | Copilot Studio 에이전트 내에서 자연어 이해 및 생성을 가능하게 하는 대규모 데이터 세트에 대해 학습된 기계 학습 모델입니다. |
| 1P 모델 | Microsoft가 학습하는 기본 모델(모든 Microsoft 팀에서 완료한 사전 교육 및 초기 미세 조정). |
| 3P 모델 | Microsoft가 학습하지 않는 기본 모델(사전 학습 및 초기 미세 조정은 Microsoft 이외의 당사자가 완료). |
| Copilot 크레딧 | 에이전트 상호 작용 및 도구 실행을 포함하여 Copilot Studio 기능의 소비를 측정하는 사용량 기반 통화입니다. |
| 채널 | Microsoft Teams, 웹 사이트 또는 Microsoft 365 Copilot 같은 에이전트를 배포하고 사용하는 표면입니다. |
| 평가 | 미리 정의되거나 사용자 지정 테스트 방법을 사용하여 에이전트 품질, 성능, 안전성 및 안정성을 평가하는 프로세스입니다. |
| 책임 있는 AI | Microsoft의 정책, 연구 및 엔지니어링 사례는 AI 원칙에 기반을 두고 책임 있는 AI 표준을 통해 운영됩니다. |
주요 기능 또는 역량
아래의 주요 기능과 기능은 Copilot Studio가 수행하도록 디자인된 작업과 지원되는 작업에서 수행하는 방법에 대해 설명합니다.
| 특징 | 설명 |
|---|---|
| 에이전트 만들기 및 사용자 지정 | Copilot Studio를 사용하면 사용자가 작업을 자동화하거나 질문에 대답하는 AI 기반 에이전트("부조종사"라고도 함)를 빌드할 수 있습니다. 이러한 에이전트는 조직의 어조, 워크플로 및 비즈니스 규칙을 반영하도록 조정할 수 있습니다. |
| 낮은 코드 및 프로 코드 유연성 | 사용자는 직관적이고 낮은 코드 도구로 시작하고 나중에 API, 사용자 지정 커넥터 및 스크립트를 사용하여 기능을 확장할 수 있습니다. 이러한 유연성을 통해 개발자에게 깊이를 제공하면서 비즈니스 사용자가 플랫폼에 액세스할 수 있습니다. 자세한 내용은 자연어 환경에서 에이전트를 만드는 데 |
| Microsoft 에코시스템과 통합 | Copilot Studio는 Teams, Power Platform 및 Microsoft Graph 같은 Microsoft 서비스와 원활하게 작동합니다. 에이전트는 조직 데이터에 안전하게 액세스하고 컨텍스트 인식 응답을 제공할 수 있습니다. |
| 외부 원본에 연결 | microsoft 서비스 외에도 Copilot Studio는 타사 시스템에 대한 커넥터 및 API를 지원합니다. 이 기능을 사용하면 에이전트가 다양한 원본에서 데이터를 끌어올 수 있으므로 여러 비즈니스 프로세스에서 유용하게 사용할 수 있습니다. |
| 트리거 및 작업(자율 에이전트) | 에이전트는 새 레코드 또는 고객 문의와 같은 이벤트에 응답하고 작업을 자동으로 실행할 수 있습니다. 이 이벤트 기반 디자인은 수동 작업을 줄이고 엔드 투 엔드 자동화를 가능하게 합니다. 자세한 내용은 생성 오케스트레이션 사용에 대한 FAQ를 참조하세요. |
| 계획 및 적응성 | 에이전트는 다단계 워크플로를 계획하고 입력 또는 조건 변경에 따라 작업을 조정할 수 있습니다. 이러한 적응성은 미리 정의된 엄격한 작업이 아닌 동적 비즈니스 시나리오를 처리하는 데 도움이 됩니다. 자세한 내용은 생성 오케스트레이션을 사용하기 위한 FAQ, 프롬프트에 대한 FAQ 및 생성 답변에 대한 FAQ를 참조하세요. |
| 상황별 응답에 대한 메모리 | Copilot Studio 에이전트는 이전 상호 작용의 컨텍스트를 유지할 수 있으므로 일관되고 개인 설정된 답변을 제공하고 대화 간에 연속성을 유지할 수 있습니다. |
| 확장성 | 개발자는 사용자 지정 플러그 인, 커넥터 및 고급 논리를 사용하여 에이전트를 향상시킬 수 있습니다. 이러한 확장성을 통해 플랫폼이 특수하거나 복잡한 요구 사항을 충족하도록 확장할 수 있습니다. |
| 다중 채널 배포 | 사용자가 어디서나 상호 작용할 수 있도록 웹 사이트, Teams 및 기타 앱에 에이전트를 배포합니다. |
| 책임 있는 AI 및 안전 기능 | 기본 제공 개인 정보 보호, 보안 및 규정 준수 검사는 Microsoft의 책임 있는 AI 원칙에 부합하여 조직이 에이전트를 안전하고 윤리적으로 배포할 수 있도록 지원합니다. AI 기반 기능을 책임감 있게 사용하는 방법에 대한 자세한 내용은 사용 가능한 AI FAQ 및 Copilot Studio 보안 FAQ를 참조하세요. |
의도한 용도
Copilot Studio는 다양한 산업의 여러 시나리오에서 사용할 수 있습니다. 사용 사례의 몇 가지 예는 다음과 같습니다.
- 고객 지원 자동화: 소매 회사는 일반적인 고객 질문에 답변하고, 주문을 추적하고, 웹 사이트 또는 채팅을 통해 반환을 처리하는 에이전트를 만들 수 있습니다. 이 방법은 대기 시간을 줄이고 인간 에이전트가 복잡한 문제를 처리할 수 있게 하여 고객 만족도와 운영 효율성을 향상시킵니다.
- 정부의 직원 셀프 서비스: 정부 기관은 직원이 HR 정책을 찾고, 휴가 요청을 제출하고, 규정 준수 지침을 확인할 수 있도록 내부 에이전트를 배포할 수 있습니다. 기관은 일상적인 문의를 자동화하여 시간을 절약하고 직원들이 정확한 정보에 빠르게 액세스할 수 있도록 합니다.
- Financial Services 워크플로 자동화: 은행은 Copilot Studio를 사용하여 들어오는 쿼리 및 애플리케이션에 대한 업데이트를 모니터링하고 제공하는 에이전트를 빌드할 수 있습니다. 이 방법은 처리 속도를 높이고 수동 오류를 줄이며 고객의 투명성을 향상시킵니다.
- 교육 및 학생 지원: 대학은 과정 등록을 통해 학생들을 안내하고, 마감일에 대한 질문에 답변하고, 학습 리소스에 대한 링크를 제공하는 에이전트를 만들 수 있습니다. 이 방법은 학생들이 관리 작업을 쉽게 탐색하고 교직원의 워크로드를 줄이는 데 도움이 됩니다.
- 미디어 콘텐츠 관리: 미디어 회사는 여러 원본에서 메타데이터를 끌어와 자산을 구성하고 아티클에 대한 관련 태그를 제안하여 편집기를 지원하기 위해 에이전트를 배포할 수 있습니다. 이 방법은 게시 워크플로를 가속화하고 플랫폼 간에 일관성을 보장합니다.
- 소비재 재고 경고: 제조업체는 인벤토리 수준을 모니터링하고 임계값에 도달하면 재입고 작업을 자동으로 트리거하는 에이전트를 설정할 수 있습니다. 이 사전 대응 방식은 재고를 방지하고 공급망이 원활하게 실행되도록 유지합니다.
에이전트 범위: 이러한 에이전트는 일반적으로 도메인 내에서 정의된 작업 (예: HR 문의, 대출 처리 또는 학생 지원)을 위해 작성됩니다. 여러 관련 작업을 처리할 수 있지만 조직에서 설정한 경계 내에서 작동하여 제어 및 규정 준수를 유지합니다.
모델 및 학습 데이터
Copilot Studio는 다양한 AI 모델을 활용하여 사용자에게 표시되는 환경을 제공합니다. 몇 가지 예로는 Azure OpenAI Service, 안트로픽의 클로드 소네트 4 및 xAI의 Grok 4.1 Fast에서 제공하는 OpenAI의 GPT-5 시리즈가 있습니다.
Microsoft는 고객 데이터를 사용하여 기초 모델을 학습시키지 않습니다. 타사에서 개발 및 학습한 모델의 경우 에이전트에 대한 기본 모델 선택에서 자세한 정보를 찾을 수 있습니다.
Performance
Copilot Studio는 에이전트가 대화형 상호 작용 및 자동화된 작업 처리하는 엔터프라이즈 환경에서 안정적으로 작동하도록 설계되었습니다. 에이전트는 질문에 답변하고, 지침을 제공하고, 레코드 업데이트, 알림 보내기 또는 다중 단계 비즈니스 프로세스 오케스트레이션과 같은 이벤트에 의해 트리거되는 워크플로를 실행할 수 있습니다. 실시간 지원과 백그라운드 자동화의 조합으로 Copilot Studio는 다양한 비즈니스 시나리오에 적합합니다.
지원되는 형식
입력: 연결된 시스템(예: 데이터베이스의 새 항목 또는 양식 제출)의 사용자 및 이벤트 기반 트리거에서 텍스트 프롬프트가 표시됩니다.
출력: 대화형 시나리오 및 작업 만들기, 데이터 업데이트 또는 워크플로 시작과 같은 자동화된 작업에 대한 텍스트 응답입니다.
다국어 기능
- 구성에 따라 추가 언어를 지원하여 영어에 최적화되었습니다. 대화 정확도는 영어로 가장 높지만 자동화 기능은 구조화된 트리거 및 작업에 의존하기 때문에 언어 독립적입니다.
신뢰할 수 있는 작업에 대한 조건
에이전트는 프롬프트가 명확하고 데이터 원본 및 시스템에 대한 커넥터가 제대로 구성된 경우 가장 잘 수행됩니다.
안전하고 일관된 성능을 위해서는 안정적인 연결과 조직 데이터 정책 준수가 필수적입니다.
외부 시스템을 사용할 수 없거나 지원되지 않는 언어가 대화 작업에 사용되는 경우 성능이 저하될 수 있습니다.
안전성 및 안정성
- 기본 제공 책임 AI 검사는 대화형 워크플로와 자동화된 워크플로 모두에 대한 개인 정보 보호, 보안 및 규정 준수를 보장합니다. 이러한 보호 기능은 조직이 시나리오 전반에 걸쳐 자신 있게 에이전트를 배포하는 데 도움이 됩니다.
제한점
Copilot Studio의 제한 사항을 이해하는 것은 안전하고 효과적인 경계 내에서 사용되는지 확인하는 데 중요합니다. 고객이 혁신적인 솔루션 또는 애플리케이션에서 Copilot Studio를 활용하는 것이 좋지만 Copilot Studio는 가능한 모든 시나리오에 맞게 설계되지 않았다는 점에 유의해야 합니다. 사용자가 Microsoft Enterprise AI Services 행동 강령 (조직용) 또는 Microsoft 서비스 계약 (개인용)의 코드 행동 섹션과 사용 사례를 선택할 때 다음과 같은 고려 사항을 참조하는 것이 좋습니다.
인테그레이션 및 호환성: Copilot Studio는 Microsoft 서비스와 통합되고 외부 시스템에 대한 커넥터를 지원하지만 타사 앱 또는 고도로 사용자 지정된 환경에는 제한이 있을 수 있습니다. 고급 자동화 시나리오에는 추가 개발이 필요하거나 완전히 지원되지 않을 수 있습니다.
구성 및 유연성: Copilot Studio는 낮은 코드 및 프로 코드 옵션을 제공하지만 사용자 지정에는 경계가 있습니다. 일부 워크플로 또는 응답은 특히 규제된 도메인에서 고유한 조직 요구 사항과 완전히 일치하지 않거나 엄격할 수 있습니다.
연결 및 데이터 액세스에 대한 의존성: 에이전트는 안정적인 인터넷 연결과 구성된 데이터 원본에 대한 액세스를 사용합니다. 연결이 중단되거나 외부 API 및 커넥터가 변경되면 성능에 영향을 주거나 워크플로가 실패할 수 있습니다.
사용자 교육 및 채택: 효과적인 사용을 위해서는 사용자가 기능과 제한 사항을 모두 이해해야 합니다. 학습 곡선이 있을 수 있으며 사용자는 자동화된 작업을 검토하여 정확도를 확인해야 합니다.
리소스 강도: 고급 AI 모델 및 자동화를 실행하려면 상당한 계산 리소스가 필요할 수 있습니다. 성능은 리소스가 제한된 환경이나 사용량이 많은 경우에 영향을 받을 수 있습니다.
바이어스, 스테레오티핑 및 비그라운드 콘텐츠: 책임 있는 AI 제어에도 불구하고 AI에서 생성된 콘텐츠는 여전히 편견, 스테레오타입 또는 비그라운드 정보를 반영할 수 있습니다. 사용자는 특히 중요하거나 중요한 시나리오에서 항상 응답 및 작업을 검토해야 합니다.
Multilingual 지원: Copilot Studio 기능은 더티플 언어 지원합니다. Copilot Studio는 주로 영어로 개발 및 테스트되었습니다. 지원되지 않는 언어를 사용하면 성능에 영향을 미칠 수 있으며, 사용자는 의도한 언어 범위 외부에서 작업할 때 주의를 기울여야 합니다.
평가
성능 및 안전 평가를 통해 AI 시스템은 근거, 관련성 및 일관성과 같은 요인을 평가하고 유해한 콘텐츠를 생성할 위험을 식별하여 안정적이고 안전하게 작동할 수 있습니다. 아래의 "안전 구성 요소 및 완화" 섹션에 설명된 안전 구성 요소가 이미 있는 상태에서 다음 평가가 수행되었습니다.
성능 및 품질 평가
AI 애플리케이션에 대한 성능 평가는 실제 애플리케이션에서 안정성을 향상시키는 데 필수적입니다. 근거, 관련성 및 일관성과 같은 메트릭은 AI 생성 출력의 정확도와 일관성을 평가하여 접지된 콘텐츠 시나리오에서 실제로 지원되고, 상황에 맞는 논리적 구조로 지원됩니다. Copilot Studio의 경우 Microsoft Foundry 통해 사용할 수 있는 다음 메트릭에 대해 사용성 평가 실시했습니다.
근거성
Coherence
유창성
유사성
위험 및 안전 평가
다양한 심각도의 콘텐츠 위험으로부터 보호하기 위해 AI 생성 콘텐츠와 관련된 잠재적 위험을 평가하는 것이 필수적입니다. 여기에는 유해한 콘텐츠를 생성하거나 탈옥 공격에 대한 취약성을 테스트하기 위한 AI 애플리케이션의 소인을 평가하는 것이 포함됩니다. Copilot Studio의 경우 Microsoft Foundry>를 통해 사용할 수 있는 다음 메트릭에 대해 위험 및 safety 평가를 수행했습니다.
증오와 불공평
Sexual
폭력
자해
보호 재질
간접 탈옥
직접 탈옥
코드 취약성
기반 없는 특성
위험 및 안전 평가 방법
Copilot Studio는 텍스트 기반 상호 작용만 평가하며, 모든 내부 테스트는 자동화된 파이프라인 및 LLM 기반 심사위원을 사용하여 품질, 안전성 및 접지를 측정하여 시스템이 텍스트 입력을 처리하고 텍스트 출력을 생성하는 방법에 중점을 둡니다. 이러한 평가는 오프라인 파이프라인에서 재생되고 온라인 섀도 및 A/B 테스트에서 유효성을 검사하는 큐레이팅 또는 합성 텍스트 데이터 세트를 사용하며, 모든 응답은 Copilot Studio의 평가 설명서에 설명된 판사 기준에 따라 관련성, 접지성, 완전성 및 적절한 기권에 대해 점수를 매깁니다.
이 시스템은 또한 증오와 불공정, 성적 콘텐츠, 폭력, 자해, 보호 된 자료, 탈옥 시도, 코드 관련 피해 및 비경지 특성을 확인하는 자동화 된 안전 평가자를 적용합니다. 이러한 범주는 Copilot Studio의 내부 안전 평가 프레임워크에 명시적으로 나열됩니다. 이상적인 평가 결과는 응답이 정확하고, 제공된 지식에 완전히 기반을 두고, 9가지 피해 범주에서 완전하고 안전하며, 이전 모델 버전과 비교할 때 작업 성공 또는 품질에 회귀를 보이지 않는 결과입니다. 제품 팀 워크플로에 사용되는 평가 대시보드 및 분석은 이러한 결과를 측정합니다. 최적이 되지 않은 결과는 응답이 관련이 없거나 불완전하거나 환각되는 결과입니다. 여기에는 안전하지 않은 콘텐츠, 도구 오용, 근거 검사 실패 또는 기준과 비교하여 품질 또는 대기 시간에 대한 회귀가 포함됩니다. 이러한 모든 신호는 Copilot Studio의 평가 보고서 및 품질 점수 매기기 기능에서 실패 모드로 식별됩니다.
품질 및 안전을 위한 평가 데이터
평가 데이터는 안전 및 품질의 주요 영역에서 AI 시스템 성능을 평가하여 실제 시나리오 및 위험을 시뮬레이션하기 위해 사용자 지정으로 작성되었습니다. 우리는 다학제 연구 및 전문가 입력을 기반으로 우려의 관련 평가 측면을 식별하는 것으로 시작합니다. 이러한 문제를 평가 메트릭의 공식을 안내하는 대상 평가 목표로 변환합니다.
안전을 위해 바람직하지 않거나 에지 케이스 응답을 유도하는 악의적인 프롬프트를 만듭니다. Microsoft의 안전 표준과 일치하는지 평가하도록 학습된 AI 지원 주석은 이러한 응답의 점수를 매깁니다. 품질을 위해 RAG(검색 보강 세대) 애플리케이션 및 에이전트 평가와 같은 시나리오와 관련된 루브릭 기반 프롬프트를 만듭니다. 가상 및 공용 데이터 세트를 비롯한 다양한 원본의 데이터 세트를 큐레이팅하여 실제 사용자 시나리오를 시뮬레이션합니다.
큐레이팅된 데이터 세트를 사용하여 두 평가 모두 반복적인 구체화와 인적 맞춤을 거쳐 메트릭 효능과 안정성을 향상시킵니다. 이 방법론은 고객이 평가를 사용하여 더 안전하고 안전한 AI를 구축하는 방법을 반영하는 반복적이고 엄격한 평가의 기초를 형성합니다.
안전 구성 요소 및 완화
Microsoft는 평가 및 테스트를 통해 잠재적인 위험 및 오용을 식별하면서 피해를 줄이고 안정성을 개선하기 위한 완화를 구현합니다. Copilot Studio는 보안, 공정성 및 보안을 핵심으로 구축되었으며 기술 및 사용자 요구가 진화함에 따라 이러한 안전 장치를 지속적으로 모니터링하고 업데이트합니다. 다음은 조직이 책임감 있게 에이전트를 배포할 수 있도록 설계된 주요 구성 요소 및 조치입니다.
책임 있는 AI 검사: 모든 상호 작용은 Microsoft의 책임 있는 AI 원칙에 부합하는 개인 정보, 보안 및 규정 준수 검사를 거칩니다. 여기에는 유해한 콘텐츠를 감지하는 AI 기반 분류자와 안전하고 윤리적인 출력으로 모델 동작을 안내하는 메타프로핑이 포함됩니다.
신뢰할 수 있는 데이터 접지: 응답 및 작업은 사용자가 액세스할 수 있는 권한이 있는 조직 데이터 원본에 고정됩니다. 이렇게 하면 비경지 콘텐츠 또는 조작된 콘텐츠의 위험을 줄이고 출력이 관련성이 있고 검증 가능한지 확인합니다.
콘텐츠 안전 필터: 기본 제공 분류자는 증오 발언, 폭력, 성적 콘텐츠 또는 저작권이 있는 자료와 같은 잠재적으로 유해한 콘텐츠에 플래그를 지정합니다. 플래그가 지정되면 시스템에서 응답을 차단하거나 사용자를 더 안전한 대안으로 리디렉션할 수 있습니다.
프롬프트 보강 및 가드레일: 잘못된 해석을 줄이기 위해 모호한 프롬프트가 구체화됩니다. 가드레일은 에이전트가 정의된 범위 밖에서 작업을 실행하지 못하도록 하여 의도하지 않은 결과를 최소화합니다.
사용자 감독 지침: 사용자는 높은 지분 시나리오에서 적용하기 전에 AI 생성 출력 및 자동화된 작업을 검토하는 것이 좋습니다. 이 사례는 과잉 의존의 위험을 완화하고 책임을 보장합니다.
사이버 보안 조치: 데이터는 전송 중 및 미사용 시 암호화됩니다. Copilot Studio는 Microsoft의 엔터프라이즈급 보안 표준을 준수합니다. 보호에는 역할 기반 액세스 제어, 보안 API 통합 및 지속적인 취약성 검사가 포함되어 삽입 공격 또는 무단 액세스와 같은 위협으로부터 보호합니다.
지속적인 모니터링 및 피드백: 조직은 에이전트 성능을 모니터링하고 관리 대시보드를 통해 피드백을 제출할 수 있습니다. 피드백은 Microsoft가 안전 기능을 개선하고 새로운 위험을 해결하는 데 도움이 됩니다. 피드백을 제공하는 방법을 알아봅니다.
특정 모델은 유해한 콘텐츠를 생성할 위험이 더 높습니다. 예를 들어 실험적 및 미리 보기 모델은 프로덕션에 권장되지 않으며 고객은 배포하기 전에 자체 평가를 수행해야 합니다. 에이전트에 대한 기본 모델 선택을 참조하세요.
Copilot Studio 통합 및 배포 모범 사례
책임 있는 AI는 Microsoft와 고객 간의 공유된 약속입니다. Microsoft는 안전성, 공정성 및 투명성을 핵심으로 AI 시스템을 구축하지만 고객은 자체 컨텍스트 내에서 이러한 기술을 책임감 있게 배포하고 사용하는 데 중요한 역할을 합니다. 이 파트너십을 지원하기 위해 고객이 책임 있는 AI를 효과적으로 구현할 수 있도록 배포자와 최종 사용자를 위한 다음과 같은 모범 사례를 제공합니다.
배포자 및 최종 사용자는 다음을 수행해야 합니다.
중요한 도메인에서 에이전트 AI를 디자인할 때 주의해야 합니다. 사용자는 에이전트 작업이 돌이킬 수 없거나 매우 결과적인 중요한 도메인에 에이전트 AI 애플리케이션을 디자인 및/또는 배포할 때 주의를 기울여야 합니다. 배포자 및 최종 사용자는 조직을 위한 Microsoft Enterprise AI Services 행동 강령의 요구 사항을 준수해야 합니다.
법률 및 규제 고려 사항 평가: 고객은 모든 산업 또는 시나리오에서 사용하기에 적합하지 않을 수 있는 AI 서비스 및 솔루션을 사용할 때 잠재적인 특정 법률 및 규제 의무를 평가해야 합니다. 또한 AI 서비스 또는 솔루션은 서비스 및 행동 강령에서 금지된 방식으로 설계되지 않았으며 사용할 수 없습니다. 사용자는 주의를 기울이고 관련 법률, 규정 및 조직을 위한 Microsoft의 엔터프라이즈 행동 강령 을 준수해야 합니다. 자세한 지침은 Copilot Studio 통합 및 배포 모범 사례에 대한 섹션 10을 참조하세요.
최종 사용자는 다음을 수행해야 합니다.
명확한 목표 정의:
에이전트가 해결하는 특정 비즈니스 문제를 식별합니다. 반드시 필요한 경우가 아니면 "범용" 에이전트를 사용하지 마세요. 포커스가 있는 에이전트는 더 안전하고 쉽게 유지 관리할 수 있습니다. 예를 들어 청구서의 정보를 해석하고 기록하는 에이전트는 청구서에서 데이터를 구성하는 특정 비즈니스 문제를 해결합니다.
범위 및 경계를 문서화합니다. 에이전트가 수행해야 하는 작업과 수행해서는 안 되는 작업입니다.
트리거 및 작업 매핑:
이벤트 기반 논리 디자인: 에이전트를 트리거하는 항목(예: 새 레코드, 사용자 쿼리) 및 에이전트가 수행하는 작업
일반 시스템에 미리 정의된 커넥터를 사용하고 외부 통합에 대한 API 권한의 유효성을 검사합니다.
데이터 또는 연결을 사용할 수 없는 시나리오에 대한 대체 작업을 포함합니다.
가드레일 통합:
재무 거래 또는 HR 변경과 같은 영향력이 큰 작업에 대한 승인 단계를 구현합니다.
가능한 경우 자동화를 되돌릴 수 있는 작업으로 제한합니다.
에이전트가 권한 있는 경계 내에서만 작동할 수 있도록 역할 기반 액세스 제어를 구성합니다.
특히 금융, 의료 또는 법률 서비스와 같은 중요한 도메인에서 에이전트 작업에 대한 명확한 경계를 정의합니다. 높은 영향을 미치는 작업에 승인 워크플로를 사용합니다.
신뢰할 수 있는 데이터의 기초 응답:
보안 API 및 Microsoft Graph 커넥터를 통해 관련 외부 시스템(예: Microsoft Graph, CRM, ERP)을 연결하여 에이전트 정확도를 향상시킵니다.
중요한 결정을 위해 모델 생성 콘텐츠에만 의존하지 마세요. 항상 검증 가능한 데이터에서 출력을 접지합니다.
에이전트가 조직 정책을 준수하는 데이터 원본에만 액세스하도록 합니다. 역할 기반 액세스 제어를 적용하고 사용 권한을 정기적으로 모니터링합니다.
적응성 및 확장성을 위한 디자인:
에이전트가 워크플로의 변형을 처리할 수 있도록 조건부 논리를 사용합니다.
전체 에이전트를 다시 디자인하지 않고도 업데이트할 수 있는 모듈식 구성 요소를 빌드합니다.
철저하게 테스트:
배포하기 전에 샌드박스 환경에서 에이전트의 유효성을 검사합니다.
다양한 조건에서 안정성을 보장하기 위해 에지 케이스 및 스트레스 테스트를 포함합니다.
실제 시나리오를 시뮬레이션하여 의도하지 않은 동작을 확인합니다.
모니터링 및 반복:
대시보드를 사용하여 에이전트 성능, 채택 및 오류 비율을 추적합니다. 정기적인 모니터링은 성능 드리프트를 감지하고 안정성을 유지하는 데 도움이 됩니다.
사용자 및 관련자로부터 정기적으로 피드백을 수집합니다.
비즈니스 프로세스가 발전하거나 새 커넥터를 사용할 수 있게 되면 에이전트를 업데이트합니다.
책임 있는 AI 원칙 적용:
응답 및 행동의 편견과 공정성을 검토합니다.
Microsoft의 AI 행동 강령 및 조직 규정 준수 정책을 따릅니다.
앞에서 설명한 모범 사례 외에도 최종 사용자는 다음을 수행해야 합니다.
적절한 경우 사용자 감독 실행: AI 시스템과 상호 작용할 때 인간의 감독은 중요한 안전 장치입니다. AI 시스템을 지속적으로 개선하는 동안 AI는 여전히 실수를 할 수 있습니다. 생성된 출력은 부정확하거나, 불완전하거나, 편향되거나, 잘못 정렬되거나, 의도한 목표와 무관할 수 있습니다. 이는 입력의 모호성 또는 기본 모델의 제한 사항과 같은 다양한 이유로 인해 발생할 수 있습니다. 따라서 사용자는 Copilot Studio에서 생성된 응답을 검토하고 예상 및 요구 사항과 일치하는지 확인해야 합니다.
과잉 의존의 위험에 유의하세요. AI 출력의 실수는 감지하기 어려울 수 있기 때문에 사용자가 올바르지 않거나 불완전한 AI 출력을 수락할 때 AI에 대한 지나친 의존이 발생합니다. 최종 사용자의 경우, 과잉 의존은 생산성 감소, 신뢰 상실, 제품 포기, 재정적 손실, 심리적 피해, 신체적 피해 등을 초래할 수 있습니다. (예: 의사가 잘못된 AI 출력을 수락합니다). Copilot Studio의 경우 [실수가 발생하거나 덜 정확한 결과를 얻을 수 있는 제품의 제한 사항을 설명하기 때문에 과잉 의존의 위험이 있습니다. 이러한 디자인은 일반적으로 사용자가 AI가 잘못된 시기를 식별하기 어렵게 만드는 시스템 디자인입니다. AI에 대한 의존도: 위험 식별 및 완화 프레임워크의 세 가지 UX 목표를 참조하세요. | Microsoft Learn].
중요한 도메인에서 에이전트 AI를 디자인할 때 주의해야 합니다. 사용자는 에이전트 작업이 돌이킬 수 없거나 매우 결과적인 중요한 도메인에 에이전트 AI 시스템을 디자인 및/또는 배포할 때 주의를 기울여야 합니다. 이러한 도메인은 금융 및 보험, 의료, 법률 서비스, 필수 정부 서비스, 고용, 교육 또는 주택을 포함하지만 이에 국한되지 않습니다. 또한 Microsoft의 행동 강령에 설명된 대로 자율 에이전트 AI를 만들 때 추가적인 예방 조치를 취해야 합니다.
배포자는 다음을 수행해야 합니다.
Microsoft는 조직이 Copilot Studio 에이전트를 배포하고 관리하는 데 도움이 되는 Copilot Studio 분석, Power Platform 관리 센터 보고서 및 통합 모니터링 기능과 같은 도구를 제공합니다. 이러한 도구는 조직이 사용량을 모니터링하고, 에이전트 품질을 평가하고, Copilot Studio 에이전트의 운영 영향을 평가할 수 있도록 설계되었습니다. 다음은 그 예입니다.
Copilot Studio 기본 제공 분석을 사용하면 배포자가 에이전트 사용량, 대화 볼륨 및 참여 요약을 보고 배포를 관리하고 에이전트 구성을 최적화할 수 있습니다. 자세한 내용은 Copilot Studio 분석 및 모니터링 설명서 참조하세요.
Copilot Studio 분석 및 보고는 제조업체, 관리자 및 조직 이해 관계자가 에이전트 성능, 사용 패턴 및 운영 상태에 대한 보고서에 액세스하여 효율성과 영향을 측정하는 데 도움이 됩니다. 자세한 내용은 Copilot Studio 모니터링 및 거버넌스 지침 참조하세요.
Copilot Studio 원격 분석 및 통합 모니터링 도구를 통해 배포자는 시간이 지남에 따라 에이전트 동작을 분석하고 사용량 추세를 조직의 목표와 비교하여 비즈니스 가치를 이해하고 성능 드리프트를 검색할 수 있습니다. 자세한 내용은 Copilot Studio 성 모니터링 및 평가 설명서 참조하세요.
Copilot Studio에 대해 자세히 알아보기
Microsoft 365 Copilot 책임 있는 사용에 대한 추가 지침은 다음 설명서를 검토하는 것이 좋습니다.