Microsoft로 로그인
로그인하거나 계정을 만듭니다.
안녕하세요.
다른 계정을 선택합니다.
계정이 여러 개 있음
로그인할 계정을 선택합니다.

마지막 업데이트: 2024년 2월

Bing의 코필로트의 기본 사항   

소개  

2023년 2월, Microsoft는 AI가 향상된 웹 검색 환경인 새로운 Bing을 출시했습니다. 웹 검색 결과를 요약하고 채팅 환경을 제공하여 사용자를 지원합니다. 사용자는 시, 농담, 이야기, Bing Image Creator 이미지와 같은 창의적인 콘텐츠를 생성할 수도 있습니다. 새로운 AI 향상 Bing은 Microsoft 및 OpenAI의 다양한 고급 기술(예: GPT-4, LLM(최첨단 대규모 언어 모델) 및 OpenAI에서 자연어 설명에서 디지털 이미지를 생성하는 딥 러닝 모델인 DALL-E 비롯한 다양한 고급 기술에서 실행됩니다. 퍼블릭 릴리스 전 몇 달 동안 두 모델 모두와 협력하여 새로운 Bing에서 이 최첨단 AI 기술 및 웹 검색에 참여하는 사용자 지정된 기능 및 기술 세트를 개발했습니다.  2023년 11월, Microsoft는 새로운 Bing을 Bing의 Copilot로 변경했습니다.

Microsoft는 책임 있는 AI에 대한 우리의 노력을 진지하게 생각합니다. Bing 환경의 코필로트는 Microsoft의 AI 원칙, Microsoft의 책임 있는 AI 표준에 따라 개발되었으며, Microsoft의 책임 있는 AI 사무실, 엔지니어링 팀, Microsoft Research 및 Aether를 비롯한 회사 전체의 책임 있는 AI 전문가와 협력하여 개발되었습니다. Microsoft에서 책임 있는 AI에 대해 자세히 알아볼 수 있습니다.  

이 문서에서는 Bing의 Copilot에 대한 책임 있는 AI에 대한 접근 방식을 설명합니다. 릴리스에 앞서 시스템의 잠재적 위험과 오용을 식별, 측정 및 완화하고 사용자에게 이점을 확보하기 위해 최신 방법을 채택했습니다. 처음 출시된 이후 Bing에서 Copilot가 계속 진화함에 따라 책임 있는 AI 노력에 대해서도 계속 배우고 개선해오고 있습니다. 이 문서는 진화하는 프로세스와 방법을 전달하기 위해 주기적으로 업데이트됩니다.   

주요 용어  

Bing의 Copilot는 AI가 향상된 웹 검색 환경입니다. 강력하고 새로운 기술로 실행되므로 먼저 몇 가지 주요 용어를 정의합니다.  

데이터를 레이블이 지정된 클래스 또는 정보 범주로 정렬하는 데 도움이 되는 기계 학습 모델입니다. Bing의 Copilot에서 분류자를 사용하는 한 가지 방법은 사용자가 제출하거나 시스템에서 생성한 잠재적으로 유해한 콘텐츠를 감지하여 해당 콘텐츠의 생성을 완화하고 시스템의 오용 또는 남용을 완화하는 것입니다. 

Bing의 Copilot는 사용자가 정보를 검색할 때 웹 검색 결과에 근거합니다. 즉, 사용자의 쿼리 또는 프롬프트에 제공된 응답을 웹의 상위 콘텐츠에 가운데에 배치하고 사용자가 자세히 알아볼 수 있도록 웹 사이트에 대한 링크를 제공합니다. Bing은 관련성, 품질 및 신뢰성, 신선도와 같은 가중치를 적용하여 웹 검색 콘텐츠의 순위를 지정합니다. 이러한 개념은 Bing이 Search 결과를 제공하는 방법("Bing이 결과 순위를 Search 방법"의 "품질 및 신뢰성" 참조)에서 자세히 설명합니다.   

접지된 응답은 쿼리 또는 프롬프트의 웹 검색 결과, Bing의 사실 확인 정보 기술 자료, 채팅 환경의 경우 채팅의 최근 대화 기록 등 입력 원본에 포함된 정보에 의해 문이 지원되는 Bing의 Copilot 응답으로 간주합니다. 비경지 응답은 문이 해당 입력 원본에 접지되지 않는 응답입니다.  

이 컨텍스트의 LLM(큰 언어 모델)은 대량의 텍스트 데이터를 학습하여 순서대로 단어를 예측하는 AI 모델입니다. LLM은 텍스트 생성, 요약, 번역, 분류 등과 같은 다양한 작업을 수행할 수 있습니다.  

metaprompt는 시스템의 동작을 안내하는 역할을 하는 프로그램입니다. 메타프롬프트의 일부는 시스템 동작을 Microsoft AI 원칙 및 사용자 기대치에 맞게 조정하는 데 도움이 됩니다. 예를 들어 메타 프롬프렛에는 "사용자가 선택한 언어로 통신"과 같은 줄이 포함될 수 있습니다.  

Bing의 Copilot에서 AI 기반 기능을 사용하여 발생할 수 있는 잠재적 위험을 줄이기 위해 설계된 메서드 또는 방법의 조합입니다.  

사용자가 Bing에 보내는 텍스트, 음성, 이미지 및/또는 기타 사용 가능한 쿼리는 Bing에서 새로운 AI 기반 생성 환경을 지원하는 모델에 대한 입력으로 Bing에 보냅니다. 예를 들어 사용자는 다음 프롬프트를 입력할 수 있습니다.  

"나는 9 월에 우리의 기념일에 대한 여행을 계획하고 있다. 런던 히드로에서 3시간 이내에 갈 수 있는 장소는 무엇인가요?”  

사용자가 웹 검색을 위해 검색 창에서 Bing으로 보내는 텍스트입니다. 이 문서에서는 쿼리(웹 검색의 경우)를 프롬프트(Bing의 AI 기반 생성 환경)와 구분합니다. 예를 들어 사용자는 다음 쿼리를 입력하여 웹을 검색할 수 있습니다.  

"런던 히드로 공항 근처 여행지"  

전문가가 시스템의 제한 사항과 취약성을 평가하고 계획된 완화의 효과를 테스트하는 데 사용하는 기술입니다. 레드 팀 테스트 및 스트레스 테스트는 잠재적인 위험을 식별하는 데 사용되며 체계적인 위험 측정과 다릅니다.   

Bing의 Copilot가 프롬프트에 대한 응답으로 출력하는 텍스트, 이미지, 차트 등입니다. "응답"의 동의어로는 "완료", "생성" 및 "답변"이 포함됩니다. 예를 들어 Bing은 위의 '프롬프트' 정의에서 사용한 프롬프트에 다음과 같은 응답을 제공할 수 있습니다.   

"축하합니다! 런던 히드로에서 3시간 이내에 갈 수 있는 많은 장소가 있습니다. 한 소식통에 따르면 런던에서 비행기로 3시간 이내에 탈출하는 주말 중 일부는 빌바오, 코펜하겐, 레이캬비크, 스톡홀름 1, 2입니다. 또 다른 소식통은 9 월에 유럽에서 갈 수있는 가장 좋은 장소 중 일부는 크라쿠프, 피렌체, 리스본 3, 4 제안. 런던 히드로에서 다양한 목적지로 가는 직항편을 검사 5의 매력을 확인할 수도 있습니다. 나는 당신이 멋진 여행을 바랍니다!”  

의도한 용도 및 새로운 AI 환경  

Bing의 의도된 용도의 Copilot는 사용자를 관련 검색 결과와 연결하고, 웹 전반에서 결과를 검토하여 사용자가 찾고 있는 답변을 찾고 요약하고, 사용자가 채팅 환경으로 답변을 얻기 위해 연구를 구체화하고, 사용자가 콘텐츠를 만들 수 있도록 지원함으로써 창의성을 촉발하는 것입니다. 아래 Bing의 생성 AI 환경의 Copilot는 웹용 AI 기반 부조종사라는 목표를 지원합니다.  

요약. 사용자가 Bing의 Copilot에서 검색 쿼리를 제출할 때 Bing 시스템은 쿼리를 처리하고, 하나 이상의 웹 검색을 수행하고, 상위 웹 검색 결과를 사용하여 사용자에게 표시할 정보의 요약을 생성합니다. 이러한 요약에는 사용자가 요약을 접지하는 데 사용되는 검색 결과를 보고 쉽게 액세스하는 데 도움이 되는 참조가 포함됩니다. 요약은 검색 결과 페이지의 오른쪽과 채팅 환경 내에 표시할 수 있습니다.  

채팅 환경. 요약 외에도 사용자는 텍스트, 이미지 또는 음성 입력을 통해 Bing 시스템에서 Copilot와 채팅하고, 후속 질문을 하여 검색을 명확히 하고, 새로운 정보를 찾고, 창의적인 콘텐츠를 생성하기 위한 프롬프트를 제출할 수 있습니다. Bing의 Copilot가 응답에서 검색 결과를 요약하는 경우 참조도 채팅 환경에 포함됩니다.   

창의적인 콘텐츠 생성. 채팅 환경과 검색 페이지에서 사용자는 Bing의 Copilot의 도움을 받아 시, 농담, 이야기, 이미지 및 기타 콘텐츠를 만들 수 있습니다.  이미지는 Designer(이전 Bing Image Creator)에 의해 생성되며 사용자는 Designer 홈페이지와 Copilot 페이지를 통해 기능에 액세스할 수 있습니다. 

Bing의 Copilot는 어떻게 작동하나요?  

Bing의 Copilot를 통해 최첨단 LLM을 웹 검색에 도입하는 혁신적인 접근 방식을 개발했습니다. 사용자가 Bing의 Copilot에 프롬프트를 입력하면 프롬프트, 최근 대화 기록, 메타 프롬프트 및 상위 검색 결과가 LLM에 입력으로 전송됩니다. 이 모델은 사용자의 프롬프트 및 최근 대화 기록을 사용하여 요청을 컨텍스트화하고, 응답을 Microsoft AI 원칙 및 사용자 기대치에 맞게 조정하는 메타 프롬프트, 웹의 기존 상위 콘텐츠에 대한 기본 응답에 대한 검색 결과를 사용하여 응답을 생성합니다.   

응답은 웹 콘텐츠에 대한 기존 링크, AI 생성 요약, 이미지 및 채팅 응답과 같은 여러 가지 형식으로 사용자에게 표시됩니다. 웹 검색 결과에 의존하는 요약 및 채팅 응답에는 응답 아래에 참조 및 "자세히 알아보기" 섹션이 포함되며, 응답을 접지하는 데 사용된 검색 결과에 대한 링크가 포함됩니다. 사용자는 이러한 링크를 클릭하여 항목 및 요약 또는 채팅 응답을 접지하는 데 사용되는 정보에 대해 자세히 알아볼 수 있습니다.    

Copilot 환경에서 사용자는 프롬프트에 컨텍스트를 추가하고 시스템 응답과 상호 작용하여 검색 관심사를 추가로 지정하여 웹 검색을 대화형으로 수행할 수 있습니다. 예를 들어 사용자는 후속 질문을 하거나, 추가 명확한 정보를 요청하거나, 대화형 방식으로 시스템에 응답할 수 있습니다. 채팅 환경에서 사용자는 채팅 제안을 호출하는 미리 작성된 제안에서 응답을 선택할 수도 있습니다. 이러한 단추는 Copilot의 각 응답 후에 표시되며 채팅 환경 내에서 대화를 계속하기 위해 제안된 프롬프트를 제공합니다. 채팅 제안도 검색 결과 페이지의 요약된 콘텐츠와 함께 채팅 환경의 진입점으로 표시됩니다.  

Bing의 코필로트는 또한 사용자가 Bing의 도움으로 이야기, 시, 노래 가사 및 이미지를 만들 수 있습니다. Bing의 Copilot가 창의적인 콘텐츠를 생성하려는 사용자 의도를 감지하면(예: 프롬프트가 "나에게 쓰기 ..."로 시작) 시스템은 대부분의 경우 사용자의 프롬프트에 응답하는 콘텐츠를 생성합니다. 마찬가지로 Bing의 Copilot가 이미지를 생성하려는 사용자 의도를 감지하면(예: 프롬프트가 "그리기..."로 시작함) 시스템은 대부분의 경우 사용자의 프롬프트에 응답하는 이미지를 생성합니다. 채팅 환경의 시각적 Search 사용자의 카메라로 촬영하거나, 사용자의 디바이스에서 업로드하거나, 웹에서 연결된 이미지를 사용하여 사용자는 Bing의 Copilot에 메시지를 표시하여 이미지에 대한 컨텍스트를 이해하고 해석하고 질문에 답변할 수 있습니다.  사용자는 자신의 파일을 Copilot에 업로드하여 정보를 해석, 변환, 처리 또는 계산할 수도 있습니다. 사용자가 Bing에서 Copilot를 통해 액세스할 수 있는 Microsoft Designer 환경에서 사용자는 프롬프트를 사용하여 이미지를 생성할 뿐만 아니라 크기를 조정하거나 다시 조정하거나 배경이 흐리거나 색을 더 생생하게 만드는 등의 편집을 수행할 수 있습니다. 

이제 MSA(Microsoft 계정)를 사용하는 사용자에게는 향상된 성능, 더 빠른 AI 이미지 생성, 곧 고유한 Copilot GPT를 만드는 기능 등 향상된 환경을 제공하는 Copilot Pro 구독할 수 있는 옵션도 있습니다. Copilot Pro 현재 제한된 국가에서 사용할 수 있으며 곧 더 많은 시장에서 Copilot Pro 사용할 수 있도록 할 계획입니다.

Copilot 환경에서 사용자는 Copilot GPT에 액세스할 수 있습니다. Designer GPT와 같은 Copilot GPT는 피트니스, 여행 및 요리와 같이 특별히 관심 있는 주제에 대한 Microsoft Copilot의 사용자 지정 버전으로, 막연하거나 일반적인 아이디어를 텍스트 및 이미지를 포함한 출력으로 보다 구체적인 프롬프트로 전환하는 데 도움이 될 수 있습니다. Copilot 사용자는 사용 가능한 Copilot GPT를 볼 수 있으며, Copilot Pro 계정이 있는 사용자는 곧 사용자가 사용자 지정 Copilot GPT를 만들고 구성할 수 있는 기능인 Copilot GPT Builder에 액세스할 수 있습니다. Bing의 Copilot에 대해 위에서 언급한 책임 있는 AI 완화는 Copilot GPT에 적용됩니다.

Copilot Pro 및 Copilot GPT의 작동 방식에 대해 자세히 알아보려면 여기를 방문하세요.

Bing의 Copilot는 정보에 대한 자유롭고 개방적인 액세스를 약속하면서 다양하고 포괄적인 검색 결과를 제공하기 위해 노력하고 있습니다. 동시에 Microsoft의 제품 품질 노력에는 사용자에게 잠재적으로 유해한 콘텐츠를 의도치 않게 홍보하는 것을 방지하기 위한 작업이 포함됩니다. Bing이 관련성을 정의하는 방법 및 웹 페이지의 품질 및 신뢰성을 정의하는 방법을 포함하여 Bing이 콘텐츠의 순위를 매기는 방법에 대한 자세한 내용은 "Bing Webmaster 지침"에서 확인할 수 있습니다.   Bing의 콘텐츠 조정 원칙에 대한 자세한 내용은 "Bing이 검색 결과를 제공하는 방법"에서 확인할 수 있습니다.   

Windows의 Copilot 환경에서 Bing의 Copilot는 Windows 운영 체제와 협력하여 사용자의 테마 또는 배경 변경, 오디오, Bluetooth 및 네트워킹과 같은 설정 변경과 같은 Windows 관련 기술을 제공할 수 있습니다. 이러한 환경을 통해 사용자는 LLM에 대한 자연어 프롬프트를 사용하여 설정을 구성하고 사용자 환경을 개선할 수 있습니다. 타사 애플리케이션 플러그 인에서 애플리케이션 관련 기능을 제공할 수도 있습니다. 이러한 작업은 반복적인 작업을 자동화하고 사용자 효율성을 높일 수 있습니다. LLM은 때때로 실수를 할 수 있으므로 적절한 사용자 확인 프롬프트가 제공되어 사용자가 변경 내용의 최종 중재자가 될 수 있습니다. 

위험 식별, 측정 및 완화  

다른 변환 기술과 마찬가지로 AI의 이점을 활용하는 것은 위험이 없으며 Microsoft 책임 있는 AI 프로그램의 핵심 부분은 잠재적 위험을 식별하고 발생 가능성을 측정하며 이를 해결하기 위한 완화를 구축하도록 설계되었습니다. AI 원칙과 책임 있는 AI 표준에 따라 새로운 환경에서 제공하는 혁신적이고 유익한 사용을 보호하면서 Bing에서 Copilot의 잠재적 위험과 오용을 식별, 측정 및 완화하고자 했습니다. 아래 섹션에서는 잠재적 위험을 식별, 측정 및 완화하기 위한 반복적인 접근 방식을 설명합니다.   

모델 수준에서 우리의 작업은 2022년 늦은 여름에 GPT-4 대한 예비 분석으로 시작되었습니다. 여기에는 OpenAI와 공동으로 광범위한 레드 팀 테스트를 수행하는 것이 포함되었습니다. 이 테스트는 추가 보호 조치 없이 최신 기술이 작동하는 방식을 평가하도록 설계되었습니다. 현재 우리의 구체적인 의도는 유해한 대응을 생성하고, 오용의 잠재적인 길을 노출하고, 기능과 한계를 식별하는 것이었습니다. OpenAI와 Microsoft의 결합된 학습은 모델 개발의 발전에 기여했으며, Microsoft에서는 위험에 대한 이해를 알리고 Bing의 Copilot에 대한 초기 완화 전략에 기여했습니다.  

모델 수준 레드 팀 테스트 외에도, 전문가로 구성된 다분야 팀은 제한된 릴리스 미리 보기에서 공개적으로 사용할 수 있도록 하기 전에 Bing AI 환경에서 Copilot에 대한 다양한 애플리케이션 수준 레드 팀 테스트를 수행했습니다. 이 프로세스를 통해 악의적 행위자가 시스템을 악용할 수 있는 방법을 더 잘 이해하고 완화를 개선할 수 있습니다. 또한 비대적 스트레스 테스터는 새로운 Bing 기능에서 단점과 취약성을 광범위하게 평가했습니다. 릴리스 후 Bing의 새로운 AI 환경은 Bing 엔지니어링 organization 기존 프로덕션 측정 및 테스트 인프라에 통합됩니다. 예를 들어 여러 지역 및 배경의 레드 팀 테스터는 시스템을 지속적으로 체계적으로 손상하려고 시도하며, 그 결과는 Bing이 시스템 개선에 사용하는 데이터 세트를 확장하는 데 사용됩니다.  

레드 팀 테스트 및 스트레스 테스트는 특정 위험의 인스턴스를 표면화 할 수 있지만, 프로덕션 사용자는 Bing에서 Copilot와 대화의 다른 종류의 수백만을해야합니다. 또한 대화는 다중 턴 및 컨텍스트이며 대화 내에서 유해한 콘텐츠를 식별하는 것은 복잡한 작업입니다. Bing AI 환경에서 Copilot의 위험 가능성을 더 잘 이해하고 해결하기 위해 탈옥, 유해한 콘텐츠 및 접지되지 않은 콘텐츠와 같은 잠재적 위험을 측정하기 위한 새로운 AI 환경과 관련된 추가 책임 있는 AI 메트릭을 개발했습니다. 또한 부분적으로 자동화된 측정 파이프라인을 통해 대규모 측정을 사용하도록 설정했습니다. 제품이 변경되거나 기존 완화가 업데이트되거나 새로운 완화가 제안될 때마다 제품 성능과 책임 있는 AI 메트릭을 모두 평가하도록 측정 파이프라인을 업데이트합니다.  

설명 예제로, 유해한 콘텐츠에 대한 업데이트된 부분적으로 자동화된 측정 파이프라인에는 대화 시뮬레이션과 자동화된 사람이 확인한 대화 주석이라는 두 가지 주요 혁신이 포함됩니다. 먼저 책임 있는 AI 전문가는 다양한 유형의 유해한 콘텐츠를 초래할 수 있는 대화의 구조와 콘텐츠를 캡처하는 템플릿을 빌드했습니다. 그런 다음 Bing에서 Copilot와 가상 사용자로 상호 작용하여 시뮬레이션된 대화를 생성하는 대화 에이전트에 이러한 템플릿을 제공했습니다. 이러한 시뮬레이션된 대화에 유해한 콘텐츠가 포함되어 있는지 여부를 식별하기 위해 일반적으로 전문 언어학자가 데이터에 레이블을 지정하고 GPT-4 대규모로 대화에 레이블을 지정하는 데 사용하도록 수정하는 지침을 취하여 모델 레이블이 지정된 대화와 사람이 레이블이 지정된 대화 간에 상당한 합의가 있을 때까지 지침을 구체화했습니다. 마지막으로 모델 레이블이 지정된 대화를 사용하여 유해한 콘텐츠를 완화할 때 Bing에서 Copilot의 효과를 캡처하는 책임 있는 AI 메트릭을 계산했습니다.   

측정 파이프라인을 사용하면 잠재적 위험에 대한 측정을 대규모로 신속하게 수행할 수 있습니다. 미리 보기 기간 및 진행 중인 레드 팀 테스트를 통해 새로운 문제를 식별할 때 추가 위험을 평가하기 위해 측정 집합을 계속 확장합니다.  

레드 팀 테스트 및 스트레스 테스트와 같은 프로세스를 통해 잠재적 위험과 오용을 식별하고 위에서 설명한 혁신적인 접근 방식을 사용하여 측정하면서 기존 검색에 사용되는 추가 완화 방법을 개발했습니다. 아래에서는 이러한 완화 방법 중 일부를 설명합니다. 우리는 제품 성능 및 완화를 개선하기 위해 Bing AI 환경에서 Copilot를 계속 모니터링 할 것입니다.  

단계적 릴리스, 지속적인 평가. Microsoft는 기술 및 사용자 동작이 발전함에 따라 책임 있는 AI 접근 방식을 지속적으로 학습하고 개선하기 위해 최선을 다하고 있습니다. 우리의 증분 릴리스 전략은 우리가 우리의 기술을 실험실에서 세계로 안전하게 이동하는 방법의 핵심 부분이었고, 우리는 Bing에서 Copilot의 이점을 확보하기 위해 신중하고 사려 깊은 프로세스에 최선을 다하고 있습니다. 미리 보기 기간 동안 액세스 권한이 있는 사람들의 수를 제한하면 사람들이 Bing에서 Copilot를 사용하는 방법을 발견할 수 있습니다. 여기에는 사람들이 코필로트를 오용하는 방법이 포함되므로 더 광범위한 릴리스 전에 새로운 문제를 완화할 수 있습니다. 예를 들어 전체 새 Bing 환경에 액세스하기 전에 사용자가 Microsoft 계정을 사용하여 인증하도록 요구합니다. 인증되지 않은 사용자는 제한된 환경 미리 보기에만 액세스할 수 있습니다. 이러한 단계는 남용을 억제하고 필요한 경우 행동 강령 위반에 대응하여 적절한 조치를 취하는 데 도움이 됩니다.  우리는 제품 성능을 개선하고, 기존 완화를 개선하고, 미리 보기 기간 동안 학습에 대한 응답으로 새로운 완화를 구현하기 위해 매일 Bing의 Copilot를 변경하고 있습니다.  

검색 결과의 접지. 위에서 설명한 것처럼 Bing의 Copilot는 사용자가 정보를 검색할 때 웹 검색 결과의 정보에서 지원하는 응답을 제공하도록 설계되었습니다. 예를 들어 시스템은 메타프롬프를 통해 상위 검색 결과의 텍스트와 해당 응답을 접지하기 위한 지침을 제공합니다. 그러나 웹의 콘텐츠를 요약할 때 Bing의 Copilot에는 입력 원본에 없는 정보가 응답에 포함될 수 있습니다. 즉, 비그라운드 결과를 생성할 수 있습니다. 우리의 초기 평가는 수학적 계산, 재무 또는 시장 정보 (예 : 회사 수입, 주식 성과 데이터) 및 이벤트의 정확한 날짜 또는 항목의 특정 가격과 같은 정보를 요청하는 등 다른 사람보다 특정 유형의 프롬프트 또는 topics 채팅의 비경지 결과가 더 널리 퍼질 수 있음을 나타냈습니다. 사용자는 검색 결과 페이지 또는 채팅 환경에서 요약된 검색 결과를 볼 때 항상 주의를 기울이고 최선의 판단을 수행해야 합니다. 요약 시나리오 및 채팅 환경에서 사용자가 비그라운드 생성 콘텐츠에 지나치게 의존할 수 있는 위험을 완화하기 위해 몇 가지 조치를 취했습니다. 예를 들어 검색 결과를 기반으로 하는 Bing의 Copilot 응답에는 사용자가 응답을 확인하고 자세히 알아볼 수 있는 원본 웹 사이트에 대한 참조가 포함됩니다. 또한 사용자에게 AI 시스템과 상호 작용하고 있다는 명시적 알림이 제공되며 최상의 판단을 위해 웹 결과 원본 자료를 검사 것이 좋습니다.  

잠재적인 위험 또는 오용을 완화하기 위한 AI 기반 분류자 및 메타프롬프팅. LLM을 사용하면 위험 또는 오용으로 이어질 수 있는 문제가 있는 콘텐츠를 생성할 수 있습니다. 예를 들어 자해, 폭력, 그래픽 콘텐츠, 지적 재산권, 부정확한 정보, 증오 발언 또는 불법 활동과 관련된 텍스트와 관련된 출력이 포함될 수 있습니다. 분류자와 메타프롬핑은 이러한 유형의 콘텐츠 위험을 줄이기 위해 Bing의 Copilot에서 구현된 완화의 두 가지 예입니다. 분류자는 검색 쿼리, 채팅 프롬프트 또는 생성된 응답에서 다양한 유형의 잠재적으로 유해한 콘텐츠에 플래그를 지정하도록 텍스트를 분류합니다. Bing은 모든 검색 결과 및 관련 기능에 적용되는 AI 기반 분류자 및 콘텐츠 필터를 사용합니다. Bing 기능의 Copilot에서 발생할 수 있는 위험을 해결하기 위해 특별히 추가 프롬프트 분류자 및 콘텐츠 필터를 설계했습니다. 플래그는 생성된 콘텐츠를 사용자에게 반환하지 않거나, 사용자를 다른 토픽으로 전환하거나, 사용자를 기존 검색으로 리디렉션하는 등 잠재적인 완화로 이어질 수 있습니다. 메타프롬프팅에는 Microsoft의 AI 원칙 및 사용자 기대에 따라 시스템이 동작하도록 하는 등 해당 동작을 안내하는 지침을 모델에 제공하는 작업이 포함됩니다. 예를 들어 메타 프롬프렛에는 "사용자가 선택한 언어로 통신"과 같은 줄이 포함될 수 있습니다.   

Bing의 Copilot에서 Visual Search 개인 정보 보호 사용자가 채팅 프롬프트의 일부로 이미지를 업로드할 때 Bing의 Copilot는 AI 모델에 이미지를 보내기 전에 얼굴 흐림 기술을 사용합니다. 얼굴 흐림은 이미지에서 개인의 개인 정보를 보호하는 데 사용됩니다. 얼굴 흐림 기술은 컨텍스트 단서에 의존하여 흐리게 할 위치를 결정하고 모든 얼굴을 흐리게하려고 시도합니다. 얼굴이 흐리게 표시되면 AI 모델은 입력된 이미지를 인터넷에서 공개적으로 사용할 수 있는 이미지와 비교할 수 있습니다. 예를 들어 Bing의 Copilot는 선수의 유니폼 번호, 저지 색, 농구 후프의 존재 등을 반영하는 숫자 표현을 만들어 농구 코트의 해당 선수의 사진에서 유명한 농구 선수를 식별할 수 있습니다. Bing의 Copilot는 업로드된 이미지에서 사람들의 숫자 표현을 저장하지 않으며 제3자와 공유하지 않습니다. Bing의 Copilot는 사용자의 프롬프트에 응답하기 위해 사용자가 업로드하는 이미지의 숫자 표현을 사용하며, 채팅이 종료된 후 30일 이내에 삭제됩니다.    

사용자가 Bing에서 Copilot에게 업로드된 이미지에 대한 정보를 요청하는 경우 채팅 응답은 업로드된 이미지에 대한 정보를 제공하는 모델의 기능에 대한 얼굴 흐림의 영향을 반영할 수 있습니다. 예를 들어 Bing의 코필로트는 누군가를 흐릿한 얼굴을 가진 것으로 묘사할 수 있습니다.    

대화형 드리프트 제한. 미리 보기 기간 동안 매우 긴 채팅 세션은 Bing의 의도된 톤에서 반복적이거나 도움이 되지 않거나 코필로트와 일치하지 않는 응답을 초래할 수 있다는 것을 배웠습니다. 이 대화형 드리프트를 해결하기 위해 채팅 세션당 턴(사용자 질문과 Bing의 Copilot의 회신을 모두 포함하는 교환)의 수를 제한했습니다. 이 문제를 완화하기 위한 추가 접근 방식을 계속 평가합니다.  

프롬프트 보강. 경우에 따라 사용자의 프롬프트가 모호할 수 있습니다. 이 경우 Bing의 Copilot는 LLM을 사용하여 사용자가 원하는 응답을 받을 수 있도록 프롬프트에서 자세한 내용을 작성할 수 있습니다. 이러한 프롬프트 보강은 사용자 또는 이전 검색에 대한 지식이 아니라 AI 모델에 의존합니다. 이러한 수정된 쿼리는 사용자의 채팅 기록에 표시되며, 다른 검색과 마찬가지로 제품 내 컨트롤을 사용하여 삭제할 수 있습니다.  

사용자 중심 디자인 및 사용자 환경 개입. 사용자 중심 디자인 및 사용자 환경은 책임 있는 AI에 대한 Microsoft 접근 방식의 필수적인 측면입니다. 목표는 사용자의 요구와 기대에 따라 제품 디자인을 뿌리 뽑는 것입니다. 사용자가 Bing에서 Copilot와 처음으로 상호 작용할 때 시스템의 기능을 이해하고, Bing의 Copilot가 AI에 의해 구동된다는 사실을 공개하고, 제한 사항을 전달하는 데 도움이 되도록 설계된 다양한 터치포인트를 제공합니다. 이 환경은 사용자가 Bing에서 Copilot를 최대한 활용하고 과잉 의존의 위험을 최소화할 수 있도록 이러한 방식으로 설계되었습니다. 환경의 요소는 또한 사용자가 Bing의 Copilot 및 그와의 상호 작용을 더 잘 이해하는 데 도움이됩니다. 여기에는 책임 있는 AI와 관련된 채팅 제안이 포함됩니다(예: Bing은 AI를 어떻게 사용하나요? Bing의 Copilot가 일부 topics 응답하지 않는 이유는 무엇인가요?), 제한 사항에 대한 설명, 사용자가 시스템 작동 방식 및 피드백 보고 방법에 대해 자세히 알아볼 수 있는 방법, 응답에 표시되는 쉽게 탐색 가능한 참조를 통해 사용자에게 응답이 접지되는 결과 및 페이지를 표시합니다.  

AI 공개. Bing의 Copilot는 사용자가 AI 시스템과 상호 작용하고 있다는 알림과 Bing의 Copilot에 대해 자세히 알아볼 수 있는 기회를 제공하는 의미 있는 AI 공개를 위한 몇 가지 터치포인트를 제공합니다. 이러한 지식을 통해 사용자에게 권한을 부여하면 AI에 지나치게 의존하는 것을 방지하고 시스템의 강점과 제한 사항에 대해 알아볼 수 있습니다.  

미디어 출처.Microsoft Designer 암호화 방법을 사용하여 Designer 만든 모든 AI 생성 이미지의 원본 또는 "출처"를 표시하는 "콘텐츠 자격 증명" 기능을 사용하도록 설정했습니다. 보이지 않는 디지털 워터마크 기능은 원본 생성의 원본, 시간 및 날짜를 표시하며 이 정보는 변경할 수 없습니다. 이 기술은 C2PA(콘텐츠 및 신뢰성 연합)에서 설정한 표준을 사용하여 AI 생성 이미지에 대한 신뢰와 투명성을 더합니다. Microsoft는 C2PA의 공동 창립자이며 핵심 디지털 콘텐츠 출처 기술에 기여했습니다. 

사용 약관 및 행동 강령. 이 리소스는 Bing에서 Copilot의 사용을 제어합니다. 사용자는 사용 약관 및 행동 강령을 준수해야 하며, 무엇보다도 허용 가능하고 허용되지 않는 사용 및 약관 위반의 결과를 알려줍니다. 사용 약관은 또한 사용자에게 추가 공개를 제공하며 사용자가 Bing의 Copilot에 대해 배울 수있는 편리한 참조 역할을합니다.   

운영 및 신속한 대응. 또한 Bing의 지속적인 모니터링 및 운영 프로세스에서 Copilot를 사용하여 Bing의 Copilot가 신호를 받거나 보고서를 받을 때 사용 약관 또는 행동 강령의 오용 또는 위반 가능성을 나타내는 문제를 해결합니다.  

피드백, 모니터링 및 감독. Bing의 Copilot 환경은 사용자가 피드백을 제출하고 Microsoft 운영 팀에서 검토하는 문제를 보고할 수 있는 기존 도구를 기반으로 합니다. Bing의 운영 프로세스도 Bing 환경의 Copilot 내 기능을 수용하도록 확장되었습니다. 예를 들어 사용자가 모델의 도움을 받아 생성하는 새로운 유형의 콘텐츠를 포함하도록 문제 보고 페이지를 업데이트합니다.   

위험을 식별, 측정 및 완화하는 접근 방식은 자세히 알아보면서 계속 진화할 것이며 미리 보기 기간 동안 수집된 피드백을 기반으로 이미 개선되고 있습니다.     

자동화된 콘텐츠 검색. 사용자가 채팅 프롬프트의 일부로 이미지를 업로드할 때 Bing의 Copilot는 특히 PhotoDNA 해시 일치 기술인 CSEAI(아동 성적 착취 및 학대 이미지)를 검색하는 도구를 배포합니다. Microsoft는 알려진 CSEAI의 중복 항목을 찾는 데 도움이 되는 PhotoDNA를 개발했습니다. Microsoft는 미국 법률에 따라 모든 명백한 CSEAI를 NCMEC(실종 아동 및 착취 아동 센터)에 보고합니다. 사용자가 파일을 업로드하여 분석 또는 처리할 때 Copilot는 자동화된 검사를 배포하여 불법 활동 또는 악성 코드와 관련될 수 있는 텍스트와 같이 위험 또는 오용으로 이어질 수 있는 콘텐츠를 검색합니다.

개인 정보 보호  

개인 정보 보호가 기본적인 인권이라는 Microsoft의 오랜 신념은 Bing 환경에서 Copilot의 개발 및 배포의 모든 단계를 알려주어 왔습니다. 개인에게 데이터에 대한 투명성과 제어를 제공하고 데이터 최소화 및 목적 제한을 통해 의도적으로 개인 정보를 통합하는 것을 포함하여 모든 사용자의 개인 정보를 보호하기 위한 당사의 약속은 Bing의 Copilot의 기본입니다. Bing의 생성 AI 환경에서 Copilot를 제공하는 접근 방식을 발전함에 따라 개인 정보를 보호하는 최선의 방법을 지속적으로 모색할 것입니다. 이 문서는 다음과 같이 업데이트됩니다. Microsoft가 사용자의 개인 정보를 보호하는 방법에 대한 자세한 내용은 Microsoft 개인정보처리방침에서 확인할 수 있습니다.  

Windows의 Copilot 환경에서 Windows 기술은 기능의 일부로 사용자 정보를 채팅 대화와 공유할 수 있습니다. 사용자 승인이 적용되며 사용자 정보가 채팅 대화와 공유되기 전에 사용자 의도를 확인하기 위해 UI 프롬프트가 표시됩니다.

Microsoft는 Bing의 Copilot에서 새로운 생성 AI 기능에 대한 위험 평가의 일환으로 어린이와 청소년의 요구를 계속 고려하고 있습니다. 사용자를 13세 미만 또는 현지 법률에 따라 달리 지정된 것으로 식별하는 모든 Microsoft 자식 계정은 전체 새 Bing 환경에 액세스하기 위해 로그인할 수 없습니다.   

위에서 설명한 대로 모든 사용자에 대해 잠재적으로 유해한 콘텐츠를 완화하는 보호 장치를 구현했습니다. Bing의 Copilot에서 결과는 기본 Bing 검색에서 가장 높은 수준의 안전 보호를 제공하는 Bing SafeSearch의 엄격한 모드에서와 같이 설정되므로 십대 사용자를 포함한 사용자가 잠재적으로 유해한 콘텐츠에 노출되지 않도록 방지합니다. 이 문서 및 채팅 기능에 대한 FAQ 에서 제공한 정보 외에도 검색 결과에서 예기치 않은 불쾌한 콘텐츠로 응답하지 않도록 Bing의 Copilot가 작동하는 방식에 대한 자세한 내용은 여기에서 확인할 수 있습니다.  

Microsoft는 Microsoft 계정에서 생년월일이 18세 미만으로 식별되는 어린이에게 온라인 행동을 기반으로 개인 설정된 광고를 제공하지 않기로 약속했습니다. 이 중요한 보호는 Bing 기능의 코필로트의 광고로 확장됩니다. 사용자는 Bing과 상호 작용하는 데 사용되는 쿼리 또는 프롬프트를 기반으로 컨텍스트 광고를 볼 수 있습니다.  

생성 AI의 혁신적인 잠재력을 실현하려면 개인이 데이터가 사용되는 방식을 이해하고 데이터에 대한 의미 있는 선택과 제어를 제공하여 기술에 대한 신뢰를 구축해야 합니다. Bing의 Copilot는 제품의 작동 방식과 제한 사항에 대한 정보를 제공하고 강력한 소비자 선택 및 제어를 Bing 기능의 Copilot로 확장하여 인간 기관의 우선 순위를 지정하도록 설계되었습니다.   

Microsoft 개인정보처리방침은 고객을 보호하기 위한 투명한 개인 정보 보호 관행에 대한 정보를 제공하며, 사용자에게 개인 데이터를 보고 관리할 수 있는 기능을 제공하는 컨트롤에 대한 정보를 설정합니다. 사용자가 Bing의 새로운 대화형 기능과 상호 작용할 때 필요한 정보를 갖도록 하기 위해 제품 내 공개는 사용자에게 AI 제품에 참여하고 있음을 알리고, 이러한 기능의 작동 방식에 대한 추가 FAQ 및 설명에 대한 링크를 제공합니다. Microsoft는 계속해서 사용자 피드백을 듣고 제품 작동 방식에 대한 이해를 지원하기 위해 Bing의 대화형 기능에 대한 세부 정보를 추가할 것입니다.   

Microsoft는 또한 사용자에게 개인 데이터에 대한 권리를 행사할 수 있는 강력한 도구를 제공합니다. 사용자 쿼리 및 프롬프트를 포함하여 Bing에서 Copilot에서 수집한 데이터의 경우 Microsoft 개인 정보 대시보드 는 저장된 대화 기록을 보고 내보내고 삭제할 수 있는 기능을 사용자에게 제공하는 등 인증된(로그인한) 사용자에게 데이터 주체 권한을 행사하는 도구를 제공합니다. Microsoft는 컨텍스트 내 데이터 관리 환경을 사용하는 등 새 Bing 환경을 관리하는 방법에 대한 피드백을 계속 받아 들이고 있습니다.   

Bing의 Copilot는 또한 Microsoft가 Bing의 전통적인 검색 기능을 위해 개발하고 개선한 프로세스에 따라 잊혀질 수 있는 유럽의 권리에 따른 요청을 존중합니다. 모든 사용자는 여기에서 생성된 콘텐츠 및 응답에 대한 우려를 보고할 수 있으며, 유럽 사용자는 이 양식을 사용하여 잊혀질 권리에 따라 유럽에서 검색 결과를 차단하는 요청을 제출할 수 있습니다.   

Bing의 Copilot는 데이터 수집에 대한 동의 및 Microsoft 개인 정보 대시보드에서 사용할 수 있는 쿠키 배너 및 컨트롤을 통해 요청된 사용과 같이 이전에 Bing에서 수행한 개인 정보 선택을 포함하여 사용자의 개인 정보 선택을 존중합니다. 사용자 자율성 및 기관이 정보에 입각한 결정을 내릴 수 있도록 내부 검토 프로세스를 사용하여 사용자에게 선택 사항을 제시하는 방법을 신중하게 검토했습니다. 

사용자가 채팅 기록의 구성 요소를 포함하여 검색 기록을 보고, 내보내고, 삭제할 수 있도록 하는 Microsoft 개인 정보 대시보드를 통해 사용할 수 있는 컨트롤 외에도 제품 내 컨트롤을 통해 채팅 기록을 보고, 액세스하고, 다운로드할 수 있는 기능이 제품의 채팅 기록 기능을 사용하도록 설정한 인증된 사용자도 있습니다. 사용자는 Bing 설정 페이지를 방문하여 언제든지 채팅 기록에서 특정 채팅을 지우거나 채팅 기록 기능을 완전히 해제할 수 있습니다. 또한 사용자는 개인 설정이 개인 설정된 답변으로 보다 맞춤형 환경에 액세스할 수 있도록 허용할지 여부를 선택할 수 있습니다. 사용자는 Bing 설정 페이지의 채팅 설정에서 언제든지 개인 설정을 옵트인하고 옵트아웃할 수 있습니다.  채팅 기록에서 특정 채팅을 지우면 개인 설정에 사용되지 않습니다.  
 
채팅 기록 및 개인 설정에 대한 자세한 내용은 Bing FAQ의 Copilot 사용자에게 제공됩니다. 

Bing의 Copilot는 개인 정보를 염두에 두고 구축되어 개인 데이터가 필요에 따라 수집되고 사용되며 필요한 것보다 더 이상 보존되지 않습니다. 위에서 설명한 것처럼 Bing의 Copilot의 시각적 Search 사용자가 업로드할 때 이미지의 얼굴을 흐리게 하는 메커니즘을 배포하여 얼굴 이미지가 더 이상 처리되거나 저장되지 않도록 합니다. Bing이 수집하는 개인 데이터, 데이터 사용 방법 및 저장 및 삭제 방법에 대한 자세한 내용은 Bing의 새로운 채팅 기능에 대한 정보를 제공하는 Microsoft 개인정보처리방침에서 확인할 수 있습니다.   

Bing의 Copilot에는 Bing의 채팅 기능을 통해 수집된 개인 데이터가 필요한 경우에만 유지되도록 하는 데이터 보존 및 삭제 정책이 있습니다.   

우리는 Bing에서 Copilot를 제공하는 우리의 접근 방식을 계속 배우고 발전시킬 것이며, 그렇게 할 때 우리는 젊은 사용자와 개인 정보 보호를 포함하여 인간의 가치와 기본 권리에 AI 혁신을 맞추기 위해 다양한 분야에서 계속 노력할 것입니다.   

상업용 데이터 보호가 포함된 부조종사 

이전의 Bing Chat Enterprise("BCE")로 알려진 상업용 데이터 보호가 포함된 Copilot는 특정 M365 고객을 위한 무료 추가 기능으로 2023년 7월 Microsoft에서 무료 공개 미리 보기로 릴리스되었습니다. 상업용 데이터 보호가 포함된 Copilot는 엔터프라이즈 최종 사용자를 위한 AI 향상된 웹 검색 환경입니다. 

Bing의 Copilot와 마찬가지로 상업용 데이터 보호가 있는 Copilot 최종 사용자가 인터페이스에 프롬프트를 입력하면 프롬프트, 즉각적인 대화, 상위 검색 결과 및 메타 프롬프트가 LLM에 대한 입력으로 전송됩니다. 이 모델은 프롬프트 및 즉각적인 대화 기록을 사용하여 요청을 컨텍스트화하고, 응답을 Microsoft AI 원칙 및 사용자 기대치에 맞게 조정하는 메타 프롬프트, 웹의 기존 상위 순위 콘텐츠에 대한 기본 응답에 대한 검색 결과를 사용하여 응답을 생성합니다. 이는 이 문서에서 위에서 설명한 대로 Bing의 Copilot와 동일한 방식으로 작동합니다. 단, 상업용 데이터 보호 기능이 있는 Copilot는 저장된 채팅 기록이 현재 지원되지 않기 때문에 즉각적인 대화 기록(최근 대화 기록 아님)만 사용합니다. 이제 이 버전에서 Designer 및 Visual Search 사용할 수 있습니다. 

다른 변환 기술과 마찬가지로 AI의 이점을 활용하는 것은 위험이 없으며 Microsoft 책임 있는 AI 프로그램의 핵심 부분은 잠재적 위험을 식별하고 발생 가능성을 측정하며 이를 해결하기 위한 완화를 구축하도록 설계되었습니다. 다시 말하지만, Bing에서 Copilot에 대한 잠재적 위험을 식별, 측정 및 완화하려는 Microsoft의 노력에 대한 위의 설명은 이 버전에도 적용되며, 아래에 설명된 완화에 대한 몇 가지 설명이 있습니다. 

단계적 릴리스, 지속적인 평가. Copilot Bing과 마찬가지로 상업용 데이터 보호를 사용하는 Copilot의 경우 증분 릴리스 접근 방식도 취했습니다. 2023년 7월 18일, 상업용 데이터 보호를 사용하는 Copilot는 특정 M365 계정이 있는 적격 엔터프라이즈 고객이 엔터프라이즈 최종 사용자를 위해 켜기 위한 무료 미리 보기로 제공되었습니다. 적격 기업 고객에게 알리고 30일 후에 상업용 데이터 보호를 제공하는 Copilot는 동일한 고객에게 "기본값"이 되었습니다. 상업용 데이터 보호가 포함된 코필로트는 이후 특정 교육 교수진 M365 계정에서도 사용할 수 있게 되었습니다. 상용 데이터 보호가 포함된 코필로트는 2023년 12월 1일에 특정 기업 고객에게 일반 공급되었습니다. 향후 더 많은 Microsoft Entra ID 사용자에게 상업용 데이터 보호를 통해 Copilot에 대한 액세스를 확장할 계획입니다.

사용 약관 및 행동 강령. 상업용 데이터 보호를 사용하는 Copilot의 최종 사용자는 최종 사용자 사용 약관을 준수해야 합니다. 이러한 사용 약관은 최종 사용자에게 허용 가능하고 허용되지 않는 사용 및 약관 위반의 결과를 알릴 수 있습니다.  

운영 및 신속한 대응. 또한 Bing의 지속적인 모니터링 및 운영 프로세스에서 Copilot를 사용하여 상업용 데이터 보호가 있는 Copilot가 신호를 받거나 보고서를 받을 때 최종 사용자 사용 약관의 오용 또는 위반 가능성을 나타내는 문제를 해결합니다. 

피드백, 모니터링 및 감독. 상업용 데이터 보호를 사용하는 Copilot는 사용자가 피드백을 제출하고 Microsoft 운영 팀에서 검토하는 문제를 보고하기 위해 Bing의 Copilot와 동일한 도구를 사용합니다. Bing의 운영 프로세스에서 Copilot는 상용 데이터 보호 환경과 함께 Copilot 내의 기능을 수용하도록 확장되었습니다. 예를 들어 사용자가 모델의 도움을 받아 생성하는 새로운 유형의 콘텐츠를 포함하도록 문제 보고 페이지를 업데이트합니다.  

최종 사용자가 상업용 데이터 보호와 Copilot와 상호 작용할 때 필요한 정보를 갖도록 하기 위해 FAQ 및 자세히 알아보기 페이지를 포함하여 이 문서의 맨 아래에 제품 설명서가 제공됩니다. 

상업용 데이터 보호를 사용하는 Copilot의 최종 사용자가 생성한 프롬프트 및 응답은 엔터프라이즈 데이터 처리 표준에 따라 처리되고 저장됩니다. 상업용 데이터 보호 제공 코필로트는 현재 엔터프라이즈 고객과 인증된 성인 최종 사용자에게만 사용할 수 있으므로 현재는 어린이 또는 청소년이 상업적 데이터 보호를 통해 Copilot의 최종 사용자가 될 것으로 예상하지 않습니다. 또한 상업용 데이터 보호 기능이 있는 Copilot는 최종 사용자에게 행동적으로 타겟팅된 광고를 제공하지 않습니다. 대신 표시되는 모든 광고는 상황에 맞는 관련 광고만 표시됩니다.  

Azure Bastion에 대한

이 문서는 Microsoft에서 AI 원칙을 실천하기 위한 광범위한 노력의 일환입니다. 자세한 내용은 다음을 참조하세요.

책임 있는 AI에 대한 Microsoft의 접근 방식

Microsoft의 책임 있는 AI 표준

Microsoft의 책임 있는 AI 리소스  

책임 있는 AI에 대한 Microsoft Azure Learning 과정  

이 문서 정보  

© 2023 Microsoft. All rights reserved. 이 문서는 정보 제공 목적으로만 "있는 그대로" 제공됩니다. URL 및 기타 인터넷 웹 사이트 참조를 포함하여 이 문서에 표현된 정보 및 보기는 예고 없이 변경될 수 있습니다. 소프트웨어의 사용으로 발생하는 위험은 귀하의 책임입니다. 일부 예제는 그림 전용이며 가상입니다. 실제 연결은 의도되거나 유추되지 않습니다.  

도움이 더 필요하세요?

더 많은 옵션을 원하세요?

구독 혜택을 살펴보고, 교육 과정을 찾아보고, 디바이스를 보호하는 방법 등을 알아봅니다.

커뮤니티를 통해 질문하고 답변하고, 피드백을 제공하고, 풍부한 지식을 갖춘 전문가의 의견을 들을 수 있습니다.

이 정보가 유용한가요?

언어 품질에 얼마나 만족하시나요?
사용 경험에 어떠한 영향을 주었나요?
제출을 누르면 피드백이 Microsoft 제품과 서비스를 개선하는 데 사용됩니다. IT 관리자는 이 데이터를 수집할 수 있습니다. 개인정보처리방침

의견 주셔서 감사합니다!

×