Laatst bijgewerkt: oktober 2025
Wat is een transparantienotitie?
Een AI-systeem omvat niet alleen de technologie, maar ook de mensen die het gaan gebruiken, de mensen die er last van hebben en de omgeving waarin het wordt geïmplementeerd. De transparantienotities van Microsoft zijn bedoeld om u te helpen begrijpen hoe de AI-technologie achter Copilot werkt, welke keuzes we hebben gemaakt die van invloed zijn op de prestaties en het gedrag van het systeem en het belang van het nadenken over het hele systeem, zodat gebruikers van Copilot de controle over hun eigen ervaringen kunnen overnemen en inzicht kunnen krijgen in de stappen die we nemen om een veilig en veilig product te bieden.
De transparantienotities van Microsoft maken deel uit van een bredere inspanning van Microsoft om onze AI-principes in de praktijk te brengen. Zie de Microsoft AI-principes voor meer informatie.
De basisbeginselen van Microsoft Copilot
Inleiding
Copilot is een AI-ervaring waarmee gebruikers de informatie krijgen die ze zoeken, terwijl ze worden voorbereid om gebruikers te ondersteunen bij het beantwoorden van een breed scala aan vragen, ongeacht de situatie of het onderwerp. De vernieuwde Copilot gaat verder dan het beantwoorden van query's voor het ophalen van basisgegevens en richt zich op het genereren van inhoud om gebruikers proactievere ondersteuning te bieden bij het voltooien van taken. We hebben steeds meer inzicht in de manier waarop AI mensen kan helpen leren, ontdekken en creatiever te zijn, wat ons vereist om een ander type product te bouwen. De nieuwe Copilot-ervaring wil een nieuw type ervaring worden dat open en dynamisch is om beter te voldoen aan de behoeften van gebruikers op een intuïtievere manier.
Bij Microsoft nemen we onze inzet voor verantwoorde AI serieus. De bijgewerkte Copilot-ervaring is ontwikkeld in overeenstemming met de AI-principes van Microsoft, de verantwoordelijke AI-standaard van Microsoft en in samenwerking met verantwoordelijke AI-experts in het hele bedrijf, waaronder Office of Responsible AI van Microsoft, onze technische teams, Microsoft Research en Aether. Meer informatie over verantwoorde AI vindt u hier bij Microsoft.
In dit document beschrijven we onze aanpak van verantwoordelijke AI voor Copilot. Voorafgaand aan de release hebben we gebruikgemaakt van de geavanceerde methoden van Microsoft om potentiële risico's en misbruik van het systeem in kaart te brengen, te meten en te beheren en om de voordelen ervan voor gebruikers te beveiligen. Terwijl we Copilot verder hebben ontwikkeld, zijn we ook blijven leren en onze verantwoorde AI-inspanningen blijven verbeteren. Dit document wordt regelmatig bijgewerkt om onze veranderende processen en methoden te communiceren.
Sleuteltermen
Classificaties Machine learning-modellen waarmee u gegevens kunt sorteren in gelabelde klassen of categorieën informatie. In de bijgewerkte Copilot-ervaring gebruiken we onder andere classificaties om mogelijk schadelijke inhoud te detecteren die door gebruikers is ingediend of door het systeem is gegenereerd om het genereren van die inhoud en misbruik of misbruik van het systeem te beperken.
Aarding Voor bepaalde gesprekken waarbij gebruikers informatie zoeken, is Copilot geaard in zoekresultaten op het web. Dit betekent dat Copilot zijn reactie richt op hooggeplaatste inhoud van het web en bronvermeldingen met hyperlinks biedt na gegenereerde tekstantwoorden. Houd er rekening mee dat op dit moment gebruikersprompts in de spraakmodus geen zoekopdracht op internet activeren. Daarom bevatten geen antwoorden bronvermeldingen.
Grote taalmodellen (LLMs) Grote taalmodellen (LLMs) in deze context zijn AI-modellen die zijn getraind op grote hoeveelheden tekstgegevens om woorden in reeksen te voorspellen. LLMs kunnen verschillende taken uitvoeren, zoals het genereren van tekst, samenvatting, vertaling, classificatie en meer.
Verzachting Een methode of combinatie van methoden die is ontworpen om potentiële risico's te verminderen die kunnen ontstaan door het gebruik van de AI-functies in Copilot.
Multimodale modellen (MMM's) Multimodale modellen (MMM's) zijn AI-modellen die zijn getraind op verschillende typen gegevens, zoals tekst, afbeeldingen of audio. Met deze modellen kunnen verschillende taken worden uitgevoerd, zoals het schrijven van tekst, het beschrijven van afbeeldingen, het herkennen van spraak en het vinden van informatie over verschillende soorten gegevens.
Prompts Invoer in de vorm van tekst, afbeeldingen en/of audio die een gebruiker naar Copilot verzendt om te communiceren met de AI-functies in Copilot.
Rode koppeling Technieken die door deskundigen worden gebruikt om de beperkingen en beveiligingsproblemen van een systeem te beoordelen en om de effectiviteit van geplande risicobeperkingen te testen. Het testen van rode teams omvat testers die zowel goedaardige als kwaadwillende persona's aannemen om potentiële risico's te identificeren en verschillen van systematische meting van risico's.
Reacties Tekst, afbeeldingen of audio die Copilot uitvoert als reactie op een prompt of als onderdeel van het heen en weer gaan met de gebruiker. Synoniemen voor 'antwoord' zijn onder andere 'voltooiing', 'generatie' en 'antwoord'.
Kleine taalmodellen (SLMs) Kleine taalmodellen (SLMs) in deze context zijn AI-modellen die zijn getraind op kleinere, meer gerichte hoeveelheden gegevens in vergelijking met grote taalmodellen. Ondanks hun kleinere grootte kunnen SLMs verschillende taken uitvoeren, zoals het genereren van tekst, samenvatting, vertaling en classificatie. Hoewel ze mogelijk niet overeenkomen met de uitgebreide mogelijkheden van LLMs, zijn SLM's vaak efficiënter met resources en kunnen ze zeer effectief zijn voor specifieke, gerichte toepassingen.
Systeembericht Het systeembericht (ook wel een 'metaprompt' genoemd) is een programma dat dient om het gedrag van het systeem te sturen. Delen van het systeembericht helpen het systeemgedrag af te stemmen op de AI-principes van Microsoft en de verwachtingen van gebruikers. Een systeembericht kan bijvoorbeeld een regel bevatten zoals 'Geef geen informatie op of maak inhoud die fysieke, emotionele of financiële schade kan veroorzaken'.
Mogelijkheden
Systeemgedrag
Met Copilot hebben we een innovatieve aanpak ontwikkeld om gebruikers een meer gepersonaliseerde AI-ervaring te bieden voor een aantrekkelijke ervaring die gebruikers kan helpen bij verschillende taken. Deze innovatieve benadering maakt gebruik van verschillende geavanceerde technologieën, zoals taal- en multimodale modellen van Microsoft, OpenAI en andere modelontwikkelaars. Voorafgaand aan de openbare release hebben we gewerkt aan de implementatie van veiligheidstechnieken voor de modellen die ten grondslag lagen aan de nieuwe Copilot-ervaring om een aangepaste set mogelijkheden en gedrag te ontwikkelen die een verbeterde Copilot-ervaring bieden. In de bijgewerkte Copilot kunnen gebruikers prompts verzenden in tekst of spraak in natuurlijke taal. Antwoorden worden in verschillende indelingen aan gebruikers gepresenteerd, zoals chatantwoorden in tekstvorm (met traditionele koppelingen naar webinhoud indien nodig) en afbeeldingen (als er een afbeeldingsaanvraag is gedaan als onderdeel van de prompt). Als gebruikers in de copilot-spraakmodus aanwijzingen in natuurlijke taal verzenden, ontvangen ze audioreacties.
Wanneer een gebruiker een prompt invoert in Copilot, worden de prompt, de gespreksgeschiedenis en het systeembericht verzonden via verschillende invoerclassificaties om schadelijke of ongepaste inhoud te filteren. Dit is een cruciale eerste stap voor het verbeteren van de modelprestaties en het beperken van situaties waarin gebruikers proberen om het model te vragen op een manier die onveilig kan zijn. Zodra de prompt de invoerclassificaties heeft doorlopen, wordt deze verzonden naar een SLM om te bepalen of voor de aanvraag aardingsgegevens van het web zijn vereist en welk taalmodel op de aanvraag moet reageren. Alle modellen genereren een antwoord met behulp van de prompt van de gebruiker en de recente gespreksgeschiedenis om de aanvraag te contextualiseren, het systeembericht om antwoorden af te stemmen op microsoft AI-principes en verwachtingen van gebruikers, en zo nodig antwoorden uit te lijnen met zoekresultaten om basisreacties in bestaande, hooggeplaatste inhoud van het web uit te lijnen.
Antwoorden worden in verschillende indelingen aan gebruikers gepresenteerd, zoals chatreacties in tekstvorm, traditionele koppelingen naar webinhoud, afbeeldingen en audioreacties. Wanneer antwoorden worden verstrekt in de vorm van tekst en de antwoorden zijn geaard in gegevens van het web, bevat de uitvoer bronvermeldingen met hyperlinks die onder de tekst worden vermeld, zodat gebruikers toegang hebben tot de website(s) die zijn gebruikt om het antwoord te gronden en daar meer te weten te komen over het onderwerp. Copilot kan ook code uitvoeren om complexe berekeningen uit te voeren en grafieken te genereren. Copilot kan specifieke feiten opslaan die gebruikers willen onthouden, zodat ze relevantere antwoorden en suggesties kunnen genereren op basis van die context. Copilot kan ook opgeslagen feiten verwijderen wanneer gebruikers vragen deze expliciet te vergeten.
Copilot helpt gebruikers ook bij het maken van nieuwe verhalen, gedichten, songteksten en afbeeldingen. Wanneer Copilot de intentie van de gebruiker detecteert om creatieve inhoud te genereren (zoals een gebruikersprompt die begint met 'schrijf me een ...'), genereert het systeem in de meeste gevallen inhoud die reageert op de prompt van de gebruiker. Op dezelfde manier, wanneer Copilot de intentie van de gebruiker detecteert om een afbeelding te genereren (zoals een gebruikersprompt die begint met 'teken me een ...'), genereert Copilot in de meeste gevallen een afbeelding die reageert op de prompt van de gebruiker. Wanneer Copilot de intentie van de gebruiker detecteert om een geüploade afbeelding te wijzigen (zoals een gebruikersprompt die begint met 'voeg een ...'), zal Copilot in de meeste gevallen een afbeelding wijzigen die reageert op de prompt van de gebruiker. Copilot reageert mogelijk niet met creatieve inhoud wanneer de gebruikersprompt bepaalde termen bevat die kunnen leiden tot problematische inhoud.
Gebruikers met Microsoft-accounts (MSA) hebben nu ook de mogelijkheid om zich te abonneren op Copilot Pro, wat een verbeterde ervaring biedt, waaronder versnelde prestaties, het gebruik van Copilot Voice-mogelijkheden voor langere tijd en in sommige gevallen toegang tot nieuwe, experimentele functies. Copilot Pro is momenteel beschikbaar in een beperkt aantal landen en we zijn van plan om Copilot Pro binnenkort beschikbaar te maken in meer markten.
Beoogd veiligheidsgedrag
Ons doel voor Copilot is om nuttig te zijn voor gebruikers. Door gebruik te maken van best practices van andere generatieve AI-producten en -services van Microsoft, willen we voorkomen dat Copilot problematische inhoud genereert en de kans op een veilige en positieve gebruikerservaring vergroten. Hoewel we stappen hebben ondernomen om risico's te beperken, zijn generatieve AI-modellen zoals die achter Copilot probabilistisch en kunnen fouten maken, wat betekent dat risicobeperkingen soms schadelijke gebruikersprompts of door AI gegenereerde reacties niet kunnen blokkeren. Als u schadelijke of onverwachte inhoud tegenkomt tijdens het gebruik van Copilot, laat het ons dan weten door feedback te geven, zodat we de ervaring kunnen blijven verbeteren.
Gebruiksvoorbeelden
Beoogd gebruik
Copilot is bedoeld om gebruikers te ondersteunen bij het beantwoorden van een breed scala aan vragen, ongeacht de situatie of het onderwerp. Gebruikers kunnen communiceren met Copilot met behulp van tekst-, afbeeldings- en audio-invoer waarbij interacties zijn bedoeld om meer als natuurlijke gesprekken met een AI-systeem te voelen. Bovendien, als gebruikers via tekst met Copilot communiceren om specifieke informatie te zoeken over onderwerpen waarvoor Copilot mogelijk meer informatie nodig heeft om een nauwkeuriger antwoord te produceren, is de ervaring bovendien bedoeld om gebruikers te verbinden met relevante zoekresultaten, resultaten van het hele web te bekijken en informatie samen te vatten waarnaar gebruikers op zoek zijn. In Copilot kunnen gebruikers het volgende doen:
-
Realtime-informatie samenvatten tijdens het chatten via tekst. Wanneer gebruikers via tekst met Copilot communiceren, voert het systeem zoekopdrachten op het web uit als het meer informatie nodig heeft en gebruikt het de belangrijkste zoekresultaten op het web om een samenvatting te genereren van de informatie die aan gebruikers moet worden weergegeven. Deze samenvattingen bevatten bronvermeldingen op webpagina's om gebruikers te helpen de bronnen voor zoekresultaten te zien en eenvoudig te openen die de samenvatting van Copilot hebben geholpen. Gebruikers kunnen op deze koppelingen klikken om rechtstreeks naar de bron te gaan als ze meer informatie willen.
-
Chatten met een AI-systeem met behulp van tekst. Gebruikers kunnen via tekst chatten met Copilot en vervolgvragen stellen om nieuwe informatie te vinden en ondersteuning te krijgen voor een breed scala aan onderwerpen.
-
Interface met AI met behulp van spraak en uiterlijk. Copilot kan niet alleen audio-invoer ontvangen, maar ook audio-uitvoer produceren in een van de vier stemmen die door gebruikers zijn geselecteerd, en een visueel uiterlijk geven om de interactie te verrijken. Met audio-naar-audio- en uiterlijkmogelijkheden kunnen gebruikers op een natuurlijkere en vloeiendere manier met Copilot communiceren.
-
Verteerbaar nieuws ontvangen. Gebruikers kunnen Copilot gebruiken om een samenvatting van nieuws, weer en andere updates te ontvangen op basis van geselecteerde onderwerpgebieden via de functie Copilot Daily en deze briefings te beluisteren in een podcastachtige indeling. Met deze functie wordt inhoud opgehaald uit geautoriseerde bronnen die overeenkomsten hebben met Microsoft.
-
Hulp bij het genereren van nieuwe ideeën. Telkens wanneer gebruikers interactie hebben met de Copilot-ervaring, zien ze een set kaarten waarop ze kunnen klikken om met Copilot te chatten over nuttige en interessante onderwerpen. Als gebruikers interactie hebben gehad met andere Microsoft-consumentenservices, worden de kaarten aangepast, in overeenstemming met ons privacybeleid. Na verloop van tijd kunnen kaarten in Copilot worden aangepast op basis van de chatgeschiedenis van een gebruiker. Gebruikers kunnen zich op elk gewenst moment afmelden voor persoonlijke instellingen.
-
Genereer creatieve inhoud. Wanneer gebruikers chatten met Copilot, kunnen ze nieuwe gedichten, grappen, verhalen, afbeeldingen en andere inhoud maken met behulp van de Copilot-ervaring. Copilot kan op verzoek ook afbeeldingen bewerken die door gebruikers zijn geüpload.
-
Taken uitvoeren op Android.Gebruikers kunnen via het Android-platform via spraak met Copilot communiceren om bepaalde taken uit te voeren. Deze taken bestaan uit het instellen van timers en alarmen, het plaatsen van telefoongesprekken, het verzenden van sms-berichten en het bestellen van een Uber. Gebruikers moeten het telefoongesprek, het sms-bericht en de Uber-bestelling bevestigen voordat de taken worden voltooid.
-
Hulp bij onderzoek. Copilot kan onderzoekstaken uitvoeren door diepgaande bronnen aan te bieden, gedetailleerde uitsplitsingen van onderwerpen aan te bieden en te koppelen aan bronnen om gebruikers te helpen verder te gaan dan snelle antwoorden voor complexere query's. Copilot kan proactief gepersonaliseerde onderzoekssuggesties genereren voor gebruikers op basis van zaken zoals eerdere onderzoeksquery's en Copilot-geheugen. Gebruikers kunnen zich op elk gewenst moment afmelden voor persoonlijke instellingen of meldingen.
-
Verken de wereld met Copilot Vision. Copilot kan uw scherm- of mobiele camerafeed bekijken en zijn stem gebruiken om vragen te beantwoorden en met u te communiceren. Copilot kan direct in realtime inzichten en suggesties scannen, analyseren en bieden om u te helpen bij het werken, bladeren of verkennen van de wereld. Copilot Vision is beschikbaar in Edge, Windows, iOS en Android.
-
Informatie ophalen met connectors.Met uw toestemming kan Copilot uw cloudbestanden zoeken en ermee werken in natuurlijke taal. Copilot kan e-mailberichten ophalen, contactpersonen opzoeken en agenda-afspraken controleren vanuit zowel Microsoft Outlook- als Google Gmail-accounts.
Overwegingen bij het kiezen van andere use cases
We raden gebruikers aan om alle inhoud te controleren voordat ze beslissingen nemen of handelen op basis van de reacties van Copilot, omdat AI fouten kan maken. Daarnaast zijn er bepaalde scenario's die we aanbevelen te vermijden of die in strijd zijn met onze gebruiksvoorwaarden. Microsoft staat bijvoorbeeld niet toe dat Copilot wordt gebruikt in verband met illegale activiteiten of voor enig doel dat is bedoeld om illegale activiteiten te promoten.
Beperkingen
De taal-, beeld- en audiomodellen die onder de Copilot-ervaring liggen, kunnen trainingsgegevens bevatten die maatschappelijke vooroordelen kunnen weerspiegelen, wat er op zijn beurt toe kan leiden dat Copilot zich gedraagt op manieren die als oneerlijk, onbetrouwbaar of aanstootgevend worden beschouwd. Ondanks onze intensieve modeltraining en veiligheidsafstemming, evenals de implementatie van de verantwoorde AI-besturingselementen en veiligheidssystemen die we plaatsen op trainingsgegevens, gebruikersprompts en modeluitvoer, zijn AI-gestuurde services feilbaar en probabilistisch. Dit maakt het lastig om alle ongepaste inhoud volledig te blokkeren, wat leidt tot risico's dat potentiële vooroordelen, stereotypen, niet-geaardheid of andere soorten schade die kunnen optreden in door AI gegenereerde inhoud. Enkele van de manieren waarop deze beperkingen zich kunnen manifesteren in de Copilot-ervaring, worden hier vermeld.
-
Stereotypering: De Copilot-ervaring kan stereotypen mogelijk versterken. Wanneer Copilot bijvoorbeeld 'Hij is een verpleegster' en 'Zij is een arts' vertaalt in een geslachtloze taal, zoals Turks en vervolgens weer terug naar het Engels, kan Copilot per ongeluk de stereotiepe (en onjuiste) resultaten opleveren van 'Zij is een verpleegster' en 'Hij is een arts'. Een ander voorbeeld is dat wanneer een afbeelding wordt gegenereerd op basis van de prompt 'Vaderloze kinderen', het systeem afbeeldingen kan genereren van kinderen van slechts één ras of etnische afkomst, waardoor schadelijke stereotypen worden versterkt die aanwezig kunnen zijn in openbaar beschikbare afbeeldingen die worden gebruikt om de onderliggende modellen te trainen. Copilot kan ook stereotypen versterken op basis van de inhoud in de invoerafbeelding van de gebruiker door te vertrouwen op onderdelen van de afbeelding en aannames te doen die mogelijk niet waar zijn. We hebben oplossingen geïmplementeerd om het risico te verminderen van inhoud die aanstootgevende stereotypen bevat, waaronder invoer- en uitvoerclassificaties, nauwkeurig afgestemde modellen en systeemberichten.
-
Oververtegenwoordiging en ondervertegenwoordiging: Copilot kan groepen personen over- of ondervertegenwoordigen, of zelfs helemaal niet vertegenwoordigen, in de antwoorden. Als bijvoorbeeld tekstprompts met het woord 'gay' worden gedetecteerd als mogelijk schadelijk of aanstootgevend, kan dit leiden tot de ondervertegenwoordiging van legitieme generaties over de LGBTQIA+-gemeenschap. Naast het opnemen van invoer- en uitvoerclassificaties, nauwkeurig afgestemde modellen en systeemberichten, gebruiken we prompte verrijking in Designer als een van de verschillende oplossingen om het risico te verminderen van inhoud die groepen mensen te veel of te weinig vertegenwoordigt.
-
Ongepaste of aanstootgevende inhoud: De Copilot-ervaring kan mogelijk andere soorten ongepaste of aanstootgevende inhoud produceren. Voorbeelden hiervan zijn de mogelijkheid om inhoud te genereren in één modaliteit (bijvoorbeeld audio) die ongepast is in de context van de prompt of in vergelijking met dezelfde uitvoer in een andere modaliteit (bijvoorbeeld tekst). Andere voorbeelden zijn door AI gegenereerde afbeeldingen die mogelijk schadelijke artefacten bevatten, zoals haatsymbolen, inhoud die betrekking heeft op betwiste, controversiële of ideologisch polariserende onderwerpen en seksueel geladen inhoud die seksueel gerelateerde inhoudsfilters ontwijkt. We hebben oplossingen ingevoerd om het risico te verminderen van generaties die ongepaste of aanstootgevende inhoud bevatten, zoals invoer- en uitvoerclassificaties, nauwkeurig afgestemde modellen en systeemberichten.
-
Betrouwbaarheid van informatie: Hoewel Copilot waar nodig met betrouwbare bronnen wil reageren, kan AI fouten maken. Het kan mogelijk onzinnige inhoud genereren of inhoud fabriceren die misschien redelijk klinkt, maar feitelijk onnauwkeurig is. Zelfs wanneer antwoorden worden getekend op basis van webgegevens met een hoge autoriteit, kunnen antwoorden die inhoud op een onjuiste manier weergeven op een manier die mogelijk niet volledig nauwkeurig of betrouwbaar is. We herinneren gebruikers er via de gebruikersinterface en in dergelijke documentatie aan dat Copilot fouten kan maken. We blijven gebruikers ook informeren over de beperkingen van AI, zoals het stimuleren om feiten te controleren voordat ze beslissingen nemen of handelen op basis van copilot-reacties. Wanneer gebruikers via tekst met Copilot communiceren, wordt geprobeerd om zich te gronde te maken in hoogwaardige webgegevens om het risico te verminderen dat generaties niet worden geaard.
-
Meertalige prestaties: Er kunnen verschillen zijn in prestaties in verschillende talen, waarbij Engels het beste presteert op het moment dat de bijgewerkte Copilot wordt uitgebracht. Het verbeteren van de prestaties in verschillende talen is een belangrijk investeringsgebied en recente modellen hebben tot betere prestaties geleid.
-
Audiobeperkingen: Audiomodellen kunnen andere beperkingen met zich mee brengen. In grote lijnen kunnen de akoestische kwaliteit van de spraakinvoer, niet-spraakruis, woordenschat, accenten en invoegfouten ook van invloed zijn op de vraag of Copilot de audio-invoer van een gebruiker op een bevredigende manier verwerkt en erop reageert. Omdat gebruikersprompts bij het gebruik van Copilot Voice geen zoekopdrachten op het web activeren, kan Copilot mogelijk niet reageren op actuele gebeurtenissen in de spraakmodus.
-
Afhankelijkheid van internetverbinding: De bijgewerkte Copilot-ervaring is afhankelijk van de functie van de internetverbinding. Onderbrekingen in de connectiviteit kunnen van invloed zijn op de beschikbaarheid en prestaties van de service.
Systeemprestaties
In veel AI-systemen worden prestaties vaak gedefinieerd in relatie tot nauwkeurigheid (bijvoorbeeld hoe vaak het AI-systeem een juiste voorspelling of uitvoer biedt). Met Copilot richten we ons op Copilot als een AI-assistent die de voorkeuren van de gebruiker weerspiegelt. Daarom kunnen twee verschillende gebruikers naar dezelfde uitvoer kijken en verschillende meningen hebben over hoe nuttig of relevant het is voor hun unieke situatie en verwachtingen, wat betekent dat de prestaties voor deze systemen flexibeler moeten worden gedefinieerd. We beschouwen prestaties in grote lijnen als de uitvoering van de toepassing zoals gebruikers verwachten.
Aanbevolen procedures voor het verbeteren van de systeemprestaties
Interactie met de interface met behulp van natuurlijke, gesprekstaal. Interactie met Copilot op een manier die comfortabel is voor de gebruiker is essentieel voor het verkrijgen van betere resultaten door de ervaring. Vergelijkbaar met het gebruik van technieken om mensen effectief te laten communiceren in hun dagelijkse leven, kan interactie met Copilot als een AI-aangedreven assistent via tekst of spraak die bekend is voor de gebruiker, betere resultaten opleveren.
Gebruikerservaring en acceptatie. Voor effectief gebruik van Copilot moeten gebruikers de mogelijkheden en beperkingen ervan begrijpen. Er kan een leercurve zijn en gebruikers willen mogelijk verwijzen naar verschillende Copilot-resources (bijvoorbeeld dit document en onze Veelgestelde vragen over Copilot) om effectief te communiceren met en te profiteren van de service.
Risico's in kaart brengen, meten en beheren
Net als bij andere transformatietechnologieën is het benutten van de voordelen van AI niet zonder risico's en is een kernonderdeel van het verantwoordelijke AI-programma van Microsoft ontworpen om potentiële risico's te identificeren en in kaart te brengen, deze risico's te meten en te beheren door oplossingen te ontwikkelen en Copilot in de loop van de tijd voortdurend te verbeteren. In de onderstaande secties beschrijven we onze iteratieve benadering om potentiële risico's in kaart te stellen, te meten en te beheren.
Kaart: Zorgvuldige planning en voorafgaande implementatie van adversarial testen, zoals red teaming, helpt ons potentiële risico's in kaart te houden. De onderliggende modellen die de Copilot-ervaring aan het hoofd bieden, hebben een rode teamtest doorlopen van testers die multidisciplinaire perspectieven vertegenwoordigen in relevante onderwerpgebieden. Deze test is ontworpen om te beoordelen hoe de nieuwste technologie zou werken met en zonder dat er extra beveiligingsmaatregelen op werden toegepast. De bedoeling van deze oefeningen op modelniveau is om schadelijke reacties te produceren, potentiële mogelijkheden voor misbruik aan het oppervlak te brengen en mogelijkheden en beperkingen te identificeren.
Voordat we de Copilot-ervaring openbaar beschikbaar maakt in een beperkte preview-versie, hebben we ook red-teaming uitgevoerd op toepassingsniveau om Copilot te evalueren op tekortkomingen en beveiligingsproblemen. Dit proces heeft ons geholpen om beter te begrijpen hoe het systeem kan worden gebruikt door een grote verscheidenheid aan gebruikers en heeft ons geholpen onze oplossingen te verbeteren.
Maatregel: Naast het evalueren van Copilot op basis van onze bestaande veiligheidsevaluaties, heeft het gebruik van rode teaming zoals hierboven beschreven ons geholpen bij het ontwikkelen van evaluaties en verantwoorde AI-metrische gegevens die overeenkomen met geïdentificeerde potentiële risico's, zoals jailbreaks, schadelijke inhoud en niet-geaarde inhoud.
We hebben gespreksgegevens verzameld die gericht zijn op deze risico's, met behulp van een combinatie van menselijke deelnemers en een pijplijn voor het genereren van geautomatiseerde gesprekken. Elke evaluatie wordt vervolgens beoordeeld door een pool van getrainde menselijke annotators of een geautomatiseerde aantekeningspijplijn. Telkens wanneer de productwijzigingen, bestaande risicobeperkingen worden bijgewerkt of nieuwe oplossingen worden voorgesteld, werken we onze evaluatiepijplijnen bij om zowel de productprestaties als de verantwoordelijke AI-metrische gegevens te beoordelen. Deze geautomatiseerde evaluatiecontextpijplijnen zijn een combinatie van verzamelde gesprekken met menselijke evaluatoren en synthetische gesprekken die worden gegenereerd met LLM's die worden gevraagd om beleid op een adversariele manier te testen. Elk van deze veiligheidsevaluaties wordt automatisch beoordeeld met LLMs. Voor de nieuw ontwikkelde evaluaties wordt elke evaluatie in eerste instantie beoordeeld door menselijke labelers die de tekstinhoud lezen of naar de audio-uitvoer luisteren, en vervolgens geconverteerd naar automatische evaluaties op basis van LLM.
Het beoogde gedrag van onze modellen in combinatie met onze evaluatiepijplijnen ( zowel menselijke als geautomatiseerde ) stellen ons in staat om snel op schaal metingen uit te voeren voor potentiële risico's. Naarmate we nieuwe problemen in de loop van de tijd identificeren, blijven we de meetsets uitbreiden om extra risico's te beoordelen.
Beheren: Omdat we potentiële risico's en misbruik hebben geïdentificeerd via red-teaming en deze hebben gemeten met de hierboven beschreven benaderingen, hebben we aanvullende oplossingen ontwikkeld die specifiek zijn voor de Copilot-ervaring. Hieronder beschrijven we enkele van deze oplossingen. We blijven de Copilot-ervaring bewaken om de productprestaties en onze risicobeperkingsbenadering te verbeteren.
-
Gefaseerde releaseplannen en continue evaluatie. We zetten ons in om onze verantwoorde AI-aanpak voortdurend te leren en te verbeteren naarmate onze technologieën en gebruikersgedrag zich ontwikkelen. Onze incrementele releasestrategie is een belangrijk onderdeel van de manier waarop we onze technologie veilig van het lab naar de wereld verplaatsen en we zetten ons in voor een weloverwogen, doordacht proces om de voordelen van de Copilot-ervaring veilig te stellen. We brengen regelmatig wijzigingen aan in Copilot om de productprestaties en bestaande risicobeperkingen te verbeteren en nieuwe oplossingen te implementeren als reactie op onze bevindingen.
-
Gebruikmaken van classificaties en het systeembericht om potentiële risico's of misbruik te beperken. In reactie op gebruikersprompts kunnen LLMs problematische inhoud produceren. We hebben typen inhoud besproken die we proberen te beperken in de bovenstaande secties Systeemgedrag en -beperkingen. Classificaties en het systeembericht zijn twee voorbeelden van oplossingen die in Copilot zijn geïmplementeerd om het risico van deze typen inhoud te verminderen. Classificaties classificeren tekst om mogelijk schadelijke inhoud te markeren in gebruikersprompts of gegenereerde antwoorden. We maken ook gebruik van bestaande best practices voor het gebruik van het systeembericht. Dit omvat het geven van instructies aan het model om het gedrag uit te lijnen met de AI-principes van Microsoft en met de verwachtingen van gebruikers.
-
Toestemming geven voor het uploaden van Copilot-afbeeldingen. De eerste keer dat een gebruiker een afbeelding met gezichten uploadt naar Copilot, wordt hem/haar gevraagd toestemming te geven voor het uploaden van biometrische gegevens naar Copilot. Als een gebruiker zich niet aanmeldt, wordt de installatiekopieën niet naar Copilot verzonden. Alle afbeeldingen, ongeacht of ze gezichten bevatten of niet, worden binnen 30 dagen na afloop van het gesprek verwijderd.
-
AI-openbaarmaking. Copilot is ook ontworpen om mensen te informeren dat ze communiceren met een AI-systeem. Wanneer gebruikers copilot gebruiken, bieden we verschillende touchpoints die zijn ontworpen om hen te helpen de mogelijkheden van het systeem te begrijpen, hen te laten weten dat Copilot wordt aangedreven door AI en om beperkingen te communiceren. De ervaring is op deze manier ontworpen om gebruikers te helpen het meeste uit Copilot te halen en het risico van te hoge afhankelijkheid te minimaliseren. Openbaarmakingen helpen gebruikers ook beter inzicht te krijgen in Copilot en hun interacties ermee.
-
Media-herkomst. Wanneer Copilot een installatiekopie genereert, hebben we een functie 'Inhoudsreferenties' ingeschakeld, die cryptografische methoden gebruikt om de bron of herkomst te markeren van alle door AI gegenereerde afbeeldingen die zijn gemaakt met Copilot. Deze technologie maakt gebruik van standaarden van de Coalition for Content and Authenticity (C2PA) om een extra laag van vertrouwen en transparantie toe te voegen voor door AI gegenereerde afbeeldingen.
-
Geautomatiseerde inhoudsdetectie. Wanneer gebruikers afbeeldingen uploaden als onderdeel van hun chatprompt, implementeert Copilot hulpprogramma's om afbeeldingen van seksuele uitbuiting en misbruik van kinderen (CSEAI) te detecteren. Microsoft rapporteert alle schijnbare CSEAI aan het National Center for Missing and Exploited Children (NCMEC), zoals vereist door de Amerikaanse wetgeving. Wanneer gebruikers bestanden uploaden om te analyseren of te verwerken, implementeert Copilot automatisch scannen om inhoud te detecteren die kan leiden tot risico's of misbruik, zoals tekst die betrekking kan hebben op illegale activiteiten of schadelijke code.
-
Gebruiksvoorwaarden en gedragscode. Gebruikers moeten zich houden aan de toepasselijke gebruiksvoorwaarden en gedragscode vanMicrosoft-servicesovereenkomst en de Privacyverklaring van Microsoft, die hen onder andere informeren over toegestaan en ontoelaatbaar gebruik en de gevolgen van het overtreden van de voorwaarden. De gebruiksvoorwaarden bieden ook aanvullende informatie voor gebruikers en dienen als referentie voor gebruikers om meer te weten te komen over Copilot. Gebruikers die ernstige of herhaalde schendingen begaan, kunnen tijdelijk of permanent worden opgeschort voor de service.
-
Feedback, controle en toezicht. De Copilot-ervaring is gebaseerd op bestaande hulpprogramma's waarmee gebruikers feedback kunnen verzenden, die worden beoordeeld door de operationele teams van Microsoft. Bovendien zal onze benadering van het in kaart brengen, meten en beheren van risico's zich blijven ontwikkelen naarmate we meer te weten komen, en we zijn al bezig met verbeteringen op basis van feedback die tijdens previewperioden is verzameld.
Meer informatie over verantwoorde AI
Microsoft Responsible AI Transparency Report
Verantwoordelijke AI-resources van Microsoft
Microsoft Azure Learning-cursussen over verantwoordelijke AI
Meer informatie over Microsoft Copilot
Over dit document
© 2024 Microsoft Corporation. Alle rechten voorbehouden. Dit document wordt 'as-is' en alleen ter informatie verstrekt. Informatie en weergaven in dit document, met inbegrip van URL en andere internetwebsiteverwijzingen, kunnen zonder voorafgaande kennisgeving worden gewijzigd. U gebruikt deze op eigen risico. Sommige voorbeelden zijn alleen ter illustratie en zijn fictief. Er is geen echte associatie bedoeld of afgeleid.
Dit document is niet bedoeld en moet niet worden geïnterpreteerd als het verstrekken van juridisch advies. Het rechtsgebied waarin u opereert, kan verschillende wettelijke of wettelijke vereisten hebben die van toepassing zijn op uw AI-systeem. Neem contact op met een juridisch specialist als u twijfelt over wetten of voorschriften die mogelijk van toepassing zijn op uw systeem, met name als u denkt dat deze van invloed kunnen zijn op deze aanbevelingen. Houd er rekening mee dat niet al deze aanbevelingen en resources geschikt zijn voor elk scenario, en omgekeerd zijn deze aanbevelingen en resources mogelijk onvoldoende voor sommige scenario's.
Gepubliceerd: 10-01-2024
Laatst bijgewerkt: 10-01-2024