Aanmelden met Microsoft
Meld u aan of maak een account.
Hallo,
Selecteer een ander account.
U hebt meerdere accounts
Kies het account waarmee u zich wilt aanmelden.

Laatst bijgewerkt: februari 2024

De basisbeginselen van Copilot in Bing   

Inleiding  

In februari 2023 heeft Microsoft de nieuwe Bing gelanceerd, een met AI verbeterde webzoekervaring. Het ondersteunt gebruikers door webzoekresultaten samen te vatten en een chatervaring te bieden. Gebruikers kunnen ook creatieve inhoud genereren, zoals gedichten, grappen, verhalen en, met Bing Image Creator, afbeeldingen. De nieuwe, met AI verbeterde Bing wordt uitgevoerd op verschillende geavanceerde technologieën van Microsoft en OpenAI, waaronder GPT-4, een geavanceerd model voor grote talen (LLM) en DALL-E, een deep learning-model om digitale afbeeldingen te genereren op basis van beschrijvingen in natuurlijke taal, beide van OpenAI. We hebben maanden voordat de openbare release werd uitgebracht met beide modellen gewerkt om een aangepaste set mogelijkheden en technieken te ontwikkelen om deze geavanceerde AI-technologie en zoekopdrachten op het web te kunnen gebruiken in de nieuwe Bing.  In november 2023 heeft Microsoft de nieuwe naam van Bing gewijzigd in Copilot in Bing.

Bij Microsoft nemen we onze inzet voor verantwoorde AI serieus. De Copilot in Bing-ervaring is ontwikkeld in overeenstemming met de AI-principes van Microsoft, de verantwoordelijke AI-standaard van Microsoft en in samenwerking met verantwoordelijke AI-experts in het hele bedrijf, waaronder Office of Responsible AI van Microsoft, onze technische teams, Microsoft Research en Aether. Meer informatie over verantwoorde AI vindt u hier bij Microsoft.  

In dit document beschrijven we onze aanpak van verantwoordelijke AI voor Copilot in Bing. Voorafgaand aan de release hebben we geavanceerde methoden gebruikt om potentiële risico's en misbruik van het systeem te identificeren, te meten en te beperken en om de voordelen ervan voor gebruikers veilig te stellen. Omdat we Copilot in Bing zijn blijven ontwikkelen sinds de eerste release, zijn we ook onze verantwoorde AI-inspanningen blijven leren en verbeteren. Dit document wordt regelmatig bijgewerkt om onze veranderende processen en methoden te communiceren.   

Sleuteltermen  

Copilot in Bing is een met AI verbeterde webzoekervaring. Omdat het draait op een krachtige, nieuwe technologie, beginnen we met het definiëren van enkele belangrijke termen.  

Machine learning-modellen waarmee u gegevens kunt sorteren in gelabelde klassen of categorieën informatie. In Copilot in Bing gebruiken we onder andere classificaties om mogelijk schadelijke inhoud te detecteren die door gebruikers is ingediend of door het systeem is gegenereerd om het genereren van die inhoud en misbruik of misbruik van het systeem te beperken. 

Copilot in Bing is geaard in zoekresultaten op internet wanneer gebruikers informatie zoeken. Dit betekent dat we het antwoord op de query of prompt van een gebruiker op hoog geplaatste inhoud van internet centreren en dat we koppelingen naar websites bieden, zodat gebruikers meer informatie kunnen krijgen. Bing rangschikt inhoud van zoeken op internet door zwaar te wegen functies zoals relevantie, kwaliteit en geloofwaardigheid, en frisheid. We beschrijven deze concepten gedetailleerder in Hoe Bing zoekresultaten levert (zie 'Kwaliteit en geloofwaardigheid' in 'Hoe Bing zoekresultaten rangschikt').   

We beschouwen geaarde antwoorden als antwoorden van Copilot in Bing waarin verklaringen worden ondersteund door informatie in invoerbronnen, zoals webzoekresultaten van de query of prompt, de Knowledge Base van door feiten gecontroleerde informatie van Bing en, voor de chatervaring, de recente gespreksgeschiedenis van de chat. Niet-geaarde antwoorden zijn antwoorden waarin een instructie niet is geaard in die invoerbronnen.  

Grote taalmodellen (LLMs) in deze context zijn AI-modellen die zijn getraind op grote hoeveelheden tekstgegevens om woorden in reeksen te voorspellen. LLMs kunnen verschillende taken uitvoeren, zoals tekstgeneratie, samenvatting, vertaling, classificatie en meer.  

De metaprompt is een programma dat dient om het gedrag van het systeem te begeleiden. Delen van de metaprompt helpen het systeemgedrag af te stemmen op microsoft AI-principes en verwachtingen van gebruikers. De metaprompt kan bijvoorbeeld een regel bevatten zoals 'communiceren in de gewenste taal van de gebruiker'.  

Een methode of combinatie van methoden die is ontworpen om potentiële risico's te verminderen die kunnen ontstaan door het gebruik van AI-gestuurde functies in Copilot in Bing.  

Tekst, spraak, afbeeldingen en/of andere ingeschakelde query's die een gebruiker naar Bing verzendt als invoer voor het model dat nieuwe AI-gestuurde generatieve ervaringen in Bing mogelijk maakt. Een gebruiker kan bijvoorbeeld de volgende prompt invoeren:  

"Ik plan een reis voor ons jubileum in september. Wat zijn enkele plaatsen die we kunnen gaan binnen een 3-uur durende vlucht van Londen Heathrow?”  

De tekst die een gebruiker naar Bing verzendt vanuit de zoekbalk voor zoeken op het web. In dit document onderscheiden we een query (voor zoeken op internet) van een prompt (voor AI-gestuurde generatieve ervaringen in Bing). Een gebruiker kan bijvoorbeeld de volgende query invoeren om op internet te zoeken:  

"bestemmingen in de buurt van luchthaven Londen Heathrow"  

Technieken die door deskundigen worden gebruikt om de beperkingen en beveiligingsproblemen van een systeem te beoordelen en om de effectiviteit van geplande risicobeperkingen te testen. Rode teamtests en stresstests worden gebruikt om potentiële risico's te identificeren en staan los van het systematisch meten van risico's.   

De tekst, afbeelding, grafieken, enzovoort die Copilot in Bing uitvoert als reactie op een prompt. Synoniemen voor 'antwoord' zijn onder andere 'voltooiing', 'generatie' en 'antwoord'. Bing kan bijvoorbeeld het volgende antwoord geven op de prompt die we hebben gebruikt in de bovenstaande definitie van 'prompt':   

"Gefeliciteerd met uw jubileum! Er zijn veel plaatsen die u kunt gaan binnen een 3-uur durende vlucht van Londen Heathrow. Volgens een bron zijn sommige van de weekendvluchten binnen drie uur met het vliegtuig vanuit Londen Bilbao, Kopenhagen, Reykjavik en Stockholm 1, 2. Een andere bron suggereert dat enkele van de beste plaatsen om te gaan in Europa in september Zijn Krakau, Florence en Lissabon 3, 4. U kunt ook de directe vluchten van Londen Heathrow naar verschillende bestemmingen controleren en zien wat u aanspreekt 5. Ik hoop dat je een geweldige reis hebt!”  

Beoogd gebruik en nieuwe AI-ervaringen  

Copilot in het beoogde gebruik van Bing is om gebruikers te verbinden met relevante zoekresultaten, resultaten van internet te bekijken om antwoorden te vinden en samen te vatten die gebruikers zoeken, gebruikers te helpen hun onderzoek te verfijnen om antwoorden te krijgen met een chatervaring en creativiteit te stimuleren door gebruikers te helpen inhoud te maken. Copilot in de onderstaande generatieve AI-ervaringen van Bing ondersteunen het doel om een ai-aangedreven copilot voor het web te zijn.  

Samenvatting. Wanneer gebruikers een zoekopdracht verzenden op Copilot in Bing, verwerkt het Bing-systeem de query, voert het een of meer zoekopdrachten op het web uit en gebruikt het de belangrijkste zoekresultaten op het web om een samenvatting te genereren van de informatie die aan gebruikers moet worden weergegeven. Deze samenvattingen bevatten verwijzingen om gebruikers te helpen de zoekresultaten te zien en eenvoudig te openen die worden gebruikt om de samenvatting te gronden. Samenvattingen kunnen worden weergegeven aan de rechterkant van de pagina met zoekresultaten en in de chatervaring.  

Chatervaring. Naast samenvattingen kunnen gebruikers chatten met Copilot in het Bing-systeem via tekst, afbeeldingen of spraakinvoer, vervolgvragen stellen om zoekopdrachten te verduidelijken en nieuwe informatie te vinden, en prompts indienen om creatieve inhoud te genereren. Verwijzingen worden ook opgenomen in de chatervaring wanneer Copilot in Bing de zoekresultaten in het antwoord samenvat.   

Genereren van creatieve inhoud. In zowel de chat-ervaring als op de zoekpagina kunnen gebruikers gedichten, grappen, verhalen, afbeeldingen en andere inhoud maken met behulp van Copilot in Bing.  Afbeeldingen worden gemaakt door Designer (de voormalige Bing Image Creator) en gebruikers hebben toegang tot de functie via Designer startpagina en de Copilot-pagina. 

Hoe werkt Copilot in Bing?  

Met Copilot in Bing hebben we een innovatieve aanpak ontwikkeld om geavanceerde LLMs te gebruiken voor zoeken op internet. Wanneer een gebruiker een prompt invoert in Copilot in Bing, worden de prompt, de recente gespreksgeschiedenis, de metaprompt en de belangrijkste zoekresultaten verzonden als invoer naar de LLM. Het model genereert een antwoord met behulp van de prompt van de gebruiker en de recente gespreksgeschiedenis om de aanvraag te contextualiseren, de metaprompt om antwoorden af te stemmen op microsoft AI-principes en gebruikersverwachtingen, en de zoekresultaten om reacties te vinden in bestaande, hoogwaardige inhoud van het web.   

Antwoorden worden in verschillende indelingen aan gebruikers gepresenteerd, zoals traditionele koppelingen naar webinhoud, door AI gegenereerde samenvattingen, afbeeldingen en chatreacties. Samenvattingen en chatreacties die afhankelijk zijn van zoekresultaten op het web, bevatten verwijzingen en een sectie 'Meer informatie' onder de antwoorden, met koppelingen naar zoekresultaten die zijn gebruikt om het antwoord te gronden. Gebruikers kunnen op deze koppelingen klikken voor meer informatie over een onderwerp en de informatie die wordt gebruikt om de samenvatting of chatreactie te gronden.    

In de Copilot-ervaring kunnen gebruikers webzoekopdrachten in gesprek uitvoeren door context toe te voegen aan hun prompt en te communiceren met de systeemantwoorden om hun zoekinteresses verder op te geven. Een gebruiker kan bijvoorbeeld vervolgvragen stellen, aanvullende verduidelijkende informatie aanvragen of op een gesprekswijze reageren op het systeem. In de chatervaring kunnen gebruikers ook een antwoord selecteren uit vooraf geschreven suggesties, die we chatsuggesties noemen. Deze knoppen worden weergegeven na elke reactie van Copilot en bieden suggesties om het gesprek binnen de chatervaring voort te zetten. Chatsuggesties worden naast samengevatte inhoud ook weergegeven op de pagina met zoekresultaten als ingangspunt voor de chatervaring.  

Met Copilot in Bing kan een gebruiker ook verhalen, gedichten, songteksten en afbeeldingen maken met behulp van Bing. Wanneer Copilot in Bing de intentie van de gebruiker detecteert om creatieve inhoud te genereren (de prompt begint bijvoorbeeld met 'schrijf me een...'), genereert het systeem in de meeste gevallen inhoud die reageert op de prompt van de gebruiker. Op dezelfde manier, wanneer Copilot in Bing de intentie van de gebruiker detecteert om een afbeelding te genereren (de prompt begint bijvoorbeeld met 'teken mij een...'), genereert het systeem in de meeste gevallen een afbeelding die reageert op de prompt van de gebruiker. In Visual Search in Chat-ervaring, met een afbeelding die is gemaakt door de camera van de gebruiker, geüpload vanaf het apparaat van de gebruiker of is gekoppeld vanaf internet, kunnen gebruikers Copilot in Bing vragen de context te begrijpen, te interpreteren en vragen over de afbeelding te beantwoorden.  Gebruikers kunnen hun bestanden ook uploaden naar Copilot om informatie van hen te interpreteren, converteren, verwerken of berekenen. In de Microsoft Designer ervaring waartoe gebruikers toegang hebben via Copilot in Bing, kunnen gebruikers niet alleen afbeeldingen genereren met behulp van prompts, maar ook het formaat ervan wijzigen of opnieuw styleen, of bewerken, zoals achtergrondvervaging of kleuren levendiger maken. 

Gebruikers met Microsoft-accounts (MSA) hebben nu ook een optie om zich te abonneren op Copilot Pro die een verbeterde ervaring biedt, waaronder versnelde prestaties, sneller maken van AI-installatiekopieën en binnenkort de mogelijkheid om uw eigen Copilot-GPT's te maken. Copilot Pro is momenteel beschikbaar in beperkte landen en we zijn van plan om Copilot Pro binnenkort beschikbaar te maken in meer markten.

In de Copilot-ervaring hebben gebruikers toegang tot Copilot GPT's. Een Copilot GPT, zoals Designer GPT, is een aangepaste versie van Microsoft Copilot voor een onderwerp dat voor u van bijzonder belang is, zoals fitness, reizen en koken, waarmee u vage of algemene ideeën kunt omzetten in specifiekere prompts met uitvoer, waaronder teksten en afbeeldingen. In Copilot kunnen gebruikers beschikbare Copilot GPT's zien en gebruikers met Copilot Pro-accounts hebben binnenkort toegang tot de Copilot GPT Builder, een functie waarmee gebruikers een aangepaste Copilot GPT kunnen maken en configureren. De hierboven genoemde verantwoordelijke AI-oplossingen voor Copilot in Bing zijn van toepassing op Copilot GPT's.

Ga hier voor meer informatie over hoe Copilot Pro en Copilot GPT's werken.

Copilot in Bing streeft ernaar om diverse en uitgebreide zoekresultaten te bieden met zijn inzet voor gratis en open toegang tot informatie. Tegelijkertijd houden onze inspanningen op het gebied van productkwaliteit zich in om onbedoelde promotie van mogelijk schadelijke inhoud bij gebruikers te voorkomen. Meer informatie over hoe Bing inhoud rangschikt, inclusief hoe het relevantie en de kwaliteit en geloofwaardigheid van een webpagina definieert, vindt u in de 'Bing Webmaster Guidelines'.   Meer informatie over de inhoudsbeheerprincipes van Bing vindt u in 'Hoe Bing zoekresultaten levert'.   

Risico's identificeren, meten en beperken  

Net als bij andere transformationele technologieën is het benutten van de voordelen van AI niet zonder risico's en is een kernonderdeel van het verantwoordelijke AI-programma van Microsoft ontworpen om potentiële risico's te identificeren, de kans op het optreden ervan te meten en oplossingen te ontwikkelen om deze aan te pakken. Op basis van onze AI-principes en onze verantwoordelijke AI-standaard hebben we geprobeerd potentiële risico's en misbruik van Copilot in Bing te identificeren, te meten en te beperken en tegelijkertijd de transformatieve en nuttige toepassingen te beveiligen die de nieuwe ervaring biedt. In de onderstaande secties beschrijven we onze iteratieve aanpak voor het identificeren, meten en beperken van potentiële risico's.   

Op modelniveau zijn we in de late zomer van 2022 begonnen met verkennende analyses van GPT-4. Dit omvat het uitvoeren van uitgebreide rode teamtests in samenwerking met OpenAI. Deze test is ontworpen om te beoordelen hoe de nieuwste technologie zou werken zonder dat er extra beveiligingsmaatregelen op werden toegepast. Onze specifieke bedoeling op dit moment was om schadelijke reacties te produceren, potentiële wegen voor misbruik aan het hoofd te brengen en mogelijkheden en beperkingen te identificeren. Onze gecombineerde lessen in OpenAI en Microsoft droegen bij aan de vooruitgang in modelontwikkeling en, voor ons bij Microsoft, ons inzicht in risico's en droegen bij aan vroege risicobeperkingsstrategieën voor Copilot in Bing.  

Naast het testen van rode teams op modelniveau heeft een multidisciplinair team van experts talloze rondes van tests op toepassingsniveau uitgevoerd op Copilot in Bing AI ervaringen voordat ze openbaar beschikbaar werden gemaakt in onze beperkte preview-versie. Dit proces heeft ons geholpen om beter te begrijpen hoe het systeem kan worden misbruikt door kwaadwillende actoren en onze oplossingen te verbeteren. Niet-adversarial stress-testers hebben nieuwe Bing-functies ook uitgebreid geëvalueerd op tekortkomingen en beveiligingsproblemen. Na de release zijn de nieuwe AI-ervaringen in Bing geïntegreerd in de bestaande infrastructuur voor productiemetingen en -tests van de technische organisatie van Bing. Rode teamtesters uit verschillende regio's en achtergronden proberen bijvoorbeeld voortdurend en systematisch het systeem te compromitteren. Hun bevindingen worden gebruikt om de gegevenssets uit te breiden die Bing gebruikt om het systeem te verbeteren.  

Het testen van rode teams en stresstests kunnen gevallen van specifieke risico's aan het oppervlak krijgen, maar in productie hebben gebruikers miljoenen verschillende soorten gesprekken met Copilot in Bing. Bovendien zijn gesprekken multi-turnen en contextueel, en het identificeren van schadelijke inhoud binnen een gesprek is een complexe taak. Om de risico's in Copilot in Bing AI ervaringen beter te begrijpen en aan te pakken, hebben we aanvullende verantwoorde AI-metrische gegevens ontwikkeld die specifiek zijn voor die nieuwe AI-ervaringen voor het meten van potentiële risico's, zoals jailbreaks, schadelijke inhoud en niet-geaarde inhoud. We hebben ook metingen op schaal ingeschakeld via gedeeltelijk geautomatiseerde meetpijplijnen. Telkens wanneer de productwijzigingen, bestaande oplossingen worden bijgewerkt of nieuwe oplossingen worden voorgesteld, werken we onze meetpijplijnen bij om zowel de productprestaties als de verantwoordelijke AI-metrische gegevens te beoordelen.  

Als illustratief voorbeeld bevat de bijgewerkte gedeeltelijk geautomatiseerde meetpijplijn voor schadelijke inhoud twee belangrijke innovaties: gesprekssimulatie en geautomatiseerde, door mensen geverifieerde gespreksaantekening. Ten eerste hebben verantwoordelijke AI-experts sjablonen gebouwd om de structuur en inhoud van gesprekken vast te leggen die kunnen leiden tot verschillende soorten schadelijke inhoud. Deze sjablonen werden vervolgens gegeven aan een gespreksagent die als een hypothetische gebruiker communiceerde met Copilot in Bing, waardoor gesimuleerde gesprekken werden gegenereerd. Om te bepalen of deze gesimuleerde gesprekken schadelijke inhoud bevatten, hebben we richtlijnen genomen die doorgaans worden gebruikt door deskundige linguïsten om gegevens te labelen en deze te wijzigen voor gebruik door GPT-4 om gesprekken op schaal te labelen, waarbij we de richtlijnen verfijnen totdat er significante overeenstemming was tussen gesprekken met modellabels en gesprekken met een menselijk label. Ten slotte hebben we de gesprekken met modellabels gebruikt om een verantwoorde AI-metrische waarde te berekenen die de effectiviteit van Copilot in Bing vastlegt bij het beperken van schadelijke inhoud.   

Met onze meetpijplijnen kunnen we snel op schaal meten voor potentiële risico's. Terwijl we nieuwe problemen identificeren tijdens de preview-periode en doorlopende tests van rode teams, blijven we de meetsets uitbreiden om extra risico's te beoordelen.  

Omdat we potentiële risico's en misbruik hebben geïdentificeerd via processen zoals het testen van rode teams en stresstests en deze hebben gemeten met de innovatieve benaderingen die hierboven worden beschreven, hebben we aanvullende oplossingen ontwikkeld voor de oplossingen die worden gebruikt voor traditionele zoekopdrachten. Hieronder beschrijven we enkele van deze oplossingen. We blijven de Copilot in Bing AI ervaringen bewaken om de productprestaties en risicobeperkingen te verbeteren.  

Gefaseerde release, continue evaluatie. We zetten ons in om onze verantwoorde AI-aanpak voortdurend te leren en te verbeteren naarmate onze technologieën en gebruikersgedrag zich ontwikkelen. Onze incrementele releasestrategie is een belangrijk onderdeel van de manier waarop we onze technologie veilig van de labs naar de wereld verplaatsen en we zetten ons in voor een weloverwogen, doordacht proces om de voordelen van Copilot in Bing veilig te stellen. Door het aantal personen met toegang tijdens de preview-periode te beperken, kunnen we ontdekken hoe mensen Copilot in Bing gebruiken, inclusief hoe mensen deze kunnen misbruiken, zodat we kunnen proberen nieuwe problemen te verhelpen voordat ze een bredere release krijgen. We vereisen bijvoorbeeld dat gebruikers zich verifiëren met hun Microsoft-account voordat ze toegang krijgen tot de volledige nieuwe Bing-ervaring. Niet-geverifieerde gebruikers hebben slechts toegang tot een beperkte preview van de ervaring. Deze stappen ontmoedigen misbruik en helpen ons om (indien nodig) de juiste actie te ondernemen als reactie op schendingen van de gedragscode.  We brengen dagelijks wijzigingen aan in Copilot in Bing om de productprestaties te verbeteren, bestaande oplossingen te verbeteren en nieuwe oplossingen te implementeren als reactie op onze bevindingen tijdens de preview-periode.  

Aarding in zoekresultaten. Zoals hierboven vermeld, is Copilot in Bing ontworpen om antwoorden te bieden die worden ondersteund door de informatie in zoekresultaten op internet wanneer gebruikers informatie zoeken. Het systeem krijgt bijvoorbeeld tekst uit de bovenste zoekresultaten en instructies via de metaprompt om de reactie te aarden. Bij het samenvatten van inhoud van het web kan Copilot in Bing echter informatie in het antwoord opnemen die niet aanwezig is in de invoerbronnen. Met andere woorden, het kan niet-geaarde resultaten opleveren. Uit onze eerdere evaluaties is gebleken dat niet-geaarde resultaten in chat vaker voorkomen voor bepaalde typen prompts of onderwerpen dan andere, zoals het vragen om wiskundige berekeningen, financiële of marktinformatie (bijvoorbeeld bedrijfswinsten, gegevens over de prestaties van aandelen) en informatie zoals exacte datums van gebeurtenissen of specifieke prijzen van artikelen. Gebruikers moeten altijd voorzichtig zijn en hun beste beoordelingsvermogen gebruiken bij het weergeven van samengevatte zoekresultaten, of dit nu op de pagina met zoekresultaten of in de chatervaring is. We hebben verschillende maatregelen genomen om het risico te beperken dat gebruikers te veel vertrouwen op niet-geaarde gegenereerde inhoud in samenvattingsscenario's en chatervaringen. Antwoorden in Copilot in Bing die zijn gebaseerd op zoekresultaten bevatten bijvoorbeeld verwijzingen naar de bronwebsites voor gebruikers om het antwoord te verifiëren en meer te leren. Gebruikers krijgen ook een expliciete melding dat ze interactie hebben met een AI-systeem en wordt geadviseerd om het bronmateriaal voor webresultaten te controleren om hen te helpen hun beste beoordelingsvermogen te gebruiken.  

Op AI gebaseerde classificaties en metaprompting om potentiële risico's of misbruik te beperken. Het gebruik van LLMs kan problematische inhoud opleveren die tot risico's of misbruik kan leiden. Voorbeelden hiervan zijn uitvoer met betrekking tot zelfbeschadiging, geweld, grafische inhoud, intellectueel eigendom, onnauwkeurige informatie, haatzaaiende spraak of tekst die betrekking kan hebben op illegale activiteiten. Classificaties en metaprompting zijn twee voorbeelden van oplossingen die zijn geïmplementeerd in Copilot in Bing om het risico van deze typen inhoud te verminderen. Classificaties classificeren tekst om verschillende typen mogelijk schadelijke inhoud te markeren in zoekquery's, chatprompts of gegenereerde antwoorden. Bing maakt gebruik van op AI gebaseerde classificaties en inhoudsfilters, die van toepassing zijn op alle zoekresultaten en relevante functies; we hebben extra promptclassificaties en inhoudsfilters speciaal ontworpen om mogelijke risico's aan te pakken die door de Copilot in Bing-functies worden veroorzaakt. Vlaggen leiden tot mogelijke risicobeperkingen, zoals het niet retourneren van gegenereerde inhoud aan de gebruiker, het omleiden van de gebruiker naar een ander onderwerp of het omleiden van de gebruiker naar traditionele zoekopdrachten. Metaprompting omvat het geven van instructies aan het model om het gedrag te begeleiden, waaronder dat het systeem zich gedraagt in overeenstemming met de AI-principes en verwachtingen van gebruikers van Microsoft. De metaprompt kan bijvoorbeeld een regel bevatten zoals 'communiceren in de gewenste taal van de gebruiker'.   

Privacy beschermen in Visual Search in Copilot in Bing. Wanneer gebruikers een afbeelding uploaden als onderdeel van hun chatprompt, gebruikt Copilot in Bing gezichtsvervagingstechnologie voordat de afbeelding naar het AI-model wordt verzonden. Gezichtsvervaging wordt gebruikt om de privacy van personen in de afbeelding te beschermen. De technologie voor gezichtsvervaging is afhankelijk van context-aanwijzingen om te bepalen waar te vervagen en zal proberen alle gezichten te vervagen. Als de gezichten wazig zijn, kan het AI-model de ingevoerde afbeelding vergelijken met die van openbaar beschikbare afbeeldingen op internet. Als gevolg hiervan kan Copilot in Bing bijvoorbeeld een beroemde basketbalspeler identificeren op basis van een foto van die speler op een basketbalveld door een numerieke weergave te maken die het shirtnummer, de kleur van de jersey van de speler, de aanwezigheid van een basketbalhoepel, enzovoort weerspiegelt. Copilot in Bing slaat geen numerieke representaties op van personen van geüploade afbeeldingen en deelt deze niet met derden. Copilot in Bing maakt gebruik van numerieke weergaven van de afbeeldingen die gebruikers alleen uploaden om te reageren op vragen van gebruikers. Vervolgens worden ze binnen 30 dagen na het einde van de chat verwijderd.    

Als de gebruiker Copilot in Bing om informatie vraagt over een geüploade afbeelding, kunnen chatreacties de impact van gezichtsvervaging weergeven op de mogelijkheid van het model om informatie te verstrekken over de geüploade afbeelding. Copilot in Bing kan bijvoorbeeld iemand beschrijven als iemand met een wazig gezicht.    

Gespreksdrift beperken. Tijdens de preview-periode hebben we geleerd dat zeer lange chatsessies kunnen resulteren in antwoorden die herhalend, nutteloos of inconsistent zijn met Copilot in de beoogde toon van Bing. Om deze gespreksdrift te verhelpen, hebben we het aantal beurten (uitwisselingen die zowel een vraag van een gebruiker als een antwoord van Copilot in Bing bevatten) per chatsessie beperkt. We blijven aanvullende benaderingen evalueren om dit probleem te verhelpen.  

Snelle verrijking. In sommige gevallen kan de prompt van een gebruiker dubbelzinnig zijn. Wanneer dit gebeurt, kan Copilot in Bing de LLM gebruiken om meer details in de prompt op te bouwen, zodat gebruikers het antwoord krijgen dat ze zoeken. Een dergelijke snelle verrijking is niet afhankelijk van enige kennis van de gebruiker of zijn eerdere zoekopdrachten, maar in plaats daarvan van het AI-model. Deze herziene query's zijn zichtbaar in de chatgeschiedenis van de gebruiker en kunnen, net als andere zoekopdrachten, worden verwijderd met behulp van besturingselementen in het product.  

Gebruikersgerichte ontwerp- en gebruikerservaringsinterventies. Gebruikersgericht ontwerp en gebruikerservaringen zijn een essentieel aspect van microsofts benadering van verantwoorde AI. Het doel is om productontwerp te laten aansluiten bij de behoeften en verwachtingen van gebruikers. Wanneer gebruikers voor het eerst met Copilot in Bing communiceren, bieden we verschillende aanraakpunten die zijn ontworpen om hen te helpen de mogelijkheden van het systeem te begrijpen, hen te laten weten dat Copilot in Bing wordt aangedreven door AI en om beperkingen te communiceren. De ervaring is op deze manier ontworpen om gebruikers te helpen het meeste uit Copilot in Bing te halen en het risico van te hoge afhankelijkheid te minimaliseren. Elementen van de ervaring helpen gebruikers ook beter inzicht te krijgen in Copilot in Bing en hun interacties ermee. Deze omvatten chatsuggesties die specifiek zijn voor verantwoordelijke AI (bijvoorbeeld hoe gebruikt Bing AI? Waarom reageert Copilot in Bing niet op bepaalde onderwerpen?), uitleg van beperkingen, manieren waarop gebruikers meer kunnen leren over hoe het systeem werkt en feedback kunnen rapporteren, en eenvoudig navigeerbare verwijzingen die worden weergegeven in antwoorden om gebruikers de resultaten en pagina's te laten zien waarop antwoorden zijn gebaseerd.  

AI-openbaarmaking. Copilot in Bing biedt verschillende contactpunten voor zinvolle AI-openbaarmaking waarbij gebruikers worden geïnformeerd dat ze communiceren met een AI-systeem, evenals mogelijkheden voor meer informatie over Copilot in Bing. Door gebruikers deze kennis te bieden, kunnen ze voorkomen dat ze te veel vertrouwen op AI en meer te weten komen over de sterke punten en beperkingen van het systeem.  

Media-herkomst.Microsoft Designer heeft de functie 'Inhoudsreferenties' ingeschakeld, die cryptografische methoden gebruikt om de bron of herkomst te markeren van alle door AI gegenereerde afbeeldingen die zijn gemaakt op Designer. De functie onzichtbaar digitaal watermerk toont de bron, tijd en datum van de oorspronkelijke aanmaak, en deze informatie kan niet worden gewijzigd. De technologie maakt gebruik van standaarden van de Coalition for Content and Authenticity (C2PA) om een extra vertrouwenslaag en transparantie toe te voegen voor door AI gegenereerde afbeeldingen. Microsoft is mede-oprichter van C2PA en heeft bijgedragen met de belangrijkste technologie voor de herkomst van digitale inhoud. 

Gebruiksvoorwaarden en gedragscode. Deze resource bepaalt het gebruik van Copilot in Bing. Gebruikers dienen zich te houden aan de Gebruiksvoorwaarden en gedragscode, die hen onder andere informeert over toegestaan en ontoelaatbaar gebruik en de gevolgen van het overtreden van voorwaarden. De gebruiksvoorwaarden bieden ook aanvullende informatie voor gebruikers en dienen als een handige referentie voor gebruikers om meer te weten te komen over Copilot in Bing.   

Bewerkingen en snelle reactie. We gebruiken Copilot ook in de doorlopende bewakings- en operationele processen van Bing om aan te pakken wanneer Copilot in Bing signalen ontvangt of een rapport ontvangt dat wijst op mogelijk misbruik of schendingen van de gebruiksvoorwaarden of gedragscode.  

Feedback, controle en toezicht. De Copilot in Bing-ervaring is gebaseerd op bestaande hulpprogramma's waarmee gebruikers feedback kunnen indienen en zorgen kunnen melden, die worden beoordeeld door de operationele teams van Microsoft. De operationele processen van Bing zijn ook uitgebreid om ruimte te bieden aan de functies van Copilot in Bing Experience, bijvoorbeeld door de pagina Een probleem melden bij te werken met de nieuwe typen inhoud die gebruikers genereren met behulp van het model.   

Onze benadering voor het identificeren, meten en beperken van risico's zal zich blijven ontwikkelen naarmate we meer te weten komen en we zijn al bezig met verbeteringen op basis van feedback die tijdens de preview-periode is verzameld.     

Geautomatiseerde inhoudsdetectie. Wanneer gebruikers afbeeldingen uploaden als onderdeel van hun chatprompt, implementeert Copilot in Bing hulpprogramma's om afbeeldingen van seksuele uitbuiting en misbruik van kinderen (CSEAI) te detecteren, met name PhotoDNA hash-matching-technologie. Microsoft heeft PhotoDNA ontwikkeld om duplicaten van bekende CSEAI te vinden. Microsoft rapporteert alle schijnbare CSEAI aan het National Center for Missing and Exploited Children (NCMEC), zoals vereist door de Amerikaanse wetgeving. Wanneer gebruikers bestanden uploaden om te analyseren of te verwerken, implementeert Copilot automatisch scannen om inhoud te detecteren die kan leiden tot risico's of misbruik, zoals tekst die betrekking kan hebben op illegale activiteiten of schadelijke code.

Privacy beschermen  

Het al lang bestaande geloof van Microsoft dat privacy een fundamenteel mensenrecht is, heeft elke fase van de ontwikkeling en implementatie van Copilot door Microsoft in Bing-ervaring bepaald. Onze toezeggingen om de privacy van alle gebruikers te beschermen, met inbegrip van het bieden van transparantie en controle over hun gegevens en het integreren van privacy by design via gegevensminimalisatie en doelbeperking, zijn fundamenteel voor Copilot in Bing. Naarmate we onze aanpak ontwikkelen om de Copilot te bieden in de generatieve AI-ervaringen van Bing, zullen we voortdurend onderzoeken hoe we privacy het beste kunnen beschermen. Dit document wordt bijgewerkt terwijl we dit doen. Meer informatie over hoe Microsoft de privacy van onze gebruikers beschermt, vindt u in de Privacyverklaring van Microsoft.  

Microsoft blijft rekening houden met de behoeften van kinderen en jongeren als onderdeel van de risico-evaluaties van nieuwe generatieve AI-functies in Copilot in Bing. Alle Microsoft-kinderaccounts die de gebruiker identificeren als jonger dan 13 jaar of zoals anderszins is opgegeven onder de lokale wetgeving, kunnen zich niet aanmelden om toegang te krijgen tot de volledige nieuwe Bing-ervaring.   

Zoals hierboven beschreven, hebben we voor alle gebruikers beveiligingsmaatregelen geïmplementeerd die mogelijk schadelijke inhoud beperken. In Copilot in Bing worden de resultaten ingesteld als in de strikte modus van Bing SafeSearch, die het hoogste beveiligingsniveau heeft in de hoofdzoekfunctie van Bing, waardoor wordt voorkomen dat gebruikers, waaronder tienergebruikers, worden blootgesteld aan mogelijk schadelijke inhoud. Naast informatie die we in dit document en in onze veelgestelde vragen over chatfuncties hebben verstrekt, vindt u hier meer informatie over hoe Copilot in Bing werkt om te voorkomen dat er onverwachte aanstootgevende inhoud in zoekresultaten wordt weergegeven.  

Microsoft heeft zich ertoe verbonden geen gepersonaliseerde advertenties op basis van onlinegedrag te leveren aan kinderen van wie de geboortedatum in hun Microsoft-account identificeert dat ze jonger zijn dan 18 jaar. Deze belangrijke beveiliging wordt uitgebreid tot advertenties in Copilot in Bing-functies. Gebruikers kunnen contextuele advertenties zien op basis van de query of prompt die wordt gebruikt voor interactie met Bing.  

Om het transformatieve potentieel van generatieve AI te ontsluiten, moeten we vertrouwen in de technologie opbouwen door individuen in staat te stellen te begrijpen hoe hun gegevens worden gebruikt en hen zinvolle keuzes en besturingselementen te bieden voor hun gegevens. Copilot in Bing is ontworpen om prioriteit te geven aan menselijk agentschap, door informatie te verstrekken over hoe het product werkt en de beperkingen ervan, en door onze robuuste consumentenkeuzes en -besturingselementen uit te breiden naar Copilot in Bing-functies.   

De Privacyverklaring van Microsoft bevat informatie over onze transparante privacyprocedures voor het beschermen van onze klanten en bevat informatie over de besturingselementen die onze gebruikers de mogelijkheid bieden om hun persoonlijke gegevens te bekijken en te beheren. Om ervoor te zorgen dat gebruikers over de informatie beschikken die ze nodig hebben wanneer ze communiceren met de nieuwe gespreksfuncties van Bing, informeren openbaarmakingen in het product gebruikers dat ze een AI-product gebruiken en bieden we koppelingen naar meer veelgestelde vragen en uitleg over hoe deze functies werken. Microsoft blijft luisteren naar feedback van gebruikers en voegt zo nodig meer details toe over de gespreksfuncties van Bing om inzicht te krijgen in de manier waarop het product werkt.   

Microsoft biedt haar gebruikers ook robuuste hulpmiddelen om hun rechten op hun persoonlijke gegevens uit te oefenen. Voor gegevens die door Copilot in Bing worden verzameld, inclusief via query's en prompts van gebruikers, biedt het Microsoft Privacy Dashboard geverifieerde (aangemelde) gebruikers hulpmiddelen om hun rechten van betrokkenen uit te oefenen, waaronder door gebruikers de mogelijkheid te bieden om de opgeslagen gespreksgeschiedenis weer te geven, te exporteren en te verwijderen. Microsoft blijft feedback geven over hoe ze hun nieuwe Bing-ervaring willen beheren, onder andere door gebruik te maken van ervaringen voor gegevensbeheer in context.   

Copilot in Bing honoreert ook verzoeken onder het Europese recht om te worden vergeten, na het proces dat Microsoft heeft ontwikkeld en verfijnd voor de traditionele zoekfunctionaliteit van Bing. Alle gebruikers kunnen hier zorgen melden met betrekking tot gegenereerde inhoud en reacties, en onze Europese gebruikers kunnen dit formulier gebruiken om aanvragen in te dienen om zoekresultaten in Europa te blokkeren onder het recht om te worden vergeten.   

Copilot in Bing respecteert de privacykeuzes van gebruikers, inclusief de keuzes die eerder in Bing zijn gemaakt, zoals toestemming voor het verzamelen en gebruiken van gegevens die wordt aangevraagd via cookiebanners en besturingselementen die beschikbaar zijn in het Microsoft Privacydashboard. Om gebruikersautonomie en agentschap in staat te stellen weloverwogen beslissingen te nemen, hebben we ons interne beoordelingsproces gebruikt om zorgvuldig te onderzoeken hoe keuzes aan gebruikers worden gepresenteerd. 

Naast de besturingselementen die beschikbaar zijn via het Microsoft-privacydashboard, waarmee gebruikers hun zoekgeschiedenis kunnen bekijken, exporteren en verwijderen, inclusief onderdelen van hun chatgeschiedenis, kunnen geverifieerde gebruikers die de functie Chatgeschiedenis in het product hebben ingeschakeld, de chatgeschiedenis bekijken, openen en downloaden via besturingselementen in het product. Gebruikers kunnen specifieke chats op elk gewenst moment wissen uit de chatgeschiedenis of de functionaliteit van de chatgeschiedenis volledig uitschakelen door naar de pagina Bing-instellingen te gaan. Gebruikers kunnen er ook voor kiezen om persoonlijke instellingen toegang te geven tot een meer op maat gemaakte ervaring met persoonlijke antwoorden. Gebruikers kunnen zich op elk gewenst moment aanmelden en afmelden voor persoonlijke instellingen in Chatinstellingen op de pagina Bing-instellingen.  Als u bepaalde chats wist uit de chatgeschiedenis, kunnen deze niet worden gebruikt voor persoonlijke instellingen.  
 
Meer informatie over chatgeschiedenis en persoonlijke instellingen vindt u in Copilot in Veelgestelde vragen over Bing. 

Copilot in Bing is gebouwd met het oog op privacy, zodat persoonlijke gegevens alleen worden verzameld en gebruikt als dat nodig is en niet langer worden bewaard dan nodig is. Zoals hierboven vermeld, implementeert de functie Visual Search in Copilot in Bing een mechanisme dat gezichten in de afbeeldingen vervaagt op het moment van uploaden door gebruikers, zodat gezichtsafbeeldingen niet verder worden verwerkt of opgeslagen. Meer informatie over de persoonlijke gegevens die Bing verzamelt, hoe deze worden gebruikt en hoe deze worden opgeslagen en verwijderd, vindt u in de Privacyverklaring van Microsoft, die ook informatie bevat over de nieuwe chatfuncties van Bing.   

Copilot in Bing heeft beleid voor het bewaren en verwijderen van gegevens om ervoor te zorgen dat persoonlijke gegevens die via de chatfuncties van Bing worden verzameld, alleen worden bewaard zolang als nodig is.   

We zullen onze aanpak bij het leveren van Copilot in Bing blijven leren en verder ontwikkelen, en terwijl we dat doen, zullen we blijven werken aan verschillende disciplines om onze AI-innovatie in overeenstemming te brengen met menselijke waarden en fundamentele rechten, waaronder het beschermen van jonge gebruikers en privacy.   

Copilot met commerciële gegevensbescherming 

Copilot met commerciële gegevensbescherming, voorheen bekend als Bing Chat Enterprise ("BCE"), is in juli 2023 door Microsoft in gratis openbare preview uitgebracht als een gratis invoegtoepassing voor bepaalde M365-klanten. Copilot met commerciële gegevensbeveiliging is een met AI verbeterde webzoekervaring voor zakelijke eindgebruikers. 

Net als bij Copilot in Bing, wanneer een eindgebruiker van Copilot met commerciële gegevensbeveiliging een prompt in de interface invoert, worden de prompt, het directe gesprek, de belangrijkste zoekresultaten en metaprompt verzonden als invoer naar de LLM. Het model genereert een antwoord met behulp van de prompt- en directe gespreksgeschiedenis om de aanvraag te contextualiseren, de metaprompt om antwoorden af te stemmen op microsoft AI-principes en de verwachtingen van gebruikers, en de zoekresultaten om reacties te vinden in bestaande, hoogwaardige inhoud van het web. Dit werkt op dezelfde manier als Copilot in Bing zoals hierboven in dit document is beschreven, met de uitzondering dat Copilot met commerciële gegevensbeveiliging alleen afhankelijk is van directe gespreksgeschiedenis (niet recente gespreksgeschiedenis) omdat de opgeslagen chatgeschiedenis momenteel geen ondersteunde functie is. Designer en Visual Search zijn nu beschikbaar in deze versie. 

Net als bij andere transformationele technologieën is het benutten van de voordelen van AI niet zonder risico's en is een kernonderdeel van het verantwoordelijke AI-programma van Microsoft ontworpen om potentiële risico's te identificeren, de kans op het optreden ervan te meten en oplossingen te ontwikkelen om deze aan te pakken. Nogmaals, de bovenstaande beschrijving van de inspanningen van Microsoft om potentiële risico's voor Copilot in Bing te identificeren, te meten en te beperken, is ook van toepassing op deze versie, met enkele verduidelijkingen over risicobeperkingen die hieronder worden beschreven: 

Gefaseerde release, continue evaluatie. Net als bij Copilot Bing hebben we voor Copilot met commerciële gegevensbeveiliging ook een benadering voor incrementele release gebruikt. Op 18 juli 2023 kwam Copilot met commerciële gegevensbeveiliging beschikbaar als gratis preview voor in aanmerking komende zakelijke klanten met specifieke M365-accounts om in te schakelen voor hun zakelijke eindgebruikers. Dertig (30) dagen na het melden van in aanmerking komende zakelijke klanten, werd Copilot met commerciële gegevensbeveiliging 'default on' voor diezelfde klanten. Copilot met commerciële gegevensbescherming is sindsdien ook beschikbaar geworden voor specifieke M365-accounts van onderwijsmedewerkers. Copilot met commerciële gegevensbeveiliging is op 1 december 2023 algemeen beschikbaar geworden voor bepaalde zakelijke klanten. In de toekomst zijn we van plan om de toegang tot Copilot met commerciële gegevensbeveiliging uit te breiden naar meer Microsoft Entra ID gebruikers.

Gebruiksvoorwaarden en gedragscode. Eindgebruikers van Copilot met commerciële gegevensbescherming moeten zich houden aan de gebruiksvoorwaarden voor eindgebruikers. Deze Gebruiksvoorwaarden informeren eindgebruikers over toegestaan en ontoelaatbaar gebruik en de gevolgen van het schenden van voorwaarden.  

Bewerkingen en snelle reactie. We gebruiken Copilot ook in de doorlopende bewakings- en operationele processen van Bing om aan te pakken wanneer Copilot met commerciële gegevensbeveiliging signalen ontvangt of een rapport ontvangt dat mogelijk misbruik of schendingen van de gebruiksvoorwaarden voor eindgebruikers aangeeft. 

Feedback, controle en toezicht. Copilot met commerciële gegevensbeveiliging maakt gebruik van dezelfde hulpprogramma's als Copilot in Bing voor gebruikers om feedback te geven en zorgen te melden, die worden beoordeeld door de operationele teams van Microsoft. Copilot in de operationele processen van Bing is ook uitgebreid om ruimte te bieden aan de functies in Copilot met commerciële gegevensbescherming, bijvoorbeeld door de pagina Een probleem melden bij te werken met de nieuwe typen inhoud die gebruikers genereren met behulp van het model.  

Om ervoor te zorgen dat eindgebruikers de informatie hebben die ze nodig hebben wanneer ze communiceren met Copilot met commerciële gegevensbescherming, is er productdocumentatie beschikbaar onderaan dit document, waaronder de pagina's Veelgestelde vragen en Meer informatie. 

Prompts en antwoorden die door eindgebruikers in Copilot met commerciële gegevensbeveiliging worden gegenereerd, worden verwerkt en opgeslagen in overeenstemming met de standaarden voor de verwerking van zakelijke gegevens. De copilot met commerciële gegevensbescherming is momenteel alleen beschikbaar voor zakelijke klanten en hun geverifieerde volwassen eindgebruikers. Daarom verwachten we momenteel niet dat kinderen of jongeren eindgebruikers van Copilot zijn met commerciële gegevensbescherming. Bovendien biedt Copilot met commerciële gegevensbescherming geen gedragsgerichte advertenties aan eindgebruikers. In plaats daarvan zijn alle weergegeven advertenties alleen contextueel relevante advertenties.  

Meer informatie

Dit document maakt deel uit van een bredere inspanning van Microsoft om onze AI-principes in de praktijk te brengen. Zie voor meer informatie:

Microsoft's benadering van verantwoordelijke AI

Microsoft's Responsible AI Standard

Verantwoordelijke AI-resources van Microsoft  

Microsoft Azure Learning-cursussen over verantwoordelijke AI  

Over dit document  

© 2023 Microsoft. Alle rechten voorbehouden. Dit document wordt 'as-is' en alleen ter informatie verstrekt. Informatie en weergaven in dit document, met inbegrip van URL en andere internetwebsiteverwijzingen, kunnen zonder voorafgaande kennisgeving worden gewijzigd. U draagt het risico van het gebruik van de software. Sommige voorbeelden zijn alleen ter illustratie en zijn fictief. Er is geen echte associatie bedoeld of afgeleid.  

Meer hulp nodig?

Meer opties?

Verken abonnementsvoordelen, blader door trainingscursussen, leer hoe u uw apparaat kunt beveiligen en meer.

Community's helpen u vragen te stellen en te beantwoorden, feedback te geven en te leren van experts met uitgebreide kennis.

Was deze informatie nuttig?

Hoe tevreden bent u met de taalkwaliteit?
Wat heeft uw ervaring beïnvloed?
Als u op Verzenden klikt, wordt uw feedback gebruikt om producten en services van Microsoft te verbeteren. Uw IT-beheerder kan deze gegevens verzamelen. Privacyverklaring.

Hartelijk dank voor uw feedback.

×