Ultimo aggiornamento: settembre 2025
Che cos'è una nota sulla trasparenza?
Un sistema di intelligenza artificiale include non solo la tecnologia, ma anche le persone che la useranno, le persone che ne saranno interessate e l'ambiente in cui viene distribuita. Le note sulla trasparenza di Microsoft hanno lo scopo di aiutare l'utente a comprendere come funziona la tecnologia IA dietro Copilot, le scelte che abbiamo fatto che influenzano le prestazioni e il comportamento del sistema e l'importanza di pensare all'intero sistema, in modo che gli utenti di Copilot possano assumere il controllo delle proprie esperienze e comprendere i passaggi che stiamo eseguendo per fornire un prodotto sicuro e sicuro.
Le note sulla trasparenza di Microsoft fanno parte di uno sforzo più ampio di Microsoft per mettere in pratica i nostri principi di intelligenza artificiale. Per saperne di più, vedi i principi ai Microsoft.
Nozioni di base su Microsoft Copilot
Introduzione
Copilot è un'esperienza basata sull'intelligenza artificiale che aiuterà a fornire agli utenti le informazioni che cercano mentre sono pronti a supportare gli utenti nella risposta a una vasta gamma di domande indipendentemente dalla situazione o dall'argomento. Copilot aggiornato non risponde alle query di recupero delle informazioni di base e si concentra sulla generazione di contenuto per offrire supporto più proattivo agli utenti durante il completamento delle attività. Abbiamo una comprensione crescente di come l'IA abbia il potenziale per aiutare le persone a imparare, scoprire ed essere più creativi, il che ci ha richiesto di costruire un diverso tipo di prodotto. La nuova esperienza Copilot cerca di diventare un nuovo tipo di esperienza aperta e dinamica per rispondere meglio alle esigenze degli utenti in modo più intuitivo.
Microsoft prende sul serio il suo impegno per un'intelligenza artificiale responsabile. L'esperienza copilot aggiornata è stata sviluppata in linea con i principi IA di Microsoft, l'ai responsabile di Microsoft Standard e in collaborazione con esperti responsabili dell'intelligenza artificiale in tutta l'azienda, tra cui Microsoft Office of Responsible AI, i nostri team di progettazione, Microsoft Research ed Aether. Ulteriori informazioni sull'intelligenza artificiale responsabile sono disponibili qui.
In questo documento, descriviamo il nostro approccio alla IA responsabile per Copilot. Prima del rilascio, abbiamo sfruttato i metodi all'avanguardia di Microsoft per mappare, misurare e gestire i potenziali rischi e l'uso improprio del sistema e per garantirne i vantaggi per gli utenti. Man mano che abbiamo continuato a evolvere Copilot, abbiamo anche continuato a imparare e migliorare i nostri sforzi responsabili di intelligenza artificiale. Questo documento verrà aggiornato periodicamente per comunicare i nostri processi e metodi in evoluzione.
Termini chiave
Classificatori Modelli di apprendimento automatico che aiutano a ordinare i dati in classi etichettate o categorie di informazioni. Nell'esperienza Copilot aggiornata, uno dei modi in cui usiamo i classificatori consiste nel rilevare il contenuto potenzialmente dannoso inviato dagli utenti o generato dal sistema per mitigare la generazione di quel contenuto e l'uso improprio o improprio del sistema.
Terra Per alcune conversazioni in cui gli utenti cercano informazioni, Copilot è radicato nei risultati della ricerca sul Web. Questo significa che Copilot centra la risposta sul contenuto di alto livello dal Web e fornisce citazioni con collegamenti ipertestuali in seguito alle risposte di testo generate. Si noti che, al momento, le richieste dell'utente in modalità vocale non attiveranno una ricerca Web, quindi nessuna risposta includerà citazioni.
Modelli di lingua di grandi dimensioni I modelli linguistici di grandi dimensioni (LLMs) in questo contesto sono modelli DIA addestrati su grandi quantità di dati di testo per prevedere le parole in sequenze. I messaggi istantanei possono eseguire diverse attività, ad esempio la generazione del testo, il riepilogo, la traduzione, la classificazione e altro ancora.
Mitigazione Un metodo o una combinazione di metodi progettati per ridurre i potenziali rischi che possono derivare dall'uso delle funzionalità di intelligenza artificiale all'interno di Copilot.
Modelli multi modali (MMM) I modelli multi modali sono modelli di intelligenza artificiale che vengono addestrati su diversi tipi di dati, ad esempio testo, immagini o audio. Questi modelli possono eseguire un'ampia gamma di attività, ad esempio la scrittura di testo, la descrizione di immagini, il riconoscimento vocale e la ricerca di informazioni in diversi tipi di dati.
Prompt Input sotto forma di testo, immagini e/o audio inviati da un utente a Copilot per interagire con le funzionalità di intelligenza artificiale in Copilot.
Squadra rossa Tecniche utilizzate dagli esperti per valutare le limitazioni e le vulnerabilità di un sistema e per testare l'efficacia delle misure di prevenzione pianificate. I test del team red includono tester che adottano personaggi benigni e avversari per identificare i potenziali rischi e sono distinti dalla misurazione sistematica dei rischi.
Risposte Testo, immagini o audio output da Copilot in risposta a un prompt o nell'ambito del dialogo avanti e indietro con l'utente. I sinonimi di "risposta" includono "completamento", "generazione" e "risposta".
Modelli linguistici di piccole dimensioni I modelli linguistici di piccole dimensioni in questo contesto sono modelli di intelligenza artificiale addestrati su quantità di dati più piccole e mirate rispetto a modelli linguistici di grandi dimensioni. Nonostante le dimensioni ridotte, i contratti di servizio possono eseguire un'ampia gamma di attività, ad esempio la generazione di testo, il riepilogo, la traduzione e la classificazione. Anche se potrebbero non corrispondere alle estese funzionalità dei messaggi istantanei, i contratti di servizio sono spesso più efficienti in termini di risorse e possono essere altamente efficaci per applicazioni specifiche e mirate.
Messaggio di sistema Il messaggio di sistema (a volte definito "metaprompt") è un programma che serve a guidare il comportamento del sistema. Parti del messaggio di sistema aiutano ad allineare il comportamento del sistema ai principi ai Microsoft e alle aspettative degli utenti. Ad esempio, un messaggio di sistema può includere una riga come "non fornire informazioni o creare contenuto che potrebbe causare danni fisici, emotivi o finanziari".
Funzionalità
Comportamento del sistema
Con Copilot abbiamo sviluppato un approccio innovativo per offrire agli utenti un'esperienza di intelligenza artificiale più personalizzata per offrire un'esperienza coinvolgente che possa aiutare gli utenti con una varietà di attività. Questo approccio innovativo sfrutta un'ampia gamma di tecnologie avanzate, come i modelli di linguaggio e multi modali di Microsoft, OpenAI e altri sviluppatori di modelli. Abbiamo lavorato all'implementazione di tecniche di sicurezza per i modelli alla base della nuova esperienza Copilot prima del rilascio pubblico per sviluppare un set personalizzato di funzionalità e comportamenti che forniscono un'esperienza Copilot migliorata. In Copilot aggiornato, gli utenti possono inviare messaggi in linguaggio naturale testo o voce. Le risposte vengono presentate agli utenti in diversi formati, ad esempio le risposte della chat in forma di testo (con i collegamenti tradizionali al contenuto Web come necessario) e le immagini (se è stata effettuata una richiesta di immagine come parte del prompt). Se gli utenti inviano messaggi vocali in linguaggio naturale all'interno della modalità Vocale Copilot, riceveranno le risposte audio.
Quando un utente immette un prompt in Copilot, il prompt, la cronologia delle conversazioni e il messaggio di sistema vengono inviati tramite diversi classificatori di input per filtrare il contenuto dannoso o inappropriato. Si tratta di un primo passaggio fondamentale per contribuire a migliorare le prestazioni del modello e mitigare le situazioni in cui gli utenti potrebbero tentare di richiedere il modello in modo non sicuro. Una volta che il prompt passa attraverso i classificatori di input, viene inviato a un SLM per determinare se la richiesta richiede dati di messa a terra dal Web e quale modello di lingua deve rispondere alla richiesta. Tutti i modelli generano una risposta utilizzando il prompt dell'utente e la cronologia delle conversazioni recenti per contestualizzare la richiesta, il messaggio di sistema per allineare le risposte ai principi di intelligenza artificiale Microsoft e le aspettative degli utenti e, se necessario, allineare le risposte con i risultati della ricerca alle risposte di base in contenuti esistenti di alto livello dal Web.
Le risposte vengono presentate agli utenti in diversi formati, ad esempio risposte di chat in forma di testo, collegamenti tradizionali a contenuti Web, immagini e risposte audio. Quando le risposte vengono fornite sotto forma di testo e le risposte sono radicate nei dati del Web, l'output contiene citazioni con collegamenti ipertestuali elencate sotto il testo in modo che gli utenti possano accedere ai siti Web usati per basare la risposta e ottenere ulteriori informazioni sull'argomento da lì. Copilot può anche eseguire codice per completare calcoli complessi e generare grafici. Copilot può archiviare fatti specifici che gli utenti richiedono di ricordare, consentendo di generare risposte e suggerimenti più pertinenti in base a quel contesto. Copilot può anche eliminare i fatti salvati quando gli utenti chiedono di dimenticarli esplicitamente.
Copilot consente inoltre agli utenti di creare nuove storie, poesie, testi di canzoni e immagini. Quando Copilot rileva l'intenzione dell'utente di generare contenuto creativo (ad esempio un prompt utente che inizia con "scrivimi a ..."), il sistema, nella maggior parte dei casi, genererà contenuto reattivo al prompt dell'utente. Allo stesso modo, quando Copilot rileva l'intenzione dell'utente di generare un'immagine (ad esempio un prompt utente che inizia con "disegnami un ..."), Copilot, nella maggior parte dei casi, genererà un'immagine reattiva al prompt dell'utente. Quando Copilot rileva l'intenzione dell'utente di modificare un'immagine caricata (ad esempio un prompt utente che inizia con "aggiungi un ..."), Copilot, nella maggior parte dei casi, modificherà un'immagine reattiva al prompt dell'utente. Copilot potrebbe non rispondere con contenuti creativi quando la richiesta dell'utente contiene determinati termini che potrebbero causare contenuti problematici.
Gli utenti con account Microsoft hanno ora anche la possibilità di abbonarsi a Copilot Pro, che offre un'esperienza avanzata, incluse le prestazioni accelerate, l'uso delle funzionalità di Copilot Voice per periodi di tempo più lunghi e, in alcuni casi, l'accesso a nuove funzionalità sperimentali. Copilot Pro è attualmente disponibile in un numero limitato di paesi e prevediamo di rendere presto disponibili Copilot Pro in altri mercati.
Comportamento di sicurezza previsto
Il nostro obiettivo per Copilot è essere utili agli utenti. Sfruttando le migliori pratiche di altri prodotti e servizi ai generativi di Microsoft, l'obiettivo è limitare Copilot alla generazione di contenuti problematici e aumentare la probabilità di un'esperienza utente sicura e positiva. Anche se abbiamo adottato misure per mitigare i rischi, i modelli generativi di IA come quelli dietro Copilot sono probabilistici e possono commettere errori, il che significa che le misure di prevenzione possono occasionalmente non riuscire a bloccare richieste dannose degli utenti o risposte generate dall'INTELLIGENZA. Se si verificano contenuti dannosi o imprevisti durante l'uso di Copilot, inviare feedback per aiutarci a migliorare l'esperienza.
Casi d'uso
Usi previsti
Copilot ha lo scopo di supportare gli utenti nella risposta a una vasta gamma di domande, indipendentemente dalla situazione o dall'argomento. Gli utenti possono interagire con Copilot usando input di testo, immagini e audio in cui le interazioni hanno lo scopo di sembrare conversazioni naturali con un sistema di intelligenza artificiale. Inoltre, se gli utenti interagiscono con Copilot tramite testo per cercare informazioni specifiche su argomenti in cui Copilot potrebbe richiedere maggiori informazioni per produrre una risposta più accurata, l'esperienza è progettata per connettere gli utenti con i risultati di ricerca pertinenti, rivedere i risultati da tutto il Web e riepilogare le informazioni che gli utenti stanno cercando. In Copilot gli utenti possono:
-
Riepiloga le informazioni in tempo reale durante la chat tramite testo. Quando gli utenti interagiscono con Copilot tramite testo, il sistema eseguirà ricerche web se necessita di maggiori informazioni e utilizzerà i primi risultati della ricerca Web per generare un riepilogo delle informazioni da presentare agli utenti. Questi riepiloghi includono citazioni alle pagine Web per aiutare gli utenti a vedere e accedere facilmente alle fonti per i risultati della ricerca che hanno aiutato Copilot a dare un riepilogo. Gli utenti possono fare clic su questi collegamenti per passare direttamente alla fonte se vogliono saperne di più.
-
Chatta con un sistema di intelligenza artificiale usando il testo. Gli utenti possono chattare con Copilot tramite SMS e porre domande di follow-up per trovare nuove informazioni e ricevere supporto su un'ampia gamma di argomenti.
-
Interfaccia con l'intelligenza artificiale usando la voce e l'aspetto. Copilot non solo può ricevere input audio, ma anche produrre output audio in una delle quattro voci selezionate dagli utenti e presentare un aspetto visivo per arricchire l'interazione. Le funzionalità audio-audio e di aspetto consentono agli utenti di interagire con Copilot in modo più naturale e fluido.
-
Ricevere contenuti di notizie digeribili. Gli utenti possono usare Copilot per ricevere un riepilogo di notizie, meteo e altri aggiornamenti basati su aree di argomenti selezionate tramite la funzione Copilot Daily e ascoltare questi briefing in un formato simile a podcast. Questa funzionalità recupera il contenuto da origini autorizzate che hanno accordi con Microsoft.
-
Ottieni assistenza per la generazione di nuove idee. Ogni volta che gli utenti interagiscono con l'esperienza Copilot vedranno un set di schede su cui possono fare clic per iniziare a chattare con Copilot su argomenti utili e interessanti. Se gli utenti hanno interagito con altri servizi consumer Microsoft, le schede saranno personalizzate, in linea con le informative sulla privacy. Nel corso del tempo, le schede in Copilot possono essere personalizzate in base alla cronologia chat di un utente. Gli utenti possono rifiutare esplicitamente la personalizzazione in qualsiasi momento nelle impostazioni.
-
Generare contenuti creativi. Durante la chat con Copilot, gli utenti possono creare nuove poesie, barzellette, storie, immagini e altri contenuti con l'aiuto dell'esperienza Copilot. Copilot può anche modificare le immagini caricate dagli utenti, se richiesto.
-
Eseguire attività su Android.Gli utenti possono interagire con Copilot attraverso la piattaforma Android tramite voce per eseguire determinate attività. Queste attività stanno impostando timer e sveglie, effettuando telefonate, inviando messaggi SMS e ordinando un uber. Gli utenti devono confermare la telefonata, il messaggio SMS e l'ordine uber prima di completare le attività.
-
Assistenza per la ricerca. Copilot può eseguire attività di ricerca evidenziando risorse approfondite, offrendo analisi dettagliate degli argomenti e collegando origini per aiutare gli utenti ad andare oltre le risposte rapide per query più complesse. Copilot può generare in modo proattivo suggerimenti di ricerca personalizzati per gli utenti in base a elementi come le query di ricerca passate e la memoria Copilot. Gli utenti possono rifiutare esplicitamente la personalizzazione o le notifiche in qualsiasi momento nelle impostazioni.
-
Esplora il mondo con Copilot Vision. Copilot può visualizzare il feed della fotocamera su schermo o cellulare e usare la sua voce per rispondere alle domande e interagire con te. Copilot può analizzare, analizzare e offrire informazioni e suggerimenti in tempo reale per aiutarti a lavorare, esplorare o esplorare il mondo. Copilot Vision è disponibile in Microsoft Edge, Windows, iOS e Android.
Considerazioni sulla scelta di altri casi d'uso
Incoraggiamo gli utenti a rivedere tutto il contenuto prima di prendere decisioni o agire in base alle risposte di Copilot in quanto l'intelligenza artificiale può commettere errori. Inoltre, ci sono alcuni scenari che consigliamo di evitare o che vanno contro le nostre Condizioni per l'utilizzo. Ad esempio, Microsoft non consente l'uso di Copilot in relazione ad attività illegali o a qualsiasi scopo destinato a promuovere attività illegali.
Limitazioni
I modelli di lingua, immagine e audio che sotto l'esperienza copilot possono includere dati di formazione che possono riflettere pregiudizi sociali, il che a sua volta può potenzialmente causare il comportamento di Copilot in modi percepiti come ingiusti, inaffidabili o offensivi. Nonostante la nostra intensa formazione sui modelli e la messa a punto della sicurezza, così come l'implementazione dei controlli responsabili dell'intelligenza artificiale e dei sistemi di sicurezza che inseriamo sui dati di formazione, i prompt degli utenti e gli output dei modelli, i servizi basati sull'intelligenza artificiale sono fallibili e probabilistici. Questo rende difficile bloccare completamente tutti i contenuti inappropriati, con il rischio di potenziali pregiudizi, stereotipi, inesattezze o altri tipi di danno che potrebbero comparire nel contenuto generato dall'intelligenza artificiale. Ecco alcuni dei modi in cui queste limitazioni potrebbero manifestarsi nell'esperienza Copilot.
-
Stereotipo: L'esperienza copilot potrebbe potenzialmente rafforzare gli stereotipi. Ad esempio, quando si traduce "È un infermiere" e "Lei è un medico" in una lingua senza genere come il turco e poi di nuovo in inglese, Copilot potrebbe inavvertitamente restituire i risultati stereotipici (e non corretti) di "È un'infermiera" e "È un medico". Un altro esempio è quando si genera un'immagine basata sul prompt "Bambini senza padre", il sistema potrebbe generare immagini di bambini di una sola razza o etnia, rafforzando gli stereotipi dannosi che potrebbero esistere in immagini disponibili pubblicamente utilizzate per addestrare i modelli sottostanti. Copilot potrebbe anche rafforzare gli stereotipi basati sul contenuto nell'immagine di input dell'utente facendo affidamento su componenti dell'immagine e facendo ipotesi che potrebbero non essere vere. Abbiamo implementato misure di prevenzione per ridurre il rischio di contenuti contenenti stereotipi offensivi, inclusi classificatori di input e output, modelli ottimizzati e messaggi di sistema.
-
Sovrarappresentazione e sottorappresentanza: Copilot potrebbe potenzialmente rappresentare gruppi di persone in eccesso o sottorappresentanti, o addirittura non rappresentarli affatto, nelle sue risposte. Ad esempio, se messaggi di testo che contengono la parola "gay" vengono rilevati come potenzialmente dannosi o offensivi, ciò potrebbe portare alla sottorappresentazione delle generazioni legittime sulla comunità LGBTQIA+. Oltre a includere classificatori di input e output, modelli ottimizzati e messaggi di sistema, usiamo l'arricchimento rapido in Designer come una delle diverse misure di prevenzione per ridurre il rischio che i contenuti che rappresentano gruppi di persone troppo o sotto rappresentano troppo.
-
Contenuto inappropriato o offensivo: l'esperienza Copilot può produrre potenzialmente altri tipi di contenuto inappropriato o offensivo. Gli esempi includono la capacità di generare contenuto in una modalità (ad esempio l'audio) inappropriata nel contesto del suo prompt o rispetto allo stesso output in una modalità diversa (ad esempio il testo). Altri esempi includono immagini generate dall'INTELLIGENZA che contengono artefatti potenzialmente dannosi come simboli di odio, contenuti correlati a argomenti contestata, controversi o ideologicamente polarizzanti e contenuti sessualmente carichi che eludono i filtri dei contenuti sessuali. Abbiamo messo in atto misure di prevenzione per ridurre il rischio di generazioni che contengono contenuto inappropriato o offensivo, ad esempio classificatori di input e output, modelli ottimizzati e messaggi di sistema.
-
Affidabilità delle informazioni: Anche se Copilot mira a rispondere con fonti affidabili, se necessario, l'intelligenza artificiale può commettere errori. Potrebbe generare contenuti insensati o produrre contenuti che potrebbero sembrare ragionevoli, ma di fatto imprecisi. Anche quando si ttingono risposte da dati Web ad alta autorità, le risposte potrebbero essere false nel contenuto in un modo che potrebbe non essere del tutto accurato o affidabile. Ricordiamo agli utenti attraverso l'interfaccia utente e nella documentazione come questo che Copilot può fare errori. Continuiamo anche a educare gli utenti sui limiti dell'intelligenza artificiale, ad esempio incoraggiandoli a controllare i fatti prima di prendere decisioni o agire in base alle risposte di Copilot. Quando gli utenti interagiscono con Copilot tramite testo, cercherà di mettere a terra i dati Web di alta qualità per ridurre il rischio che le generazioni siano insodnate.
-
Prestazioni multilingue: potrebbero esserci variazioni delle prestazioni tra lingue, con risultati migliori per l'inglese al momento del rilascio del Copilot aggiornato. Migliorare le prestazioni tra le lingue è un'area di investimento chiave e i modelli recenti hanno permesso di migliorare le prestazioni.
-
Limitazioni audio: i modelli audio potrebbero introdurre altre limitazioni. In generale, la qualità acustica dell'input vocale, il rumore non vocale, il vocabolario, gli accenti e gli errori di inserimento potrebbero anche influire sul fatto che Copilot elabora e risponda all'input audio di un utente in modo soddisfacente. Inoltre, poiché l'utente richiede quando utilizza Copilot Voice non attiverà ricerche Web, Copilot potrebbe non essere in grado di rispondere agli eventi correnti in modalità vocale.
-
Dipendenza dalla connettività Internet: l'esperienza Copilot aggiornata si basa sulla connettività Internet per funzionare. Le interruzioni della connettività possono avere un impatto sulla disponibilità e sulle prestazioni del servizio.
Prestazioni del sistema
In molti sistemi di intelligenza artificiale, le prestazioni sono spesso definite in relazione all'accuratezza (ad esempio, la frequenza con cui il sistema di IA offre una previsione o un output corretto). Con Copilot, ci concentriamo su Copilot come un assistente basato sull'intelligenza artificiale che riflette le preferenze dell'utente. Di conseguenza, due utenti diversi potrebbero esaminare lo stesso risultato e avere opinioni diverse su quanto sia utile o pertinente per la loro situazione unica e le loro aspettative, il che significa che le prestazioni per questi sistemi devono essere definite in modo più flessibile. Consideriamo ampiamente le prestazioni per indicare che l'applicazione funziona come gli utenti si aspettano.
Procedure consigliate per migliorare le prestazioni del sistema
Interagisci con l'interfaccia utilizzando un linguaggio di conversazione naturale. Interagire con Copilot in un modo comodo per l'utente è fondamentale per ottenere risultati migliori attraverso l'esperienza. Simile all'adozione di tecniche per aiutare le persone a comunicare efficacemente nella loro vita quotidiana, interagire con Copilot come un assistente basato sull'intelligenza artificiale sia attraverso testo o voce che è familiare all'utente può aiutare a suscitare risultati migliori.
Esperienza utente e adozione. L'uso efficace di Copilot richiede agli utenti di comprenderne le capacità e le limitazioni. Potrebbe esserci una curva di apprendimento e gli utenti potrebbero voler fare riferimento a varie risorse Copilot (ad esempio, questo documento e le nostre domande frequenti su Copilot) per interagire efficacemente con il servizio e trarre vantaggio.
Mappatura, misurazione e gestione dei rischi
Come altre tecnologie di trasformazione, sfruttare i vantaggi dell'intelligenza artificiale non è privo di rischi e una parte fondamentale del programma IA responsabile di Microsoft è progettata per identificare e mappare i potenziali rischi, misurare tali rischi e gestirli creando misure di prevenzione e migliorando continuamente Copilot nel corso del tempo. Nelle sezioni seguenti viene descritto l'approccio iterativo per mappare, misurare e gestire i potenziali rischi.
Mappa: un'attenta pianificazione e test avversari prima della distribuzione, ad esempio il red teaming, ci aiuta a mappare i potenziali rischi. I modelli di base che alimentano l'esperienza Copilot sono stati sottoposti a test in team rossi da tester che rappresentano prospettive multidisciplinari su argomenti rilevanti. Questo test è stato progettato per valutare il funzionamento della tecnologia più recente sia con che senza ulteriori misure di sicurezza applicate. L'intenzione di questi esercizi a livello di modello è quella di produrre risposte dannose, di individuare possibili alternative all'uso improprio e di identificare capacità e limitazioni.
Prima di rendere disponibile pubblicamente l'esperienza Copilot in un'anteprima limitata, abbiamo anche condotto una squadra rossa a livello dell'applicazione per valutare Copilot per individuare carenze e vulnerabilità. Questo processo ci ha aiutato a comprendere meglio come il sistema potrebbe essere utilizzato da un'ampia varietà di utenti e ci ha aiutato a migliorare le misure di prevenzione.
Misura: oltre a valutare Copilot in base alle nostre valutazioni di sicurezza esistenti, l'uso del red teaming descritto sopra ci ha aiutato a sviluppare valutazioni e metriche di INTELLIGENZA responsabile corrispondenti a potenziali rischi identificati, come jailbreak, contenuti dannosi e contenuti non insodati.
Sono stati raccolti dati di conversazione mirati a questi rischi, usando una combinazione di partecipanti umani e una pipeline di generazione delle conversazioni automatizzata. Ogni valutazione viene quindi segnata da un pool di annotatori umani addestrati o da una pipeline di annotazione automatizzata. Ogni volta che i cambiamenti dei prodotti, le misure di prevenzione esistenti vengono aggiornate o vengono proposte nuove misure di prevenzione, aggiorniamo le pipeline di valutazione per valutare le prestazioni del prodotto e le metriche di intelligenza artificiale responsabile. Queste pipeline di contesto di valutazione automatizzate sono una combinazione di conversazioni raccolte con analizzatori umani e conversazioni sintetiche generate con i messaggi istantanei che chiede di testare i criteri in modo avversario. Ognuna di queste valutazioni di sicurezza viene segnata automaticamente con i messaggi istantanei. Per le valutazioni appena sviluppate, ogni valutazione viene inizialmente segnata da etichettatori umani che leggono il contenuto del testo o ascoltano l'output audio, quindi vengono convertite in valutazioni automatiche basate su LLM.
Il comportamento previsto dei nostri modelli in combinazione con le nostre pipeline di valutazione, sia umane che automatizzate, ci consente di eseguire rapidamente la misurazione dei potenziali rischi su vasta scala. Man mano che identifichiamo nuovi problemi nel corso del tempo, continuiamo ad espandere i set di misure per valutare i rischi aggiuntivi.
Gestisci: man mano che abbiamo identificato i potenziali rischi e l'uso improprio attraverso il red teaming e misurato con gli approcci descritti in precedenza, abbiamo sviluppato altre misure di prevenzione specifiche per l'esperienza Copilot. Di seguito sono descritte alcune di queste misure di prevenzione. Continueremo a monitorare l'esperienza Copilot per migliorare le prestazioni del prodotto e il nostro approccio di prevenzione dei rischi.
-
Piani di rilascio a fasi e valutazione continua. Ci impegniamo a imparare e migliorare continuamente il nostro approccio all’IA generativa man mano che le nostre tecnologie e il comportamento degli utenti evolvono. La nostra strategia di rilascio incrementale è stata una parte fondamentale del modo in cui spostiamo la nostra tecnologia in modo sicuro dal laboratorio al mondo e ci impegniamo a un processo consapevole e riflessivo per garantire i vantaggi dell'esperienza Copilot. Microsoft apporta regolarmente modifiche a Copilot per migliorare le prestazioni del prodotto e le misure di prevenzione esistenti e implementa nuove misure di prevenzione in risposta alle nostre attività di apprendimento.
-
Uso di classificatori e del messaggio di sistema per ridurre i potenziali rischi o usare in modo improprio. In risposta alle richieste degli utenti, i messaggi istantanei possono produrre contenuto problematico. Abbiamo discusso i tipi di contenuto che cerchiamo di limitare nelle sezioni Comportamento e limitazioni del sistema precedenti. I classificatori e il messaggio di sistema sono due esempi di misure di prevenzione implementate in Copilot per ridurre il rischio di questi tipi di contenuto. I classificatori classificano il testo per contrassegnare il contenuto potenzialmente dannoso nelle richieste dell'utente o nelle risposte generate. Utilizziamo inoltre le procedure consigliate esistenti per sfruttare il messaggio di sistema, che implica fornire istruzioni al modello per allineare il suo comportamento ai principi di intelligenza artificiale di Microsoft e alle aspettative degli utenti.
-
Consenso per il caricamento di immagini Copilot. La prima volta che un utente carica un'immagine contenente volti su Copilot, gli verrà chiesto di fornire il consenso per il caricamento dei dati biometrici su Copilot. Se un utente non acconsente esplicitamente, l'immagine non verrà inviata a Copilot. Tutte le immagini, indipendentemente dal fatto che contengano o meno volti, vengono eliminate entro 30 giorni dalla fine della conversazione.
-
Divulgazione di intelligenza artificiale. Copilot è anche progettato per informare le persone che stanno interagendo con un sistema di intelligenza artificiale. Man mano che gli utenti interagiscono con Copilot, offriamo vari touchpoint progettati per aiutarli a comprendere le capacità del sistema, divulgare loro che Copilot è basato sull'intelligenza artificiale e comunicare limitazioni. L'esperienza è stata progettata in questo modo per aiutare gli utenti a sfruttare al meglio Copilot e ridurre al minimo il rischio di overreliance. Le divulgazioni aiutano anche gli utenti a comprendere meglio Copilot e le loro interazioni con esso.
-
Provenienza dei supporti. Quando Copilot genera un'immagine, è stata abilitata una funzionalità "Credenziali contenuto", che usa metodi di crittografia per contrassegnare l'origine, o "provenienza", di tutte le immagini generate dall'INTELLIGENZA creata con Copilot. Questa tecnologia utilizza gli standard stabiliti dalla Coalition for Content and Authenticity (C2PA) per aggiungere un ulteriore livello di fiducia e trasparenza per le immagini generate dall'INTELLIGENZA.
-
Rilevamento automatico del contenuto. Quando gli utenti caricano immagini come parte della richiesta di chat, Copilot distribuisce strumenti per rilevare lo sfruttamento sessuale dei bambini e le immagini improprie (CSEAI). Microsoft segnala tutte le apparenti CSEAI al National Center for Missing and Exploited Children (NC COMMUNITY), come richiesto dalla legge statunitense. Quando gli utenti caricano file per l'analisi o l'elaborazione, Copilot distribuisce l'analisi automatica per rilevare contenuti che potrebbero causare rischi o uso improprio, ad esempio testo che potrebbe riguardare attività illegali o codice dannoso.
-
Condizioni per l'utilizzo e Codice di comportamento. Gli utenti devono rispettare le Condizioni per l'utilizzo e il Codice di comportamentoMicrosoft applicabili di Copilot e l'Informativa sulla privacy di Microsoft, che, tra le altre cose, li informano di usi consentiti e non autorizzati e delle conseguenze della violazione delle condizioni. Le Condizioni per l'utilizzo forniscono inoltre informazioni aggiuntive per gli utenti e fungono da riferimento per gli utenti per ottenere informazioni su Copilot. Gli utenti che commettono violazioni gravi o ripetute possono essere sospesi temporaneamente o definitivamente dal servizio.
-
Feedback, monitoraggio e supervisione. L'esperienza Copilot si basa sugli strumenti esistenti che consentono agli utenti di inviare feedback, che vengono rivisti dai team operativi Microsoft. Inoltre, il nostro approccio alla mappatura, alla misurazione e alla gestione dei rischi continuerà a evolversi man mano che impareremo di più e stiamo già apportando miglioramenti in base al feedback raccolto durante i periodi di anteprima.
Scopri di più sull'intelligenza artificiale responsabile
Report sulla trasparenza dell'intelligenza artificiale responsabile Microsoft
Principi dell'intelligenza artificiale microsoft
Microsoft Responsible AI Resources
Corsi di apprendimento di Microsoft Azure sull'intelligenza artificiale responsabile
Altre informazioni su Microsoft Copilot
Informazioni su questo documento
© 2024 Microsoft Corporation. Tutti i diritti sono riservati. Il presente documento viene fornito "così come è" e solo a scopo informativo. Le informazioni e le opinioni espresse in questo documento, inclusi gli URL e altri riferimenti a siti Web Internet, possono cambiare senza preavviso. Il licenziatario assume ogni rischio derivante dall’utilizzo del software. Alcuni esempi sono solo a scopo esemplificativo e fittizio. Nessuna associazione reale è prevista o dedotta.
Questo documento non deve essere, e non deve essere interpretato come fornire, consulenza legale. La giurisdizione in cui si opera può avere vari requisiti normativi o legali applicabili al sistema di intelligenza artificiale. Rivolgersi a uno specialista legale in caso di dubbi sulle leggi o le normative che potrebbero applicarsi al sistema, soprattutto se si ritiene che potrebbero influire su queste raccomandazioni. Tenere presente che non tutte queste raccomandazioni e risorse saranno appropriate per ogni scenario e, al contrario, queste raccomandazioni e risorse potrebbero essere insufficienti per alcuni scenari.
Data di pubblicazione: 10/01/2024
Ultimo aggiornamento: 01/10/2024