Accedi con Microsoft
Accedi o crea un account.
Salve,
Seleziona un altro account.
Hai più account
Scegli l'account con cui vuoi accedere.

Ultimo aggiornamento: febbraio 2024

Nozioni di base su Copilot in Bing   

Introduzione  

Nel mese di febbraio 2023, Microsoft ha lanciato il nuovo Bing, un'esperienza di ricerca Web migliorata dall'intelligenza artificiale. Supporta gli utenti riepilogando i risultati della ricerca Sul Web e fornendo un'esperienza di chat. Gli utenti possono anche generare contenuti creativi, come poesie, barzellette, storie e immagini con Bing Image Creator. Il nuovo Bing ottimizzato per l'intelligenza artificiale viene eseguito su un'ampia gamma di tecnologie avanzate di Microsoft e OpenAI, tra cui GPT-4, un modello LLM (Large Language Model) all'avanguardia e DALL-E, un modello di apprendimento profondo per generare immagini digitali dalle descrizioni del linguaggio naturale, sia da OpenAI. Abbiamo lavorato con entrambi i modelli per mesi prima del rilascio pubblico per sviluppare un set personalizzato di funzionalità e tecniche per unire questa tecnologia di intelligenza artificiale all'avanguardia e la ricerca Web nel nuovo Bing.  Nel novembre 2023, Microsoft ha rinominato il nuovo Bing in Copilot in Bing.

Microsoft prende sul serio il nostro impegno nei confronti dell'intelligenza artificiale responsabile. L'esperienza di Copilot in Bing è stata sviluppata in linea con i principi IA di Microsoft, lo standard IA responsabile di Microsoft e in collaborazione con esperti responsabili dell'intelligenza artificiale in tutta l'azienda, tra cui Microsoft Office of Responsible AI, i nostri team di progettazione, Microsoft Research e Aether. Ulteriori informazioni sull'intelligenza artificiale responsabile sono disponibili qui.  

In questo documento, descriviamo il nostro approccio all'intelligenza artificiale responsabile per Copilot in Bing. Prima del rilascio, abbiamo adottato metodi all'avanguardia per identificare, misurare e mitigare i potenziali rischi e l'uso improprio del sistema e per garantirne i vantaggi per gli utenti. Man mano che abbiamo continuato a evolvere Copilot in Bing dal primo rilascio, abbiamo anche continuato a imparare e migliorare i nostri sforzi responsabili di intelligenza artificiale. Questo documento verrà aggiornato periodicamente per comunicare i nostri processi e metodi in evoluzione.   

Termini chiave  

Copilot in Bing è un'esperienza di ricerca Web migliorata dall'intelligenza artificiale. Dato che si tratta di una potente e nuova tecnologia, iniziamo definendo alcuni termini chiave.  

Modelli di apprendimento automatico che aiutano a ordinare i dati in classi o categorie di informazioni etichettate. In Copilot in Bing, uno dei modi in cui usiamo i classificatori consiste nel rilevare i contenuti potenzialmente dannosi inviati dagli utenti o generati dal sistema al fine di attenuare la generazione di tali contenuti e l'uso improprio o improprio del sistema. 

Copilot in Bing è radicato nei risultati della ricerca web quando gli utenti cercano informazioni. vuol dire che la risposta fornita a una query o a una richiesta è basata su contenuto con ranking elevato proveniente dal Web e vengono forniti collegamenti ai siti Web in modo che gli utenti possano saperne di più. Bing classifica i contenuti della ricerca sul Web tenendo conto di caratteristiche importanti come pertinenza, qualità, credibilità e attualità. Descriviamo questi concetti in modo più dettagliato in Come Bing fornisce Search risultati (vedere "Qualità e credibilità" in "Come Bing classifica i risultati Search").   

Consideriamo le risposte basate sulla base come risposte di Copilot in Bing in cui le dichiarazioni sono supportate da informazioni contenute in origini di input, come i risultati della ricerca Web dalla query o dal prompt, l'knowledge base di informazioni verificate di fatto di Bing e, per l'esperienza di chat, la cronologia conversazione recente dalla chat. Le risposte non motivate sono quelle in cui un'istruzione non è basata su tali origini di input.  

I modelli linguistici di grandi dimensioni (LLMs) in questo contesto sono modelli DIA addestrati su grandi quantità di dati di testo per prevedere le parole in sequenze. I messaggi istantanei sono in grado di eseguire diverse attività, ad esempio la generazione del testo, il riepilogo, la traduzione, la classificazione e altro ancora.  

Il metaprompt è un programma che serve a guidare il comportamento del sistema. Parti del metaprompt aiutano ad allineare il comportamento del sistema ai principi ai Microsoft e alle aspettative degli utenti. Ad esempio, il metaprompt può includere una riga come "comunicare nella lingua scelta dell'utente".  

Metodo o combinazione di metodi progettati per ridurre i potenziali rischi derivanti dall'uso di funzionalità basate sull'intelligenza artificiale in Copilot in Bing.  

Testo, voce, immagini e/o altre query abilitate che un utente invia a Bing come input al modello che alimenta le nuove esperienze generative basate sull'intelligenza artificiale in Bing. Ad esempio, un utente potrebbe immettere il prompt seguente:  

"Sto pianificando un viaggio per il nostro anniversario a settembre. Quali sono alcuni posti dove possiamo andare e che si trovano entro un volo di 3 ore da Londra City?”  

Il testo inviato da un utente a Bing dalla barra di ricerca per la ricerca nel Web. In questo documento, si distingue una query (per la ricerca Web) da una richiesta (per esperienze generative basate sull'intelligenza artificiale in Bing). Ad esempio, un utente potrebbe immettere la query seguente per eseguire ricerche sul Web:  

"destinazioni di viaggio vicino all'aeroporto di Londra– Londra- Aeroporto di Londra-  

Tecniche utilizzate dagli esperti per valutare le limitazioni e le vulnerabilità di un sistema e per testare l'efficacia delle misure di prevenzione pianificate. I test red team e i test di stress vengono usati per identificare i potenziali rischi e sono distinti dalla misurazione sistematica dei rischi.   

Testo, immagine, grafici e così via, che Copilot in Bing restituisce in risposta a un prompt. I sinonimi di "risposta" includono "completamento", "generazione" e "risposta". Ad esempio, Bing può fornire la risposta seguente alla richiesta che è stata usata nella definizione di "prompt" precedente:   

"Congratulazioni per il tuo anniversario! Ci sono molti posti dove si può andare che si trovano entro un volo di 3 ore da Londra City. Secondo una fonte, alcune delle fughe nel fine settimana entro tre ore in aereo da Londra sono Bilbao, Copenaghen, Copenhagen, e Stoccolma 1, 2. Un'altra fonte suggerisce alcuni dei posti migliori per andare in Europa a settembre sono Cracovia, Firenze, e Lisbona 3, 4. È anche possibile controllare i voli diretti da Londra Hyde a varie destinazioni e vedere cosa piace a voi 5. Spero che tu abbia un viaggio meraviglioso!”  

Usi previsti e nuove esperienze di intelligenza artificiale  

Copilot negli usi previsti di Bing è quello di connettere gli utenti con risultati di ricerca rilevanti, rivedere i risultati da tutto il Web per trovare e riepilogare le risposte che gli utenti stanno cercando, aiutare gli utenti a perfezionare la loro ricerca per ottenere risposte con un'esperienza di chat e stimolare la creatività aiutando gli utenti a creare contenuti. Copilot nelle esperienze generative di IA di Bing seguenti sostiene l'obiettivo di essere un copilot basato sull'intelligenza artificiale per il web.  

Riepilogo. Quando gli utenti inviano una query di ricerca su Copilot in Bing, il sistema Bing elabora la query, esegue una o più ricerche Web e usa i primi risultati della ricerca Sul Web per generare un riepilogo delle informazioni da presentare agli utenti. Questi riepiloghi includono riferimenti per aiutare gli utenti a visualizzare e accedere facilmente ai risultati della ricerca usati per agevolare il riepilogo. I riepiloghi possono essere visualizzati sul lato destro della pagina dei risultati della ricerca e all'interno dell'esperienza di chat.  

Esperienza di chat. Oltre al riepilogo, gli utenti possono chattare con Copilot nel sistema Bing tramite testo, immagini o input vocale, porre domande di follow-up per chiarire le ricerche e trovare nuove informazioni e inviare istruzioni per generare contenuti creativi. I riferimenti sono anche inclusi nell'esperienza di chat quando Copilot in Bing riepiloga i risultati della ricerca nella risposta.   

Generazione di contenuti creativi. Sia nell'esperienza di chat che nella pagina di ricerca, gli utenti possono creare poesie, barzellette, storie, immagini e altri contenuti con l'aiuto di Copilot in Bing.  Le immagini vengono create da Designer (l'ex Image Creator di Bing) e gli utenti possono accedere alla funzionalità tramite Designer home page e la pagina Copilot. 

Come funziona Copilot in Bing?  

Con Copilot in Bing, abbiamo sviluppato un approccio innovativo per portare le VM all'avanguardia nella ricerca sul Web. Quando un utente immette un prompt in Copilot in Bing, il prompt, la cronologia delle conversazioni recenti, il metaprompt e i primi risultati della ricerca vengono inviati come input al LLM. Il modello genera una risposta utilizzando il prompt dell'utente e la cronologia delle conversazioni recenti per contestualizzare la richiesta, il metaprompt per allineare le risposte con i principi di intelligenza artificiale Microsoft e le aspettative degli utenti e i risultati della ricerca a risposte a terra in contenuti esistenti di alto livello dal Web.   

Le risposte vengono presentate agli utenti in diversi formati, ad esempio collegamenti tradizionali a contenuti Web, riepiloghi generati dall'intelligenza artificiale, immagini e risposte alla chat. I riepiloghi e le risposte di chat che si basano sui risultati della ricerca sul Web includeranno riferimenti e una sezione "Altre informazioni" sotto le risposte, con collegamenti ai risultati della ricerca usati per basare la risposta. Gli utenti possono fare clic su questi collegamenti per saperne di più su un argomento e sulle informazioni utilizzate per basare il riepilogo o la risposta alla chat.    

Nell'esperienza Copilot, gli utenti possono eseguire ricerche sul Web tramite conversazione aggiungendo contesto al prompt e interagendo con le risposte di sistema per specificare ulteriormente i propri interessi di ricerca. Ad esempio, un utente potrebbe porre domande di follow-up, richiedere ulteriori informazioni chiare o rispondere al sistema in un modo conversazione. Nell'esperienza di chat, gli utenti possono anche selezionare una risposta da suggerimenti pre scritti, che vengono chiamati suggerimenti di chat. Questi pulsanti vengono visualizzati dopo ogni risposta di Copilot e forniscono suggerimenti per continuare la conversazione all'interno dell'esperienza di chat. I suggerimenti di chat vengono visualizzati anche insieme al contenuto riepilogato nella pagina dei risultati della ricerca come punto di ingresso per l'esperienza di chat.  

Copilot in Bing consente anche a un utente di creare storie, poesie, testi di brani musicali e immagini con l'aiuto di Bing. Quando Copilot in Bing rileva l'intenzione dell'utente di generare contenuti creativi (ad esempio, la richiesta inizia con "scrivimi a ..."), il sistema, nella maggior parte dei casi, genererà contenuto reattivo al prompt dell'utente. Allo stesso modo, quando Copilot in Bing rileva l'intenzione dell'utente di generare un'immagine (ad esempio, il prompt inizia con "disegnami a ..."), il sistema, nella maggior parte dei casi, genererà un'immagine reattiva al prompt dell'utente. In Visual Search in Esperienza chat, con un'immagine scattata dalla fotocamera dell'utente, caricata dal dispositivo dell'utente o collegata dal Web, gli utenti possono chiedere a Copilot in Bing di comprendere il contesto, interpretare e rispondere alle domande sull'immagine.  Gli utenti possono anche caricare i file su Copilot per interpretare, convertire, elaborare o calcolare le informazioni acquisite. Nell'esperienza Microsoft Designer a cui gli utenti possono accedere tramite Copilot in Bing, gli utenti possono non solo generare immagini usando i prompt, ma anche ridimensionarle o ristylele o apportare modifiche, ad esempio sfocare lo sfondo o rendere i colori più vivaci. 

Gli utenti con account Microsoft hanno ora anche la possibilità di abbonarsi a Copilot Pro che offre un'esperienza avanzata, tra cui prestazioni accelerate, creazione di immagini IA più rapida e presto la possibilità di creare i propri GPT Copilot. Copilot Pro è attualmente disponibile in paesi limitati e prevediamo di rendere presto disponibili Copilot Pro in altri mercati.

Nell'esperienza Copilot, gli utenti possono accedere ai gpt Copilot. Un GPT Copilot, come Designer GPT, è una versione personalizzata di Microsoft Copilot su un argomento di particolare interesse per te, come fitness, viaggi e cucina, che può aiutare a trasformare idee vaghe o generali in istruzioni più specifiche con output che includono testi e immagini. In Copilot gli utenti possono vedere i gpt Copilot disponibili e gli utenti con account di Copilot Pro avranno presto accesso al Copilot GPT Builder, una funzionalità che consente agli utenti di creare e configurare un GPT Copilot personalizzato. Le misure di prevenzione dell'intelligenza artificiale responsabile descritte sopra per Copilot in Bing si applicano ai GPT Copilot.

Per ulteriori informazioni su come funzionano i gpts Copilot Pro e Copilot, visita qui.

Copilot in Bing si impegna a fornire risultati di ricerca diversificati e completi con il suo impegno a liberare e aprire l'accesso alle informazioni. Allo stesso tempo, i nostri sforzi per la qualità del prodotto includono il lavoro per evitare di promuovere inavvertitamente contenuti potenzialmente dannosi per gli utenti. Ulteriori informazioni su come Bing classifica il contenuto, incluso come definisce la pertinenza e la qualità e credibilità di una pagina Web, sono disponibili nelle "Linee guida per webmaster di Bing".   Ulteriori informazioni sui principi di moderazione del contenuto di Bing sono disponibili in "Come Bing fornisce i risultati della ricerca".   

Nell'esperienza Copilot in Windows, Copilot in Bing può lavorare con il sistema operativo Windows per fornire competenze specifiche di Windows, ad esempio la modifica del tema o dello sfondo dell'utente e la modifica di impostazioni come audio, Bluetooth e rete. Queste esperienze consentono all'utente di configurare le impostazioni e migliorare l'esperienza dell'utente utilizzando prompt in linguaggio naturale per l'LLM. Le funzionalità specifiche dell'applicazione possono essere fornite anche da plug-in di applicazioni di terze parti. Questi possono automatizzare le attività ripetitive e ottenere una maggiore efficienza dell'utente. Dal momento che gli LLM possono occasionalmente commettere errori, vengono fornite richieste di conferma utente appropriate in modo che l'utente sia l'arbitro finale delle modifiche che possono essere apportate. 

Identificare, misurare e attenuare i rischi  

Come altre tecnologie di trasformazione, sfruttare i vantaggi dell'intelligenza artificiale non è privo di rischi e una parte fondamentale del programma IA responsabile di Microsoft è progettata per identificare i potenziali rischi, misurarne la propensione a verificarsi e creare misure di prevenzione per risolverli. Guidati dai nostri principi di intelligenza artificiale e dal nostro standard IA responsabile, abbiamo cercato di identificare, misurare e mitigare i potenziali rischi e l'uso improprio di Copilot in Bing, proteggendo allo stesso tempo gli usi trasformativi e benefici forniti dalla nuova esperienza. Nelle sezioni seguenti viene descritto l'approccio iterativo per identificare, misurare e ridurre i potenziali rischi.   

A livello di modello, il nostro lavoro è iniziato con analisi esplorative di GPT-4 alla fine dell'estate del 2022. Ciò includeva la conduzione di test estesi del team rosso in collaborazione con OpenAI. Questo test è stato progettato per valutare come funzionerebbe la tecnologia più recente senza ulteriori misure di sicurezza applicate. Al momento, l'intenzione specifica era quella di produrre risposte dannose, individuare possibili alternative all'uso improprio e identificare capacità e limitazioni. Le nostre esperienze combinate in OpenAI e Microsoft hanno contribuito ai progressi nello sviluppo dei modelli e, per noi di Microsoft, hanno informato la nostra comprensione dei rischi e hanno contribuito a strategie di prevenzione precoce per Copilot in Bing.  

Oltre ai test del team rosso a livello di modello, un team multidisciplinare di esperti ha condotto numerose prove del team rosso a livello di applicazione su Copilot in Bing AI esperienze prima di renderle disponibili pubblicamente nella nostra anteprima a rilascio limitato. Questo processo ci ha aiutato a comprendere meglio come il sistema potrebbe essere sfruttato dagli attori avversari e migliorare le nostre misure di prevenzione. I tester di stress non avversari hanno anche valutato in modo esteso le nuove funzionalità di Bing per carenze e vulnerabilità. Dopo il rilascio, le nuove esperienze di intelligenza artificiale in Bing sono integrate nell'infrastruttura di misurazione e test di produzione esistente dell'organizzazione di progettazione di Bing. Ad esempio, tester del team rosso provenienti da diverse aree geografiche e sfondi tentano continuamente e sistematicamente di compromettere il sistema e i loro risultati vengono utilizzati per espandere i set di dati usati da Bing per migliorare il sistema.  

I test del team rosso e i test di stress possono far emergere istanze di rischi specifici, ma in produzione gli utenti avranno milioni di tipi diversi di conversazioni con Copilot in Bing. Inoltre, le conversazioni sono a più giramenti e contestuali e l'identificazione di contenuto dannoso all'interno di una conversazione è un'attività complessa. Per comprendere e affrontare meglio il potenziale di rischi in Copilot nelle esperienze di Bing AI, abbiamo sviluppato metriche di intelligenza artificiale responsabili aggiuntive specifiche per queste nuove esperienze di intelligenza artificiale per misurare potenziali rischi come jailbreak, contenuti dannosi e contenuti non interessati. Abbiamo anche abilitato la misurazione su vasta scala attraverso pipeline di misurazione parzialmente automatizzate. Ogni volta che i cambiamenti dei prodotti, le misure di prevenzione esistenti vengono aggiornate o vengono proposte nuove misure di prevenzione, aggiorniamo le pipeline di misurazione per valutare le prestazioni del prodotto e le metriche di intelligenza artificiale responsabile.  

Come esempio esemplificativo, la pipeline di misurazione parzialmente automatizzata aggiornata per il contenuto dannoso include due innovazioni principali: simulazione delle conversazioni e annotazione automatizzata con conversazione verificata dall'uomo. Prima di tutto, gli esperti responsabili di IA hanno creato modelli per acquisire la struttura e il contenuto delle conversazioni che potrebbero causare diversi tipi di contenuto dannoso. Questi modelli sono stati quindi forniti a un agente di conversazione che ha interagito come un ipotetico utente con Copilot in Bing, generando conversazioni simulate. Per identificare se queste conversazioni simulate contenevano contenuto dannoso, abbiamo adottato linee guida che vengono in genere utilizzate dai linguistici esperti per etichettare i dati e li abbiamo modificati per l'uso da parte di GPT-4 per etichettare le conversazioni su vasta scala, affinando le linee guida fino a quando non vi è stato un accordo significativo tra conversazioni etichettate con modello e conversazioni etichettate con l'etichetta umana. Infine, abbiamo usato le conversazioni etichettate con il modello per calcolare una metrica IA responsabile che acquisisce l'efficacia di Copilot in Bing per attenuare i contenuti dannosi.   

Le nostre condutture di misurazione ci consentono di eseguire rapidamente la misurazione dei potenziali rischi su vasta scala. Man mano che vengono identificati nuovi problemi durante il periodo di anteprima e i test in corso del team rosso, continuiamo ad espandere i set di unità di misura per valutare rischi aggiuntivi.  

Come abbiamo identificato i potenziali rischi e l'uso improprio attraverso processi come i test del team rosso e i test di stress e misurati con gli approcci innovativi descritti in precedenza, abbiamo sviluppato ulteriori misure di prevenzione per quelle utilizzate per la ricerca tradizionale. Di seguito sono descritte alcune di queste misure di prevenzione. Continueremo a monitorare Copilot in Bing AI esperienze per migliorare le prestazioni del prodotto e le misure di prevenzione.  

Rilascio a fasi, valutazione continua. Ci impegniamo a imparare e migliorare continuamente il nostro approccio ai responsabili man mano che le nostre tecnologie e il comportamento degli utenti evolvono. La nostra strategia di rilascio incrementale è stata una parte fondamentale del modo in cui spostiamo la nostra tecnologia in modo sicuro dai laboratori nel mondo e ci impegniamo a un processo consapevole e riflessivo per garantire i vantaggi di Copilot in Bing. Limitare il numero di persone a cui è consentito l'accesso durante il periodo di anteprima ci ha permesso di scoprire come gli utenti usano Copilot in Bing, incluso il modo in cui le persone potrebbero usarlo in modo improprio, in modo da poter tentare di mitigare i problemi emergenti prima del rilascio più ampio. Ad esempio, è necessario che gli utenti esercitino l'autenticazione con il proprio account Microsoft prima di accedere alla nuova esperienza completa di Bing. Gli utenti non autenticati possono accedere solo a un'anteprima limitata dell'esperienza. Questi passaggi sconsigliano gli abusi e ci aiutano a (se necessario) intraprendere le azioni appropriate in risposta alle violazioni del Codice di condotta.  Microsoft sta apportando ogni giorno modifiche a Copilot in Bing per migliorare le prestazioni del prodotto, migliorare le misure di prevenzione esistenti e implementare nuove misure di prevenzione in risposta alle nostre esperienze durante il periodo di anteprima.  

Messa a terra nei risultati della ricerca. Come indicato in precedenza, Copilot in Bing è progettato per fornire risposte supportate dalle informazioni nei risultati della ricerca web quando gli utenti cercano informazioni. Ad esempio, il sistema viene fornito con il testo dei primi risultati della ricerca e le istruzioni tramite il metaprompt per mettere a terra la sua risposta. Tuttavia, nel riepilogare i contenuti dal Web, Copilot in Bing può includere nella sua risposta informazioni non presenti nelle sue fonti di input. In altre parole, può produrre risultati insodati. Le nostre prime valutazioni hanno indicato che i risultati infondati nella chat potrebbero essere più prevalenti per alcuni tipi di prompt o argomenti rispetto ad altri, come la richiesta di calcoli matematici, informazioni finanziarie o di mercato (ad esempio, utili aziendali, dati sulle prestazioni azionarie) e informazioni come date precise di eventi o specifici prezzi degli articoli. Gli utenti devono sempre prestare attenzione e usare la loro valutazione migliore quando visualizzano i risultati della ricerca riepilogati, sia nella pagina dei risultati della ricerca che nell'esperienza di chat. Abbiamo adottato diverse misure per attenuare il rischio che gli utenti possano fare eccessivo affidamento su contenuti generati non insodati in scenari di riepilogo ed esperienze di chat. Ad esempio, le risposte in Copilot in Bing basate sui risultati della ricerca includono riferimenti ai siti Web di origine per consentire agli utenti di verificare la risposta e ottenere altre informazioni. Agli utenti viene inoltre fornito un avviso esplicito che stanno interagendo con un sistema di intelligenza artificiale e sono invitati a controllare i materiali della fonte dei risultati Web per aiutarli a usare il loro giudizio migliore.  

Classificatori basati sull'intelligenza artificiale e metaprompting per attenuare potenziali rischi o uso improprio. L'uso di messaggi istantanei può produrre contenuti problematici che potrebbero comportare rischi o uso improprio. Gli esempi potrebbero includere output correlati a autolesionismo, violenza, contenuto grafico, proprietà intellettuale, informazioni imprecise, incitamento all'odio o testo che potrebbe riguardare attività illegali. I classificatori e il metaprompting sono due esempi di misure di prevenzione implementate in Copilot in Bing per ridurre il rischio di questi tipi di contenuto. I classificatori classificano il testo per contrassegnare diversi tipi di contenuto potenzialmente dannoso nelle query di ricerca, nelle richieste di chat o nelle risposte generate. Bing utilizza i classificatori basati sull'intelligenza artificiale e i filtri dei contenuti, che si applicano a tutti i risultati della ricerca e alle funzionalità pertinenti. Sono stati progettati altri filtri dei contenuti e classificatori di prompt specifici per affrontare i possibili rischi generati dalle funzionalità di Copilot in Bing. I contrassegni portano a potenziali misure di prevenzione, ad esempio non restituire all'utente contenuto generato, deviare l'utente a un argomento diverso o reindirizzarlo alla ricerca tradizionale. Il metaprompting implica fornire istruzioni al modello per guidarne il comportamento, anche in modo che il sistema si comporti in conformità con i principi di intelligenza artificiale e le aspettative degli utenti di Microsoft. Ad esempio, il metaprompt può includere una riga come "comunicare nella lingua scelta dell'utente".   

Protezione della privacy in Visual Search in Copilot in Bing. Quando gli utenti caricano un'immagine come parte della richiesta di chat, Copilot in Bing utilizzerà la tecnologia di sfocatura del volto prima di inviare l'immagine al modello di intelligenza artificiale. La sfocatura del volto viene usata per proteggere la privacy delle persone nell'immagine. La tecnologia di sfocatura del volto si basa su indizi contestuali per determinare dove sfocare e tenterà di sfocare tutti i volti. Con i volti sfocati, il modello IA può confrontare l'immagine immessa con quelle delle immagini disponibili pubblicamente su Internet. Come risultato, ad esempio, Copilot in Bing potrebbe essere in grado di identificare un famoso giocatore di pallacanestro da una foto di quel giocatore su un campo da basket creando una rappresentazione numerica che riflette il numero di maglia del giocatore, colore maglia, la presenza di un canestro da basket, ecc. Copilot in Bing non archivia rappresentazioni numeriche di persone provenienti da immagini caricate e non le condivide con terze parti. Copilot in Bing utilizza rappresentazioni numeriche delle immagini che gli utenti caricano solo allo scopo di rispondere alle richieste degli utenti, quindi vengono eliminate entro 30 giorni dalla fine della chat.    

Se l'utente chiede a Copilot in Bing informazioni su un'immagine caricata, le risposte della chat possono riflettere l'impatto della sfocatura del volto sulla capacità del modello di fornire informazioni sull'immagine caricata. Ad esempio, Copilot in Bing può descrivere qualcuno che ha un volto sfocato.    

Limitare la deriva conversazionale. Durante il periodo di anteprima abbiamo appreso che sessioni di chat molto lunghe possono portare a risposte ripetitive, inutili o incoerenti con Copilot nel tono previsto di Bing. Per affrontare questa deriva conversazione, abbiamo limitato il numero di turni (scambi che contengono sia una domanda dell'utente che una risposta da Copilot in Bing) per ogni sessione di chat. Microsoft continua a valutare altri approcci per attenuare questo problema.  

Arricchimento rapido. In alcuni casi, la richiesta di un utente può essere ambigua. In questo caso, Copilot in Bing può usare l'LLM per contribuire a creare ulteriori dettagli nella richiesta per garantire agli utenti di ottenere la risposta che cercano. Tale arricchimento rapido non si basa su alcuna conoscenza dell'utente o delle ricerche precedenti, ma piuttosto sul modello di IA. Queste query modificate saranno visibili nella cronologia chat dell'utente e, come altre ricerche, possono essere eliminate tramite i controlli all'interno del prodotto.  

Interventi di progettazione e di esperienza utente incentrati sul lavoro. La progettazione incentrata sull'utente e le esperienze utente sono un aspetto essenziale dell'approccio di Microsoft all'intelligenza artificiale responsabile. L'obiettivo è quello di radice progettazione del prodotto nelle esigenze e le aspettative degli utenti. Quando gli utenti interagiscono con Copilot in Bing per la prima volta, offriamo vari punti di contatto progettati per aiutarli a comprendere le funzionalità del sistema, divulgare loro che Copilot in Bing è basato sull'intelligenza artificiale e comunicare limitazioni. L'esperienza è progettata in questo modo per aiutare gli utenti a sfruttare al meglio Copilot in Bing e ridurre al minimo il rischio di overreliance. Gli elementi dell'esperienza aiutano anche gli utenti a comprendere meglio Copilot in Bing e le loro interazioni con esso. Questi includono suggerimenti di chat specifici per l'intelligenza artificiale responsabile (ad esempio, in che modo Bing usa l'intelligenza artificiale? Perché Copilot in Bing non risponderà su alcuni argomenti?), spiegazioni delle limitazioni, modi in cui gli utenti possono ottenere maggiori informazioni su come funziona il sistema e segnalare il feedback e riferimenti facilmente individuabili che compaiono nelle risposte per mostrare agli utenti i risultati e le pagine in cui le risposte sono radicate.  

Divulgazione di intelligenza artificiale. Copilot in Bing fornisce diversi punti di contatto per la divulgazione significativa di intelligenza artificiale in cui gli utenti ricevono una notifica che interagiscono con un sistema di intelligenza artificiale, nonché le opportunità di saperne di più su Copilot in Bing. Fornire agli utenti queste conoscenze può aiutarli a evitare di affidarsi eccessivamente all'intelligenza artificiale e a conoscere i punti di forza e le limitazioni del sistema.  

Provenienza dei supporti.Microsoft Designer ha abilitato la funzionalità "Credenziali contenuto", che usa metodi di crittografia per contrassegnare l'origine, o "provenienza", di tutte le immagini generate dall'INTELLIGENZA creata su Designer. La funzionalità filigrana digitale invisibile mostra l'origine, l'ora e la data di creazione originale e queste informazioni non possono essere modificate. La tecnologia utilizza gli standard stabiliti dalla Coalition for Content and Authenticity (C2PA) per aggiungere un ulteriore livello di fiducia e trasparenza per le immagini generate dall'INTELLIGENZA. Microsoft è co-fondatore di C2PA e ha contribuito con la tecnologia di provenienza dei contenuti digitali di base. 

Condizioni per l'utilizzo e Codice di comportamento. Questa risorsa regolamenta l'uso di Copilot in Bing. Gli utenti devono rispettare le Condizioni per l'utilizzo e il Codice di comportamento, che, tra le altre cose, informano di usi consentiti e inammissibili e delle conseguenze della violazione dei termini. Le Condizioni per l'utilizzo forniscono inoltre informative aggiuntive per gli utenti e fungono da utile riferimento per gli utenti per ottenere informazioni su Copilot in Bing.   

Operazioni e risposta rapida. Microsoft utilizza copilot anche nei processi operativi e di monitoraggio in corso di Bing per risolvere i casi in cui Copilot in Bing riceve segnali o riceve una segnalazione che indica un possibile uso improprio o violazione delle Condizioni per l'utilizzo o del Codice di comportamento.  

Feedback, monitoraggio e supervisione. L'esperienza Di Copilot in Bing si basa sugli strumenti esistenti che consentono agli utenti di inviare feedback e segnalare i problemi, che vengono esaminati dai team operativi di Microsoft. Inoltre, i processi operativi di Bing si sono espansi per includere le funzionalità dell'esperienza Copilot in Bing, ad esempio l'aggiornamento della pagina Segnala un problema per includere i nuovi tipi di contenuto che gli utenti generano con l'aiuto del modello.   

Il nostro approccio all'identificazione, alla misurazione e alla prevenzione dei rischi continuerà a evolversi man mano che impareremo di più e stiamo già apportando miglioramenti in base al feedback raccolto durante il periodo di anteprima.     

Rilevamento automatico del contenuto. Quando gli utenti caricano immagini come parte della richiesta di chat, Copilot in Bing distribuisce strumenti per rilevare le immagini di sfruttamento sessuale dei bambini e abusi (CSEAI), in particolare la tecnologia di corrispondenza hash PhotoDNA. Microsoft ha sviluppato PhotoDNA per facilitare la ricerca di duplicati di CSEAI noti. Microsoft segnala tutte le apparenti CSEAI al National Center for Missing and Exploited Children (NC COMMUNITY), come richiesto dalla legge statunitense. Quando gli utenti caricano file per l'analisi o l'elaborazione, Copilot distribuisce l'analisi automatica per rilevare contenuti che potrebbero causare rischi o uso improprio, ad esempio testo che potrebbe riguardare attività illegali o codice dannoso.

Protezione della privacy  

La convinzione di microsoft di lunga data che la privacy sia un diritto umano fondamentale ha informato ogni fase dello sviluppo e della distribuzione di Copilot in Bing da parte di Microsoft. L'impegno di Microsoft a proteggere la privacy di tutti gli utenti, anche fornendo agli utenti trasparenza e controllo sui loro dati e integrando la privacy tramite progettazione attraverso la riduzione dei dati e le limitazioni degli scopi, è fondamentale per Copilot in Bing. Man mano che evolvono il nostro approccio per fornire Copilot nelle esperienze generative di IA di Bing, esploreremo continuamente il modo migliore per proteggere la privacy. Il documento verrà aggiornato in tempo. Ulteriori informazioni su come Microsoft protegge la privacy dei propri utenti sono disponibili nell'Informativa sulla privacy di Microsoft.  

Nell'esperienza Copilot in Windows, le competenze di Windows possono, nell'ambito delle loro funzionalità, condividere le informazioni degli utenti con la conversazione in chat. Questo è soggetto all'approvazione dell'utente e vengono visualizzate le richieste dell'interfaccia utente per confermare la finalità dell'utente prima che le informazioni utente vengano condivise con la conversazione in chat.

Microsoft continua a considerare le esigenze di bambini e giovani come parte della valutazione dei rischi delle nuove funzionalità generative di intelligenza artificiale di Copilot in Bing. Tutti gli account per bambini Microsoft che identificano l'utente al di sotto dei 13 anni di età o come diversamente specificato dalle leggi locali non possono accedere per accedere alla nuova esperienza completa di Bing.   

Come descritto in precedenza, per tutti gli utenti sono state implementate misure di sicurezza che attenuano il contenuto potenzialmente dannoso. In Copilot in Bing, i risultati sono impostati come nella modalità completa della ricerca sicura di Bing, che ha il massimo livello di protezione della sicurezza nella ricerca principale di Bing, impedendo quindi agli utenti, compresi gli utenti adolescenti, di essere esposti a contenuti potenzialmente dannosi. Oltre alle informazioni fornite in questo documento e nelle domande frequenti sulle funzionalità di chat, ulteriori informazioni sul funzionamento di Copilot in Bing per evitare di rispondere con contenuti offensivi imprevisti nei risultati della ricerca sono disponibili qui.  

Microsoft si è impegnata a non distribuire annunci pubblicitari personalizzati basati sul comportamento online ai bambini la cui data di nascita nell'account Microsoft li identifica come minori di 18 anni. Questa importante protezione si estenderà agli annunci in Copilot nelle funzionalità di Bing. Gli utenti possono visualizzare annunci contestuali in base alla query o alla richiesta usata per interagire con Bing.  

Per sbloccare il potenziale trasformativo dell'INTELLIGENZA generativa, dobbiamo costruire la fiducia nella tecnologia consentendo agli individui di comprendere come vengono usati i loro dati e fornendo loro scelte significative e controlli sui loro dati. Copilot in Bing è progettato per classificare in ordine di priorità l'agenzia umana, fornendo informazioni sul funzionamento del prodotto, oltre che sulle sue limitazioni, e estendendo le scelte e i controlli affidabili per gli utenti a Copilot nelle funzionalità di Bing.   

L'Informativa sulla privacy di Microsoft fornisce informazioni sulle procedure trasparenti relative alla privacy per la protezione dei clienti e fornisce informazioni sui controlli che consentono agli utenti di visualizzare e gestire i propri dati personali. Per garantire che gli utenti dispongano delle informazioni necessarie quando interagiscono con le nuove funzionalità conversazionali di Bing, le divulgazioni all'interno del prodotto informano gli utenti che interagiscono con un prodotto IA e Forniamo collegamenti ad altre domande frequenti e spiegazioni sul funzionamento di queste funzionalità. Microsoft continuerà ad ascoltare il feedback degli utenti e aggiungerà ulteriori dettagli sulle funzionalità conversazionali di Bing in base alle esigenze per supportare la comprensione del funzionamento del prodotto.   

Microsoft fornisce inoltre agli utenti strumenti efficaci per esercitare i propri diritti sui propri dati personali. Per i dati raccolti da Copilot in Bing, anche tramite query e richieste dell'utente, il dashboard per la privacy di Microsoft fornisce agli utenti autenticati (connessi) strumenti per esercitare i diritti degli interessati, anche fornendo agli utenti la possibilità di visualizzare, esportare ed eliminare la cronologia delle conversazioni archiviata. Microsoft continua a ricevere feedback su come vuole gestire la nuova esperienza bing, anche attraverso l'uso di esperienze di gestione dei dati nel contesto.   

Copilot in Bing rispetta anche le richieste relative al diritto europeo di essere dimenticato, seguendo il processo che Microsoft ha sviluppato e perfezionato per le funzionalità di ricerca tradizionali di Bing. Tutti gli utenti possono segnalare preoccupazioni riguardo al contenuto generato e alle risposte qui, e i nostri utenti europei possono utilizzare questo modulo per inviare richieste per bloccare i risultati della ricerca in Europa con il diritto di essere dimenticati.   

Copilot in Bing rispetta le scelte relative alla privacy degli utenti, incluse quelle precedentemente effettuate in Bing, ad esempio il consenso per la raccolta e l'uso dei dati richiesto tramite banner e controlli dei cookie disponibili nel dashboard per la privacy di Microsoft. Per consentire l'autonomia degli utenti e l'agenzia nel prendere decisioni informate, abbiamo usato il nostro processo di revisione interna per esaminare attentamente come vengono presentate le scelte agli utenti. 

Oltre ai controlli disponibili tramite il dashboard per la privacy di Microsoft, che consentono agli utenti di visualizzare, esportare ed eliminare la cronologia di ricerca, inclusi i componenti della cronologia chat, gli utenti autenticati che hanno abilitato la funzionalità Cronologia chat nel prodotto hanno la possibilità di visualizzare, accedere e scaricare la cronologia chat tramite controlli all'interno del prodotto. Gli utenti possono cancellare chat specifiche dalla cronologia chat o disattivare completamente la funzionalità Cronologia chat in qualsiasi momento visitando la pagina delle impostazioni di Bing. Gli utenti possono anche scegliere se consentire la personalizzazione per accedere a un'esperienza più personalizzata con risposte personalizzate. Gli utenti possono acconsentire esplicitamente e rifiutare esplicitamente la personalizzazione in qualsiasi momento nelle Impostazioni chat nella pagina impostazioni di Bing.  La cancellazione di chat specifiche dalla cronologia chat ne impedisce l'uso per la personalizzazione.  
 
Ulteriori informazioni sulla cronologia e la personalizzazione delle chat vengono fornite agli utenti in Copilot nelle domande frequenti su Bing. 

Copilot in Bing è stato creato tenendo presente la privacy, in modo che i dati personali vengano raccolti e usati solo in base alle esigenze e non vengano conservati più del necessario. Come accennato in precedenza, La funzionalità Visual Search in Copilot in Bing distribuisce un meccanismo che sfoca i volti nelle immagini al momento del caricamento da parte degli utenti, in modo che le immagini del volto non vengano ulteriormente elaborate o archiviate. Ulteriori informazioni sui dati personali raccolti da Bing, sul modo in cui vengono utilizzati e su come vengono archiviati ed eliminati sono disponibili nell'Informativa sulla privacy di Microsoft, che fornisce anche informazioni sulle nuove funzionalità di chat di Bing.   

Copilot in Bing ha criteri di conservazione ed eliminazione dei dati per garantire che i dati personali raccolti tramite le funzionalità di chat di Bing vengano conservati solo fino a quando necessario.   

Continueremo a imparare e ad evolvere il nostro approccio nel fornire Copilot in Bing e, in tal modo, continueremo a lavorare in diverse discipline per allineare la nostra innovazione ai valori umani e ai diritti fondamentali, tra cui la protezione dei giovani utenti e la privacy.   

Copilot con protezione dei dati commerciali 

Copilot con protezione dei dati commerciali, precedentemente nota come Bing Chat Enterprise ("BCE"), è stata rilasciata da Microsoft in anteprima pubblica gratuita a luglio 2023 come componente aggiuntivo gratuito per alcuni clienti di M365. Copilot con protezione dei dati commerciali è un'esperienza di ricerca Web avanzata dall'intelligenza artificiale per gli utenti finali aziendali. 

Come per Copilot in Bing, quando un Copilot con protezione dei dati commerciali immette un prompt nell'interfaccia, il prompt, la conversazione immediata, i risultati della ricerca principali e il metaprompt vengono inviati come input al LLM. Il modello genera una risposta usando la richiesta e la cronologia delle conversazioni immediate per contestualizzare la richiesta, il metaprompt per allineare le risposte ai principi di INTELLIGENZA ARTIFICIALE Microsoft e le aspettative degli utenti e i risultati della ricerca a risposte di base in contenuti esistenti di alto livello provenienti dal Web. Questo funziona allo stesso modo di Copilot in Bing come descritto in precedenza in questo documento, con l'eccezione che Copilot con protezione dei dati commerciali si basa solo sulla cronologia delle conversazioni immediate (non sulla cronologia delle conversazioni recenti) perché la cronologia chat archiviata non è attualmente supportata. Designer e Visual Search sono ora disponibili in questa versione. 

Come altre tecnologie di trasformazione, sfruttare i vantaggi dell'intelligenza artificiale non è privo di rischi e una parte fondamentale del programma IA responsabile di Microsoft è progettata per identificare i potenziali rischi, misurarne la propensione a verificarsi e creare misure di prevenzione per risolverli. Anche la descrizione precedente degli sforzi di Microsoft per identificare, misurare e mitigare i potenziali rischi per Copilot in Bing si applica anche a questa versione, con alcuni chiarimenti sulle misure di prevenzione descritte di seguito: 

Rilascio a fasi, valutazione continua. Proprio come con Copilot Bing, per Copilot con protezione dei dati commerciali abbiamo anche adottato un approccio incrementale al rilascio. Il 18 luglio 2023, Copilot con protezione dei dati commerciali è diventato disponibile come anteprima gratuita per gli utenti aziendali idonei con account M365 specifici da attivare per gli utenti finali aziendali. Trenta (30) giorni dopo la notifica ai clienti aziendali idonei, Copilot con protezione dei dati commerciali è diventato "attivata per impostazione predefinita" per gli stessi clienti. Copilot con protezione dei dati commerciali è da allora disponibile anche per specifici account M365 per istituti di istruzione. Copilot con protezione dei dati commerciali è diventato disponibile per alcuni clienti aziendali il 1° dicembre 2023. In futuro, prevediamo di espandere l'accesso a Copilot con protezione dei dati commerciali a più Microsoft Entra ID utenti.

Condizioni per l'utilizzo e Codice di comportamento. Gli utenti finali di Copilot con protezione dei dati commerciali devono rispettare le Condizioni per l'utilizzo degli utenti finali. Le presenti Condizioni per l'utilizzo informano gli utenti finali degli usi consentiti e inammissibili e delle conseguenze della violazione dei termini.  

Operazioni e risposta rapida. Microsoft utilizza copilot anche nei processi operativi e di monitoraggio continuativi di Bing per risolvere i casi in cui Copilot con protezione dei dati commerciali riceve segnali o riceve una segnalazione che indica un possibile uso improprio o violazione delle Condizioni per l'utilizzo degli utenti finali. 

Feedback, monitoraggio e supervisione. Copilot con protezione dei dati commerciali usa gli stessi strumenti di Copilot in Bing per consentire agli utenti di inviare feedback e segnalare i problemi, che vengono rivisti dai team operativi di Microsoft. Copilot nei processi operativi di Bing si è esteso anche per includere le funzionalità in Copilot con esperienze commerciali di protezione dei dati, ad esempio aggiornando la pagina Segnala un problema per includere i nuovi tipi di contenuto che gli utenti generano con l'aiuto del modello.  

Per garantire che gli utenti finali dispongano delle informazioni necessarie quando interagiscono con Copilot con la protezione dei dati commerciali, in fondo al documento è disponibile una documentazione del prodotto, tra cui le domande frequenti e le pagine Altre informazioni. 

Le richieste e le risposte generate dagli utenti finali in Copilot con protezione dei dati commerciali vengono elaborate e archiviate in linea con gli standard aziendali di gestione dei dati. L'offerta Copilot con protezione dei dati commerciali è attualmente disponibile solo per i clienti aziendali e i loro utenti finali adulti autenticati, quindi al momento non prevediamo che i bambini o i giovani siano utenti finali di Copilot con protezione dei dati commerciali. Inoltre, Copilot con protezione dei dati commerciali non fornisce annunci pubblicitari mirati in modo comportamentale agli utenti finali. Al contrario, gli annunci visualizzati sono solo annunci pertinenti per il contesto.  

Altre informazioni

Questo documento fa parte di uno sforzo più ampio di Microsoft per mettere in pratica i nostri principi di intelligenza artificiale. Per saperne di più, vedi:

L'approccio di Microsoft all'intelligenza artificiale responsabile

Microsoft Responsible AI Standard

Risorse di intelligenza artificiale responsabile di Microsoft  

Corsi di apprendimento di Microsoft Azure sull'intelligenza artificiale responsabile  

Informazioni su questo documento  

© 2023 Microsoft. Tutti i diritti sono riservati. Il presente documento viene fornito "così come è" e solo a scopo informativo. Le informazioni e le opinioni espresse in questo documento, inclusi gli URL e altri riferimenti a siti Web Internet, possono cambiare senza preavviso. Il licenziatario lo utilizza a proprio rischio. Alcuni esempi sono solo a scopo esemplificativo e fittizio. Nessuna associazione reale è prevista o dedotta.  

Serve aiuto?

Vuoi altre opzioni?

Esplorare i vantaggi dell'abbonamento e i corsi di formazione, scoprire come proteggere il dispositivo e molto altro ancora.

Le community aiutano a porre e a rispondere alle domande, a fornire feedback e ad ascoltare gli esperti con approfondite conoscenze.

Queste informazioni sono risultate utili?

Come valuti la qualità della lingua?
Cosa ha influito sulla tua esperienza?
Premendo Inviare, il tuo feedback verrà usato per migliorare i prodotti e i servizi Microsoft. L'amministratore IT potrà raccogliere questi dati. Informativa sulla privacy.

Grazie per il feedback!

×