Copilot in Stream è una funzionalità progettata per migliorare l'esperienza di riproduzione video all'interno di Microsoft 365. Funziona su registrazioni di riunioni Teams riprodotte in Stream o su qualsiasi video Stream archiviato in OneDrive (aziende o istituti di istruzione) e SharePoint. Questa funzionalità consente di:
-
Riepilogare i video: offre una panoramica concisa degli argomenti principali del video.
-
Estrarre le informazioni chiave: evidenzia i punti importanti e genera le note della riunione in base ai dettagli discussi durante una riunione video.
-
Create elementi azione: identifica le attività da affrontare.
-
Ottenere risposte: risponde alle query in base al contenuto video.
-
Identificare i problemi in sospeso: elenca eventuali questioni emerse nel video che sono rimaste senza risposta.
-
Collegare timestamp: consente di passare direttamente a sezioni specifiche del video.
Per accedere a queste funzionalità, seleziona la Guida ai prompt all'interno dell'app Web Stream. Scegli l'azione desiderata, ad esempio Riepiloga il video e Rivedi i risultati generati da Copilot.
Nota che Copilot in Stream usa trascrizioni video, quindi se il video che stai guardando non ha una trascrizione, è necessario generarne una prima. Gli utenti con autorizzazioni di modifica per il file video possono creare trascrizioni direttamente in Impostazioni video. Per altre informazioni, vedi Ti diamo il benvenuto in Microsoft Copilot in Stream.
Seleziona un'intestazione di seguito per altre informazioni.
-
Copilot richiede almeno 100 parole nella trascrizione del video per riepilogare il contenuto. Se c'è una trascrizione molto breve, Copilot non funzionerà.
-
Copilot è in grado di leggere solo la prima trascrizione generata per il video. Nel caso in cui al video siano state aggiunte più trascrizioni o traduzioni, Copilot userà per impostazione predefinita la trascrizione originale.
-
Copilot non genera nuovi contenuti né modifica il video. Risponde semplicemente a domande basate sulla trascrizione del video esistente.
Copilot in Stream non può essere personalizzato, ma gli utenti possono scegliere quali domande porre in base alle loro esigenze.
Copilot in Stream risponderà al meglio quando segui queste indicazioni:
-
Resta sull'argomento: Fai solo domande relative al contenuto del video, in quanto Copilot si affida alla trascrizione per fornire le risposte.
-
Supporto delle lingue: Anche se Copilot supporta tutte queste lingue, per risultati ottimali, usa l'inglese.
-
Accuratezza della trascrizione: assicurati che la lingua della trascrizione corrisponda al video. In caso contrario, generane un'altra nella lingua corretta in Impostazioni video.
Copilot è stato valutato attraverso approfonditi test manuali e automatici sulla base dei dati di utilizzo interni e pubblici di Microsoft. Un'ulteriore valutazione è stata eseguita sui set di dati personalizzati per individuare richieste (domande degli utenti, indicazioni o istruzioni) e risposte offensive e dannose. Copilot viene inoltre continuamente valutato tramite il feedback degli utenti online.
Il feedback fornito tramite le icone pollice su e pollice giù consentirà a Copilot di stabilire quali risposte sono o non sono utili per l'utente. Useremo questo feedback per migliorare Copilot, proprio come usiamo il feedback dei clienti per migliorare altre app e servizi di Microsoft 365. Tuttavia, questo feedback non viene usato per eseguire il training dei modelli di base usati da Copilot. Per altre informazioni, vedi Gestire il feedback Microsoft per l'organizzazione.
Copilot supporta un'ampia gamma di lingue. Tuttavia, tieni presente che potrebbero esserci alcune varianti specifiche dell'app. Per le informazioni più recenti sul supporto delle lingue in tutte le app Copilot, vedi Lingue supportate da Microsoft Copilot.
Copilot è stato rivisto dal nostro team Responsabile dell’intelligenza artificiale (RAI). Seguiamo i principi RAI e abbiamo implementato quanto segue:
Pipeline di gestione responsabile dell'intelligenza artificiale per mitigare i rischi come contenuti dannosi e inappropriati, incitamento o incoraggiamento di azioni dannose, stereotipi/denigrazione o sovrarappresentazione e sottorappresentazione di gruppi sociali, jailbreak di prompt injection e attacchi di prompt injection tra domini.
Feedback degli utenti all'interno del prodotto, dove gli utenti possono segnalare contenuti offensivi a Microsoft.
Queste misure di tutela sono volte a promuovere un uso efficace ed etico delle capacità di Copilot.
Microsoft ha intrapreso un percorso di intelligenza artificiale responsabile dal 2017, quando sono stati definiti i principi e l'approccio per garantire che questa tecnologia sia utilizzata in modo guidato da principi etici che mettono le persone al primo posto. Scopri di più sul nostro percorso per un'intelligenza artificiale responsabile, sui principi etici che ci guidano e sugli strumenti e le funzionalità che abbiamo creato per assicurarci di sviluppare la tecnologia di intelligenza artificiale in modo responsabile.
Il contenuto generato da Copilot si basa su un'ampia gamma di dati linguistici ed è progettato per essere coerente e contestualmente pertinente. Tuttavia, potrebbe non essere sempre completamente originale, in quanto attinge da modelli linguistici comuni e informazioni esistenti. Si tratta di uno strumento destinato ad assistere e fornire le basi per la creazione di contenuti, ma il contenuto finale deve sempre essere rivisto e verificato per controllarne l'originalità e l'accuratezza.
Copilot e Microsoft 365 si basano sull'approccio completo di Microsoft in materia di sicurezza, conformità e privacy.
Per altre informazioni sulla privacy, vedi le seguenti informazioni:
-
Se si utilizza Microsoft 365 Copilot nell'organizzazione (con l'account aziendale o dell'istituto di istruzione), vedere Dati, privacy e sicurezza per Microsoft 365 Copilot.
-
Se utilizzi Copilot nelle app Microsoft 365 per utenti privati con il tuo account Microsoft personale, consulta Copilot nelle app Microsoft 365 per utenti privati: dati e privacy.
Microsoft 365 Copilot genera informazioni e le spiega in modo scorrevole e grammaticalmente corretto, ma i contenuti generati possono essere imprecisi o inappropriati. Non è in grado di comprendere il significato o valutare l'accuratezza, quindi devi assicurarti di leggere il contenuto scritto e di usare la tua capacità di giudizio.
Come per tutti i contenuti generati dall'intelligenza artificiale, si tratta di un ottimo inizio, ma sappiamo che le decisioni che prendi hanno un grande impatto. Per questo motivo è fondamentale rivedere, modificare e verificare tutto ciò che Microsoft 365 Copilot crea per te.
Sì. Passa a myaccount.microsoft.com, vai a Impostazioni & Privacy, seleziona la scheda Privacy e quindi CopilotCronologia interazione. Ci sarà un pulsante per cancellare la cronologia. Per informazioni dettagliate su questa funzionalità, vai a Eliminare la cronologia delle interazioni di Microsoft Copilot. I dati Copilot verranno rimossi anche in tutte le altre applicazioni Microsoft 365.
Copilot include filtri per bloccare il linguaggio offensivo nei prompt e per evitare di sintetizzare suggerimenti in contesti sensibili. Continuiamo a lavorare per migliorare il sistema di filtro per rilevare e rimuovere in modo più intelligente le uscite offensive. Se vedi output offensivi, invia un feedback usando le icone pollice in su/pollice in giù nell'interfaccia utente di Copilot per aiutarci a migliorare le nostre misure di sicurezza. Microsoft prende molto sul serio questa sfida e ci impegniamo a risolverla.