Τελευταία ενημέρωση: Μάιος 2025

Τι είναι η Σημείωση διαφάνειας;

Ένα σύστημα τεχνητής νοημοσύνης περιλαμβάνει όχι μόνο την τεχνολογία, αλλά και τους ανθρώπους που θα την χρησιμοποιήσουν, τους ανθρώπους που θα επηρεαστούν από αυτό και το περιβάλλον στο οποίο αναπτύσσεται. Οι Σημειώσεις διαφάνειας της Microsoft έχουν σκοπό να σας βοηθήσουν να κατανοήσετε τον τρόπο λειτουργίας της τεχνολογίας τεχνητής νοημοσύνης πίσω από το Copilot, τις επιλογές που κάναμε που επηρεάζουν τις επιδόσεις και τη συμπεριφορά του συστήματος, καθώς και τη σημασία της σκέψης για ολόκληρο το σύστημα, ώστε οι χρήστες του Copilot να μπορούν να αναλάβουν τον έλεγχο των δικών τους εμπειριών και να κατανοήσουν τα βήματα που κάνουμε για να παρέχουμε ένα ασφαλές και ασφαλές προϊόν.

Οι Σημειώσεις διαφάνειας της Microsoft αποτελούν μέρος μιας ευρύτερης προσπάθειας στη Microsoft για την εφαρμογή των Αρχών τεχνητής νοημοσύνης. Για να μάθετε περισσότερα, ανατρέξτε στις Αρχές τεχνητής νοημοσύνης της Microsoft

Τα βασικά στοιχεία του Microsoft Copilot

Εισαγωγή

Το Copilot είναι μια εμπειρία που υποστηρίζεται από τεχνητή νοημοσύνη (AI), η οποία θα βοηθήσει τους χρήστες να παρέχουν στους χρήστες τις πληροφορίες που αναζητούν ενώ είναι έτοιμοι να υποστηρίξουν τους χρήστες στην απάντηση ενός ευρέος φάσματος ερωτήσεων ανεξάρτητα από την κατάσταση ή το θέμα. Το ανανεωμένο Copilot υπερβαίνει τις απαντήσεις σε βασικά ερωτήματα ανάκτησης πληροφοριών και επικεντρώνεται στη δημιουργία περιεχομένου για να προσφέρει πιο προληπτική υποστήριξη στους χρήστες κατά την ολοκλήρωση εργασιών. Έχουμε μια αυξανόμενη κατανόηση του τρόπου με τον οποίο η τεχνητή νοημοσύνη έχει τη δυνατότητα να βοηθήσει τους ανθρώπους να μάθουν, να ανακαλύψουν και να γίνουν πιο δημιουργικοί, κάτι που απαιτεί από εμάς να δημιουργήσουμε έναν διαφορετικό τύπο προϊόντος. Η νέα εμπειρία copilot επιδιώκει να γίνει ένας νέος τύπος εμπειρίας που είναι ανοιχτός και δυναμικός για την καλύτερη αντιμετώπιση των αναγκών των χρηστών με έναν πιο διαισθητικό τρόπο.

Στη Microsoft, λαμβάνουμε σοβαρά υπόψη τη δέσμευσή μας όσον αφορά το υπεύθυνο AI. Η ενημερωμένη εμπειρία του Copilot έχει αναπτυχθεί σύμφωνα με τις Αρχές τεχνητής νοημοσύνης της Microsoft, την υπεύθυνη Standard τεχνητής νοημοσύνης της Microsoft, καθώς και σε συνεργασία με υπεύθυνους ειδικούς τεχνητής νοημοσύνης σε όλη την εταιρεία, συμπεριλαμβανομένου του Γραφείου Υπεύθυνης Τεχνητής Νοημοσύνης της Microsoft, των ομάδων μηχανικών μας, της Microsoft Research και της Aether. Μπορείτε να μάθετε περισσότερα σχετικά με την υπεύθυνη τεχνητή νοημοσύνη (AI) στη Microsoft εδώ.  

Σε αυτό το έγγραφο, περιγράφουμε την προσέγγισή μας όσον αφορά την υπεύθυνη τεχνητή νοημοσύνη για το Copilot. Πριν από την κυκλοφορία, αξιοποιήσαμε τις υπερσύγχρονες μεθόδους της Microsoft για να χαρτογραφήσουμε, να μετρήσουμε και να διαχειριστούμε πιθανούς κινδύνους και κατάχρηση του συστήματος και να εξασφαλίσουμε τα πλεονεκτήματά του για τους χρήστες. Καθώς συνεχίζουμε να εξελίσσουμε το Copilot, συνεχίζουμε επίσης να μαθαίνουμε και να βελτιώνουμε τις υπεύθυνες προσπάθειές μας για την τεχνητή νοημοσύνη. Αυτό το έγγραφο θα ενημερώνεται περιοδικά για να επικοινωνεί τις εξελισσόμενες διαδικασίες και μεθόδους μας.  

Βασικοί όροι

Ταξινομητές    Μοντέλα μηχανικής εκμάθησης που συμβάλλουν στην ταξινόμηση δεδομένων σε κατηγορίες πληροφοριών με επισήμανση. Στην ενημερωμένη εμπειρία του Copilot, ένας τρόπος με τον οποίο χρησιμοποιούμε ταξινομητές είναι να βοηθήσουμε στον εντοπισμό δυνητικά επιβλαβούς περιεχομένου που υποβάλλεται από χρήστες ή δημιουργείται από το σύστημα, μετριασμού της δημιουργίας αυτού του περιεχομένου και της κατάχρησης ή κατάχρησης του συστήματος. 

Γείωση    Για ορισμένες συνομιλίες όπου οι χρήστες αναζητούν πληροφορίες, το Copilot βασίζεται στα αποτελέσματα αναζήτησης στο web. Αυτό σημαίνει ότι το Copilot επικεντρώνει την απάντησή του σε περιεχόμενο υψηλής κατάταξης από το web και παρέχει παραπομπές υπερ-σύνδεσης μετά από απαντήσεις κειμένου που έχουν δημιουργηθεί. Σημειώστε ότι, προς το παρόν, οι οδηγίες του χρήστη στη λειτουργία φωνής δεν θα ενεργοποιήσουν μια αναζήτηση στο web, επομένως, καμία απάντηση δεν θα περιλαμβάνει παραπομπές.

Μεγάλα μοντέλα γλωσσών (LLM)    Τα μεγάλα μοντέλα γλωσσών (LLM) σε αυτό το περιβάλλον είναι μοντέλα τεχνητής νοημοσύνης που εκπαιδεύονται σε μεγάλες ποσότητες δεδομένων κειμένου για την πρόβλεψη λέξεων σε ακολουθίες. Οι llm μπορούν να εκτελέσουν διάφορες εργασίες, όπως η δημιουργία κειμένου, η σύνοψη, η μετάφραση, η ταξινόμηση και πολλά άλλα.

Μετριασμού    Μια μέθοδος ή ένας συνδυασμός μεθόδων που έχουν σχεδιαστεί για να μειώνουν τους πιθανούς κινδύνους που μπορεί να προκύψουν από τη χρήση των δυνατοτήτων τεχνητής νοημοσύνης στο Copilot.

Πολυτροπικά μοντέλα (MMM)    Τα πολυτροπικά μοντέλα (MMM) είναι μοντέλα τεχνητής νοημοσύνης που εκπαιδεύονται σε διαφορετικούς τύπους δεδομένων, όπως κείμενο, εικόνες ή ήχο. Αυτά τα μοντέλα μπορούν να εκτελέσουν διάφορες εργασίες, όπως σύνταξη κειμένου, περιγραφή εικόνων, αναγνώριση ομιλίας και εύρεση πληροφοριών σε διάφορους τύπους δεδομένων.

Προτροπές    Πραγματοποιεί είσοδο με τη μορφή κειμένου, εικόνων ή/και ήχου που στέλνει ένας χρήστης στο Copilot για να αλληλεπιδράσει με τις δυνατότητες τεχνητής νοημοσύνης στο Copilot.

Κόκκινη ομαδική ομάδα    Τεχνικές που χρησιμοποιούνται από ειδικούς για την αξιολόγηση των περιορισμών και των ευπαθειών ενός συστήματος και για τον έλεγχο της αποτελεσματικότητας των προγραμματισμένων μετριασμάτων. Οι δοκιμές της κόκκινης ομάδας περιλαμβάνουν δοκιμαστές που υιοθετούν τόσο καλοήθεις όσο και αντίπαλες προσωπικότητες για τον εντοπισμό πιθανών κινδύνων και διαφέρουν από τη συστηματική μέτρηση των κινδύνων.

Απαντήσεις    Κείμενο, εικόνες ή ήχος που εξάγεται από το Copilot ως απάντηση σε μια ερώτηση ή ως μέρος της εμπρός και πίσω με το χρήστη. Τα συνώνυμα για την "απάντηση" περιλαμβάνουν τις λέξεις "ολοκλήρωση", "γενιά" και "απάντηση".

Μικρά μοντέλα γλωσσών (SLM)    Τα μικρά γλωσσικά μοντέλα (SLM) σε αυτό το περιβάλλον είναι μοντέλα τεχνητής νοημοσύνης (AI) που εκπαιδεύονται σε μικρότερες, πιο εστιασμένες ποσότητες δεδομένων σε σύγκριση με μεγάλα γλωσσικά μοντέλα. Παρά το μικρότερο μέγεθός τους, οι SLM μπορούν να εκτελέσουν διάφορες εργασίες, όπως η δημιουργία κειμένου, η σύνοψη, η μετάφραση και η ταξινόμηση. Παρόλο που ενδέχεται να μην αντιστοιχούν στις εκτεταμένες δυνατότητες των LLM, οι SLM είναι συχνά πιο αποδοτικές ως προς τους πόρους και μπορούν να είναι ιδιαίτερα αποτελεσματικές για συγκεκριμένες, στοχευμένες εφαρμογές. 

Μήνυμα συστήματος    Το μήνυμα συστήματος (μερικές φορές αναφέρεται ως "metaprompt") είναι ένα πρόγραμμα που χρησιμεύει για να καθοδηγήσει τη συμπεριφορά του συστήματος. Τμήματα του μηνύματος συστήματος συμβάλλουν στην ευθυγράμμιση της συμπεριφοράς του συστήματος με τις Αρχές AI της Microsoft και τις προσδοκίες των χρηστών. Για παράδειγμα, ένα μήνυμα συστήματος μπορεί να περιλαμβάνει μια γραμμή όπως "μην παρέχετε πληροφορίες ή δημιουργήστε περιεχόμενο που θα μπορούσε να προκαλέσει σωματική, συναισθηματική ή οικονομική βλάβη". 

Δυνατότητες

Συμπεριφορά συστήματος

Με το Copilot, αναπτύξαμε μια καινοτόμο προσέγγιση για να προσφέρουμε στους χρήστες μια πιο εξατομικευμένη εμπειρία τεχνητής νοημοσύνης για μια συναρπαστική εμπειρία που μπορεί να βοηθήσει τους χρήστες με διάφορες εργασίες. Αυτή η καινοτόμος προσέγγιση αξιοποιεί μια ποικιλία προηγμένων τεχνολογιών, όπως γλωσσικά και πολυτροπικά μοντέλα από τη Microsoft, το OpenAI και άλλους προγραμματιστές μοντέλων. Εργαστήκαμε για την εφαρμογή τεχνικών ασφάλειας για τα μοντέλα που βρίσκονται πίσω από τη νέα εμπειρία Copilot πριν από τη δημόσια κυκλοφορία, για να αναπτύξουμε ένα προσαρμοσμένο σύνολο δυνατοτήτων και συμπεριφορών που παρέχουν μια βελτιωμένη εμπειρία Copilot. Στο ενημερωμένο Copilot, οι χρήστες μπορούν να στέλνουν μηνύματα κειμένου ή φωνής σε φυσική γλώσσα. Οι απαντήσεις παρουσιάζονται στους χρήστες σε πολλές διαφορετικές μορφές, όπως οι απαντήσεις συνομιλίας σε μορφή κειμένου (με παραδοσιακές συνδέσεις σε περιεχόμενο Web, ανάλογα με τις ανάγκες) και εικόνες (εάν έγινε μια αίτηση εικόνας ως μέρος της ερώτησης). Εάν οι χρήστες στέλνουν μηνύματα με φωνή φυσικής γλώσσας στη λειτουργία Copilot Voice, θα λαμβάνουν ηχητικές απαντήσεις. 

Όταν ένας χρήστης καταχωρεί μια προτροπή στο Copilot, το μήνυμα, το ιστορικό συνομιλίας και το μήνυμα συστήματος αποστέλλονται μέσω πολλών ταξινομητών εισόδου για να σας βοηθήσουν να φιλτράρετε επιβλαβές ή ακατάλληλο περιεχόμενο. Αυτό είναι ένα κρίσιμο πρώτο βήμα για τη βελτίωση των επιδόσεων του μοντέλου και τον μετριασμό καταστάσεων στις οποίες οι χρήστες μπορεί να επιχειρήσουν να παρακινήσουν το μοντέλο με τρόπο που θα μπορούσε να μην είναι ασφαλής. Μόλις περάσει το μήνυμα από τους ταξινομητές εισόδου, αποστέλλεται σε ένα SLM για να προσδιοριστεί εάν η αίτηση απαιτεί δεδομένα γείωσης από το web και ποιο γλωσσικό μοντέλο θα πρέπει να απαντήσει στην αίτηση. Όλα τα μοντέλα δημιουργούν μια απάντηση χρησιμοποιώντας το παράθυρο προτροπής του χρήστη και το ιστορικό πρόσφατων συνομιλιών για τη βάσει περιεχομένου αίτηση, το μήνυμα του συστήματος για την ευθυγράμμιση των απαντήσεων με τις Αρχές τεχνητής νοημοσύνης της Microsoft και τις προσδοκίες των χρηστών και, εάν χρειάζεται, ευθυγραμμίζουν τις απαντήσεις με τα αποτελέσματα αναζήτησης για τις απαντήσεις εδάφους σε υπάρχον περιεχόμενο υψηλής κατάταξης από το web.  

Οι απαντήσεις παρουσιάζονται στους χρήστες σε πολλές διαφορετικές μορφές, όπως οι απαντήσεις στις συνομιλίες σε μορφή κειμένου, οι παραδοσιακές συνδέσεις σε περιεχόμενο web, οι εικόνες και οι ηχητικές απαντήσεις. Όταν οι απαντήσεις παρέχονται με τη μορφή κειμένου και οι απαντήσεις γειώνονται σε δεδομένα από το web, το αποτέλεσμα περιέχει παραπομπές με υπερ-συνδέσεις που παρατίθενται κάτω από το κείμενο, ώστε οι χρήστες να μπορούν να έχουν πρόσβαση στις τοποθεσίες Web που χρησιμοποιήθηκαν για τη γείωση της απάντησης και να μάθουν περισσότερα για το θέμα από εκεί. 

Το Copilot βοηθά επίσης τους χρήστες να δημιουργήσουν νέες ιστορίες, ποιήματα, στίχους τραγουδιών και εικόνες. Όταν το Copilot εντοπίσει την πρόθεση του χρήστη να δημιουργήσει δημιουργικό περιεχόμενο (όπως ένα μήνυμα χρήστη που αρχίζει με "γράψτε μου ένα ..."), το σύστημα, στις περισσότερες περιπτώσεις, θα δημιουργήσει περιεχόμενο που ανταποκρίνεται στο μήνυμα του χρήστη. Παρομοίως, όταν το Copilot εντοπίζει την πρόθεση του χρήστη να δημιουργήσει μια εικόνα (όπως ένα μήνυμα χρήστη που ξεκινά με "σχεδιάστε μου ένα ..."), το Copilot, στις περισσότερες περιπτώσεις, θα δημιουργήσει μια εικόνα που θα ανταποκρίνεται στο προτρεπτικό μήνυμα του χρήστη. Όταν το Copilot εντοπίσει την πρόθεση του χρήστη να τροποποιήσει μια απεσταλμένη εικόνα (όπως ένα μήνυμα χρήστη που αρχίζει με "προσθήκη ..."), το Copilot, στις περισσότερες περιπτώσεις, θα τροποποιήσει μια εικόνα που ανταποκρίνεται στο μήνυμα του χρήστη. Το Copilot ενδέχεται να μην ανταποκρίνεται με δημιουργικό περιεχόμενο, όταν το μήνυμα του χρήστη περιέχει ορισμένους όρους που θα μπορούσαν να οδηγήσουν σε προβληματικό περιεχόμενο.

Οι χρήστες με λογαριασμούς Microsoft (MSA) έχουν πλέον την επιλογή να εγγραφούν στο Copilot Pro, το οποίο προσφέρει μια βελτιωμένη εμπειρία, όπως επιταχυνόμενη απόδοση, χρήση των δυνατοτήτων φωνής του Copilot για μεγαλύτερα χρονικά διαστήματα και, σε ορισμένες περιπτώσεις, πρόσβαση σε νέες, πειραματικές δυνατότητες. Copilot Pro αυτή τη στιγμή είναι διαθέσιμη σε περιορισμένο αριθμό χωρών και σχεδιάζουμε να διαθέσουμε Copilot Pro σε περισσότερες αγορές σύντομα.

Επιδιωκόμενη συμπεριφορά ασφάλειας

Ο στόχος μας για το Copilot είναι να είμαστε χρήσιμοι στους χρήστες. Αξιοποιώντας βέλτιστες πρακτικές από άλλα παραγωγικά προϊόντα και υπηρεσίες τεχνητής νοημοσύνης της Microsoft, στόχος μας είναι να περιορίσουμε το Copilot από τη δημιουργία προβληματικού περιεχομένου και να αυξήσουμε την πιθανότητα μιας ασφαλούς και θετικής εμπειρίας χρήστη. Παρόλο που έχουμε λάβει μέτρα για τον μετριασμό των κινδύνων, τα μοντέλα τεχνητής νοημοσύνης όπως αυτά πίσω από το Copilot είναι πιθανοτικά και μπορεί να κάνουν λάθη, πράγμα που σημαίνει ότι οι μετριασμούς ενδέχεται περιστασιακά να μην εμποδίζουν επιβλαβείς προτροπές χρηστών ή απαντήσεις που δημιουργούνται από AI. Εάν αντιμετωπίσετε επιβλαβές ή μη αναμενόμενο περιεχόμενο κατά τη χρήση του Copilot, ενημερώστε μας παρέχοντας σχόλια, ώστε να συνεχίσουμε να βελτιώνουμε την εμπειρία.

Περιπτώσεις χρήσης

Προβλεπόμενες χρήσεις

Το Copilot προορίζεται να υποστηρίξει τους χρήστες στην απάντηση ενός ευρέος φάσματος ερωτήσεων ανεξάρτητα από την κατάσταση ή το θέμα. Οι χρήστες μπορούν να αλληλεπιδρούν με το Copilot χρησιμοποιώντας είσοδο κειμένου, εικόνας και ήχου, όπου οι αλληλεπιδράσεις προορίζονται να μοιάζουν περισσότερο με φυσικές συνομιλίες με ένα σύστημα τεχνητής νοημοσύνης. Επιπλέον, εάν οι χρήστες αλληλεπιδρούν με το Copilot μέσω κειμένου για να αναζητήσουν συγκεκριμένες πληροφορίες για θέματα όπου το Copilot μπορεί να απαιτεί περισσότερες πληροφορίες για να δώσει μια ακριβέστερη απάντηση, η εμπειρία έχει ως στόχο να συνδέσει τους χρήστες με σχετικά αποτελέσματα αναζήτησης, να εξετάσει τα αποτελέσματα από όλο το web και να συνοψίσει τις πληροφορίες που αναζητούν οι χρήστες. Στο Copilot, οι χρήστες μπορούν να: 

  • Σύνοψη πληροφοριών σε πραγματικό χρόνο κατά τη συνομιλία μέσω κειμένου.    Όταν οι χρήστες αλληλεπιδρούν με το Copilot μέσω κειμένου, το σύστημα θα εκτελεί αναζητήσεις στο web εάν χρειάζεται περισσότερες πληροφορίες και θα χρησιμοποιεί τα κορυφαία αποτελέσματα αναζήτησης στο web για να δημιουργήσει μια σύνοψη των πληροφοριών για την παρουσίαση στους χρήστες. Αυτές οι συνόψεις περιλαμβάνουν παραπομπές σε ιστοσελίδες για να βοηθήσουν τους χρήστες να δουν και να αποκτήσουν εύκολα πρόσβαση στις πηγές για αποτελέσματα αναζήτησης που βοήθησαν στη σύνοψη του Copilot. Οι χρήστες μπορούν να κάνουν κλικ σε αυτές τις συνδέσεις για να μεταβούν απευθείας στην προέλευση, εάν θέλουν να μάθουν περισσότερα.

  • Συνομιλήστε με ένα σύστημα τεχνητής νοημοσύνης χρησιμοποιώντας κείμενο.    Οι χρήστες μπορούν να συνομιλήσουν με το Copilot μέσω κειμένου και να κάνουν ερωτήσεις παρακολούθησης για να βρουν νέες πληροφορίες και να λάβουν υποστήριξη σε μια μεγάλη ποικιλία θεμάτων.

  • Περιβάλλον εργασίας με τεχνητή νοημοσύνη με χρήση φωνής.    Το Copilot δεν μπορεί να λάβει μόνο είσοδο ήχου, αλλά και να παράγει έξοδο ήχου σε μία από τις τέσσερις φωνές που επιλέγονται από τους χρήστες. Οι δυνατότητες ήχου και ήχου επιτρέπουν στους χρήστες να αλληλεπιδρούν με το Copilot με πιο φυσικό και ρευστό τρόπο.

  • Λάβετε εύπεπτο περιεχόμενο ειδήσεων.    Οι χρήστες μπορούν να χρησιμοποιήσουν το Copilot για να λάβουν μια σύνοψη των ειδήσεων, του καιρού και άλλων ενημερώσεων με βάση επιλεγμένες περιοχές θεμάτων μέσω της δυνατότητας Copilot Daily και να ακούσουν αυτές τις ενημερώσεις σε μορφή podcast. Αυτή η δυνατότητα θα αντλεί περιεχόμενο από εξουσιοδοτημένες πηγές που έχουν συμβάσεις με τη Microsoft.

  • Λάβετε βοήθεια για τη δημιουργία νέων ιδεών.    Κάθε φορά που οι χρήστες αλληλεπιδρούν με την εμπειρία copilot, θα βλέπουν ένα σύνολο καρτών στις οποίες μπορούν να κάνουν κλικ για να ξεκινήσουν να συνομιλούν με το Copilot σχετικά με χρήσιμα και ενδιαφέροντα θέματα. Εάν οι χρήστες έχουν αλληλεπιδράσει με άλλες καταναλωτικές υπηρεσίες της Microsoft, οι κάρτες θα εξατομικεύονται, σύμφωνα με τις πολιτικές προστασίας προσωπικών δεδομένων μας. Με την πάροδο του χρόνου, οι κάρτες στο Copilot μπορεί να εξατομικεύονται με βάση το ιστορικό συνομιλίας ενός χρήστη. Οι χρήστες μπορούν να εξαιρεθούν από την εξατομίκευση ανά πάσα στιγμή από τις ρυθμίσεις και εξακολουθούμε να διερευνούμε επιλογές εξατομίκευσης αργότερα για τους χρήστες στον ΕΟΧ (Ευρωπαϊκός Οικονομικός Χώρος) και το Ηνωμένο Βασίλειο.

  • Δημιουργία δημιουργικού περιεχομένου.    Όταν συνομιλούν με το Copilot, οι χρήστες μπορούν να δημιουργήσουν νέα ποιήματα, αστεία, ιστορίες, εικόνες και άλλο περιεχόμενο με τη βοήθεια της εμπειρίας του Copilot. Το Copilot μπορεί επίσης να επεξεργαστεί εικόνες που έχουν αποσταλεί από τους χρήστες, εάν ζητηθεί.

  • Εκτέλεση εργασιών σε Android.Οι χρήστες μπορούν να αλληλεπιδρούν με το Copilot μέσω της πλατφόρμας Android μέσω φωνής για την εκτέλεση ορισμένων εργασιών. Αυτές οι εργασίες είναι ο ορισμός χρονοδιακόπτων και αφυπνίσεων, η πραγματοποίηση τηλεφωνικών κλήσεων, η αποστολή μηνυμάτων SMS και η παραγγελία ενός Uber. Οι χρήστες πρέπει να επιβεβαιώσουν την τηλεφωνική κλήση, το μήνυμα SMS και την παραγγελία Uber πριν ολοκληρωθούν οι εργασίες.

  • Βοηθήστε στην έρευνα.  Το Copilot μπορεί να εκτελέσει εργασίες έρευνας εμφανίζοντας πόρους σε βάθος, προσφέροντας λεπτομερείς αναλύσεις θεμάτων και σύνδεση με προελεύσεις για να βοηθήσει τους χρήστες να ξεπεράσουν τις γρήγορες απαντήσεις για πιο σύνθετα ερωτήματα.

  • Εξερευνήστε τον κόσμο με Όραση Copilot. Το Copilot μπορεί να προβάλει την οθόνη σας ή την τροφοδοσία κάμερας κινητής συσκευής και να χρησιμοποιήσει τη φωνή του για να απαντήσει σε ερωτήσεις και να αλληλεπιδράσει μαζί σας. Το Copilot μπορεί να σαρώνει, να αναλύει και να προσφέρει άμεσα ιδέες και προτάσεις σε πραγματικό χρόνο για να σας βοηθήσει καθώς εργάζεστε, περιηγείστε ή εξερευνάτε τον κόσμο. το Όραση Copilot είναι διαθέσιμο στον Edge, τα Windows, το iOS και τις συσκευές Android.

Ζητήματα κατά την επιλογή άλλων περιπτώσεων χρήσης

Ενθαρρύνουμε τους χρήστες να εξετάζουν όλο το περιεχόμενο πριν λάβουν αποφάσεις ή ενεργήσουν με βάση τις απαντήσεις του Copilot, καθώς η τεχνητή νοημοσύνη μπορεί να κάνει λάθη. Επιπλέον, υπάρχουν ορισμένα σενάρια που συνιστάται να αποφύγετε ή που εναντιώνονται στους Όρους χρήσης μας. Για παράδειγμα, η Microsoft δεν επιτρέπει τη χρήση του Copilot σε σχέση με παράνομες δραστηριότητες ή για οποιονδήποτε σκοπό που αποσκοπεί στην προώθηση παράνομης δραστηριότητας.  

Περιορισμοί

Τα μοντέλα γλώσσας, εικόνας και ήχου που υποτιμά την εμπειρία του Copilot μπορεί να περιλαμβάνουν εκπαιδευτικά δεδομένα που μπορούν να απεικονίσουν κοινωνικές προκαταλήψεις, γεγονός που με τη σειρά του μπορεί ενδεχομένως να προκαλέσει τη συμπεριφορά του Copilot με τρόπους που θεωρούνται άδικοι, αναξιόπιστοι ή προσβλητικοί. Παρά την εντατική εκπαίδευση μοντέλων και την τελειοποίηση της ασφάλειας, καθώς και την εφαρμογή των υπεύθυνων ελέγχων τεχνητής νοημοσύνης και των συστημάτων ασφαλείας που τοποθετούμε σε δεδομένα εκπαίδευσης, προτροπές των χρηστών και εξόδους μοντέλων, οι υπηρεσίες που βασίζονται στην τεχνητή νοημοσύνη είναι πτωτικές και πιθανοτικές. Αυτό καθιστά δύσκολο τον πλήρη αποκλεισμό όλου του ακατάλληλου περιεχομένου, με αποτέλεσμα να υπάρχουν κίνδυνοι που ενέχουν οι πιθανές προκαταλήψεις, τα στερεότυπα, η έλλειψη ενδιαφέροντος ή άλλοι τύποι βλάβης που θα μπορούσαν να εμφανιστούν σε περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη (AI). Ορισμένοι από τους τρόπους με τους οποίους αυτοί οι περιορισμοί ενδέχεται να εκδηλωθούν στην εμπειρία του Copilot παρατίθενται εδώ. 

  • Στερεότυπα: Η εμπειρία του Copilot θα μπορούσε ενδεχομένως να ενισχύσει τα στερεότυπα. Για παράδειγμα, όταν μεταφράζετε το "He is a nurse" και το "She is a doctor" σε μια γλώσσα χωρίς φύλο όπως τα Τουρκικά και, στη συνέχεια, πίσω στα Αγγλικά, το Copilot μπορεί να αποφέρει ακούσια τα στερεότυπα (και εσφαλμένα) αποτελέσματα του "She is a nurse" και "He is a doctor". Ένα άλλο παράδειγμα είναι όταν δημιουργείτε μια εικόνα με βάση την προτροπή "Παιδιά χωρίς πατέρα", το σύστημα θα μπορούσε να δημιουργήσει εικόνες παιδιών μόνο από μία φυλή ή εθνικότητα, ενισχύοντας τα επιβλαβή στερεότυπα που μπορεί να υπάρχουν σε δημόσια διαθέσιμες εικόνες που χρησιμοποιούνται για την εκπαίδευση των υποκείμενων μοντέλων. Το Copilot μπορεί επίσης να ενισχύσει τα στερεότυπα με βάση το περιεχόμενο της εικόνας εισόδου του χρήστη, στηριζόμενοι σε στοιχεία της εικόνας και κάνοντας υποθέσεις που μπορεί να μην είναι αληθείς. Εφαρμόσαμε μετριασμούς για να μειώσουμε τον κίνδυνο περιεχομένου που περιέχει προσβλητικά στερεότυπα, όπως ταξινομητές εισόδου και εξόδου, λεπτομερή μοντέλα και μηνύματα συστήματος.

  • Υπερεκπροσώπηση και υποεκπροσωπία: Το Copilot θα μπορούσε ενδεχομένως να υπερεκπροσωπήσει ομάδες ατόμων, ή ακόμα και να μην τις εκπροσωπεί καθόλου, στις απαντήσεις του. Για παράδειγμα, εάν τα μηνύματα κειμένου που περιέχουν τη λέξη "gay" ανιχνευθούν ως δυνητικά επιβλαβή ή προσβλητικά, αυτό θα μπορούσε να οδηγήσει σε υποεκπροσωπία νόμιμων γενεών σχετικά με την κοινότητα ΛΟΑΤΚΙΑ+. Εκτός από τη συμπερίληψη των ταξινομητών εισόδου και εξόδου, των βελτιστοποιημένων μοντέλων, καθώς και των μηνυμάτων συστήματος, χρησιμοποιούμε τον έγκαιρο εμπλουτισμό στο Designer ως έναν από τους πολλούς μετριασμούς για να μειώσουμε τον κίνδυνο περιεχομένου που υπερ-αντιπροσωπεύει υπερβολικά ή υπο-αντιπροσωπεύει ομάδες ατόμων.

  • Ακατάλληλο ή προσβλητικό περιεχόμενο: Η εμπειρία του Copilot μπορεί ενδεχομένως να δημιουργήσει άλλους τύπους ακατάλληλου ή προσβλητικού περιεχομένου. Μερικά παραδείγματα είναι η δυνατότητα δημιουργίας περιεχομένου με μία αποκλειστικότητα (π.χ. ήχος) που είναι ακατάλληλη στο περιβάλλον της προτροπής της ή σε σύγκριση με την ίδια έξοδο σε διαφορετική διαμόρφωση (π.χ. κείμενο). Άλλα παραδείγματα περιλαμβάνουν εικόνες που δημιουργούνται από τεχνητή νοημοσύνη και οι οποίες ενδεχομένως περιέχουν επιβλαβή αντικείμενα όπως σύμβολα μίσους, περιεχόμενο που σχετίζεται με αμφισβητούμενα, αμφιλεγόμενα ή ιδεολογικά πολωτικά θέματα και σεξουαλικά φορτισμένο περιεχόμενο που αποφεύγει τα φίλτρα περιεχομένου που σχετίζονται με τη σεξουαλική χρήση. Έχουμε θέσει σε εφαρμογή μετριασμούς για να μειώσουμε τον κίνδυνο γενεών που περιέχουν ακατάλληλο ή προσβλητικό περιεχόμενο, όπως ταξινομητές εισόδου και εξόδου, λεπτομερή μοντέλα και μηνύματα συστήματος.

  • Αξιοπιστία πληροφοριών: Ενώ το Copilot στοχεύει να ανταποκριθεί με αξιόπιστες πηγές όπου είναι απαραίτητο, η τεχνητή νοημοσύνη μπορεί να κάνει λάθη. Θα μπορούσε ενδεχομένως να δημιουργήσει παράλογο περιεχόμενο ή να κατασκευάσει περιεχόμενο που μπορεί να ακούγεται λογικό, αλλά είναι αντικειμενικά ανακριβές. Ακόμη και όταν λαμβάνετε απαντήσεις από δεδομένα web υψηλής αρχής, οι απαντήσεις ενδέχεται να παραποιούν αυτό το περιεχόμενο με τρόπο που ενδέχεται να μην είναι απόλυτα ακριβής ή αξιόπιστος. Υπενθυμίζουμε στους χρήστες μέσω του περιβάλλοντος εργασίας χρήστη και στην τεκμηρίωση όπως αυτή ότι το Copilot μπορεί να κάνει λάθη. Συνεχίζουμε επίσης να εκπαιδεύουμε τους χρήστες σχετικά με τους περιορισμούς της τεχνητής νοημοσύνης, όπως να τους ενθαρρύνουμε να ελέγχουν προσεκτικά τα γεγονότα πριν από τη λήψη αποφάσεων ή τη δράση με βάση τις απαντήσεις του Copilot. Όταν οι χρήστες αλληλεπιδρούν με το Copilot μέσω κειμένου, θα επιχειρήσουν να γειώσουν τον εαυτό τους σε δεδομένα web υψηλής ποιότητας για να μειώσουν τον κίνδυνο να μην εμφανίζονται σε πρώτο πλάνο γενιές.

  • Πολύγλωσσες επιδόσεις: Ενδέχεται να υπάρχουν διαφορές στις επιδόσεις σε όλες τις γλώσσες, με τα Αγγλικά να έχουν καλύτερες επιδόσεις κατά τη στιγμή της κυκλοφορίας του ενημερωμένου Copilot. Η βελτίωση των επιδόσεων σε όλες τις γλώσσες αποτελεί βασικό επενδυτικό τομέα και τα πρόσφατα μοντέλα έχουν οδηγήσει σε βελτιωμένη απόδοση.

  • Περιορισμοί ήχου: Τα μοντέλα ήχου ενδέχεται να εισάγουν άλλους περιορισμούς. Σε γενικές γραμμές, η ακουστική ποιότητα της εισόδου ομιλίας, του θορύβου που δεν είναι ομιλίας, του λεξιλογίου, των τονισιών και των σφαλμάτων εισαγωγής μπορεί επίσης να επηρεάσει το αν το Copilot επεξεργάζεται και ανταποκρίνεται στην ηχητική είσοδο ενός χρήστη με ικανοποιητικό τρόπο. Επιπλέον, επειδή ο χρήστης ζητάει κατά τη χρήση του Copilot Voice να μην ενεργοποιεί αναζητήσεις στο web, το Copilot ενδέχεται να μην μπορεί να ανταποκριθεί σε τρέχοντα συμβάντα στη λειτουργία φωνής.

  • Εξάρτηση από τη σύνδεση στο Internet: Η ενημερωμένη εμπειρία του Copilot βασίζεται στη σύνδεση στο Internet για τη λειτουργία. Οι διακοπές στη συνδεσιμότητα μπορεί να επηρεάσουν τη διαθεσιμότητα και τις επιδόσεις της υπηρεσίας.

Επιδόσεις συστήματος

Σε πολλά συστήματα τεχνητής νοημοσύνης, η απόδοση συχνά ορίζεται σε σχέση με την ακρίβεια (π.χ., πόσο συχνά το σύστημα τεχνητής νοημοσύνης προσφέρει σωστή πρόβλεψη ή έξοδο). Με το Copilot, επικεντρωνόμαστε στο Copilot ως βοηθός που υποστηρίζεται από τεχνητή νοημοσύνη και αντικατοπτρίζει τις προτιμήσεις του χρήστη. Ως εκ τούτου, δύο διαφορετικοί χρήστες μπορεί να εξετάσουν το ίδιο αποτέλεσμα και να έχουν διαφορετικές απόψεις σχετικά με το πόσο χρήσιμο ή σχετικό είναι για τη μοναδική τους κατάσταση και τις προσδοκίες τους, γεγονός που σημαίνει ότι οι επιδόσεις για αυτά τα συστήματα πρέπει να καθοριστούν με μεγαλύτερη ευελιξία. Θεωρούμε γενικά ότι οι επιδόσεις σημαίνουν ότι η εφαρμογή λειτουργεί όπως αναμένουν οι χρήστες.

Βέλτιστες πρακτικές για τη βελτίωση των επιδόσεων του συστήματος 

Αλληλεπιδράστε με το περιβάλλον εργασίας χρησιμοποιώντας φυσική γλώσσα συνομιλίας.    Η αλληλεπίδραση με το Copilot με τρόπο που είναι άνετος για τον χρήστη είναι το κλειδί για να έχετε καλύτερα αποτελέσματα μέσω της εμπειρίας. Παρόμοια με την υιοθέτηση τεχνικών που βοηθούν τους χρήστες να επικοινωνούν αποτελεσματικά στην καθημερινή τους ζωή, η αλληλεπίδραση με το Copilot ως βοηθός που υποστηρίζεται από τεχνητή νοημοσύνη είτε μέσω κειμένου είτε μέσω ομιλίας που είναι εξοικειωμένος με τον χρήστη μπορεί να βοηθήσει στην εύρεση καλύτερων αποτελεσμάτων.

Εμπειρία χρήστη και υιοθέτηση.    Η αποτελεσματική χρήση του Copilot απαιτεί από τους χρήστες να κατανοήσουν τις δυνατότητες και τους περιορισμούς του. Ενδέχεται να υπάρχει μια καμπύλη εκμάθησης και οι χρήστες μπορεί να θέλουν να ανατρέξουν σε διάφορους πόρους του Copilot (π.χ., σε αυτό το έγγραφο και στις συνήθεις ερωτήσεις του Copilot) για να αλληλεπιδράσουν αποτελεσματικά και να επωφεληθούν από την υπηρεσία.

Χαρτογράφηση, μέτρηση και διαχείριση κινδύνων

Όπως και άλλες τεχνολογίες μετασχηματισμού, η αξιοποίηση των πλεονεκτημάτων της τεχνητής νοημοσύνης δεν είναι απαλλαγμένη από κινδύνους και ένα βασικό μέρος του προγράμματος υπεύθυνης τεχνητής νοημοσύνης της Microsoft έχει σχεδιαστεί για τον εντοπισμό και τον εντοπισμό πιθανών κινδύνων, τη μέτρηση αυτών των κινδύνων και τη διαχείρισή τους με την οικοδόμηση μετριασμών και τη συνεχή βελτίωση του Copilot με την πάροδο του χρόνου. Στις παρακάτω ενότητες περιγράφουμε την επαναληπτική προσέγγιση για τη χαρτογράφηση, τη μέτρηση και τη διαχείριση πιθανών κινδύνων.

Χάρτης: Ο προσεκτικός σχεδιασμός και οι δοκιμές αντιπάλου πριν από την ανάπτυξη, όπως η κόκκινη ομαδότητα, μας βοηθούν να χαρτογραφήσετε πιθανούς κινδύνους. Τα υποκείμενα μοντέλα που τροφοδοτούν την εμπειρία Copilot πέρασαν από δοκιμές κόκκινης ομάδας από δοκιμαστές που αντιπροσωπεύουν διεπιστημονικές προοπτικές σε σχετικούς τομείς θεμάτων. Αυτή η δοκιμή σχεδιάστηκε για να αξιολογήσει τον τρόπο λειτουργίας της τελευταίας τεχνολογίας τόσο με όσο και χωρίς πρόσθετες διασφαλίσεις. Σκοπός αυτών των ασκήσεων σε επίπεδο μοντέλου είναι η παραγωγή επιβλαβών αποκρίσεων, η επιφανειακή πιθανή οδός για κατάχρηση και ο προσδιορισμός δυνατοτήτων και περιορισμών.

Πριν δημοσιοποιήσουμε την εμπειρία Copilot σε μια προεπισκόπηση περιορισμένης κυκλοφορίας, πραγματοποιήσαμε επίσης κόκκινη ομαδοποίησης σε επίπεδο εφαρμογής για να αξιολογήσουμε το Copilot για ελλείψεις και ευπάθειες. Αυτή η διαδικασία μας βοήθησε να κατανοήσουμε καλύτερα πώς θα μπορούσε να χρησιμοποιηθεί το σύστημα από μια μεγάλη ποικιλία χρηστών και μας βοήθησε να βελτιώσουμε τους μετριασμούς μας.

Μέτρο: Εκτός από την αξιολόγηση του Copilot σε σχέση με τις υπάρχουσες αξιολογήσεις ασφάλειας, η χρήση της κόκκινης ομάδας που περιγράφεται παραπάνω μας βοήθησε να αναπτύξουμε αξιολογήσεις και υπεύθυνα μετρικά τεχνητής νοημοσύνης που αντιστοιχούν σε εντοπισμένους πιθανούς κινδύνους, όπως σπασίματα φυλακής, επιβλαβές περιεχόμενο και μη εμφανές περιεχόμενο.

Συλλέξαμε δεδομένα συνομιλίας που στοχεύουν σε αυτούς τους κινδύνους, χρησιμοποιώντας ένα συνδυασμό ανθρώπινων συμμετεχόντων και μια αυτοματοποιημένη διοχέτευση δημιουργίας συνομιλιών. Στη συνέχεια, κάθε αξιολόγηση βαθμολογείται είτε από μια ομάδα εκπαιδευμένων ατόμων σχολιασμού είτε από μια αυτοματοποιημένη διοχέτευση σχολίων. Κάθε φορά που αλλάζουν τα προϊόντα, ενημερώνονται οι υφιστάμενοι μετριασμούς ή προτείνονται νέοι μετριασμούς, ενημερώνουμε τους αγωγούς αξιολόγησής μας, ώστε να αξιολογούμε τόσο την απόδοση του προϊόντος όσο και τις υπεύθυνες μετρήσεις τεχνητής νοημοσύνης. Αυτοί οι αυτοματοποιημένοι αγωγοί περιβάλλοντος αξιολόγησης είναι ένας συνδυασμός συνομιλιών που συλλέγονται με ανθρώπινους αξιολογητές και συνθετικές συνομιλίες που δημιουργούνται με LLMs που καλούνται να δοκιμάσουν πολιτικές με αντίπαλο τρόπο. Κάθε μία από αυτές τις αξιολογήσεις ασφάλειας βαθμολογείται αυτόματα με LLM. Για τις πρόσφατα αναπτυγμένες αξιολογήσεις, κάθε αξιολόγηση βαθμολογείται αρχικά από ανθρώπους που διαβάζουν το περιεχόμενο κειμένου ή ακούν την έξοδο ήχου και, στη συνέχεια, μετατρέπονται σε αυτόματες αξιολογήσεις που βασίζονται σε LLM.

Η επιδιωκόμενη συμπεριφορά των μοντέλων μας σε συνδυασμό με τους αγωγούς αξιολόγησής μας —τόσο ανθρώπινους όσο και αυτοματοποιημένους— μας επιτρέπουν να εκτελέσουμε γρήγορα μετρήσεις για πιθανούς κινδύνους σε κλίμακα. Καθώς εντοπίζουμε νέα ζητήματα με την πάροδο του χρόνου, συνεχίζουμε να επεκτείνουμε τα σύνολα μετρήσεων για να αξιολογήσουμε πρόσθετους κινδύνους. 

Διαχείριση: Καθώς εντοπίσαμε πιθανούς κινδύνους και κατάχρηση μέσω της κόκκινης ομαδοποίησής τους και τους μετρήσαμε με τις προσεγγίσεις που περιγράφονται παραπάνω, αναπτύξαμε πρόσθετους μετριασμούς που αφορούν συγκεκριμένα την εμπειρία του Copilot. Παρακάτω, περιγράφουμε ορισμένους από αυτούς τους μετριασμούς. Θα συνεχίσουμε να παρακολουθούμε την εμπειρία του Copilot για να βελτιώνουμε τις επιδόσεις του προϊόντος και την προσέγγιση μετριασμού των κινδύνων. 

  • Προγράμματα σταδιακής κυκλοφορίας και συνεχής αξιολόγηση.    Δεσμευόμαστε να μαθαίνουμε και να βελτιώνουμε συνεχώς την προσέγγισή μας όσον αφορά το υπεύθυνο AI καθώς εξελίσσονται οι τεχνολογίες και η συμπεριφορά των χρηστών μας. Η στρατηγική σταδιακής κυκλοφορίας υπήρξε βασικό μέρος του τρόπου με τον οποίο μετακινούμε την τεχνολογία μας με ασφάλεια από το εργαστήριο στον κόσμο και δεσμευόμαστε σε μια σκόπιμη, στοχαστική διαδικασία για να εξασφαλίσουμε τα οφέλη της εμπειρίας του Copilot. Κάνουμε αλλαγές στο Copilot τακτικά για να βελτιώσουμε τις επιδόσεις των προϊόντων και τους υπάρχοντες μετριασμούς και να εφαρμόσουμε νέους μετριασμούς ως απάντηση στα μαθήματά μας.

  • Αξιοποίηση των ταξινομητών και του μηνύματος συστήματος για τον μετριασμό πιθανών κινδύνων ή κακής χρήσης.    Σε απάντηση στις οδηγίες του χρήστη, οι llm μπορεί να παράγουν προβληματικό περιεχόμενο. Συζητήσαμε τους τύπους περιεχομένου που προσπαθούμε να περιορίσουμε στις ενότητες Συμπεριφορά συστήματος και Περιορισμοί παραπάνω. Οι ταξινομητές και το μήνυμα συστήματος αποτελούν δύο παραδείγματα μετριασμάτων που έχουν εφαρμοστεί στο Copilot για να βοηθήσουν στη μείωση του κινδύνου αυτών των τύπων περιεχομένου. Οι ταξινομητές ταξινομούν το κείμενο για να επισημαίνουν πιθανώς επιβλαβές περιεχόμενο στις προτροπές του χρήστη ή στις απαντήσεις που δημιουργούνται. Χρησιμοποιούμε επίσης υπάρχουσες βέλτιστες πρακτικές για την αξιοποίηση του μηνύματος συστήματος, το οποίο περιλαμβάνει την παροχή οδηγιών στο μοντέλο για την ευθυγράμμιση της συμπεριφοράς του με τις αρχές τεχνητής νοημοσύνης της Microsoft και με τις προσδοκίες των χρηστών.

  • Συγκατάθεση για αποστολές εικόνων Copilot.    Την πρώτη φορά που ένας χρήστης αποστέλλει μια εικόνα που περιέχει πρόσωπα στο Copilot, θα του ζητηθεί να δώσει τη συγκατάθεσή του για την αποστολή των βιομετρικών δεδομένων του στο Copilot. Εάν ένας χρήστης δεν επιλέξει να συμμετάσχει, η εικόνα δεν θα σταλεί στο Copilot. Όλες οι εικόνες, ανεξάρτητα από το αν περιέχουν πρόσωπα ή όχι, διαγράφονται εντός 30 ημερών από τη λήξη της συνομιλίας.

  • Αποκάλυψη AI.     Το Copilot έχει επίσης σχεδιαστεί για να ενημερώνει τους ανθρώπους ότι αλληλεπιδρούν με ένα σύστημα τεχνητής νοημοσύνης. Καθώς οι χρήστες αλληλεπιδρούν με το Copilot, προσφέρουμε διάφορα σημεία αφής που έχουν σχεδιαστεί για να τους βοηθήσουν να κατανοήσουν τις δυνατότητες του συστήματος, να τους αποκαλύψουν ότι το Copilot παρέχεται από AI και να κοινοποιούν περιορισμούς. Η εμπειρία έχει σχεδιαστεί με αυτόν τον τρόπο για να βοηθήσει τους χρήστες να αξιοποιήσουν στο έπακρο το Copilot και να ελαχιστοποιήσουν τον κίνδυνο υπερβολικής εξάρτησης. Οι γνωστοποιήσεις βοηθούν επίσης τους χρήστες να κατανοήσουν καλύτερα το Copilot και τις αλληλεπιδράσεις τους με αυτό.

  • Προέλευση των μέσων ενημέρωσης.    Όταν το Copilot δημιουργεί μια εικόνα, έχουμε ενεργοποιήσει μια δυνατότητα "Διαπιστευτήρια περιεχομένου", η οποία χρησιμοποιεί κρυπτογραφικές μεθόδους για τη σήμανση της πηγής ή "προέλευση", όλων των εικόνων που δημιουργούνται με AI που δημιουργούνται με χρήση του Copilot. Αυτή η τεχνολογία χρησιμοποιεί πρότυπα που έχουν οριστεί από το Συνασπισμό για περιεχόμενο και αυθεντικότητα (C2PA) για να προσθέσει ένα επιπλέον επίπεδο εμπιστοσύνης και διαφάνειας για εικόνες που δημιουργούνται από τεχνητή νοημοσύνη.

  • Αυτόματος εντοπισμός περιεχομένου.    Όταν οι χρήστες αποστέλλουν εικόνες στο πλαίσιο της προτροπής συνομιλίας τους, το Copilot αναπτύσσει εργαλεία για τον εντοπισμό εικόνων σεξουαλικής εκμετάλλευσης και κακοποίησης παιδιών (CSEAI). Η Microsoft αναφέρει όλα τα προφανή CSEAI στο Εθνικό Κέντρο Για εξαφανισμένα και κακοποιημένα παιδιά (NCMEC), όπως απαιτείται από τη νομοθεσία των ΗΠΑ. Όταν οι χρήστες αποστέλλουν αρχεία για ανάλυση ή επεξεργασία, το Copilot αναπτύσσει την αυτοματοποιημένη σάρωση για τον εντοπισμό περιεχομένου που θα μπορούσε να οδηγήσει σε κινδύνους ή κατάχρηση, όπως κείμενο που θα μπορούσε να σχετίζεται με παράνομες δραστηριότητες ή κακόβουλο κώδικα.

  • Όρους χρήσης και κώδικα συμπεριφοράς.    Οι χρήστες θα πρέπει να συμμορφώνονται με τους ισχύοντες Όρους χρήσης και τη Σύμβαση παροχής υπηρεσιών του Κώδικα συμπεριφοράς της Microsoft και τη Δήλωση προστασίας προσωπικών δεδομένων της Microsoft, οι οποίες, μεταξύ άλλων, τους ενημερώνουν για επιτρεπτές και ανεπίτρεπτες χρήσεις και συνέπειες παραβίασης των όρων. Οι Όροι χρήσης παρέχουν επίσης πρόσθετες γνωστοποιήσεις για τους χρήστες και χρησιμεύουν ως αναφορά για την ενημέρωση των χρηστών σχετικά με το Copilot. Οι χρήστες που διαπράττουν σοβαρές ή επαναλαμβανόμενες παραβιάσεις ενδέχεται να ανασταλούν προσωρινά ή μόνιμα από την υπηρεσία.

  • Σχόλια, παρακολούθηση και εποπτεία.    Η εμπειρία του Copilot βασίζεται σε υπάρχοντα εργαλεία που επιτρέπουν στους χρήστες να υποβάλουν σχόλια, τα οποία εξετάζονται από τις ομάδες λειτουργιών της Microsoft. Επιπλέον, η προσέγγισή μας όσον αφορά τη χαρτογράφηση, τη μέτρηση και τη διαχείριση των κινδύνων θα συνεχίσει να εξελίσσεται καθώς μαθαίνουμε περισσότερα και ήδη κάνουμε βελτιώσεις με βάση τα σχόλια που συγκεντρώθηκαν κατά τη διάρκεια των περιόδων προεπισκόπησης.

Μάθετε περισσότερα σχετικά με την υπεύθυνη τεχνητή νοημοσύνη (AI)

Αναφορά διαφάνειας υπεύθυνου AI της Microsoft

Αρχές AI της Microsoft

Πόροι υπεύθυνης τεχνητής νοημοσύνης της Microsoft

Κύκλοι μαθημάτων του Microsoft Azure Learning σχετικά με την υπεύθυνη τεχνητή νοημοσύνη (AI)

Μάθετε περισσότερα σχετικά με Microsoft Copilot

Microsoft Copilot συνήθεις ερωτήσεις

Πληροφορίες για αυτό το έγγραφο

© 2024 Microsoft Corporation. Με την επιφύλαξη κάθε νόμιμου δικαιώματος. Αυτό το έγγραφο παρέχεται "ως έχει" και μόνο για ενημερωτικούς σκοπούς. Οι πληροφορίες και οι προβολές που εκφράζονται σε αυτό το έγγραφο, συμπεριλαμβανομένων των διευθύνσεων URL και άλλων αναφορών σε τοποθεσίες Web στο Internet, ενδέχεται να αλλάξουν χωρίς προειδοποίηση. Eσείς έχετε την ευθύνη της χρήσης του. Ορισμένα παραδείγματα είναι μόνο για απεικόνιση και είναι φανταστικά. Καμία πραγματική συσχέτιση δεν προορίζεται ή συνάγεται.

Αυτό το έγγραφο δεν προορίζεται και δεν πρέπει να ερμηνεύεται ως παροχή νομικών συμβουλών. Η δικαιοδοσία στην οποία χρησιμοποιείτε ενδέχεται να έχει διάφορες ρυθμιστικές ή νομικές απαιτήσεις που ισχύουν για το σύστημα τεχνητής νοημοσύνης σας. Συμβουλευτείτε έναν νομικό ειδικό εάν δεν είστε βέβαιοι σχετικά με νόμους ή κανονισμούς που ενδέχεται να ισχύουν για το σύστημά σας, ειδικά εάν πιστεύετε ότι αυτές ενδέχεται να επηρεάσουν αυτές τις συστάσεις. Λάβετε υπόψη ότι δεν είναι όλες αυτές οι συστάσεις και οι πόροι κατάλληλες για κάθε σενάριο και, αντίθετα, αυτές οι συστάσεις και οι πόροι ενδέχεται να μην επαρκούν για ορισμένα σενάρια.

Δημοσίευση: 10/01/2024

Τελευταία ενημέρωση: 10/01/2024

Χρειάζεστε περισσότερη βοήθεια;

Θέλετε περισσότερες επιλογές;

Εξερευνήστε τα πλεονεκτήματα της συνδρομής, περιηγηθείτε σε εκπαιδευτικά σεμινάρια, μάθετε πώς μπορείτε να προστατεύσετε τη συσκευή σας και πολλά άλλα.