Legutóbb frissítve: 2025. október 22.

Mi az az átláthatósági megjegyzés?

Az AI-rendszerek nem csak a technológiát, hanem a felhasználókat is magukban foglalják, azokat, akiket érint majd, valamint a környezetet, amelyben üzembe helyezik. A Microsoft átláthatósági megjegyzései segítenek megérteni a Copilot mögötti AI-technológia működését, a rendszer teljesítményét és viselkedését befolyásoló döntéseket, valamint a teljes rendszerre való gondolkodás fontosságát, hogy a Copilot felhasználói átvehessék a saját élményeiket, és megérthessék a biztonságos és biztonságos termék biztosításának lépéseit.

A Microsoft átláthatósági megjegyzései a Microsoft szélesebb körű erőfeszítéseinek részét képezik az AI-alapelvek gyakorlati alkalmazásához. További információért tekintse meg a Microsoft AI alapelveit

A Microsoft Copilot alapjai

Bevezetés

A Copilot egy AI-alapú felület, amely segít a felhasználóknak a keresett információk biztosításában, miközben készen áll arra, hogy a felhasználókat a helyzettől és a témakörtől függetlenül számos kérdés megválaszolásában támogassák. A frissített Copilot túlmutat az alapvető információlekérési lekérdezések megválaszolásán, és a tartalom létrehozására összpontosít, hogy proaktívabb támogatást nyújtson a felhasználóknak a feladatok elvégzése során. Egyre jobban megértjük, hogy az MI hogyan segítheti az embereket a tanulásban, a felfedezésben és a kreatívabbságban, ami megköveteli egy másik terméktípus felépítését. Az új Copilot-élmény olyan új típusú felületté szeretne válni, amely nyitott és dinamikus, hogy a felhasználói igényeket intuitívabb módon kezelje.

A Microsoftnál komolyan vesszük a felelős mesterséges intelligencia iránti elkötelezettségünket. A frissített Copilot-élmény a Microsoft AI-alapelveivel, a Microsoft Felelős AI Standardjával és a vállalat felelős AI-szakértőivel, köztük a Microsoft Felelős AI-irodájával, mérnöki csapatainkkal, a Microsoft Researchszel és az Aetherrel együttműködve lett kifejlesztve. A felelős AI-ról itt tudhat meg többet a Microsoftnál.  

Ebben a dokumentumban a Copilot felelős mesterséges intelligenciával kapcsolatos megközelítését ismertetjük. A megjelenés előtt a Microsoft korszerű módszereit használtuk a rendszer lehetséges kockázatainak és visszaéléseinek feltérképezésére, mérésére és kezelésére, valamint a felhasználók számára nyújtott előnyök biztosítására. A Copilot továbbfejlődése során folyamatosan tanuljuk és fejlesztjük felelős AI-erőfeszítéseinket. Ezt a dokumentumot rendszeresen frissítjük, hogy közöljük a változó folyamatokat és módszereket.  

Főbb kifejezések

Osztályozók    Gépi tanulási modellek, amelyek segítenek az adatok címkézett osztályokba vagy információkategóriákba rendezésében. A frissített Copilot-élményben az osztályozók egyik módja az, hogy segítünk észlelni a felhasználók által küldött vagy a rendszer által létrehozott potenciálisan káros tartalmakat, hogy mérsékeljük a tartalom keletkezését, valamint a rendszerrel való visszaélést vagy visszaélést. 

Földelés    Bizonyos olyan beszélgetések esetében, ahol a felhasználók információt keresnek, a Copilot a webes keresési eredményekre alapozott. Ez azt jelenti, hogy a Copilot a webes magas szintű tartalomra összpontosítja a válaszát, és a létrehozott szöveges válaszokat követően hivatkozásokkal formázott idézeteket biztosít. Vegye figyelembe, hogy a felhasználói kérések hang módban jelenleg nem indítják el a webes keresést, ezért egyetlen válasz sem tartalmaz idézeteket.

Nagyméretű nyelvi modellek (LLM-ek)    Ebben a kontextusban a nagy nyelvi modellek (LLM-ek) olyan AI-modellek, amelyek nagy mennyiségű szöveges adatra vannak betanítve a szavak szekvenciákban történő előrejelzéséhez. Az LLM-ek különféle feladatokat hajthatnak végre, például szöveggenerálást, összegzést, fordítást, besorolást és egyebeket.

Mérséklés    A Copilot AI-funkcióinak használatából eredő lehetséges kockázatok csökkentésére tervezett módszerek vagy módszerek kombinációja.

Többmódos modellek (MMM-ek)    A többmódos modellek (MMM-ek) olyan AI-modellek, amelyek különböző típusú adatokon, például szövegen, képeken vagy hangon vannak betanítve. Ezek a modellek különféle feladatokat hajthatnak végre, például szöveget írnak, képeket írnak le, felismerik a beszédet, és különböző típusú adatok között találnak információkat.

Parancsok    Szöveg, képek és/vagy hang formájában megadott bemenetek, amelyeket a felhasználó a Copilotnak küld, hogy interakcióba léphessenek a Copilot AI-funkcióival.

Piros összevonás    A szakértők által a rendszer korlátainak és biztonsági réseinek felmérésére és a tervezett kockázatcsökkentések hatékonyságának tesztelésére használt technikák. A vörös csapat tesztelése során a tesztelők jóindulatú és kártékony személyeket is alkalmaznak a lehetséges kockázatok azonosítása érdekében, és különböznek a kockázatok rendszeres mérésétől.

Válaszok    Olyan szöveg, kép vagy hang, amelyet a Copilot egy kérdésre válaszolva vagy a felhasználóval való oda-vissza üzenet részeként ad ki. A "válasz" szinonimái közé tartozik a "befejezés", a "létrehozás" és a "válasz".

Kis nyelvi modellek (SLM-ek)    A kis nyelvi modellek (SLM-ek) ebben az összefüggésben olyan AI-modellek, amelyek kisebb, koncentráltabb mennyiségű adatra vannak betanítve a nagy nyelvi modellekhez képest. Kisebb méretük ellenére az SLM-ek számos különböző feladatot hajthatnak végre, például szöveggenerálást, összegzést, fordítást és besorolást. Bár előfordulhat, hogy nem felelnek meg az LLM-ek kiterjedt képességeinek, az SLO-k gyakran erőforrás-hatékonyabbak, és rendkívül hatékonyak bizonyos, célzott alkalmazások esetében. 

Rendszerüzenet    A rendszerüzenet (más néven "metaprompt") egy olyan program, amely a rendszer viselkedésének irányítására szolgál. A rendszerüzenet egyes részei segítenek a rendszer viselkedésének igazításában a Microsoft AI alapelveivel és a felhasználói elvárásokkal. Egy rendszerüzenet például tartalmazhat egy sort, például: "ne adjon meg információt, és ne hozzon létre olyan tartalmat, amely fizikai, érzelmi vagy pénzügyi károkat okozhat". 

Funkciók

Rendszer viselkedése

A Copilottal innovatív megközelítést fejlesztettünk ki, amellyel személyre szabottabb AI-élményt nyújthatunk a felhasználóknak, hogy olyan vonzó élményt nyújtsunk, amely különböző feladatok elvégzésében nyújt segítséget a felhasználóknak. Ez az innovatív megközelítés számos fejlett technológiát használ, például a Microsoft, az OpenAI és más modellfejlesztők nyelv- és multimodális modelljeit. A nyilvános kiadás előtti új Copilot-élmény alapjául szolgáló modellek biztonsági technikáinak implementálásán dolgoztunk, hogy olyan képességeket és viselkedéseket fejlesszünk ki, amelyek továbbfejlesztett Copilot-élményt biztosítanak. A frissített Copilotban a felhasználók természetes nyelvű szövegben vagy hangon küldhetnek utasításokat. A válaszok számos különböző formátumban jelennek meg a felhasználóknak, például szöveges (szükség esetén hagyományos webes tartalomra mutató hivatkozásokkal rendelkező) csevegési válaszok és képek (ha a kérés részeként képkérés történt). Ha a felhasználók természetes nyelvű hangüzeneteket küldenek a Copilot Voice módban, hangüzeneteket kapnak. 

Amikor egy felhasználó rákérdez a Copilotban, a rendszer számos bemeneti osztályozón keresztül elküldi a rákérdezést, a beszélgetési előzményeket és a rendszerüzenetet, hogy kiszűrhesse a káros vagy nem megfelelő tartalmakat. Ez kulcsfontosságú első lépés a modell teljesítményének javításához és az olyan helyzetek enyhítéséhez, amikor a felhasználók nem biztonságos módon próbálják kérni a modellt. Miután a kérés áthalad a bemeneti osztályozókon, a rendszer elküldi azt egy SLM-nek annak megállapításához, hogy a kéréshez szükség van-e a webes földelési adatokra, és melyik nyelvi modellnek kell válaszolnia a kérésre. Minden modell választ hoz létre a felhasználó kérése és legutóbbi beszélgetési előzményei alapján a kérés kontextusba helyezéséhez, a rendszerüzenethez, hogy a válaszokat a Microsoft AI-alapelvekhez és a felhasználói elvárásokhoz igazítsa, és szükség esetén a keresési eredményekhez igazítsa a válaszokat a meglévő, magas rangú webes tartalmakra.  

A válaszok többféle formátumban jelennek meg a felhasználók számára, például szöveges formátumú csevegési válaszok, webes tartalmakra, képekre és hangválaszokra mutató hagyományos hivatkozások. Ha a válaszokat szöveg formájában adják meg – és a válaszok a webes adatokban vannak megadva –, a kimenet hivatkozással hivatkozott idézeteket tartalmaz a szöveg alatt, így a felhasználók hozzáférhetnek a válasz őrzéséhez használt webhely(ek)hez, és onnan többet is megtudhatnak a témakörről. A Copilot kódot is futtathat összetett számítások elvégzéséhez és gráfok létrehozásához. A Copilot képes tárolni azokat a tényeket, amelyeket a felhasználók megjegyzésként kérnek, így relevánsabb válaszokat és javaslatokat hozhatnak létre az adott környezet alapján. A Copilot akkor is törölheti a mentett tényeket, ha a felhasználók kifejezetten kérik, hogy felejtsék el őket.

A Copilot segítségével a felhasználók új történeteket, verseket, dalszövegeket és képeket hozhatnak létre. Amikor a Copilot észleli a kreatív tartalom létrehozására irányuló felhasználói szándékot (például egy "írjon nekem egy ..." kezdetű felhasználói kérést), a rendszer a legtöbb esetben a felhasználó üzenetére reagáló tartalmat hoz létre. Hasonlóképpen, ha a Copilot észleli a kép létrehozására irányuló felhasználói szándékot (például egy "rajzoljon meg egy ..."-val kezdődő felhasználói kérést), a Copilot a legtöbb esetben létrehoz egy képet, amely reagál a felhasználó kérésére. Ha a Copilot felhasználói szándékot észlel egy feltöltött kép módosítására (például egy "add a ..." kezdetű felhasználói kérés), a Copilot a legtöbb esetben módosít egy képet, amely reagál a felhasználó kérésére. Előfordulhat, hogy a Copilot nem válaszol kreatív tartalommal, ha a felhasználói kérés olyan kifejezéseket tartalmaz, amelyek problémás tartalmakat eredményezhetnek.

A Microsoft-fiókkal (MSA) rendelkező felhasználók mostantól feliratkozhatnak a Copilot Pro, amely továbbfejlesztett élményt nyújt, beleértve a gyorsított teljesítményt, a Copilot Voice funkcióinak használatát hosszabb ideig, és bizonyos esetekben új kísérleti funkciókhoz való hozzáférést. Copilot Pro jelenleg korlátozott számú országban érhető el, és azt tervezzük, hogy hamarosan több piacon is elérhetővé tesszük Copilot Pro.

Tervezett biztonsági viselkedés

A Copilot célja, hogy hasznos legyen a felhasználók számára. Más Microsoft generatív AI-termékek és -szolgáltatások ajánlott eljárásainak felhasználásával arra törekszünk, hogy korlátozzuk a Copilot számára a problémás tartalmak létrehozását, és növeljük a biztonságos és pozitív felhasználói élmény valószínűségét. Bár lépéseket tettünk a kockázatok mérséklésére, a Copilot mögöttihez hasonló,generatív AI-modellek valószínűségi jellegűek, és hibákat okozhatnak, ami azt jelenti, hogy a kockázatcsökkentések esetenként nem blokkolják a kártékony felhasználói kéréseket vagy az AI által generált válaszokat. Ha káros vagy váratlan tartalmakat tapasztal a Copilot használata során, visszajelzés küldésével tudassa velünk, hogy tovább javíthassuk a felhasználói élményt.

Használati esetek

Tervezett felhasználások

A Copilot célja, hogy támogassa a felhasználókat a kérdések széles körének megválaszolásához, függetlenül a helyzettől vagy a témától. A felhasználók szöveg-, kép- és hangbemenetekkel használhatják a Copilotot, ahol az interakciók inkább természetes beszélgetésekhez hasonlóak az AI-rendszerekkel. Emellett, ha a felhasználók szövegen keresztül kommunikálnak a Copilottal, hogy konkrét információkat keressenek azokról a témakörökről, amelyekben a Copilot több információt igényelhet a pontosabb válasz érdekében, a felhasználói élmény célja, hogy összekapcsolja a felhasználókat a releváns keresési eredményekkel, áttekintse az eredményeket a weben, és összegezze a felhasználók által keresett információkat. A Copilotban a felhasználók a következőket tehetik: 

  • Valós idejű információk összegzése szöveges csevegéskor.    Amikor a felhasználók szövegen keresztül kommunikálnak a Copilottal, a rendszer webes kereséseket végez, ha további információra van szüksége, és a legfelső webes keresési eredmények alapján generálja a felhasználók számára megjelenítendő információk összegzését. Ezek az összefoglalók weblapokra való idézeteket tartalmaznak, amelyek segítenek a felhasználóknak a Copilot összegzését megalapozó keresési eredmények forrásának megtekintésében és egyszerű elérésében. A felhasználók ezekre a hivatkozásokra kattintva közvetlenül a forráshoz léphetnek, ha többet szeretnének megtudni.

  • Csevegés AI-rendszerrel szöveg használatával.    A felhasználók sms-ben cseveghetnek a Copilottal, és további kérdéseket tehetnek fel, hogy új információkat találjanak, és támogatást kapjanak számos különböző témában.

  • Felület a mi-vel hang és megjelenés használatával.    A Copilot nemcsak hangbemenetet fogad, hanem a felhasználók által kiválasztott négy hang egyikében is képes hangkimenetet előállítani, és vizuális megjelenést jelenít meg az interakció gazdagítása érdekében. A hang-hang és a megjelenési képességek lehetővé teszik, hogy a felhasználók természetesebb és hatékonyabbá tegyék a Copilot használatát.

  • Emészthető hírtartalmak fogadása.    A felhasználók a Copilot segítségével a Napi Copilot-információk funkcióval értesülhetnek a hírekről, az időjárásról és más frissítésekről, és podcastszerű formátumban hallgathatják meg ezeket az eligazításokat. Ez a funkció olyan engedélyezett forrásokból kér le tartalmakat, amelyek szerződéssel rendelkeznek a Microsofttal.

  • Segítség új ötletek létrehozásához.    Minden alkalommal, amikor a felhasználók használják a Copilot-élményt, látni fognak egy kártyakészletet, amelyekre kattintva elkezdhetnek csevegni a Copilottal hasznos és érdekes témákról. Ha a felhasználók más Microsoft fogyasztói szolgáltatásokkal is kommunikáltak, a kártyákat az adatvédelmi szabályzatainknak megfelelően személyre szabjuk. Idővel a Copilotban a kártyák személyre szabhatók a felhasználók csevegési előzményei alapján. A felhasználók bármikor leiratkozhatnak a személyre szabásról a beállításokban.

  • Kreatív tartalom létrehozása.    Amikor a Copilottal beszélget, a felhasználók a Copilot-élmény segítségével új verseket, vicceket, történeteket, képeket és egyéb tartalmakat hozhatnak létre. A Copilot igény szerint szerkesztheti a felhasználók által feltöltött képeket is.

  • Végezze el a feladatokat Androidon.A felhasználók hangon keresztül kommunikálhatnak a Copilottal az Android platformon keresztül bizonyos feladatok elvégzéséhez. Ezek a feladatok időzítők és riasztások beállítása, telefonhívások kezdeményezése, SMS-ek küldése és Uber megrendelése. A felhasználóknak a feladatok elvégzése előtt meg kell erősítenie a telefonhívást, az SMS-t és az Uber-rendelést.

  • Segítségnyújtás a kutatáshoz.  A Copilot részletes források feltárásával, a témakörök részletes részletezésével és a forrásokhoz való hivatkozással képes kutatási feladatokat végezni, hogy a felhasználók gyorsabban választ tudjanak adni az összetettebb lekérdezésekre. A Copilot proaktívan személyre szabott kutatási javaslatokat hozhat létre a felhasználók számára olyan dolgok alapján, mint a korábbi kutatási lekérdezések és a Copilot-memória. A felhasználók bármikor leiratkozhatnak a személyre szabásról vagy az értesítésekről a beállításokban.

  • Fedezze fel a világot Copilot Látás. A Copilot megtekintheti a képernyőjét vagy a mobil kameracsatornáját, és a hangjával válaszolhat a kérdésekre, és kommunikálhat Önnel. A Copilot valós időben képes azonnali vizsgálatra, elemzésre és elemzésre, valamint elemzésre és javaslatokra, hogy segítséget nyújtson Önnek munka közben, tallózással vagy a világ felfedezésében. Copilot Látás edge, Windows, iOS és Android rendszeren érhető el.

  • Információk lekérése összekötőkkel.Az Ön beleegyezésével a Copilot természetes nyelven kereshet és használhat felhőbeli fájlokat. A Copilot képes lekérni az e-maileket, megkeresni a névjegyeket, és ellenőrizni a naptárbeli találkozókat a Microsoft Outlook- és Google Gmail-fiókokból. 

  • Együttműködés a Copilot-csoportokkal. Meghívással csatlakozhat a Copilothoz, vagy csoportos beszélgetéseket hozhat létre, hogy közös projekteken és ötleteken működjön együtt.

Egyéb használati esetek kiválasztásakor megfontolandó szempontok

Javasoljuk a felhasználóknak, hogy minden tartalmat tekintsenek át, mielőtt döntéseket hoznak, vagy a Copilot válaszai alapján cselekszenek, mivel az MI hibázhat. Emellett vannak olyan forgatókönyvek is, amelyeket javasoljuk, hogy kerülje vagy ne alkalmazza a használati feltételeket. A Microsoft például nem engedélyezi a Copilot használatát illegális tevékenységekkel vagy illegális tevékenység előmozdítására szolgáló bármilyen célra.  

Korlátozások

A Copilot-élmény alatt álló nyelvi, képi és hangmodellek tartalmazhatnak olyan betanítási adatokat, amelyek társadalmi torzításokat tükrözhetnek, ami miatt a Copilot tisztességtelennek, megbízhatatlannak vagy sértőnek ítélt módon viselkedhet. A modellek intenzív betanítása és biztonsági finomhangolása, valamint a betanítási adatokra, felhasználói kérésekre és modellkimenetekre helyezett felelős AI-vezérlők és biztonsági rendszerek implementálása ellenére az AI-alapú szolgáltatások esendők és valószínűségesek. Ez megnehezíti az összes nem megfelelő tartalom átfogó letiltását, ami a lehetséges torzítások, sztereotípiák, alaptalanság vagy az AI által generált tartalomban esetlegesen megjelenő egyéb típusú károk kockázatához vezet. Itt találja azokat a módszereket, amelyekkel ezek a korlátozások megjelenhetnek a Copilot-élményben. 

  • Sztereotípia: A Copilot-élmény megerősítheti a sztereotípiákat. Ha például a "He is a nurse" (Ápolónő) és a "She is a doctor" (ő orvos) szöveget nemek nélküli nyelvre fordítja, például török nyelvre, majd vissza az angolra, a Copilot véletlenül a "She is a nurse" és a "He is a doctor" sztereotip (és helytelen) eredményeit is visszaadhatja. Egy másik példa, amikor az "Apa nélküli gyermekek" üzenet alapján hoz létre képet, a rendszer csak egy fajból vagy etnikumból tud képeket készíteni a gyermekekről, megerősítve azokat a kártékony sztereotípiákat, amelyek a mögöttes modellek betanításához használt nyilvánosan elérhető képeken is létezhetnek. A Copilot emellett megerősítheti a sztereotípiákat a felhasználó bemeneti képének tartalma alapján azáltal, hogy a kép összetevőire támaszkodik, és olyan feltételezéseket tesz, amelyek esetleg nem igazak. Kockázatcsökkentéseket hajtottunk végre a sértő sztereotípiákat tartalmazó tartalom kockázatának csökkentése érdekében, beleértve a bemeneti és kimeneti osztályozókat, a finomhangolt modelleket és a rendszerüzeneteket.

  • Túlreprezentáció és alulreprezentáció: A Copilot a válaszaiban akár túl- vagy alulreprezentált csoportokat is képviselhet, vagy akár egyáltalán nem is képviselheti őket. Ha például a "meleg" szót tartalmazó szöveges üzeneteket potenciálisan károsnak vagy sértőnek észlelik, az az LMBTQIA+ közösség jogos generációinak alulreprezentálásához vezethet. A bemeneti és kimeneti osztályozók, a finomhangolt modellek és a rendszerüzenetek felvétele mellett a Designer gyors bővítését használjuk számos kockázatcsökkentés egyikeként, hogy csökkentsük a tartalom azon kockázatának kockázatát, amely túl- vagy alulképezi az emberek csoportjait.

  • Nem megfelelő vagy sértő tartalom: A Copilot-élmény más típusú nem megfelelő vagy sértő tartalmakat eredményezhet. Ilyen például a tartalom egy modalitással (például hanggal) történő előállítása, amely nem megfelelő a kérdés kontextusában, vagy ha ugyanazt a kimenetet egy másik modalitásban (például szövegben) hasonlítják össze. Ilyenek például a mesterséges intelligenciával létrehozott képek, amelyek potenciálisan káros összetevőket tartalmaznak, például gyűlöletszimbólumokat, vitatott vagy ideológiailag polarizáló témákhoz kapcsolódó tartalmakat, valamint a szexuális tartalomszűrőket elkerülő, szexuálisan megterhelt tartalmakat. Kockázatcsökkentéseket helyeztünk üzembe a nem megfelelő vagy sértő tartalmakat, például bemeneti és kimeneti osztályozókat, finomhangolt modelleket és rendszerüzeneteket tartalmazó generációk kockázatának csökkentése érdekében.

  • Információ megbízhatósága: Bár a Copilot célja, hogy szükség esetén megbízható forrásokkal válaszoljon, az AI hibákat követhet el. Előfordulhat, hogy nem érzékeny tartalmat hoz létre, vagy olyan tartalmat hoz létre, amely ésszerűnek tűnhet, de tényszerűen pontatlan. Még akkor is, ha magas jogosultságú webes adatokból von le válaszokat, előfordulhat, hogy a válaszok nem teljesen pontosak vagy megbízhatóak. A felhasználói felületen és az ehhez hasonló dokumentációban emlékeztetjük a felhasználókat, hogy a Copilot hibákat követhet el. Továbbra is oktatjuk a felhasználókat az MI korlátaira, például arra biztatjuk őket, hogy a döntések meghozatala előtt vagy a Copilot válaszai alapján járjanak el. Amikor a felhasználók szövegen keresztül kommunikálnak a Copilottal, a felhasználó megpróbálja kiváló minőségű webes adatokba alapozni magát, hogy csökkentse annak kockázatát, hogy a generációk nincsenek a felszínen.

  • Többnyelvű teljesítmény: A különböző nyelvek teljesítményében eltérések lehetnek, mivel az angol a legjobban teljesít a frissített Copilot kiadásakor. A nyelvek közötti teljesítmény javítása kulcsfontosságú befektetési terület, és a legújabb modellek vezettek a teljesítmény javításához.

  • Hangkorlátozások: A hangmodellek más korlátozásokat is bevezethetnek. Általánosságban elmondható, hogy a beszédbemenet akusztikai minősége, a nem beszédzaj, a szókincs, az ékezetek és a beszúrási hibák azt is befolyásolhatják, hogy a Copilot megfelelően dolgozza-e fel és válaszol-e a felhasználó hangbemenetére. Emellett mivel a Copilot Voice használatakor a felhasználói kérések nem indítanak webes kereséseket, előfordulhat, hogy a Copilot nem tud válaszolni az aktuális eseményekre hangmódban.

  • Függőség az internetkapcsolattól: A frissített Copilot-élmény a működéshez való internetkapcsolatra támaszkodik. A kapcsolat megszakadása hatással lehet a szolgáltatás rendelkezésre állására és teljesítményére.

Rendszerteljesítmény

Számos AI-rendszerben a teljesítményt gyakran a pontossághoz viszonyítva határozzák meg (azaz hogy az AI-rendszer milyen gyakran ad helyes előrejelzést vagy kimenetet). A Copilot esetében a Copilotra összpontosítunk, mint AI-alapú segéd, amely tükrözi a felhasználó beállításait. Ezért előfordulhat, hogy két különböző felhasználó ugyanazt a kimenetet tekinti, és különböző véleményekkel rendelkezik arról, hogy mennyire hasznos vagy releváns az egyedi helyzetük és elvárásaik szempontjából, ami azt jelenti, hogy ezeknek a rendszereknek a teljesítményét rugalmasabban kell meghatározni. Általánosságban úgy gondoljuk, hogy a teljesítmény azt jelenti, hogy az alkalmazás a felhasználók által várt módon teljesít.

Ajánlott eljárások a rendszerteljesítmény javításához 

Természetes, társalgási nyelv használatával kommunikálhat a felülettel.    A Copilottal a felhasználó számára kényelmesen használható interakció kulcsfontosságú ahhoz, hogy jobb eredményeket érhessenek el a felhasználói élményen keresztül. Hasonlóan ahhoz, mint amikor olyan technikákat alkalmazunk, amelyek segítségével a felhasználók hatékonyan kommunikálhatnak a mindennapi életükben, ha a Copilotot mesterséges intelligenciára épülő segéd a felhasználó számára ismerős szövegen vagy beszéden keresztül kommunikálva jobb eredményeket érhet el.

Felhasználói élmény és bevezetés.    A Copilot hatékony használatához a felhasználóknak ismerniük kell a képességeit és korlátait. Lehet, hogy van egy tanulási görbe, és a felhasználók különböző Copilot-erőforrásokra (például a jelen dokumentumra és a Copilot gyakori kérdésekre) szeretnének hivatkozni a szolgáltatás hatékony használatához és előnyeihez.

Kockázatok leképezése, mérése és kezelése

Más átalakítási technológiákhoz hasonlóan a mesterséges intelligencia előnyeinek kiaknázása sem kockázatmentes, és a Microsoft Felelős AI-programjának egyik alapvető része a potenciális kockázatok azonosítására és leképezésére, a kockázatok mérésére és kezelésére a kockázatcsökkentések létrehozásával és a Copilot folyamatos fejlesztésével. Az alábbi szakaszokban ismertetjük a lehetséges kockázatok leképezésére, mérésére és kezelésére vonatkozó iteratív megközelítésünket.

Térkép: A körültekintő tervezés és az üzembe helyezés előtti kártékony tesztelés, például a vörös összevonás segít feltérképezni a lehetséges kockázatokat. A Copilot-élményt indító mögöttes modellek vörös csapattesztelésen mentek keresztül a tesztelőktől, akik több tudományágat képviselő perspektívákat képviselnek a releváns témakörökben. Ennek a tesztelésnek az a célja, hogy felmérje, hogyan működne a legújabb technológia mind a rendszerrel, mind pedig anélkül, hogy további biztosítékokat alkalmazna rá. Ezeknek a gyakorlatoknak a modell szintjén az a célja, hogy káros válaszokat hoz létre, feltárja a visszaélés lehetséges lehetőségeit, és azonosítsa a képességeket és a korlátozásokat.

Mielőtt nyilvánosan elérhetővé tettük a Copilot-élményt egy korlátozott kiadású előzetes verzióban, az alkalmazás szintjén red teaminget is végeztünk a Copilot hiányosságainak és biztonsági réseinek kiértékelése érdekében. Ez a folyamat segített jobban megérteni, hogyan használhatja a rendszert a felhasználók széles köre, és segített a kockázatcsökkentések javításában.

Mérték: A Copilotnak a meglévő biztonsági értékelések alapján történő kiértékelése mellett a fent leírt piros összevonás használata segített az azonosított potenciális kockázatoknak megfelelő értékelések és felelős AI-metrikák kidolgozásában, például a feltörések, a káros tartalmak és az előtérben nem látható tartalmak esetében.

Olyan beszélgetési adatokat gyűjtöttünk, amely ezeket a kockázatokat célozza, emberi résztvevők és automatizált beszélgetés-létrehozási folyamat használatával. Az egyes értékeléseket ezután betanított emberi széljegyzetek készlete vagy egy automatizált jegyzetelési folyamat értékeli. Minden alkalommal, amikor a termék megváltozik, a meglévő kockázatcsökkentések frissülnek, vagy új kockázatcsökkentéseket javasolnak, frissítjük a kiértékelési folyamatokat, hogy felmérjük a termék teljesítményét és a felelős AI-metrikákat is. Ezek az automatizált kiértékelési környezeti folyamatok az emberi kiértékelőkkel folytatott összegyűjtött beszélgetések és az LLM-ekkel létrehozott szintetikus beszélgetések kombinációjából állnak, amelyek a szabályzatok kártékony módon történő tesztelését kérik. A biztonsági értékelések mindegyikét automatikusan llm-ekkel pontozza a rendszer. Az újonnan kifejlesztett értékelések esetében az egyes értékeléseket kezdetben emberi címkézők értékelik, akik elolvassák a szöveges tartalmat, vagy meghallgatják a hangkimenetet, majd automatikus LLM-alapú értékelésekké alakítják át.

Modelljeink tervezett viselkedése a kiértékelési folyamatokkal együtt – emberi és automatizált – lehetővé teszi számunkra, hogy nagy léptékben gyorsan elvégezzük a méréseket a lehetséges kockázatokhoz. Az új problémák azonosítása során folyamatosan bővítjük a mérési készleteket a további kockázatok felmérése érdekében. 

Kezelés: Mivel vörös összevonással azonosítottuk a lehetséges kockázatokat és helytelen használatot, és a fent ismertetett módszerekkel felmértük őket, további kockázatcsökkentéseket dolgoztunk ki, amelyek kifejezetten a Copilot-élményre vonatkoznak. Az alábbiakban néhány ilyen kockázatcsökkentést ismertetünk. Továbbra is monitorossuk a Copilot-élményt a termékteljesítmény és a kockázatcsökkentési megközelítés javítása érdekében. 

  • Fázisos kiadási tervek és folyamatos kiértékelés.    Elkötelezettek vagyunk amellett, hogy technológiáink és felhasználói viselkedésünk fejlődésével folyamatosan tanuljuk és fejlesszük felelős AI-megközelítésünket. A növekményes kiadási stratégiánk alapvető része annak, ahogyan a technológiát biztonságosan mozgatjuk a laborból a világba, és elkötelezettek vagyunk egy szándékos, átgondolt folyamat mellett, amely biztosítja a Copilot-élmény előnyeit. Rendszeresen módosítjuk a Copilotot, hogy javíthassuk a termék teljesítményét és a meglévő kockázatcsökkentéseket, és új kockázatcsökkentéseket valósítsunk meg a tanulásra válaszul.

  • Az osztályozók és a rendszerüzenetek használatával mérsékelheti a lehetséges kockázatokat és a nem rendeltetésszerű használatot.    A felhasználói kérésekre válaszul az LLM-ek problémás tartalmat okozhatnak. A fenti Rendszer viselkedése és korlátozásai című szakaszban ismertettük azokat a tartalomtípusokat, amelyeket megpróbálunk korlátozni. Az osztályozók és a rendszerüzenet két példa a Copilotban implementált kockázatcsökkentésekre az ilyen típusú tartalmak kockázatának csökkentése érdekében. Az osztályozók a szöveget úgy osztályozzák, hogy megjelölik a potenciálisan káros tartalmakat a felhasználói kérésekben vagy a létrehozott válaszokban. A rendszerüzenetek használatához meglévő ajánlott eljárásokat is alkalmazunk, amelyek magukban foglalják a modell utasításait annak érdekében, hogy a viselkedése igazodjon a Microsoft AI-alapelveihez és a felhasználói elvárásokhoz.

  • Hozzájárulás a Copilot-képek feltöltéséhez.    Amikor egy felhasználó első alkalommal tölt fel arcokat tartalmazó képet a Copilotba, a rendszer kérni fogja, hogy adja meg a hozzájárulását a biometrikus adatok Copilotba való feltöltéséhez. Ha egy felhasználó nem jelentkezik be, a rendszer nem küldi el a képet a Copilotnak. A beszélgetés befejezését követő 30 napon belül minden kép törlődik, függetlenül attól, hogy tartalmaznak-e arcokat vagy sem.

  • AI-közzététel.    A Copilot arra is szolgál, hogy tájékoztassa az embereket arról, hogy egy AI-rendszerrel kommunikálnak. Ahogy a felhasználók kapcsolatba lépnek a Copilottal, különböző érintési pontokat kínálunk, amelyek segítenek megérteni a rendszer képességeit, tudatni velük, hogy a Copilot mesterséges intelligenciára épül, és korlátozásokat közölünk velük. A felhasználói élmény úgy lett kialakítva, hogy a felhasználók a lehető legtöbbet hozják ki a Copilotból, és minimálisra csökkentsék a túlérzékenység kockázatát. A közzétételekkel a felhasználók jobban megérthetik a Copilot és az azokkal folytatott interakcióikat.

  • A média eredete.    Amikor a Copilot létrehoz egy képet, engedélyeztünk egy "Tartalom hitelesítő adatai" funkciót, amely titkosítási módszerekkel jelöli meg a Copilot használatával létrehozott összes AI által létrehozott rendszerkép forrását vagy "forrását". Ez a technológia a Koalíció a tartalomért és hitelességért (C2PA) által meghatározott szabványokat alkalmazza, hogy az AI által létrehozott képekhez további megbízhatósági és átláthatósági réteget adjon hozzá.

  • Automatikus tartalomészlelés.    Amikor a felhasználók képeket töltenek fel a csevegőüzenet részeként, a Copilot eszközöket helyez üzembe a gyermekek szexuális kizsákmányolását és bántalmazását ábrázoló képek (CSEAI) észleléséhez. A Microsoft jelenti az összes látszólagos CSEAI-t a National Center for Missing and Exploited Children (NCMEC) számára, az egyesült államokbeli jogszabályoknak megfelelően. Amikor a felhasználók fájlokat töltenek fel elemzésre vagy feldolgozásra, a Copilot automatikus vizsgálatot végez, hogy észlelje azokat a tartalmakat, amelyek kockázathoz vagy visszaéléshez vezethetnek, például illegális tevékenységekhez vagy rosszindulatú kódokhoz kapcsolódó szövegeket.

  • Használati feltételek és viselkedési szabályzat.    A felhasználóknak be kell tartaniuk a Copilot vonatkozó használati feltételeit és viselkedési szabályzatát , valamint a Microsoft adatvédelmi nyilatkozatát, amely többek között tájékoztatja őket a megengedhető és megengedhetetlen felhasználásról, valamint a feltételek megsértésének következményeiről. A használati feltételek további közzétételeket is biztosítanak a felhasználók számára, és referenciaként szolgálnak a felhasználók számára a Copilot megismeréséhez. A súlyos vagy ismételt szabálysértéseket elkövető felhasználók ideiglenesen vagy véglegesen felfüggeszthetők a szolgáltatásból.

  • Visszajelzés, monitorozás és felügyelet.    A Copilot-élmény olyan meglévő eszközökre épül, amelyekkel a felhasználók visszajelzést küldhetnek, amelyeket a Microsoft üzemeltetési csapatai ellenőriznek. A kockázatok feltérképezésére, mérésére és kezelésére vonatkozó megközelítésünk tovább fejlődik, ahogy egyre többet tudunk meg, és az előzetes verzió időszakában összegyűjtött visszajelzések alapján már dolgozunk a fejlesztéseken.

További információ a felelős AI-ról

A Microsoft felelős AI-átláthatósági jelentése

A Microsoft AI alapelvei

A Microsoft felelős AI-erőforrásai

Microsoft Azure Learning tanfolyamok a felelős AI-ról

További információ a Microsoft Copilot

Microsoft Copilot gyakori kérdések

Tudnivalók a dokumentumról

© 2024 Microsoft Corporation. Minden jog fenntartva. Ez a dokumentum "adott állapotban" és csak tájékoztatási célokra érhető el. Az ebben a dokumentumban kifejezett információk és nézetek, beleértve az URL-címet és más internetes webhelyhivatkozásokat, értesítés nélkül változhatnak. A felhasználó a szoftvert a saját felelősségére használja. Néhány példa csak illusztrációra vonatkozik, és fiktív. Nincs szándékolt vagy kikövetkesedő valódi társítás.

Ez a dokumentum nem tekinthető jogi tanácsadásnak, és nem is értelmezhető. A működési joghatóság különböző szabályozási vagy jogi követelményekkel rendelkezhet, amelyek az AI-rendszerre vonatkoznak. Forduljon egy jogi szakemberhez, ha bizonytalan a rendszerére esetlegesen alkalmazandó jogszabályokkal vagy rendeletekkel kapcsolatban, különösen akkor, ha úgy gondolja, hogy ezek hatással lehetnek ezekre a javaslatokra. Vegye figyelembe, hogy nem minden javaslat és erőforrás felel meg minden forgatókönyvnek, és ezzel szemben előfordulhat, hogy ezek a javaslatok és erőforrások egyes forgatókönyvek esetében nem elegendőek.

Közzétéve: 2024. 10. 01.

Legutóbb frissítve: 2024. 10. 01.

További segítségre van szüksége?

További lehetőségeket szeretne?

Fedezze fel az előfizetés előnyeit, böngésszen az oktatóanyagok között, ismerje meg, hogyan teheti biztonságossá eszközét, és így tovább.