Vad CDP faktiskt ger dig
Microsofts tillägg om produkters och tjänsters dataskydd (Products and Services Data Protection Addendum), kombinerat med Volume Licensing-villkoren och de Copilot-specifika tilläggen i Microsoft 365-tjänstebeskrivningen, utgör tillsammans tre tydliga påståenden för en inloggad skolanvändare:
- Dina prompter och svar används inte för att träna Microsofts grundmodeller. Det är det enskilda påståendet som flest skolor bryr sig mest om. Det är avtalsmässigt, inte bara marknadsföring — språket i personuppgiftsbiträdesavtalet är tydligt.
- Din data stannar inom er tenants förtroendegräns. Copilot-interaktioner är avgränsade till organisationens Microsoft 365-miljö. En annan skolas tenant kan inte se ert innehåll; Microsofts ingenjörer kan inte tillfälligt komma åt det; samma behörighetskontroller som styr er mejl och OneDrive gäller Copilot-artefakter.
- Microsoft agerar som personuppgiftsbiträde under ert befintliga personuppgiftsbiträdesavtal. Ni är fortsatt personuppgiftsansvariga. Microsofts skyldigheter — säkerhet, incidentrapportering, transparens kring underbiträden, assistans vid begäran från registrerade — är desamma som redan gäller för resten av M365.
Vad CDP inte är: det är inte magi, det ändrar inte era skyldigheter som personuppgiftsansvariga, och det undantar inte Copilot från skolans konsekvensbedömning (DPIA). DPIA:n behöver fortfarande täcka varför ni behandlar elevdata, på vilken rättslig grund, med vilken dataminimering, under hur lång tid. CDP är en riskreducerande åtgärd som minskar vissa risker; DPIA:n är det dokument där de riskreducerande åtgärderna vägs mot kvarvarande risker.
Inloggning är lika med regelefterlevnad
Den enskilt största felkällan i en Copilot-utrullning är en lärare som av misstag använder konsument-Copilot. Det är förvånansvärt lätt att göra: en webbläsare som kommer ihåg det privata Microsoft-kontot, en kollegas delade länk som öppnar copilot.microsoft.com snarare än copilot.cloud.microsoft, en Chrome-profil som inte helt loggades ut. Konsumenttjänsten ser nästan identisk ut som arbetstjänsten och beter sig nästan likadant — men datavägen är annorlunda och de avtalsmässiga skydden är annorlunda.
De visuella signalerna är värda att träna personalen att känna igen. Uppe till höger på copilot.cloud.microsoft visar ett inloggat arbetskonto en sköldikon och ett "Protected"-emblem; konsument-Copilot visar Microsoft-kontots avatar utan emblem. Inne i M365:s skrivbordsappar är risken mycket lägre — de ytorna exponerar inte konsumentvägen — men webbläsarytan är där linjen överskrids. Policymässigt är den försvarbara positionen att kräva inloggad arbetskonto-användning för alla Copilot-interaktioner och, där tenantkontrollerna tillåter, blockera konsumentdomänen (copilot.microsoft.com) via villkorlig åtkomst på skolhanterade enheter. Microsofts admincenter-dokumentation kallar det "Access Protection for Copilot" och det är värt de trettio minuter det tar att konfigurera.
EU Data Boundary och Schrems II
Microsofts EU Data Boundary är ett avtalsmässigt åtagande att lagra och behandla EU-kunders data inom EU-regioner, inklusive för Copilot, med specifika undantag som är publicerade och uppdateras periodiskt. I praktiken betyder det att den överväldigande majoriteten av Copilot-prompter, -svar och -metadata för en europeisk tenant aldrig lämnar EU. Viss begränsad telemetri och ett litet antal delbearbetningsoperationer kan fortfarande transitera till amerikansk infrastruktur; den exakta listan finns tillgänglig i Microsofts dokumentation och ändras i takt med att arkitekturen utvecklas.
Under detta ligger Schrems II-verkligheten. Microsoft är ett USA-baserat företag, så överföringar av EU-personuppgifter till amerikanska biträden (där de sker) kräver Standardavtalsklausuler, kompletterande åtgärder och den löpande analysen av amerikansk övervakningslagstiftning som har format EU:s molnefterlevnad sedan 2020. Microsoft är också certifierade under EU-US Data Privacy Framework, vilket ger en för närvarande giltig adekvansgrund för vissa överföringar — även om den rättsliga stabiliteten i det ramverket förblir föremål för pågående debatt i europeiska domstolar och hos tillsynsmyndigheter.
Den ärliga meningen som bör finnas i er DPIA: det här hör till de bäst dokumenterade och mest robusta dataskyddspositioner som erbjuds av någon stor molnleverantör av AI, och det är fortfarande en relation med ett USA-baserat biträde med komplexa gränsöverskridande beroenden som skolan bör referera uttryckligen snarare än vifta bort. EU Data Boundary minskar exponering väsentligt; den producerar inte en rent europeisk dataväg, och att behandla den så är den sortens efterlevnadspåstående som fastnar i en riktig revision.
Licensiering — vilken plats gör vad
De fyra SKU:erna som introducerades i Del 1 har olika funktionsåtkomst, och en klar bild av dem har betydelse före upphandlingsdiskussioner:
- Copilot (gratis, konsument) på copilot.microsoft.com: endast webbchatt, ingen integration med Word, Excel, PowerPoint, Outlook eller Teams. Inget Kommersiellt dataskydd. Konsumentvillkor.
- Copilot Chat med arbets- eller skolkonto: webb- och Teams-sidofälts-chatt, CDP aktiverat, gratis med valfri Microsoft 365-licens. Ingen integration i Word eller Outlook — det är M365 Copilot-SKU:n.
- Copilot Pro (betald konsument): bildgenerering, prioriterad modellåtkomst och längre kontext på konsumentsidan. Täcks inte av Kommersiellt dataskydd; ska inte användas för skolarbete.
- Microsoft 365 Copilot: integrationen i Word, Excel, PowerPoint, Outlook, Teams, OneNote, plus tenant-förankrade svar som kan referera era egna filer. Cirka 350 kr per användare och månad som tenant-tillägg, listpris — verifiera aktuellt pris med er Microsoft-återförsäljare, eftersom utbildningstenants ofta har ramavtalsrabatter.
En fasad utrullning är det förnuftiga mönstret. Börja med skolledning och ämnesansvariga under en termin — typiskt femton till tjugofem platser — så att ni kan bygga en genuin bild av var Copilot tillför värde i just er skola innan ni binder er för full personallicensiering. Bredare utrullning följer när policyramverket och personalutbildningen är på plats. De flesta tenants behöver inte köpa platser till varje lärare dag ett; gratisnivån Copilot Chat täcker tillräckligt mycket av baslinjen att en fasad ansats sällan lämnar någon fast.
Elevåtkomst och åldersgränser
Microsofts egen åldersgräns för Copilot med ett arbets- eller skolkonto är 13 år, i linje med Microsoft 365 Education-villkoren. Elever under den åldern kan inte ges direkt Copilot-åtkomst under de villkoren; lärare kan och gör använder Copilot på sina egna konton för att förbereda material för yngre klasser, men barnen själva interagerar inte med tjänsten. För elever 13 år och äldre kan tenant-administratören grinda vilka Copilot-funktioner som är tillgängliga — endast chatt, endast i-app, eller full åtkomst — via admincentret.
En konkret rekommendation för skolor som är nya på Copilot: börja med lärar-endast-åtkomst under en hel termin, även om er licens tekniskt sett skulle tillåta elevåtkomst. De vuxna användningsfallen i Del 2 ger er mer än tillräckligt att jobba med för en första utrullning, och att skjuta upp elevåtkomst tills personalpolicyn och exemplen är stabila undviker att den svåraste versionen av frågan landar i er första månad. När ni väl aktiverar elevåtkomst, kombinera det med åldersanpassade lektioner i AI-kunnighet — prompting, hallucinationer, källkritik — snarare än att lägga om reglaget och hoppas.
Läsaransvar. Läsare utanför Sverige bör verifiera egna nationella regler innan de förlitar sig på någon specifik regel i det här avsnittet. AI i skolan utvecklas snabbt och länders regler skiljer sig väsentligt. Sverige saknar särskilt ett enhetligt nationellt vägledningsdokument för AI i skolan per april 2026 — Skolverket och IMY har bekräftat ett pågående gemensamt arbete, utan publicerat datum. Länder inklusive Storbritannien, Frankrike, Tyskland och Nederländerna har redan utfärdat nationella guider, var och en med sin egen tolkning av åldersgränser och hantering av elevdata. Den här guiden är en startpunkt för lokal anpassning, inte en ersättning för de publicerade reglerna i ditt eget land.
Fem policybeslut för din skola
- Kräv inloggat arbets- eller skolkonto för all Copilot-användning. Där era tenantkontroller tillåter, blockera konsument-Copilot-domänen via villkorlig åtkomst på skolhanterade enheter. Det är den enskilda beteendeförändring som skyddar CDP-gränsen — varje annan policy förutsätter att den är på plats.
- Dokumentera Copilot-vägarna i er DPIA. Tre vägar att namnge uttryckligen: Microsoft 365 Copilot (betald, i-app), Copilot Chat med arbetskontot (gratis, CDP), och — om överhuvudtaget tillåtet — all konsument-Copilot-användning av personal på privata enheter för tydligt vuxen-endast-uppgifter. Hänvisa till Microsofts personuppgiftsbiträdesavtal och EU Data Boundary-åtagandet som riskreducerande åtgärder, och referera Schrems II som en olöst riskkategori som skolan har vägt.
- Ta fram en riktlinje på en sida för personalen om vad som får klistras in och vad som ska undvikas. Tre konkreta acceptera-exempel och tre konkreta undvika-exempel, anpassade till er skola — inte generiska. Fäst den på personalens gemensamma wiki och hänvisa till den vid introduktion. En ny lärare i augusti ska hitta den på under en minut.
- Fasa utrullningen: ledning och ämnesansvariga först, sedan bredare personal, sedan elever (om tillåtet). Tenant-administratörens switch som aktiverar Microsoft 365 Copilot är omedelbar; organisationens mognad är det inte. Budgetera åtminstone en termin mellan varje fas så att lärdomar från en våg faktiskt formar nästa.
- Terminsvis översyn. Microsoft skeppar Copilot-uppdateringar månadsvis. En 30-minuters stående kalenderbokning varje termin för den digitala ledaren — skumma release notes, uppdatera personalriktlinjen, flagga något som ändrar DPIA:n — räcker för att hindra policyn från att glida ifrån verkligheten. Riktlinjer som inte överlever kontakten med nästa termins produktuppdatering är inte riktlinjer; de är önskningar.