Vad som stannar på enheten
En betydande del av Apple Intelligence körs utan att något lämnar den iPad eller Mac du har framför dig. Writing Tools-åtgärder på kort text — korrekturläsning, tonomskrivning, en kort sammanfattning på några hundra ord — hanteras av modellen på enheten. Mail-kategorisering och notissammanfattningar sker helt på enheten. De flesta vardagliga Siri-förfrågningar stannar lokalt. Visual Intelligence gör grundläggande igenkänning — textdetektion, identifiering av vanliga föremål — utan en tur och retur till Apples servrar.
Det har betydelse under GDPR, eftersom förordningen definierar behandling mycket brett — Art. 4(2) i GDPR omfattar i princip varje åtgärd som utförs på personuppgifter. Men om personuppgifter aldrig lämnar den personuppgiftsansvariges egna system (i praktiken lärarens iPad), blir frågan om tredjepartsbiträde är inblandat betydligt mindre. Det befriar inte åtgärden från GDPR-granskning, men det minskar omfattningen i en konsekvensbedömning (DPIA) på ett sätt som molnbaserade AI-tjänster inte kan.
Med det sagt — "på enheten" är ingen magi. iPaden är en enhet som ägs av den personuppgiftsansvarige, men den säkerhetskopieras fortfarande till iCloud om inte säkerhetskopiering är avstängd, synkar fortfarande mellan andra enheter inloggade på samma Apple-konto och deltar fortfarande i det bredare Apple-ekosystemet. Bearbetning på enheten minskar exponeringen. Den eliminerar den inte, och en skolas policy bör behandla det som en av flera åtgärder snarare än som ett enkelt slutgiltigt svar.
När Private Cloud Compute används
Vissa förfrågningar överstiger kapaciteten hos modellen på enheten. Omskrivning av text över flera stycken, sammanfattning av ett långt dokument, bildgenerering med Image Wand, komplexa Visual Intelligence-sammanfattningar och de mer krävande Siri-frågorna aktiverar alla Private Cloud Compute (PCC). Apples egen dokumentation — publicerad på security.apple.com tillsammans med en teknisk whitepaper om PCC-arkitekturen — beskriver vägen data tar när enheten väljer att skicka vidare.
Tekniskt är förfrågan end-to-end-krypterad till Apples PCC-servrar. Servrarna kör en specifik mjukvaruimage som Apple publicerat för oberoende granskning, så att forskare kan verifiera att koden som körs i produktion matchar den kod Apple hävdar att de kör. Beräkningen utförs, svaret returneras, och — enligt Apples uttalade arkitektur — kastas förfrågansdatan när svaret levererats. Det finns inga beständiga loggar på serversidan av förfrågansinnehåll, och Apples ingenjörer har ingen privilegierad bakdörr in i pågående förfrågningar.
Ärligt formulerat: PCC är fortfarande en dataöverföring till ett biträde. De arkitektoniska garantierna är starkare än ett typiskt SaaS-API-anrop — de flesta SaaS-API:er loggar förfrågningar och skulle kunna granskas av utvecklingspersonal — men ur ett GDPR-perspektiv är det behandling utförd av Apple, och det är en överföring till Apples infrastruktur (Apple driver PCC-regioner i Europa, men kontrollera aktuell regional tillgänglighet med din upphandlingskontakt innan du förlitar dig på det i en DPIA). Det bör hänvisas till i skolans DPIA och ställas bredvid ert befintliga personuppgiftsbiträdesavtal med Apple. En pragmatisk mening för ditt policydokument: PCC är troligen den starkaste integritetsarkitektur som någon stor moln-AI-leverantör har satt i drift i stor skala — och det är ändå inte samma sak som att ingenting lämnar enheten.
ChatGPT-undantaget
Här brister löftet om "på enheten"
Överlämningen till ChatGPT aktiveras när en användare uttryckligen trycker på Fråga ChatGPT — ett val som dyker upp i Writing Tools, Visual Intelligence eller Siri när förfrågan överskrider vad Apples egna modeller klarar. iPadOS visar en bekräftelseruta först, och ingenting skickas vidare om inte användaren godkänner det. Det samtyckessteget är verkligt och är ett medvetet designval från Apple. Det är också den punkt där integritetsarkitekturen för resten av Apple Intelligence slutar gälla.
Vad som faktiskt händer när användaren godkänner: den specifika texten eller bilden skickas till OpenAI. Apple anonymiserar förfrågan på nätverks- och kontonivå — OpenAI ser inte Apple-kontots identitet — men OpenAI tar emot själva innehållet. OpenAI:s egen loggning, lagring och träningspolicy styr sedan det innehållet, inte Apples. Skydden som beskrivs i PCC-whitepapern följer inte med på den här vägen.
GDPR-dimensionen är betydande. OpenAI är ett USA-baserat biträde, och överföringar av EU-personuppgifter till amerikanska biträden kräver specifika rättsliga mekanismer — Standardavtalsklausuler (SCC), adekvansbedömningar och den fortlöpande Schrems II-analysen av amerikansk övervakningslagstiftning. En opt-in-ruta på en iPad ersätter inte skolans egen rättsliga analys. Den praktiska rekommendationen är därför rak: stäng av ChatGPT-integrationen på skolägda iPads som standard via Apple School Manager eller er MDM, och utbilda personalen att känna igen "Fråga ChatGPT"-rutan och tacka nej till den för allt som rör elever. Det är det enskilt viktigaste konfigurationsbeslutet för en skola som rullar ut Apple Intelligence.
Vad det betyder för elevdata
Arbetsregeln är enkel: avidentifiera elevdata innan varje interaktion med Apple Intelligence, även när du tror att åtgärden kommer att köras på enheten. Den värdefulla distinktionen är mellan lärararbetets data — planeringsdokument utan elevnamn, generaliserade föräldramejl, dina egna mötesanteckningar — och elevdata, som omfattar namn, omdömen, beteendeanteckningar, åtgärdsprogram, elevhälsofrågor och allt som kan identifiera ett barn eller dess familj. Lärararbetets data är i allmänhet okej att bearbeta på enheten. Elevdata bör avidentifieras eller helt hållas utanför Apple Intelligence.
Fyra skäl till att bearbetning på enheten ensam inte gör elevdata säker. För det första: iCloud-säkerhetskopiering kan omfatta dokumentet du just bearbetat, och från den punkten styrs datans resa av iCloud:s villkor snarare än av modellens arkitektur på enheten. För det andra delas klassrums-iPads och vikariedatorer ofta, så material som en lärare bearbetat kan vara synligt för en annan. För det tredje kan oavsiktlig dikteringsupptagning under en lektion skicka snuttar av elevsamtal in i en transkription du aldrig tänkt skapa. För det fjärde lär sig modellen på enheten användningsmönster lokalt — inte en incident, men något att vara medveten om när samma enhet flyttas mellan lärare eller byter roll.
En rak arbetsheuristik för personalen: om dokumentet vore känsligt att skicka till en molntjänst, tillämpa samma disciplin på interaktioner med Apple Intelligence — även när du får höra att de körs på enheten. Vanan är mer pålitlig än en mental modell som försöker hålla reda på vilken funktion som gör vad.
Fem policybeslut för din skola
- Stäng av "Skriv med ChatGPT" som standard via MDM. På skolhanterade iPads och Macar — använd Apple School Manager eller er MDM-leverantör för att sätta standardvärdet för ChatGPT-tillägget till av. Personalen kan utbildas att aktivera det medvetet för vissa privata användningsfall, men standard ska aldrig vara på.
- Dokumentera Apple Intelligence i skolans DPIA. Det mesta av behandlingen sker på enheten, men Private Cloud Compute utgör en dataöverföring till Apple och bör refereras bredvid ert befintliga personuppgiftsbiträdesavtal (PUB-avtal) med Apple. Hänvisa till Apples publicerade PCC-arkitektur — dokumentationen på security.apple.com och PCC-whitepapern — som en riskreducerande faktor, inte som en ersättning för er egen analys.
- Ta fram en riktlinje på en sida för personalen om vad som får klistras in. Lärararbetets innehåll är okej; elevdata ska avidentifieras eller undvikas. Ta med tre genomarbetade exempel på godtagbara prompter och tre på prompter att undvika, med namn och detaljer hämtade från er egen skolkontext. Fäst den på personalens gemensamma wiki och hänvisa till den vid introduktion.
- Gör iCloud-säkerhetskopiering till ett tema vid introduktionen. Personalen ska förstå att iPadens iCloud-säkerhetskopiering kan omfatta dokument som bearbetats av Apple Intelligence. För privata enheter som också används i skolarbetet är detta med rätta en fråga för varje lärares eget omdöme — men valet bör vara medvetet, inte av misstag, och skolan bör ge en tydlig rekommendation.
- Bygg in en terminsvis översyn. Apple släpper nya Apple Intelligence-funktioner varje månad; den europeiska tillgängligheten förändras; ChatGPT-integrationens mekanik kan utvecklas. En trettio minuters kalenderbokning varje termin för den digitala ledaren att skumma Apples release notes och uppdatera personalriktlinjen räcker för att hindra policyn från att glida ifrån verkligheten.