En pedagogisk beslutsguide om när, hur och varför — för lärare och skolledare som vill välja verktyg med omdöme, inte med hajp.
Ladda ner PDF:en gratis →Debatten om AI i skolan har på kort tid fastnat i två läger. Det ena ser AI som ett genombrott som måste in i klassrummet i dag — annars halkar eleverna efter. Det andra ser AI som ett hot mot tänkandet och vill hålla det utanför lektionerna så länge det går. Båda positionerna missar samma sak: frågan om eleverna ska använda AI är varken en teknisk fråga eller en principiell fråga. Det är en pedagogisk fråga, och den ställs per lektion, inte per kommun.
Skolan är till för att elever ska lära sig. Det är det enda legitima skälet för ett verktyg att få plats på lektionstid. Om ett verktyg gör att eleverna lär sig mer eller bättre ska det användas. Om det gör att de lär sig mindre eller sämre ska det inte användas. Det gäller papper och penna lika väl som en AI-chattbot. Det nya är inte principen, utan att vi nu behöver tillämpa den på en verktygskategori som i vissa fall lyfter lärandet och i andra fall kortsluter det.
Efter att ha jobbat i och med skola i 28 år — 10 år som lärare, 7 som skolledare och 11 som utbildningsansvarig — har jag sett ett flertal teknikvågor komma och gå. De verktyg som till slut gav ett mätbart lyft var de som lät läraren göra mer av det som redan fungerar. De som försvann var de som krävde att läraren skulle kliva åt sidan. AI är den mest kraftfulla teknikvågen på länge, men mönstret är detsamma: den pedagogiska bedömningen avgör om verktyget lyfter lärandet eller förhindrar lärandet från att ske.
— JLDen här guiden är en beslutshjälp, inte en produktgenomgång. Jag går inte igenom vilken chattbot som är bäst, vilka funktioner den senaste modellen har eller vilka prompter som fungerar bäst i ämne X. Annat material tar hand om det — bl a de praktiska promptpaketen och verktygsguiderna på choosewise.education. Den här guiden svarar på en mer grundläggande fråga: innan du släpper in AI på en lektion, vad behöver du ha tänkt igenom?
Guiden är uppdelad i tre delar och en checklista. Del 1 handlar om det pedagogiska skälet — varför skolan finns, och hur RÄTT-modellen hjälper dig att fatta beslut om verktyg. Del 2 handlar om förutsättningarna som måste vara på plats innan AI möter eleverna, d v s lärarens AI-litteracitet och förmågan att bedöma AI-output. Del 3 handlar om det som sker i själva klassrummet — insyn, management, och det historiska mönster som visar vad som går fel när eleven lämnas ensam i en digital miljö. Checklistan i Del 4 är det verktyg du kan ta med dig in i en konkret lektionsplanering.
Del 1
Skolans primära uppdrag handlar om att leva upp till det som står i skolans styrdokument. Digitalisering och AI har inget egenvärde i sig, men utan att ta hänsyn till den tekniska utvecklingen i samhället förbereder vi eleverna för ett samhälle som inte längre existerar. Uppdraget har alltså blivit både större och mer komplext. Elever ska lära sig det som skolan tränar eleverna inför. Alla verktygsval — AI inkluderat — ska bedömas mot den måttstocken. Lärandet är i fokus och ju fler verktyg läraren har till förfogande, desto oftare kan rätt verktyg användas vid rätt tillfälle, men bara om läraren behärskar de verktyg som läraren har tillgång till.
Det här låter självklart tills man tittar på hur beslut faktiskt fattas. På många skolor beslutas om AI-verktyg på IT-avdelningen, i rektorsgruppen eller av en enskild eldsjäl i kollegiet — och frågan som ställs är "ska vi införa AI?" Det är fel fråga. Rätt fråga är "när den här klassen ska lära sig det här, ökar AI lärandet eller inte?" Svaret kan mycket väl vara nej för en klass och ja för en annan, eller nej för ett moment och ja för ett annat — och det behöver vara lärarens beslut, eftersom det är läraren som har alla relevanta fakta på bordet.
OECD släppte i april 2025 rapporten Unlocking High-Quality Teaching. Den är inte en AI-rapport — den är en rapport om vad undervisning faktiskt är, baserad på 150 klassrum i 40 länder. Slutsatsen är värd att citera: "I en tid av snabb innovation och konstant förändring är det lockande att fokusera på de senaste trenderna eller teknologierna som utlovar förändring. Att förfina befintliga undervisningspraktiker — genom att noga undersöka klassrummets verklighet — kan vara en mer kraftfull, och potentiellt säkrare, väg att höja elevers resultat." Inget annat inne i skolan, konstaterar rapporten, har större inverkan på elevernas resultat än kvaliteten på undervisningen. Ingen teknik kommer att ändra på det.
Om verktygsvalet görs i ett annat rum än det där lärandet planeras, har ni ett systemfel. Kommunens inköp, skolans licensportfölj och AI-policyn ska skapa möjligheter; själva beslutet att använda AI på en viss lektion tillhör läraren som planerar lektionen.
RÄTT-modellen är det beslutsramverk som jag förespråkar att skolor, kommuner och fristående skolhuvudmän ska använda. Den består av fyra steg som ska gås igenom innan verktyget väljs — inte tvärtom. När den tillämpas på frågan "ska eleverna använda AI på den här lektionen?" blir den särskilt användbar, eftersom den tvingar fram ordningen: pedagogiken först, verktyget sist.
Full genomgång av RÄTT-modellen — inklusive separata versioner för lärare och skolledare — finns på choosewise.education/sv/ratt/. Den är gratis, får delas och är fri att använda som stöd för både enskilda lektioner och för skolans eller kommunens AI-strategi.
När elever använder AI kan de göra det på två fundamentalt olika sätt, som ser ytligt lika ut men som har helt olika effekt på lärandet. Det första sättet är att låta AI ersätta tänkandet — "skriv min uppsats om andra världskriget", "lös de här mattetalen", "ge mig tre argument för och emot kärnkraft". Resultatet är en färdig produkt, levererad utan att eleven gjort det kognitiva arbete som själva lärandet består av. Det andra sättet är att låta AI utmana tänkandet — "här är mitt svar, förklara varför du tycker att resonemanget haltar", "jag har försökt lösa det här talet men kör fast, vilket steg är mest sannolikt fel?", "jag har skrivit ett utkast till insändare, vilka motargument är starkast och hur skulle jag kunna bemöta dem?" Resultatet är att eleven jobbar hårdare, inte mindre, men får en sparringpartner som höjer nivån på arbetet.
Forskningen ger just nu en något splittrad bild, och det är värt att vara ärlig med. I ena ringhörnan står en omfattande metaanalys från 2025 (Wang & Fan, Computers & Education, 69 studier) som visar att ChatGPT i kontrollerade experiment tenderar att förbättra elevernas prestationer, motivation och högre ordningens tänkande på kort sikt. I andra ringhörnan står en rad nyare studier som pekar på långsiktiga effekter i motsatt riktning. En EEG-studie från MIT Media Lab 2025 (Kosmyna m fl) mätte hjärnkonnektivitet medan försökspersoner skrev uppsatser med eller utan LLM-hjälp — LLM-gruppen hade upp till 55 procent lägre hjärnkonnektivitet. En parallell studie från Microsoft Research (Lee m fl, CHI 2025) bland 319 kunskapsarbetare visade att hög tilltro till AI går hand i hand med mindre kritiskt tänkande. En schweizisk studie (Gerlich 2025) fann en korrelation på -0,75 mellan AI-användning och kritiskt tänkande hos yngre användare.
Vad betyder det sammantaget? Troligen att AI gör det lättare att prestera på dagens uppgift men gör det svårare att bygga den kognitiva arkitektur som krävs för att prestera på framtida uppgifter. Det är en rimlig bedömning, inte en bevisad sanning — men den borde räcka som försiktighetsprincip i en skolkontext. En elev som fick höga betyg i år 9 men som inte längre kan tänka sig igenom ett svårt problem på egen hand är inte en framgångshistoria.
Bra användning av AI i en skolkontext innebär ofta att eleven börjar arbetet, att AI och elev samskapar, och att eleven avslutar med att analysera och reflektera. Arbetsgången blir alltså elev — elev & AI — elev. Lektioner där AI gör allt jobb är inte vad vi byggt upp skolsystemet för.
— JLDel 2
Om läraren inte har tillräcklig AI-litteracitet för att förstå om AI ska användas eller inte, kommer saker som inte borde hända att ske. Det går att förebygga.
Det mest ignorerade faktumet i diskussionen om AI i skolan är att många av de lärare som ska låta elever använda AI på sina lektioner själva aldrig har fått gedigen AI-utbildning. Det är inte ett klagomål mot lärarna — det är en observation om en systembrist. Huvudmän har i flera fall köpt in AI-verktyg och ställt dem till kollegiets förfogande utan att avsätta tid för den kompetenshöjning som verktygen kräver för att användas ansvarsfullt. Resultatet är förutsägbart: elever får använda verktyg som läraren själv inte fullt ut kan bedöma output från.
UNESCO släppte 2024 sitt AI Competency Framework for Teachers. Det beskriver 15 kompetenser fördelade på fem dimensioner — bl a människoorienterat förhållningssätt, AI-etik, grundläggande AI-förståelse, AI-pedagogik och AI som stöd för eget lärande. Ramverket säger inte att varje lärare måste vara AI-expert. Det säger att det finns en grundnivå som är en förutsättning för att ansvarsfullt låta elever använda AI, och den grundnivån nås inte av att klicka igenom en inspelad introduktion på 30 minuter.
Om skolan inte har en uttalad satsning på AI-kompetensutveckling för hela kollegiet — inte bara för de redan intresserade — görs saker på fel sätt. Skolledningen behöver sätta sig in i EU:s AI-förordning och säkerställa att de insatser som förordningen kräver genomförs.
Tre begrepp återkommer i varje samtal om AI i skolan, och alla tre behöver sitta i ryggmärgen på både lärare och elever innan AI används i undervisningen.
Klassisk källkritik handlade bl a om att titta på avsändaren, syftet, när texten skrevs och kontexten. En AI-genererad text har ingen avsändare i den meningen — den har en modell som producerar statistiskt sannolik text på din fråga, tränad på ett korpus vars sammansättning du inte känner till. Det betyder inte att texten är oanvändbar. Det betyder att den måste värderas mot externa källor innan den används som grund för något. Den klassiska källkritiken är inte obsolet; den utökas med en ny kategori av text där man inte kan fråga "vem sa det?" utan måste fråga "vad säger oberoende källor?".
AI-modeller är tränade på data som i sin tur är präglade av sin ursprungskontext. Det betyder att en chattbot som tränats huvudsakligen på engelskspråkigt internetmaterial kommer att ha en mer amerikansk referensram än svensk, att underrepresenterade perspektiv fortsätter vara underrepresenterade, och att modellen ibland förstärker stereotyper utan att den som frågar ser det. För lärare innebär det att AI:ns output behöver granskas med samma kritiska öga som man skulle granska ett läromedel producerat i ett annat land — inte nödvändigtvis fel, men inte neutralt heller.
När en chattbot inte vet, så säger den sällan "jag vet inte". Den producerar i stället text som låter rimlig — inklusive referenser, siffror, citat och namn som inte existerar. Det kallas hallucination och är inte ett tekniskt fel som kommer att lagas nästa vecka; det är en inneboende konsekvens av hur dagens stora språkmodeller fungerar. Att kunna upptäcka en hallucination är inte en specialistfärdighet — det är att kontrollera påståenden. Men det kräver att den som läser texten har ämneskunskaper att värdera svaren mot. En elev som inte har det är försvarslös.
En vanlig ursäkt för att inte ta in AI på lektionerna är att "eleverna kan det där bättre än jag". Det är ofta sant i ytlig mening — en 14-åring kan klicka runt i ett gränssnitt snabbare än många vuxna — men det är fel i den mening som räknas. Eleven vet inte alltid vad en LLM faktiskt är. Eleven vet sällan hur man formulerar en prompt som ger djupare svar. Eleven kan nästan aldrig bedöma om svaret är sant. Och framför allt: eleven har inte lärarens förståelse för vad lektionen var till för att lära ut.
Det sistnämnda är lärarens expertis, och den är oersättlig. Så den mer konstruktiva framställningen av samma situation är: läraren behöver inte kunna tekniken bättre än eleverna, men läraren behöver kunna pedagogiken bättre — och då kan ni lära er tekniken tillsammans. Det fungerar, förutsatt att läraren håller fast vid rollen som den som sätter lärandemålen och bedömer resultaten, och använder elevernas teknikvana som en resurs i klassrummet snarare än ett hot.
Jag har mött skolor där några entusiastiska elever blev klassrumsassistenter åt läraren när det gäller chattbottar och att skriva promptar — inte i det pedagogiska beslutsfattandet. Båda elever och lärare tjänade på det. Eleverna fick en ansvarsroll och växte genom förtroendet de fick; läraren fick tillgång till teknikvana utan att behöva bli tekniker. Förutsättningen är att ansvaret för lärandet aldrig lämnas till eleverna själva — det stannar hos läraren.
— JLDisclaimer: Jag är inte jurist. Det här avsnittet är en pedagogisk orientering i regelverket, inte juridisk rådgivning. För bindande besked, konsultera huvudmannens dataskyddsombud, en jurist eller relevant myndighet.
Två regelverk ramar in AI-användning i svensk skola. Det ena är EU:s AI-förordning (AI Act), som klassificerar AI-system efter risknivå och ställer tydligare krav på "högrisksystem" än på system med lägre risk. Det andra är GDPR, som reglerar all behandling av personuppgifter — inklusive det som sker när en elev skriver något i en AI-chattbot. Båda gäller i Sverige, båda är lärarens och huvudmannens ansvar, och ingendera kan skjutas på framtiden.
För vardagens undervisningsarbete — lektionsplanering, stöd till eleven med formulering, förklaringar av begrepp — ligger AI-användningen i kategorin minimal risk, och kraven är då relativt lätta. Där det börjar bli allvarligt är när AI används för att fatta eller stödja beslut som påverkar elevens tillgång till utbildning. Då talar förordningen om högrisk. Exempel: AI som bedömer eller betygsätter elevprestationer, AI som används vid antagning eller övergång mellan skolformer, AI som bedömer elevens uppförande eller gör bedömningar av särskilda behov. Där gäller dokumentationskrav, krav på transparens gentemot eleven, och krav på mänsklig granskning innan beslutet får verkan.
För den enskilda läraren är den viktigaste slutsatsen följande: AI får stödja din bedömning, men det ska vara du som bedömer. Om en AI-tjänst används så att den ersätter lärarens bedömning av en elev — inte bara föreslår, utan beslutar — är det sannolikt ett område där AI-förordningen ställer skärpta krav. Involvera skolledning och huvudman innan sådan användning införs. Är du det minsta osäker på var gränsen går eller vad du får göra — kolla med skolledningen.
GDPR gäller varje gång en personuppgift hamnar i AI-systemet. Det inkluderar elevens namn, elevens skriftprov (som är en personuppgift eftersom det kan kopplas till eleven), vårdnadshavares kontaktuppgifter, information om hälsa eller särskilda behov, allt som kan identifiera en ung människa. Två praktiska konsekvenser:
Vad Skolverket och Integritetsskyddsmyndigheten (IMY) säger sammantaget är att ansvaret ligger hos huvudmannen och skolan — inte hos AI-leverantören. Det innebär att även om leverantören säger att deras tjänst är GDPR-kompatibel, är det fortfarande skolans skyldighet att säkerställa att just det här användningssättet, för just den här eleven, är lagligt.
Om du undrar om något är okej enligt GDPR — behandla det som att det inte är det tills någon har sagt det uttryckligen. Det är bättre att pausa en lektion och fråga än att upptäcka efteråt att en elevs personuppgifter hamnat i en AI-tränings-pipeline utomlands.
Del 3
Det går inte att säga "eleverna får använda AI" och sedan lämna rummet. Det mönstret har vi sett förut och vi har solid svensk forskning som visar vad det leder till.
Mellan 2011 och 2014 följde forskare vid Örebro universitet ca 20 skolor i 11 svenska kommuner — bl a Falkenberg, Nacka, Sollentuna och Malmö — under tre år. Forskningsprojektet hette Unos Uno och var en utvärdering av det som då kallades "en-till-en", d v s att varje elev fick en egen dator i skolarbetet. Det är förmodligen den mest välgjorda svenska longitudinella studien av digital transformation i skolan som har gjorts. Slutsatserna samlades till slut i boken Att förändra skolan med teknik: Bortom "en dator per elev" (Grönlund m fl, 2014).
Det tydligaste mönstret i forskarnas slutsatser är något de flesta inte förväntade sig: de skolor som förbättrade sina resultat med 1:1 hade mer lärarledd tid, inte mindre. Där läraren backade undan och lät datorn "ta över", försämrades resultaten. Där läraren förstärkte sitt eget pedagogiska arbete med datorn som hjälpmedel, och var tätare närvarande i elevernas arbete, förbättrades resultaten. Unos Uno visade också att ensamarbetet ökade i 1:1-klassrummen, att sociala medier distraherade en stor del av eleverna (ca 25 procent uppgav själva att de distraherades av sociala medier på lektionerna), och att de svagare eleverna drabbades hårdast — precis de elever som skolan är till för att hjälpa.
Grönlunds sammanfattande formulering är värd att lägga på minnet: "Ett IT-projekt i skolan är inte ett teknikprojekt, det är ett förändringsprojekt." Tekniken lyfter inte lärandet av sig själv. Den förstärker de pedagogiska val läraren redan gjort. Om läraren gjort bra val blir de bättre; om läraren inte gjort några val alls — om eleverna släpps fritt i en digital miljö utan inramning — blir resultatet det som Unos Uno dokumenterade: mer ensamarbete, mer distraktion, sämre lärande, särskilt för dem som redan kämpar.
Internationellt pekar forskningen åt samma håll. OECD:s PISA-rapport Students, Computers and Learning (2015) fann den s k digitala paradoxen: elever som använde datorer ofta i skolan presterade sämre i PISA, även efter kontroll för socioekonomisk bakgrund. Den amerikanska ekonomistudien Carter, Greenberg & Walker (2017) körde en randomiserad kontrollerad studie vid US Military Academy och fann att klasser där datorer tilläts hade 0,18 standardavvikelser lägre resultat än klasser där de inte gjorde det. En metaanalys av 1:1-program i Review of Educational Research (Zheng m fl 2016) drog slutsatsen att positiva effekter fanns, men bara där lärarna integrerade datorerna pedagogiskt — inte automatiskt bara för att tekniken fanns.
Slutsatsen är inte att AI ska hållas utanför klassrummet. Slutsatsen är att AI i klassrummet utan lärarinsyn och pedagogisk inramning kommer att upprepa 1:1-erans misstag — med större kraft den här gången, eftersom AI är ett mer kapabelt verktyg för outsourcing av tänkande än Google och Wikipedia någonsin var.
Den största praktiska luckan mellan "vad skolan behöver" och "vad AI-branschen levererar" just nu rör lärarens insyn. De största AI-chattbottarna som används i svensk skola i dag är Gemini (Google) och ChatGPT (OpenAI). Copilot bygger på ChatGPT. Apple Intelligence använder delvis ChatGPT för de funktioner som går utanför enheten. Sveriges K-12-specifika alternativ inkluderar bl a Skolup (Skolon) och Pladdra. Det majoriteten av dessa verktyg har gemensamt, enligt det som publikt annonseras, är att de saknar en tydlig aggregerad vy över vilka frågor eleverna i klassen har ställt till AI under lektionen.
Varför är det ett problem? För att läraren behöver det för att undervisa. Om läraren ser att tolv av tjugofem elever har frågat AI om samma sak på liknande sätt — t ex "vad är skillnaden mellan allel och gen?" — är det en stark signal om att det är något i genomgången som inte nådde fram, och att en kort helklassdialog skulle lyfta hela klassens förståelse. Om läraren i stället inte har någon insyn alls, så existerar den signalen bara i form av tysta gröna ljus i klassrummet medan tolv elever tror att de har förstått. Det är precis den situation som Unos Uno beskrev i 1:1-eran, och precis den som AI gör starkare snarare än svagare, eftersom AI:ns svar låter auktoritativa även när de är fel.
Det jag vill att skolor och huvudmän börjar kräva av leverantörer är följande: aggregerad klassinsyn, d v s en vy där läraren ser de vanligaste frågorna och de återkommande mönstren i hur klassen samspelar med AI under en lektion. Det är inte övervakning av enskilda elever — det är den pedagogiska återkoppling läraren behöver för att fullgöra sitt uppdrag. Det är tekniskt fullt möjligt. Det är bara inte prioriterat av leverantörerna i dag. När tillräckligt många skolor efterfrågar funktionen kommer den att byggas.
Skolverkets vägledning om AI-chattbottar och liknande verktyg (Råd om AI-chattbottar och liknande verktyg) är tydlig på punkten: "Ett bra första steg är att använda AI tillsammans med elever på en storskärm, där du kan diskutera faktafel och budskap direkt." Med andra ord: börja gemensamt och synligt. Skolverket specificerar inte tekniska krav — det överlåter åt skolan och huvudmannen att avgöra hur lärarinsyn uppnås. Det är pragmatiskt i ett system utan nationell AI-styrning, men det flyttar också ansvaret nedåt i systemet, vilket innebär att enskilda skolor måste fatta dessa beslut själva.
Oberoende av om skolan använder AI eller inte, är det numera rimligt att förespråka att skolor skaffar ett managementverktyg som styr vad eleverna kan göra på sina enheter under lektionstid. Det är inte för att misstro eleverna; det är för att det är lärarens uppgift att skapa en lärmiljö där eleverna lyckas, och det gör de inte om de sitter en klickning från TikTok under lektionen. Grönlunds Unos Uno-rapport var tydlig på just den punkten: problemet var inte eleverna, problemet var att lärarna saknade verktyg för att hantera den digitala miljön i klassrummet, vilket ledde till att ansvaret abdikerades åt eleven själv.
När AI blir en del av lektionsmiljön ökar behovet. Ett managementverktyg som kan öppna och stänga access till specifika AI-tjänster för specifika lektioner — så att eleven har access till ett godkänt AI-verktyg för en uppgift men inte till hela internet under tiden — är en grundförutsättning för att använda AI på lektionstid på ett ansvarsfullt sätt. Kombinerat med aggregerad klassinsyn (om leverantören erbjuder det) har läraren plötsligt de redskap som Unos Uno-forskarna efterlyste redan 2014.
Ingen av de svenska kommuner jag arbetat med som kommit längst i AI-frågan har gjort det genom att köpa in AI-verktyget först. De har alla börjat med att se till att lärarna fick kompetensutveckling, att skolorna hade managementverktyg för digital klassrumsmiljö, och att det fanns en uttalad AI-policy med klar ansvarsfördelning. Sedan kom verktygen. Ordningen är inte en detalj — den är själva arbetet.
— JLDel 4
Tolv frågor i fyra kategorier. Inspirerad av Discovery Educations "Should AI Be Used in Schools?" men omarbetad för lektionsbeslut, inte policybeslut. Fungerar som en snabb koll innan en lektion och som underlag för kollegiala samtal.
Om du kan svara ja på alla tolv frågor är det sannolikt en bra AI-lektion. Om du svarar nej på flera av frågorna — omplanera, eller välj ett annat verktyg. Checklistan är ett hjälpmedel, inte en byråkratisk övning: den är snabbast att gå igenom när man använt den några gånger, och poängen är att ställa frågorna i samma ordning varje gång.
Nej, men du ska avstå från att släppa eleverna fritt med AI. Det finns en mellanliggande nivå som både Skolverket och UNESCO rekommenderar: börja gemensamt på storbild. Du och klassen ställer frågor tillsammans, läser svaret tillsammans, diskuterar vad som är rätt, fel, bias och hallucination — tillsammans. Det är en kraftfull pedagogik i sig, den höjer din egen AI-litteracitet samtidigt som eleverna lär sig källkritik i AI-eran, och den kräver ingen lärar-expertis utöver det omdöme du redan har.
Tre punkter i minimum: (1) GDPR-compliance med tydligt personuppgiftsbiträdesavtal, godkänt av huvudmannen; (2) lärarinsyn — åtminstone på aggregerad klassnivå, så att läraren kan se återkommande frågor och mönster under en lektion; (3) klassrumsstyrning — möjligheten att öppna och stänga access under specifika lektionspass. Om leverantören inte har punkt 2 eller 3, kräv en tidplan för när de kommer att ha det. Den sortens efterfrågan är det som till slut flyttar branschen framåt.
Ta upp frågan med rektor och IT-samordnaren. Det är en fråga för huvudmannen, inte för den enskilda läraren. Under tiden — välj AI-lektioner där eleverna använder AI i korta, strukturerade block (10-15 minuter) och inte hela lektionen, och varva med analoga moment där enheten är stängd. Begränsningen är inte optimal, men den är hanterbar.
Det är sällan en enskild signal som avslöjar det. Vanliga mönster: texten är mer kompetent än det du tidigare sett från eleven utan en synlig förklaring, elevens egen röst är borta, strukturen är suspekt perfekt, den typ av fel som eleven brukar göra finns inte alls. AI-detektorer är otillförlitliga och bör inte användas som bevis. Den enklare vägen är ofta bedömningsdesign: om du regelbundet har muntliga inslag, om skrivandet sker i klassrum, eller om det finns processdokumentation — så blir det svårare att gömma sig bakom AI, och det löser problemet från en annan vinkel.
För det mesta vardagsarbetet — lektionsplanering, differentiering, stöd till enskilda elever — väldigt lite. Du befinner dig i kategorin minimal risk, och vanlig dataskyddsdisciplin räcker. AI-förordningen spelar roll framför allt när AI används för att bedöma eller fatta beslut om eleven — antagning, betygssättning, bedömning av uppförande eller särskilda behov. Om din skola överväger sådan användning, involvera dataskyddsombud och ledning innan något införs. Se hela genomgången i Del 2 · Regelverket ovan.
Det beror på användningen. För rutinmässig lärarhjälp — där inga personuppgifter om elever läggs in i systemet — är DPIA sällan ett krav. För användning där elevdata kan behandlas, där AI stöder beslut om eleven, eller där användningen innebär en systematisk övervakning, är DPIA ofta ett krav enligt GDPR artikel 35. Rådgör med ert dataskyddsombud. Integritetsskyddsmyndigheten (IMY) har vägledning på imy.se för just sådana bedömningar.
Fel fråga. AI är ett verktyg, och verktyg är bra eller dåliga bara i relation till det lärande de används för. Samma AI-chattbot kan vara en välsignelse för en elev som använder den för att få sitt resonemang utmanat, och en katastrof för en elev som använder den för att slippa tänka. Den intressanta frågan är: "För den här eleven, på den här lektionen, för det här lärandet — är AI det bästa verktygsvalet?" Det är precis vad RÄTT-modellen och checklistan på den här sidan är till för att hjälpa dig svara på.
Använd i första hand de resurser som ni har på din skola och hos din skolhuvudman. Om ni behöver extern hjälp kan ni vända er till den återförsäljare som ni har avtal med. Om de resurserna inte är tillräckliga kan du kontakta mig så ser vi vad jag kan hjälpa till med. Jag arbetar konsultativt med skolor och huvudmän i just dessa frågor — AI-policy, kompetensutveckling för kollegier, införande i linje med RÄTT-modellen, och strategi i ljuset av EU:s AI-förordning. Hör av dig till mig, t ex via LinkedIn.
Ladda ner den portabla PDF:en — samma innehåll, premium-layout, perfekt för offline-läsning eller för att dela med dina kollegor.
Uppdaterad april 2026.
Licens
Det här verket är licensierat under CC BY-NC-SA 4.0. Du får kopiera, dela och bearbeta materialet för icke-kommersiella ändamål, så länge du anger Johan Lindström som källa och behåller samma licens på eventuella bearbetningar.