Skolebruk av KI: personvern, data, hallusinasjoner og bias
Published:
Hands-on øvelser fra mine presentasjoner om KI i skolen.
- Et tydelig trafikklys for persondata og behandling.
- Hvorfor språkmodeller hallusinerer – og hvordan du kvalitetssikrer.
- Hva bias er, hvor det kommer fra, og hvordan vi gjør det undervisbart.
- Praktiske måter KI støtter planlegging, vurdering og tilpasning – med lærer i loopen.
1) Personvern først: Trafikklys for data
Når vi snakker om hva som er lov å laste opp, må vi først skille type opplysninger:
- Grønn (lav risiko): navn, e-post, telefon, klassetilhørighet.
- Gul (middels): fødselsdato, karakterer, fravær, foreldreinfo, IP-adresse.
- Rød (høy): spes.ped.-støtte, diagnoser/helse, religion/livssyn, etnisitet, mobbesaker/atferdsnotater.
Prinsipp: Ikke all lagring er forbudt – men feil behandling er farlig. Tenk kanal (Teams, e-post, LMS, delt Excel) opp mot sensitivitet.
Læringsaktivitet: La studentene plassere anonymiserte eksempler i trafikklys og begrunne valg.
Husk! Personvernbrudd kan skyldes hverdagsfeil (f.eks. en «glemt kolonne» i et regneark) – ikke hackere.
2) Hallusinasjoner: Hvorfor de skjer, og hva vi gjør
Språkmodeller er trent til å forutsi neste ord, ikke til å «vite». Derfor kan de levere troverdige, men feil svar når kunnskapen er mangelfull.
Kildekritisk sjekkliste:
- Fører modellen kilde/lenke som faktisk kan åpnes?
- Stemmer årstall, tall og navn i SNL/SSB/primærkilde?
- Finnes minst én uavhengig bekreftelse?
- Overdriver svaret sikkerhet uten nyanser?
Mini-øvelse (fasit i parentes):
1) Gro Harlem Brundtland – første periode som statsminister i 1981 (riktig).
2) Et dukkehjem – skrevet 1879, premiere København (ikke Bergen) (delvis).
3) Sigrid Undset – Nobelprisen 1928 (ikke 1929) (hallusinasjon).
3) Bias: Skjevheter du kan undervise med
Definisjon: Systematisk skjevhet i data/modeller.
Kilder til bias:
- Historiske mønstre (reproduserer skjevheter)
- Skjevt utvalg (over-/underrepresentasjon)
- Manglende representasjon (blinde flekker)
- Stereotypier i treningsdata
Klasseaktivitet – “Finn biasen!”
Gi korte cases (ansiktsgjenkjenning, søkebilder ‘ingeniør/sykepleier’, språkmodeller som blander norske fenomener). La gruppene:
1) identifisere bias-type, 2) forklare konsekvens for elever, 3) foreslå tiltak.
4) Lett for mennesker 👏 vs. lett for KI 🫰
- Lett for KI: mønstergjenkjenning i enorme datamengder, lynrask analyse, multikilde-kobling.
- Vanskelig for KI: ironi/sarkasme, kontekstuelle følelser, “sunt folkevett”, robuste tolkninger av enkle skisser.
Refleksjon: Bruk tabellen som utgangspunkt for arbeidsdeling menneske ↔ KI i faglige oppgaver.
5) Didaktiske valg: undervise om og med KI
Bruk fritt (grønn liste): idédugnad, struktur/disposisjon, språkstøtte, analogier, formative råd om klarhet.
Bruk med kontroll (gul): referanser, tall/årstall/sitater, policy-oppsummeringer, lokale praksisdokumenter – dobbeltsjekk alltid.
Planlegging & tilpasning:
- Vurdering/feedback: kladd rubrikker, sjekklister og eksempler; lærer kvalitetssikrer.
- Tilpasset opplæring: språkforenkling, variasjonsnivå, instruksjoner steg-for-steg.
- Profesjonell praksis: maler for ukeinfo, differensierte oppgaver – med menneske i loopen.
6) To modeller å ha i bakhodet
- Trafikklys for data og for KI-bruk (hva kan deles, og hvordan kvalitetssikres).
- PfDK-perspektiv: administrere digitale læringsmiljø, integrere teknologi i undervisning (bruk/kritikk/opplæring), og profesjonelt arbeid & digital dømmekraft.
Dette hjelper oss å skille verktøyferdigheter fra pedagogisk design og etiske vurderinger.
Denne artikkelen er basert på mine analoge øvelser og inviterte foredrag i 2025 om KI i skolen, personvern, hallusinasjoner og bias.
