Skolebruk av KI: personvern, data, hallusinasjoner og bias

2 minute read

Published:

Hands-on øvelser fra mine presentasjoner om KI i skolen.

  • Et tydelig trafikklys for persondata og behandling.
  • Hvorfor språkmodeller hallusinerer – og hvordan du kvalitetssikrer.
  • Hva bias er, hvor det kommer fra, og hvordan vi gjør det undervisbart.
  • Praktiske måter KI støtter planlegging, vurdering og tilpasning – med lærer i loopen.

1) Personvern først: Trafikklys for data

Når vi snakker om hva som er lov å laste opp, må vi først skille type opplysninger:

  • Grønn (lav risiko): navn, e-post, telefon, klassetilhørighet.
  • Gul (middels): fødselsdato, karakterer, fravær, foreldreinfo, IP-adresse.
  • Rød (høy): spes.ped.-støtte, diagnoser/helse, religion/livssyn, etnisitet, mobbesaker/atferdsnotater.

Prinsipp: Ikke all lagring er forbudt – men feil behandling er farlig. Tenk kanal (Teams, e-post, LMS, delt Excel) opp mot sensitivitet.
Læringsaktivitet: La studentene plassere anonymiserte eksempler i trafikklys og begrunne valg.

Husk! Personvernbrudd kan skyldes hverdagsfeil (f.eks. en «glemt kolonne» i et regneark) – ikke hackere.


2) Hallusinasjoner: Hvorfor de skjer, og hva vi gjør

Språkmodeller er trent til å forutsi neste ord, ikke til å «vite». Derfor kan de levere troverdige, men feil svar når kunnskapen er mangelfull.

Kildekritisk sjekkliste:

  • Fører modellen kilde/lenke som faktisk kan åpnes?
  • Stemmer årstall, tall og navn i SNL/SSB/primærkilde?
  • Finnes minst én uavhengig bekreftelse?
  • Overdriver svaret sikkerhet uten nyanser?

Mini-øvelse (fasit i parentes):
1) Gro Harlem Brundtland – første periode som statsminister i 1981 (riktig).
2) Et dukkehjem – skrevet 1879, premiere København (ikke Bergen) (delvis).
3) Sigrid Undset – Nobelprisen 1928 (ikke 1929) (hallusinasjon).


3) Bias: Skjevheter du kan undervise med

Definisjon: Systematisk skjevhet i data/modeller.
Kilder til bias:

  • Historiske mønstre (reproduserer skjevheter)
  • Skjevt utvalg (over-/underrepresentasjon)
  • Manglende representasjon (blinde flekker)
  • Stereotypier i treningsdata

Klasseaktivitet – “Finn biasen!”
Gi korte cases (ansiktsgjenkjenning, søkebilder ‘ingeniør/sykepleier’, språkmodeller som blander norske fenomener). La gruppene:
1) identifisere bias-type, 2) forklare konsekvens for elever, 3) foreslå tiltak.


4) Lett for mennesker 👏 vs. lett for KI 🫰

  • Lett for KI: mønstergjenkjenning i enorme datamengder, lynrask analyse, multikilde-kobling.
  • Vanskelig for KI: ironi/sarkasme, kontekstuelle følelser, “sunt folkevett”, robuste tolkninger av enkle skisser.
    Refleksjon: Bruk tabellen som utgangspunkt for arbeidsdeling menneske ↔ KI i faglige oppgaver.

5) Didaktiske valg: undervise om og med KI

Bruk fritt (grønn liste): idédugnad, struktur/disposisjon, språkstøtte, analogier, formative råd om klarhet.
Bruk med kontroll (gul): referanser, tall/årstall/sitater, policy-oppsummeringer, lokale praksisdokumenter – dobbeltsjekk alltid.

Planlegging & tilpasning:

  • Vurdering/feedback: kladd rubrikker, sjekklister og eksempler; lærer kvalitetssikrer.
  • Tilpasset opplæring: språkforenkling, variasjonsnivå, instruksjoner steg-for-steg.
  • Profesjonell praksis: maler for ukeinfo, differensierte oppgaver – med menneske i loopen.

6) To modeller å ha i bakhodet

  • Trafikklys for data og for KI-bruk (hva kan deles, og hvordan kvalitetssikres).
  • PfDK-perspektiv: administrere digitale læringsmiljø, integrere teknologi i undervisning (bruk/kritikk/opplæring), og profesjonelt arbeid & digital dømmekraft.
    Dette hjelper oss å skille verktøyferdigheter fra pedagogisk design og etiske vurderinger.

Denne artikkelen er basert på mine analoge øvelser og inviterte foredrag i 2025 om KI i skolen, personvern, hallusinasjoner og bias.