De fleste danske offentlige organisationer eksperimenterer med AI. Enkelte medarbejdere bruger ChatGPT til at opsummere dokumenter. En afdeling kører et pilotprojekt med automatiseret sagsbehandling. Men spørg ledelsen om organisationens AI-modenhed, og svaret er sjældent præcist.
Det er et problem. Uden en struktureret vurdering af hvor organisationen befinder sig, er det umuligt at prioritere de rigtige investeringer. Og uden prioritering ender AI-initiativer som isolerede eksperimenter der aldrig skalerer.
Jeg bruger en vurderingsmodel der kombinerer tre anerkendte frameworks: Gartners AI Maturity Model, MIT CISRs Enterprise AI Maturity og Deloittes modenhedsmodel. Tilsammen dækker de både strategisk, operationel og teknisk modenhed – og de supplerer hinanden der hvor den enkelte model har begrænsninger.
Tre frameworks, fem dimensioner
Gartners model opererer med fem niveauer – fra “Awareness” til “Transformational” – og giver et godt overblik over organisationens samlede position. Men modellen er bred. Den siger ikke meget om de konkrete organisatoriske og datamæssige forudsætninger.
MIT CISRs model er mere pragmatisk. Den opdeler modenhed i fire stadier og identificerer præcist hvilke aktiviteter der hører til hvert stadie: fra politikker og uddannelse i Stage 1 til industrialisering af AI på tværs af organisationen i Stage 3. MIT CISRs vigtigste indsigt er at den største finansielle impact opstår i transitionen fra Stage 2 til Stage 3 – altså fra systematisk eksperimentation til skaleret brug.
Deloittes model tilfører governance-dimensionen. Deres syv dimensioner for Trustworthy AI – transparens, fairness, robusthed, privatlivsbeskyttelse, sikkerhed, ansvarlighed og forklarlighed – er særligt relevante for den offentlige sektor, hvor tillid er en forudsætning for enhver digital løsning.
Organisationer med moden AI-governance har 28% flere medarbejdere der aktivt bruger AI og 5% højere omsætningsvækst end organisationer uden.
Deloitte, State of AI in the Enterprise, 2025
Vurderingsmodellen
Ved at kombinere de tre frameworks når jeg frem til fem dimensioner der tilsammen giver et komplet billede af en organisations AI-modenhed:
01
Har organisationen en formuleret AI-strategi? Er den forankret i ledelsen? Er der sammenhæng mellem AI-initiativer og organisationens kerneopgaver? Mange organisationer har en digital strategi, men AI nævnes kun som et buzzword i et bilag. Det tæller ikke.
02
AI er kun så god som de data den trænes og opererer på. Vurderingen afdækker datakvalitet, tilgængelighed, klassifikation og governance. I den offentlige sektor er data ofte fragmenteret på tværs af siloer, og GDPR stiller yderligere krav til behandling og opbevaring.
03
Hvilken teknisk infrastruktur er på plads? Er der cloud-kapacitet, API-lag til eksisterende systemer, og vektordatabaser til AI-workloads? Mange offentlige organisationer opererer med legacy-systemer der ikke umiddelbart kan integreres med moderne AI – men det behøver ikke være en blocker. RAG-arkitekturer kan bygge bro.
04
Har organisationen de rigtige kompetencer internt? Er der en AI-ansvarlig? Er medarbejderne trygge ved at bruge AI-værktøjer, eller er der modstand? Kompetencer handler ikke kun om tekniske færdigheder – det handler også om ledelsens forståelse og evne til at drive forandring.
05
Er der politikker for ansvarlig AI-brug? Hvem har ansvar når en AI-model tager en forkert beslutning? Er der processer for bias-detektion, validering og audit? For offentlige organisationer der behandler borgersager, er governance ikke et nice-to-have – det er et krav.
Processen
Vurderingen foregår i tre faser. Første fase er et struktureret spørgeskema med 30–50 spørgsmål der dækker de fem dimensioner. Spørgeskemaet besvares af nøglepersoner på tværs af organisationen – ikke kun IT-afdelingen. AI-modenhed er en organisatorisk disciplin, ikke en teknisk.
Anden fase er analyse og benchmark. Besvarelserne omsættes til en modenhedsscore for hver dimension, og scoren sammenlignes med tilsvarende organisationer. En kommune med 50.000 borgere har andre forudsætninger end en statslig styrelse med 500 medarbejdere – benchmarket tager højde for det.
Tredje fase er en konkret roadmap med prioriterede tiltag. Ikke en strategi-PDF der ender i en skuffe, men en handlingsplan med tidshorisont, ansvarsplacering og forventede resultater. Fokus er på de tiltag der giver størst værdi hurtigst – typisk i transitionen fra eksperimentation til skaleret brug.
Det danske landskab
Den danske offentlige sektor bevæger sig hurtigt. Regeringen, KL og Danske Regioner har afsat 266,7 millioner kroner til tre storskalaprojekter med kunstig intelligens: automatiseret dokumentation via tale-til-tekst, digitale assistenter til borgere og virksomheder, og beslutningsstøtte til sagsbehandlere.
Den fællesoffentlige digitaliseringsstrategi for 2026–2029 sætter AI centralt, og den digitale taskforce har et mål om at frigøre 30.000 årsværk frem mod 2035. Mindst 24 kommuner nævner eksplicit AI og automatisering i deres budgetforlig for 2026.
Gartners seneste data viser at 74% af offentlige CIO'er globalt allerede har deployed eller planlægger at deploye AI inden for de næste 12 måneder. Men kun 45% af organisationer med høj AI-modenhed holder deres AI-projekter operationelle i mere end tre år. Resten dør i pilotfasen.
Forskellen mellem organisationer der lykkes med AI og dem der ikke gør, er sjældent teknologien. Det er modenhed.
Det er derfor en struktureret modenhedsvurdering er det første skridt. Ikke det mest spændende skridt. Men det vigtigste.
Vil du vide hvor din organisation står? Jeg tilbyder en uforpligtende samtale om AI-modenhedsvurdering.