Hopp til hovedinnhold
Data Governance

Få kontroll på den lange halen av forretningsdata

Datavarehuset er styrt. BI-verktøyene er styrt. Lakehouse-en har lineage. Og likevel kjøres faktiske beslutninger fra hundrevis av regneark og rapporter ingen katalog kjenner.

Vi inventarer, klassifiserer og risikovurderer den lange halen i en avgrenset, sporbar pipeline. LLM-en svarer kun på smale, skjema-validerte spørsmål. Resten - klassifisering, scoring, audit trail, review-kø - er regelbasert.

Read-only crawl · audit trail · skjema-bunden LLM

Problemet ingen snakker om

Datavarehuset er styrt. Den lange halen er ikke det.

Pris, planlegging, marginrapportering, compliance-tall, kapasitetsplanlegging. Faktiske beslutninger kjøres fra hundrevis - ofte tusenvis - av regneark og dokumenter. Ingen vet hvem som eier dem. Ingen vet hvilke som er forretningskritiske. Ingen vet hvilke som regner samme tall ulikt, eller hvilke som har drevet fra en utdatert definisjon for tre år siden.

Det er ikke fordi du mangler verktøy. Datakatalog-systemer og klassifiseringsmotorer finnes i bøtter og spann. Problemet er at spørsmålene som faktisk må besvares - er dette regnearket forretningskritisk, bruker disse to rapportene samme definisjon av omsetning - er semantiske, ikke strukturelle. Inntil nylig krevde de et menneske med kontekst for hver eneste fil.

Hvorfor det skjer

LLM-er gjør semantiske spørsmål billige å stille. Også på feil måte.

Et selvsikkert, men feilaktig svar fra modellen havner rett i et governance-dashboard og styrer oppmerksomhet og ressurser i feil retning. Resultatet vi ser hos kunder er som regel én av to.

Stillstand. Kartleggingen er for stor til å gjøre manuelt, og for risikabel til å gjøre med en chatbot. Rapporten blir liggende. Risikoen vokser.

Ukontrollert akselerasjon. Noen slipper en generell AI-assistent løs på SharePoint, får ut tusenvis av "innsikter", og skjønner raskt at ingen tør stole på dem. Compliance og infosec setter foten ned.

Begge utfallene har samme rot. LLM-en ble brukt uten en deterministisk perimeter rundt seg. Crawl, parsing, routing, validering og audit ble overlatt til modellen. Det er der det går galt.

Slik jobber vi

Tre faser. Hver fase står på egne ben og leverer verdi i seg selv.

01
Avgrensning
Scope og taksonomi før første LLM-kall

Hvilke kilder, hvilke mapper, hvilke formater. Hva betyr kritikalitet, risiko, eierskap. Infosec signerer på read-only crawl. En syntetisk fixture-base speiler det dere har, så pipelinen testes uten reelle data først.

02
Bunden pipeline
Det deterministiske bærer det tunge

Crawl, parsing, regelbasert pre-scoring, routing og audit trail. LLM-en svarer kun på smale, skjema-validerte spørsmål - ett om gangen. Hver beslutning har run-id, prompt-versjon, modell-id og JSON som matcher en innsjekket kontrakt.

03
Bredere kjøring
Review-kø, kalibrering, overlevering

Bredere skanning kjøres. Subject-matter experts triagerer review-køen og kalibrerer terskler. Vi leverer landskapsrapport, anbefalinger for governance-eierskap, og et rammeverk teamet ditt kjører videre uten oss.

Hva som ligger i perimeteret

Perimeter
LLM-en skriver aldri til governance-storen direkte. Skjema-validert utdata, regelbasert routing, deterministisk audit trail.
Sporbarhet
Hver klassifisering har run-id, prompt-versjon, skill-versjon og modell-id. Compliance kan spore hver beslutning tilbake.
Bytteklarhet
Modellen kan skiftes ut uten at pipelinen skrives om. Ingen lock-in mot én leverandør.
Read-only
Vi skriver aldri tilbake til SharePoint, Drive eller andre kildesystemer. Inventaret lever i en egen, append-only audit-store.
Review-kø
Det usikre og høyrisiko-flagget går til menneskelig vurdering. Modellen avgjør aldri det som er nær terskelen.

Hvem dette er - og ikke er - for

Passer
Passer ikke
Moden datavarehus-governance, men virksomheten drives fortsatt av Excel og CSV utenfor det
Selskaper uten en eksisterende datakatalog-funksjon - der må du starte først
Regulerte bransjer der "hvem regnet hva og når" er en compliance-faktor
Engasjementer som vil ha alt på én gang - én plattform, all data, hele organisasjonen
Prøvd generelle chatbots eller brede klassifiseringsverktøy som ikke skalerte forbi infosec
Use cases der LLM-en skal ta beslutninger fritt eller skrive tilbake til kildesystemet
Data- og governance-team som vil ha sporbarhet og audit trail, ikke en svart boks
Selskaper som vil ha en rapport, ikke et arbeidende rammeverk

Første kjøring

Stort norsk industriselskap, våren 2026.

Scope var SharePoint og Excel, med en domenespesifikk taksonomi for kritikalitet, eierskap og platform-tilhørighet. Pi som LLM-harness, DuckDB-basert audit-store, og en review-kø som ble triagert sammen med selskapets fageksperter.

Resultatet: et inventar de faktisk kunne stole på. Et review-løp faglederne kunne styre selv. Et rammeverk det interne dataeierskap-teamet kjørte videre uten oss.

Mønsteret er det samme uavhengig av kildesystem og bransje. Deterministisk perimeter. Smal LLM-bruk. Skjema-bundet utdata. Sporbar audit trail. Det er forskjellen på et governance-rammeverk som tåler en infosec-gjennomgang og en pilot som dør i compliance.

Vi tar en uformell prat først

Digitalt eller på kontoret i Barcode. Vi ser på datalandskapet ditt på et høyt nivå og sier ærlig om dette er en jobb for oss eller ikke.