Først fundamentet. Så kan du slippe AI løs.
Modne kodebaser får sjelden gevinst av AI-koding på første forsøk. Ikke fordi verktøyene er dårlige - men fordi en QA-prosess bygget før AI fantes ikke kan verifisere det AI-en endrer.
Vi rådgir på - og setter i drift - test-, observability- og verifikasjonslaget som gjør AI-genererte endringer trygge å merge. To senioreksperter, ti personers leveransekraft. Erfarne utviklere får tilbake kontrollen.
45 minutter · pris per engasjement
Problemet ingen snakker om
Demoene er filmet på greenfield. Teamet ditt jobber et annet sted.
En utvikler skriver tre setninger i Cursor og får 200 linjer kode. Ledelsen blir solgt. Lisensene blir kjøpt. Og så skjer det lite.
Det er ikke at utviklerne er trege til å adoptere. Det er at de blir bedt om å kjøre AI på en kodebase som ikke har måten å verifisere endringene på. Tynn testdekning. Ingen visuell regresjon. Tracing som ikke fanger drift. PR-køer hvor manuell review er den eneste sikkerhetsnetten.
Når review er det eneste som står mellom AI og prod, blir hver merge en risiko-vurdering uten data. Senior-utviklere reagerer riktig: de bremser. Det er ikke motstand. Det er ansvarlighet.
Hvorfor det skjer
AI-verktøy skaleres med fundamentet under dem. Ikke over.
På greenfield er fundamentet alltid på plass - det er bare ett menneske og ett commit gammelt. Det er der demoene blir filmet. Tom mappe, ingen avhengigheter, ingen produksjonsforpliktelser.
Teamet ditt jobber et annet sted. En mobilapp med strenge ytelseskrav. Et CRUD-system som tjener virksomheten dag ut og dag inn. En B2B-plattform med kunder som forventer at ting bare funker. Forretningskritisk kode med en QA-prosess bygget før AI fantes.
Da har du to valg. Bremse AI til kodebasen tåler den. Eller bygge fundamentet under den, så AI kan kjøre i det tempoet verktøyene faktisk leverer.
Slik jobber vi
Tre faser. Hver fase står på egne ben og leverer verdi i seg selv.
Sammen med teamet ditt: hvilke moduler har lavest testdekning og høyest endringsfrekvens. Hvilke regresjoner ville sluppet gjennom dagens CI. Hvor PR-er stoppes manuelt fordi review er eneste verifikasjon. Resultat: et kart over fundament-gap, prioritert etter risiko og fart - ikke en konsulentrapport.
Visuell regresjonstesting (Playwright, Chromatic, Maestro). Performance-budsjetter for framerate, latens, bundle-size. Kontrakttester på API-grenser. Tracing og strukturert logging der endringer ofte glipper. Nye endringer - menneske eller AI - må passere de samme portene.
Nå kan teamet kjøre Cursor, Claude Code og agentiske tools aggressivt. CI fanger regresjoner. Tracing viser hva som faktisk endret seg. Seniorutvikleres skjønn brukes der det teller, ikke som siste forsvarslinje for hver linje AI-generert kode.
Hvem dette er - og ikke er - for
Hvem som leverer
To senioreksperter, ti personers leveransekraft.
Christian Bogstad har 25+ år som utvikler, derav 15 år med apputvikling i Schibsted og VG. Han har sett mange QA-prosesser, mange feilslåtte rollouts, og vet hvor refaktorering trygt kan skje versus hvor det dør i prod.
Mats Oustad var tidligere CPO i Klaveness Digital og leder i Wallenius Wilhelmsen. 15+ år innen produkt og tech. Holder rammene som gjør at fundament-arbeidet faktisk lander i en organisasjon med produksjonsforpliktelser.
Vi bruker det samme rammeverket på Oschlo Agent Platform, som er vår egen kodebase i drift. Når vi sier verifikasjon før AI - det er fordi vi gjør det selv hver dag.
Første steg er kartleggingen
45 minutter på Google Meet. Du beskriver kodebasen, teamet og hvor AI-arbeidet stopper. Vi sier ærlig om dette er en jobb for oss eller ikke.

