
Norske bedrifter tar i bruk AI i rekordfart, og nettopp derfor oppstår mange av de vanlige AI-feilene vi ser i norske virksomheter. Det er effektivt, tidsbesparende og gir nye muligheter – men i mange bedrifter skjer AI-bruken raskere enn styringen. Ansatte tester verktøy, deler data og bruker AI-generert innhold uten at ledelsen har full oversikt.
Resultatet er det som kalles skygge-AI: AI‑bruk som skjer uten kontroll, dokumentasjon eller klare rammer. Med KI-loven på vei inn i norsk regelverk blir dette et reelt compliance-problem.
Her er de sju vanligste feilene norske bedrifter gjør når de tar i bruk AI – og hvordan du unngår dem.
1. Ansatte bruker AI uten at ledelsen vet om det (Skygge-AI / Shadow AI)
Dette er den mest utbredte feilen. I mange bedrifter bruker ansatte AI-verktøy som ChatGPT, Copilot og Notion AI uten at det er:
- godkjent
- risikovurdert
- dokumentert
- styrt av rutiner
Dette skaper Skygge-AI (Shadow AI) – AI‑bruk som skjer uten kontroll, oversikt eller styring.
Konsekvensen: Bedriften mister kontroll over data, kvalitet og risiko.
Eksempel: En ansatt legger inn et internt tilbudsdokument i ChatGPT for å få hjelp med formuleringer. Dokumentet inneholder kundedata og priser. Bedriften mister kontroll over hvor informasjonen havner.
Løsning: Start med en enkel kartlegging av dagens bruk via AI‑sjekken.
2. Bedriften vet ikke hvor dataene havner
Mange tror AI fungerer som et søkefelt. Men når du legger inn tekst, dokumenter eller kundedata, kan informasjonen:
- lagres midlertidig eller permanent
- brukes til å trene modellen
- deles med underleverandører
- havne på servere utenfor EU/EØS
Eksempel: En HR-medarbeider limer inn en ansatt konflikt i et AI-verktøy for å få hjelp med et svar. Dette kan være et brudd på både GDPR og KI-loven.
Løsning: Lag klare grenser for hva som kan legges inn i AI-verktøy.
3. AI-generert tekst brukes som fasit
AI-verktøy kan være nyttige, men de:
- kan ta feil
- kan være partiske
- kan finne på informasjon
- gir ingen juridiske garantier
Likevel brukes AI-generert tekst ofte direkte i:
- kundekommunikasjon
- markedsføring
- interne dokumenter
- beslutningsgrunnlag
Eksempel: AI foreslår feil lovhenvisning i et kundebrev. Brevet sendes ut uten kvalitetssikring.
Løsning: Innfør en enkel regel: AI kan foreslå – mennesker bestemmer.
4. Bedriften mangler dokumentasjon på AI-bruken (KI-loven)
Dette er et av de største hullene i norske virksomheter.
KI-loven krever at bedrifter har:
- oversikt over hvilke AI‑systemer som brukes
- risikoklassifisering
- dokumentasjon på databruk
- rutiner for kvalitetssikring
- ansvarlige roller
- sporbarhet og loggføring
De fleste bedrifter har ingen av delene.
Eksempel: En kunde spør: “Hvordan bruker dere AI i behandlingen av våre data?” Bedriften har ikke dokumentasjon og må svare “Vi vet ikke helt”.
Løsning: Få en profesjonell AI‑gjennomgang som dokumenterer risiko, databruk og tiltak.
5. Bedriften bruker AI-verktøy som ikke er lovlige etter KI-loven
Mange AI-verktøy er utviklet for det amerikanske markedet, ikke det europeiske. Det betyr at de:
- mangler risikoklassifisering
- mangler dokumentasjon
- ikke følger europeiske krav
- ikke har kontroll på databehandling
Når KI-loven trer i kraft i Norge, må virksomheter kunne vise at AI-verktøyene de bruker er lovlige og trygge.
Eksempel: Et amerikansk AI-verktøy lagrer alle bruker forespørsler i USA. Dette kan være ulovlig for norske virksomheter.
Løsning: Les kravene på AI Act‑siden og vurder verktøyene dine.
6. Ingen har ansvar for AI-bruken
I mange bedrifter er AI noe “alle bare bruker”. Men når ingen har ansvar, skjer dette:
- ingen følger med på risiko
- ingen oppdaterer rutiner
- ingen kvalitetssikrer
- ingen tar ansvar når noe går galt
KI-loven krever at virksomheter har en ansvarlig person for AI-bruk.
Løsning: Utpek en AI-ansvarlig – det trenger ikke være en teknisk rolle.
7. Bedriften undervurderer risikoen
Mange tenker:
“Vi bruker bare ChatGPT litt – det er ikke farlig.”
Men risikoen ligger ikke i verktøyet. Risikoen ligger i hvordan det brukes.
Typiske risikoområder:
- sensitiv informasjon
- kundedata
- HR-informasjon
- automatiserte beslutninger
- feilinformasjon
- manglende sporbarhet
Eksempel: AI foreslår en feil vurdering i en personalsak. Dokumentet lagres og brukes videre uten kontroll.
Løsning: Lag en enkel AI-policy og gi ansatte klare rammer.
Oppsummering: AI gir store muligheter – men krever kontroll
AI kan gi:
- raskere arbeid
- bedre kvalitet
- mindre manuelt arbeid
- bedre beslutningsgrunnlag
Men uten kontroll kan det føre til:
- datarisiko
- feil
- regelbrudd
- omdømmetap
Heldigvis er det enkelt å få oversikt og kontroll.
Én samlet anbefaling: Start med en vurdering av dagens AI‑bruk
For å unngå feilene over, bør bedriften starte med tre steg:
- Kartlegg dagens AI‑bruk
- Få profesjonell dokumentasjon og risikovurdering
- Sett opp rutiner som følger KI‑loven
Dette gir deg trygghet, kontroll og et solid grunnlag før KI‑loven trer i kraft.
Hvis du vil lære mer om hva KI‑loven faktisk krever, finner du en enkel forklaring i vår AI Act‑guide
