7 vanlige AI-feil norske bedrifter gjør – og hvordan du unngår dem

Illustrasjon av KI-loven og AI-compliance med fokus på vanlige AI-feil: holografisk hjerne på kretskort, EU-flagg i bakgrunnen og dommerhammer ved siden av et dokument merket «Compliance».

Norske bedrifter tar i bruk AI i rekordfart, og nettopp derfor oppstår mange av de vanlige AI-feilene vi ser i norske virksomheter. Det er effektivt, tidsbesparende og gir nye muligheter – men i mange bedrifter skjer AI-bruken raskere enn styringen. Ansatte tester verktøy, deler data og bruker AI-generert innhold uten at ledelsen har full oversikt.

Resultatet er det som kalles skygge-AI: AI‑bruk som skjer uten kontroll, dokumentasjon eller klare rammer. Med KI-loven på vei inn i norsk regelverk blir dette et reelt compliance-problem.

Her er de sju vanligste feilene norske bedrifter gjør når de tar i bruk AI – og hvordan du unngår dem.

1. Ansatte bruker AI uten at ledelsen vet om det (Skygge-AI / Shadow AI)

Dette er den mest utbredte feilen. I mange bedrifter bruker ansatte AI-verktøy som ChatGPT, Copilot og Notion AI uten at det er:

  • godkjent
  • risikovurdert
  • dokumentert
  • styrt av rutiner

Dette skaper Skygge-AI (Shadow AI) – AI‑bruk som skjer uten kontroll, oversikt eller styring.

Konsekvensen: Bedriften mister kontroll over data, kvalitet og risiko.

Eksempel: En ansatt legger inn et internt tilbudsdokument i ChatGPT for å få hjelp med formuleringer. Dokumentet inneholder kundedata og priser. Bedriften mister kontroll over hvor informasjonen havner.

Løsning: Start med en enkel kartlegging av dagens bruk via AI‑sjekken.

2. Bedriften vet ikke hvor dataene havner

Mange tror AI fungerer som et søkefelt. Men når du legger inn tekst, dokumenter eller kundedata, kan informasjonen:

  • lagres midlertidig eller permanent
  • brukes til å trene modellen
  • deles med underleverandører
  • havne på servere utenfor EU/EØS

Eksempel: En HR-medarbeider limer inn en ansatt konflikt i et AI-verktøy for å få hjelp med et svar. Dette kan være et brudd på både GDPR og KI-loven.

Løsning: Lag klare grenser for hva som kan legges inn i AI-verktøy.

3. AI-generert tekst brukes som fasit

AI-verktøy kan være nyttige, men de:

  • kan ta feil
  • kan være partiske
  • kan finne på informasjon
  • gir ingen juridiske garantier

Likevel brukes AI-generert tekst ofte direkte i:

  • kundekommunikasjon
  • markedsføring
  • interne dokumenter
  • beslutningsgrunnlag

Eksempel: AI foreslår feil lovhenvisning i et kundebrev. Brevet sendes ut uten kvalitetssikring.

Løsning: Innfør en enkel regel: AI kan foreslå – mennesker bestemmer.

4. Bedriften mangler dokumentasjon på AI-bruken (KI-loven)

Dette er et av de største hullene i norske virksomheter.

KI-loven krever at bedrifter har:

  • oversikt over hvilke AI‑systemer som brukes
  • risikoklassifisering
  • dokumentasjon på databruk
  • rutiner for kvalitetssikring
  • ansvarlige roller
  • sporbarhet og loggføring

De fleste bedrifter har ingen av delene.

Eksempel: En kunde spør: “Hvordan bruker dere AI i behandlingen av våre data?” Bedriften har ikke dokumentasjon og må svare “Vi vet ikke helt”.

Løsning: Få en profesjonell AI‑gjennomgang som dokumenterer risiko, databruk og tiltak.

5. Bedriften bruker AI-verktøy som ikke er lovlige etter KI-loven

Mange AI-verktøy er utviklet for det amerikanske markedet, ikke det europeiske. Det betyr at de:

  • mangler risikoklassifisering
  • mangler dokumentasjon
  • ikke følger europeiske krav
  • ikke har kontroll på databehandling

Når KI-loven trer i kraft i Norge, må virksomheter kunne vise at AI-verktøyene de bruker er lovlige og trygge.

Eksempel: Et amerikansk AI-verktøy lagrer alle bruker forespørsler i USA. Dette kan være ulovlig for norske virksomheter.

Løsning: Les kravene på AI Act‑siden og vurder verktøyene dine.

6. Ingen har ansvar for AI-bruken

I mange bedrifter er AI noe “alle bare bruker”. Men når ingen har ansvar, skjer dette:

  • ingen følger med på risiko
  • ingen oppdaterer rutiner
  • ingen kvalitetssikrer
  • ingen tar ansvar når noe går galt

KI-loven krever at virksomheter har en ansvarlig person for AI-bruk.

Løsning: Utpek en AI-ansvarlig – det trenger ikke være en teknisk rolle.

7. Bedriften undervurderer risikoen

Mange tenker:

“Vi bruker bare ChatGPT litt – det er ikke farlig.”

Men risikoen ligger ikke i verktøyet. Risikoen ligger i hvordan det brukes.

Typiske risikoområder:

  • sensitiv informasjon
  • kundedata
  • HR-informasjon
  • automatiserte beslutninger
  • feilinformasjon
  • manglende sporbarhet

Eksempel: AI foreslår en feil vurdering i en personalsak. Dokumentet lagres og brukes videre uten kontroll.

Løsning: Lag en enkel AI-policy og gi ansatte klare rammer.

Oppsummering: AI gir store muligheter – men krever kontroll

AI kan gi:

  • raskere arbeid
  • bedre kvalitet
  • mindre manuelt arbeid
  • bedre beslutningsgrunnlag

Men uten kontroll kan det føre til:

  • datarisiko
  • feil
  • regelbrudd
  • omdømmetap

Heldigvis er det enkelt å få oversikt og kontroll.

Én samlet anbefaling: Start med en vurdering av dagens AI‑bruk

For å unngå feilene over, bør bedriften starte med tre steg:

  1. Kartlegg dagens AI‑bruk
  2. Få profesjonell dokumentasjon og risikovurdering
  3. Sett opp rutiner som følger KI‑loven

Dette gir deg trygghet, kontroll og et solid grunnlag før KI‑loven trer i kraft.

Hvis du vil lære mer om hva KI‑loven faktisk krever, finner du en enkel forklaring i vår AI Act‑guide

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top