Ai og personvern: Hva norske bedrifter må vite om gdpr, datatilsynet og ai-lov 2026
Hovedpoeng
- Følg GDPR og personopplysningsloven: Avklar rettslig grunnlag (art. 6/9), vurder art. 22 ved helautomatiserte avgjørelser og bruk Datatilsynets veiledning.
- Bygg innebygd personvern: Praktiser dataminimering (art. 5), gjennomfør risikovurdering og DPIA (art. 35), og dokumenter formål, datakilder og behandling.
- Styrk sikkerheten teknisk og organisatorisk: Tilgangsstyring (minste privilegium/MFA), kryptering, logging og sporbar MLOps for modeller og data.
- Håndter leverandører og skytjenester riktig: Inngå solide databehandleravtaler (art. 28), kartlegg datastrømmer og sikre overføringer utenfor EØS med SCC og supplerende tiltak.
- Sikre transparens og rettigheter: Forklarbarhet ved AI-beslutninger, enkle prosesser for innsyn, retting og sletting (art. 13–17, 21), samt menneskelig overprøving.
- Forstå risiko og sanksjoner: Feil kan gi store bøter (art. 83), mens tidlig tilpasning til EU AI Act 2024 og norsk innføring fra 2026 gir trygg og konkurransedyktig AI-bruk.
AI presser fram innovasjon i norsk næringsliv og løfter samtidig krav til personvern. Norske bedrifter må forstå GDPR og personopplysningsloven og følge veiledning fra Datatilsynet. Feil valg kan gi bøter og svekket tillit mens god styring gir trygg vekst med AI.
Nøkkeltemaer er rettslig grunnlag dataminimering innebygd personvern risikovurdering og DPIA samt lagring overføring og valg av leverandører. De bør kartlegge data definere tydelige formål dokumentere alle behandlingsaktiviteter og sikre tilgangsstyring kryptering og logging. Slik bruker de AI trygt oppfyller lovkrav og bygger varig konkurransekraft.
AI Og Personvern: Hva Norske Bedrifter Må Vite
AI og personvern i Norge krever tydelig rettslig grunnlag etter GDPR og personopplysningsloven. Behandlingen dekker både modelltrening og inferens for AI.
- Rettlig grunnlag: Bruk GDPR art. 6 for ordinære data og art. 9 for særlige kategorier som helse og biometriske data. Vurder art. 22 ved helautomatiserte avgjørelser som gir rettsvirkninger. Kilde Datatilsynet og EDPB
- Dataminimering: Fjern unødvendige felt før AI-behandling. Bruk syntetiske data eller pseudonymisering ved utvikling og testing. Kilde GDPR art. 5
- Innebygd personvern: Sett standarder for tilgang, logging og kryptering i designfasen. Dokumenter tiltak og avvik. Kilde GDPR art. 25
- Risikovurdering og DPIA: Gjennomfør DPIA ved høy risiko som profilering og skala. Oppdater tiltak ved endret modell eller datakilde. Kilde GDPR art. 35
- Transparens: Gi klare beskrivelser av formål, datakilder og logikk i AI. Tilby innsyn, retting og protest. Kilde GDPR art. 13 til 15 og art. 21
- Overføring og skytjenester: Kartlegg datastrømmer og vurder tredjeland. Bruk EØS lokasjon eller supplerende tiltak som kryptering. Kilde GDPR kap. V og EDPB anbefalinger
- Lagring og sletting: Sett tidsfrister for rådata, modeller og logger. Automatiser sletting og re-trening ved retting og tilbaketrekking. Kilde GDPR art. 5 og 17
- Leverandørstyring: Inngå databehandleravtaler med målbare sikkerhetskrav. Revider leverandører jevnlig som skyleverandører og modelltilbydere. Kilde GDPR art. 28
Automatiserte avgjørelser krever menneskelig kontroll og mulighet for å klage, når avgjørelsen gir rettsvirkninger. Barns data krever skjerpede vurderinger, når AI berører skole eller helse. Kilde Datatilsynet
Sanksjonsnivåer etter GDPR art. 83
| Nivå | Beløp | Beregningsgrunnlag |
|---|---|---|
| Alvorlig overtredelse | 20 000 000 EUR | eller 4% av global årlig omsetning |
| Mindre alvorlig overtredelse | 10 000 000 EUR | eller 2% av global årlig omsetning |
- Datakartlegging: Lag behandlingsprotokoll som dekker datasett, formål og systemer som CRM og data lake. Kilde GDPR art. 30
- Tilgangsstyring: Bruk prinsipp om minste privilegium og just in time tilgang. Logg alle modellkall
- Modellstyring: Etabler MLOps med sporbarhet, versjonering og bias-tester. Dokumenter hyperparametere og treningsdata
- Hendelseshåndtering: Lag varslingsrutiner og øv beredskap. Meld avvik til Datatilsynet innen 72 timer. Kilde GDPR art. 33 og 34
Regelverk I Norge Og EU

Norske bedrifter møter EU krav gjennom EØS når de bruker AI og behandler personopplysninger. Personvern hviler på GDPR og norsk personopplysningslov som forankrer transparens samtykke sikkerhet og ansvarlighet.
GDPR Og Personopplysningsloven
GDPR gjelder i Norge via personopplysningsloven og dekker AI bruk fra innsamling til modelltrening. Virksomheter dokumenterer formål datakilder behandlingsgrunnlag og risikoreduserende tiltak med vekt på artikkel 6 9 og 35, Datatilsynet og EDPB gir praksisnære tolkninger. Plattformdata fra globale aktører som Meta kan inngå i AI trening, virksomheter oppdaterer samtykker og personvernerklæringer med tydelig formål og reservasjonsmuligheter. Norsk AI regelverk kommer i 2026 med krav til risikostyring åpenhet og sikker utvikling, virksomheter klargjør ansvar roller og forklarbarhet før utrulling.
| Krav eller sanksjon | GDPR referanse | Nivå |
|---|---|---|
| Behandlingsgrunnlag | Art 6 og 9 | Obligatorisk |
| DPIA ved høy risiko | Art 35 | Obligatorisk |
| Overtredelsesgebyr | Art 83 | Inntil €20 000 000 eller 4% av global omsetning |
Kilder Datatilsynet EDPB GDPR personopplysningsloven
Overføring Av Data Utenfor EØS
Internasjonale dataflyter ved AI drift krever gyldig overføringsgrunnlag. Virksomheter bruker adequacy beslutning standard contractual clauses bindende virksomhetsregler og supplerende tiltak etter EDPB, overføring stoppes ved utilstrekkelig beskyttelsesnivå.
- Kartlegg datastrømmer for skytjenester kundestøtte og modelltrening
- Vurder tredjeland med risikovurdering og TIA
- Dokumenter overføringsgrunnlag og sikkerhetstiltak
- Begrens datamengde og lagringstid
- Krypter data ende til ende der nøkkel kontrolleres i EØS
- Etabler tilgangsstyring logging og hendelseshåndtering
- Inngå databehandleravtaler med klare instrukser og underleverandørkontroll
- Informer registrerte om formål mottakere og rettigheter
Grunnprinsipper For Ansvarlig AI

Ansvarlig AI bygger på menneskerettigheter, personvern og revisjonsmulighet. Prinsippene følger regjeringens strategi, GDPR og EU AI Act 2024.
Dataminimering Og Formålsbegrensning
Dataminimering og formålsbegrensning følger GDPR art. 5. Målet er færre personopplysninger, tydelige formål og lavere risiko.
- Begrens innsamling til det som er nødvendig for et spesifikt formål, for eksempel kundeservice-logg uten fritekstfelt.
- Spesifiser formål i behandlingsprotokollen og i personvernerklæringen, for eksempel modelltrening for svindeldeteksjon.
- Masker eller pseudonymiser data før modelltrening, for eksempel tokenisering av navn og e-post.
- Aggreger telemetri for analyse, for eksempel daglige totalsummer i stedet for rå logger.
- Slett data etter definerte frister i en slettepolicy, for eksempel 30, 90 eller 365 dager.
- Test med syntetiske eller anonymiserte datasett når mulig, for eksempel ved tidlig utvikling og QA.
Kilder: GDPR art. 5, Datatilsynet.
Rettslig Grunnlag Og DPIA
Rettslig grunnlag krever presis vurdering av formål og datatype. DPIA er påkrevd ved høy risiko og profilering som påvirker rettigheter.
- Avklar behandlingsgrunnlag etter GDPR art. 6, for eksempel samtykke, kontrakt eller berettiget interesse.
- Vurder særlige kategorier etter GDPR art. 9, for eksempel helseopplysninger som krever uttrykkelig samtykke eller annet unntak.
- Kartlegg automatiserte avgjørelser og profilering som utløser DPIA etter art. 35, for eksempel kredittrating og overvåking i stor skala.
- Dokumenter datakilder, formål, mottakere og overføringer, for eksempel tredjelandsvurderinger.
- Reduser risiko med tiltak som menneskelig kontroll, tilgangsstyring og logger for etterprøving.
- Juster design etter EU AI Act 2024 med risikoklassifisering, for eksempel høy-risiko-systemer med streng styring.
Kilder: GDPR art. 6, 9, 35, EU AI Act 2024, Datatilsynet.
| Regelverk | Bestemmelse | Kontekst | Eksempler |
|---|---|---|---|
| GDPR | Art. 5 | Dataminimering og formål | Slettepolicy 30–365 dager |
| GDPR | Art. 6 | Rettslig grunnlag | Samtykke, kontrakt, berettiget interesse |
| GDPR | Art. 9 | Særlige kategorier | Helse, biometriske data |
| GDPR | Art. 35 | DPIA | Profilering, stor-skala overvåking |
| EU AI Act | 2024 | Risikoklasser | Høy risiko med streng styring |
| Norge | 2026 | Nasjonal gjennomføring | Harmonisering med EU-regler |
Tekniske Og Organisatoriske Tiltak
Denne delen konkretiserer hvordan tekniske og organisatoriske tiltak forankrer lovlig og trygg AI-bruk etter GDPR. Tiltakene dekker hele AI-livssyklusen fra innsamling til drift.
Anonymisering, Pseudonymisering Og Sikkerhet
Anonymisering, pseudonymisering og sikkerhet reduserer risiko i AI-prosjekter. For store datamengder går kvalitet ofte tapt ved full anonymisering, mens pseudonymisering gir et pragmatisk vern som fortsatt omfattes av GDPR.
- Bruk anonymisering når identifiserbarhet kan fjernes fullstendig etter GDPR art. 4.
- Bruk pseudonymisering når datanytte må bevares, og beskytt koblingsnøkler separat etter GDPR art. 32.
- Implementer kryptering i transitt og i ro for å hindre uautorisert innsyn.
- Implementer nøkkelhåndtering med HSM og rotasjonsregime.
- Etabler sikre lagringsløsninger med segmentering mellom miljøer for utvikling og produksjon.
- Etabler dataminimering, syntetiske datasett og maskering for test og trening etter GDPR art. 5.
- Velg sikkerhetsplattformer som kombinerer cybersikkerhet og AI, som Deloittes AI Factory, i helse, finans og offentlig sektor.
- Dokumenter risikovurdering og DPIA når reidentifiseringsrisiko foreligger etter Datatilsynet sin veiledning.
Tilgangsstyring, Logging Og Sporbarhet
Tilgangsstyring, logging og sporbarhet sikrer kontroll, revisjon og etterlevelse. Transparens i algoritmer styrker rettigheter og tillit.
- Etabler rollebasert tilgang og minste privilegium for treningsdata og modeller etter GDPR art. 25.
- Etabler attributtbasert kontroll for særlige kategorier data etter GDPR art. 9.
- Aktiver flerfaktorautentisering for alle administrative tilganger.
- Loggfør all tilgang og behandling med tidsstempel og integritetsvern for revisjon etter GDPR art. 30.
- Loggfør modellkjøringer, versjoner og datakilder for sporbarhet og reproduserbarhet.
- Implementer SIEM og alarmering på avvik for hendelseshåndtering.
- Publiser forklarbarhet via model cards og forklarbare metoder ved automatiserte avgjørelser etter GDPR art. 22.
- Dokumenter tiltak og ansvar i styringssystem for informasjonssikkerhet etter Datatilsynet sin veiledning.
Håndtering Av Leverandører Og Sky
Effektiv håndtering av leverandører og sky styrker personvern i AI-prosjekter. Klar ansvarsfordeling reduserer risiko for norske bedrifter.
Databehandleravtaler Og SCC
Tydelige databehandleravtaler sikrer lovlig behandling etter GDPR artikkel 28. Avtalen beskriver formål behandlingsgrunnlag og kategorier av personopplysninger. Avtalen dekker lagring slettefrister og datastrømmer ved modelltrening. Avtalen regulerer bruk av underleverandører og krever skriftlig godkjenning. Avtalen spesifiserer sikkerhetstiltak som kryptering pseudonymisering tilgangsstyring og logging. Avtalen krever dokumentasjon av algoritmenes virkemåte og forklarbarhet. Avtalen avklarer ansvar ved feil og håndtering av tredjeparters krav. Overføringer ut av EØS bruker EU-kommisjonens standardkontrakter fra 2021. Overføringer vurderer tredjelandsrett og supplerende tiltak etter EDPB anbefalinger. Behandling av særlige kategorier av data forankres i GDPR artikkel 9. Virksomheter følger veiledning fra Datatilsynet og Personopplysningsloven. Hyperscalere får klare begrensninger på databruk og viderebehandling. Kontrollmekanismer inkluderer revisjonsrett sikkerhetsrapporter og hendelsesvarsling innen avtalte frister.
Due Diligence På AI-Tjenester
Streng due diligence avdekker juridisk og teknisk risiko før kjøp av AI-tjenester. Vurderingen dokumenterer behandlingsgrunnlag datakilder og formål i tråd med GDPR. Vurderingen kartlegger eierskap til data modellartefakter og metadata. Vurderingen analyserer modelltrening datasettopprinnelse og potensielle skjevheter. Vurderingen tester robusthet forklarbarhet og menneskelig kontroll ved automatiserte avgjørelser. Vurderingen bekrefter sikkerhetstiltak som tilgangsstyring logging og kryptering. Vurderingen gjennomgår hendelseshåndtering SLA og ansvarsbegrensninger i kontrakt. Vurderingen krever åpenhet om algoritmers virkemåte og evalueringsmetoder. Vurderingen innhenter tredjepartsattester som ISO 27001 og SOC 2. Vurderingen vurderer overføringsgrunnlag og SCC ved skytjenester utenfor EØS. Vurderingen utløser DPIA ved høy risiko etter GDPR og Datatilsynets veiledning. Vurderingen forankrer etterlevelse i EU AI Act 2024 og regjeringens AI-strategi.
Transparens Og Brukerrettigheter
Transparens i AI og personvern styrker tillit i norske bedrifter. GDPR krever lovlig, rettferdig og åpen behandling med tydelig formål og klare informasjonskanaler.
Forklarbarhet Og Automatiserte Beslutninger
Automatiserte beslutninger i AI må være forklarbare etter GDPR art. 22 og Datatilsynets veiledning. Den registrerte skal forstå logikk, betydning og forventede konsekvenser av behandlingen.
- Forklare beslutningslogikk i klare ord, for eksempel kredittscoring og personaliserte priser
- Gi informasjon om datakilder, for eksempel transaksjoner, atferdsdata og tredjepartsprofiler
- Tilby menneskelig overprøving og klagemulighet ved inngripende vedtak
- Dokumentere risiko og skjevhet, for eksempel diskrimineringsfare mot sårbare grupper
- Etablere modellstyring med versjonering, ytelsesmålinger og bias-tester
Datatilsynet anbefaler transparente forklaringer som reduserer risiko for urettferdig behandling, særlig ved høy risiko i finans og helse.
Innsyn, Retting Og Sletting
Brukerrettigheter i AI og personvern omfatter innsyn, retting og sletting etter GDPR art. 15 til 17. Virksomheten gir lett tilgang, enkel kontaktflate og verifisert identitetssjekk.
- Levere selvbetjente portaler for innsyn i lagrede data og formål
- Korrigere uriktige opplysninger raskt i primærsystemer og treningsdatasett
- Utføre sletting i aktive systemer, backups og treningspipelines med dokumentasjon
- Loggføre forespørsler og beslutninger for revisjon og sporbarhet
- Kommunisere prosess, unntak og klagevei via personvernerklæring
| Kravpunkt | Tidsfrist | Kilde |
|---|---|---|
| Svar på innsyn | 1 måned, forlengelse 2 måneder ved kompleksitet | GDPR art. 12 |
| Varsling ved retting eller sletting | Uten ugrunnet opphold | GDPR art. 19 |
Regnskapskrav kan begrense sletting for lovpålagt lagring, mens ikke-nødvendige kopier fjernes konsekvent.
Praktiske Steg For Norske Bedrifter
Praktiske steg styrker AI personvern og etterlevelse i norske bedrifter. Tiltakene kobler styring, risiko og sikkerhet i hele AI livssyklusen.
| Krav eller milepæl | Tall eller år | Kilde |
|---|---|---|
| Grunnprinsipper og formål | GDPR art. 5 | GDPR |
| Rettslig grunnlag ordinære data | GDPR art. 6 | GDPR |
| Rettslig grunnlag særlige data | GDPR art. 9 | GDPR |
| EU AI Act vedtatt | 2024 | EU |
| Norsk AI regelverk innfasing | 2026 | Regjeringen |
Styring, Roller Og Opplæring
Etabler et styringsrammeverk som kobler AI prosesser til GDPR krav og internkontroll (Datatilsynet).
Definer roller for behandlingsansvarlig, databehandler, sikkerhetsarkitekt, modellansvarlig, personvernombud med klart mandat.
Forankre risikostyring i ledelsen med KPIer for etterlevelse, sikkerhet, bias og transparens.
Gi opplæring til alle ansatte om AI formål, datatyper, brukerrettigheter, innsyn, retting, sletting.
Innfør beslutningsporter før trening, før produksjon, etter hendelser med revisjon og sporbarhet.
Publiser modelldokumentasjon med formål, datakilder, evalueringsmetoder, forklarbarhet og begrensninger.
Prioriter cybersikkerhet i AI drift med tilgangskontroll, MFA, logging, trusseldeteksjon og e postvern mot phishing [1] (Datatilsynet, GDPR art. 5, 6, 9).
Sjekklister For AI-Prosjekter
Kartlegg personopplysninger med datakatalog og dataflyt per system med eksempler som kundeservice logger, sensordata, HR filer.
Vurder risiko og gjennomfør DPIA ved høy risiko for rettigheter og friheter med dokumenterte tiltak (Datatilsynet, GDPR).
Minimer data ved å fjerne unødvendige felt og bruke anonymisering eller pseudonymisering der mulig (GDPR art. 5).
Kontroller bias i datasett og modeller med tester på kjønn, alder, etnisitet og dokumenter resultater.
Dokumenter rettslig grunnlag for hver behandling med art. 6 og for særlige kategorier med art. 9 som helse og fagforening.
Sikre overføringsgrunnlag ved skytjenester utenfor EØS med SCC og tekniske tiltak.
Overvåk produksjon med hendelsesrespons, versjonskontroll, modellenes driftsprestasjon og innsynsforespørsler [1][2][3][4].
Conclusion
AI gir kraft til vekst men også ansvar. Bedrifter som prioriterer personvern står sterkere i markedet og hos tilsyn. Nøkkelen er styring åpenhet og god dokumentasjon fra idé til drift slik at tillit blir en konkurransefordel.
De som investerer i kompetanse og klare prosesser vil kunne skalere tryggere og raskere enn konkurrenter. Start med tiltak som gir effekt nå og bygg videre med målbare kontroller og kontinuerlig forbedring. Norske virksomheter som handler proaktivt posisjonerer seg for trygg innovasjon innenfor norske og europeiske krav.
Frequently Asked Questions
Hva betyr AI-personvern for norske bedrifter?
AI-personvern handler om å bruke kunstig intelligens på en lovlig, sikker og transparent måte, i tråd med GDPR og personopplysningsloven. Det innebærer å ha rettslig grunnlag, begrense datainnsamling, sikre datakvalitet, beskytte brukere og dokumentere tiltak. Bedrifter må følge Datatilsynets veiledning, gjøre risikovurderinger og DPIA ved høy risiko, og sørge for sporbarhet, tilgangsstyring og klare rutiner for innsyn, retting og sletting.
Hvilket rettslig grunnlag kreves for AI-behandling?
Velg et grunnlag i GDPR art. 6 (ordinære data) og art. 9 (særlige kategorier). Typiske grunnlag er berettiget interesse, samtykke eller avtale. Formålet må være spesifikt og dokumentert, og datatypen må passe grunnlaget. For særlige kategorier kreves unntak i art. 9. Husk å vurdere interesseavveiing, informere tydelig, og oppdatere protokoller og DPIA ved endringer.
Når må vi gjennomføre en DPIA?
Gjennomfør DPIA når behandlingen kan medføre høy risiko, for eksempel ved profilering, omfattende overvåking, bruk av særlige kategorier, eller store datasett til modelltrening. Datatilsynets liste og veiledning er førende. DPIA bør dekke formål, datakilder, risiko, tiltak (anonymisering, pseudonymisering, tilgangsstyring) og rest-risiko, samt beslutningspunkter før produksjon.
Hva er dataminimering i AI-prosjekter?
Dataminimering betyr å samle og bruke kun det som er nødvendig for et spesifikt formål. Fjern unødvendige felt, bruk syntetiske eller anonymiserte data der mulig, og begrens lagringstid. Unngå gjenbruk til nye formål uten nytt rettslig grunnlag. Dokumenter vurderinger i protokoller og DPIA for å vise etterlevelse av GDPR art. 5.
Hvordan implementerer vi innebygd personvern (privacy by design)?
Start i designfasen: definér formål, velg passende rettslig grunnlag, planlegg dataminimering, og bygg inn tekniske og organisatoriske tiltak. Bruk rollebasert tilgang, flerfaktorautentisering, kryptering, logging, og klare slettefrister. Etabler beslutningsporter før trening, testing og produksjon. Dokumenter valg, risiko og kontroller i styringssystem for informasjonssikkerhet.
Hvordan håndterer vi transparens og informasjonsplikt?
Gi klare beskrivelser av formål, datakilder, rettslig grunnlag, lagringstid, deling og rettigheter. Forklar logikk, betydning og konsekvenser ved automatiserte avgjørelser. Tilby lett tilgjengelige kanaler for innsyn, retting, sletting og klage. Oppdater personvernerklæringen og gi målrettet informasjon i brukergrensesnitt der AI brukes.
Er automatiserte avgjørelser tillatt?
Ja, men med vilkår. Ved avgjørelser med rettsvirkning eller betydelig påvirkning må du ha rettslig grunnlag, sikre menneskelig kontroll, og gi forklarbarhet. Unngå å bruke særlige kategorier uten gyldig unntak. Gi mulighet for manuell overprøving. Vurder alltid DPIA og dokumentér kontrolltiltak før produksjon.
Hvordan sikre data ved modelltrening?
Bruk anonymisering eller pseudonymisering der mulig, begrens tilgang via RBAC og MFA, krypter data i ro og i transitt, og logg all tilgang. Skil mellom trenings-, test- og produksjonsdata. Etabler sletteplaner og datakvalitetskontroller. Dokumenter datastrømmer, formål og overføringsgrunnlag, og inngå databehandleravtaler ved leverandørbruk.
Hva må databehandleravtalen (DPA) dekke?
DPA etter GDPR art. 28 skal regulere formål, behandlingsmidler, sikkerhetstiltak, underleverandører, bistand ved rettigheter, revisjoner, lagring, sletting og overføring. Avklar eierskap til data og modeller, logging, modellversjonering, og prosesser ved hendelser. Still krav om åpenhet om algoritmer, evaluering og ytelse, og rett til revisjon.
Er overføring til skytjenester utenfor EØS lovlig?
Ja, hvis kravene oppfylles. Bruk gyldig overføringsgrunnlag (SCCs m.m.), gjør overføringsvurdering (TIA), og iverksett supplerende tiltak som kryptering og nøkkelhåndtering. Vurder risiko i DPIA. Kontroller leverandørens sikkerhetsnivå og underleverandører. Dokumenter beslutninger og oppdater personvernerklæring ved endringer.
Hvilke sanksjoner kan vi få ved brudd?
GDPR-bøter kan være høye (opptil 20 millioner euro eller 4 % av global omsetning), i tillegg til pålegg, stans av behandling og omdømmetap. Datatilsynet kan føre tilsyn, kreve retting og dokumentasjon. God internkontroll, logging, revisjoner og opplæring reduserer risikoen for brudd og sanksjoner.
Hvordan påvirker EU AI Act norske virksomheter?
Via EØS vil EU AI Act innføres i Norge, forventet fra 2026. Den krever risikostyring, åpenhet, data- og modellstyring, dokumentasjon og overvåking gjennom hele AI-livssyklusen. Den supplerer, ikke erstatter, GDPR. Bedrifter må kartlegge risikonivå for AI-systemer og etterleve krav til sikker utvikling og bruk.
Hvilke praktiske steg bør vi starte med?
- Kartlegg personopplysninger og datastrømmer
- Definér formål og rettslig grunnlag
- Gjennomfør risikovurdering og DPIA ved behov
- Etabler tilgangsstyring, kryptering og logging
- Inngå solide databehandleravtaler
- Lag rutiner for innsyn, sletting og hendelser
- Innfør beslutningsporter og modellstyring
- Dokumentér alt i styringssystemet
Hvordan ivaretar vi brukerrettigheter effektivt?
Tilby selvbetjente løsninger for innsyn, eksport, retting og sletting. Bekreft identitet sikkert, svar innen frister, og logg forespørsler. Forklar automatiserte avgjørelser og gi manuell overprøving. Oppdater datagrunnlag i treningsdata ved retting eller sletting der det er mulig, og dokumenter avveininger når sletting ikke er teknisk mulig.



