Kan lovgivningen følge med AI?
Gennem det seneste år har de fleste af os stiftet bekendtskab med AI. Og for mange af os bliver tjenester som ChatGPT, Bing Chat og Microsoft Copilot snart et naturligt redskab i hverdagen, der vil hjælpe os med at opnå større effektivitet, forbedret kvalitet, personalisering af tjenester, bedre brugeroplevelser, øget kundeloyalitet og færre menneskelige fejl.
Men kunstig intelligens rejser også mange nye juridiske spørgsmål og udfordringer. Det gælder derfor om at være vågen, når din virksomhed anvender den nye teknologi.
Modellerne mangler gennemsigtighed
Nogle modeller for kunstig intelligens kan være svære at gennemskue på grund af deres kompleksitet og uforudsigelighed i processen. Al bygger på algoritmer, men det kan være svært at gennemskue, hvilken proces der fører til resultatet. Manglen på gennemsigtighed og forståelse af, hvordan beslutninger træffes, er en stor udfordring, da det kan være svært at forklare og udfordre afgørelser, som er truffet af AI-systemer.
Ingen garanti for retfærdighed
AI-systemer kan i dag udføre visse juridiske og retlige opgaver. Men underlægges beslutninger baseret på kunstig intelligens ikke de samme garantier som menneskelige beslutninger, kan det underminere principper som retfærdig rettergang og ligebehandling for loven. Det meste output fra eksisterende systemer med kunstig intelligens leveres uden garantier af nogen art.
Beskyttelse af persondata og fortrolige oplysninger
Brugen af kunstig intelligens indebærer ofte behandling af store mængder personoplysninger og fortrolige oplysninger. Behandles disse data ikke forsvarligt og beskyttes tilstrækkeligt, kan brugen af kunstig intelligens føre til brud på GDPR og aftaler eller lovreguleret fortrolighed. Manglende regulering og standarder Den hurtige udvikling af AI-baseret teknologi betyder, at området mangler regulering og standarder. EU har først nu offentliggjort udkast til de afgørende retsakter for området, og der er fortsat stor usikkerhed om den endelige udformning af reguleringen. I EU debatterer de fx stadig noget så grundlæggende som en definition af begrebet kunstig intelligens.
Beskyttelse af ophavsretten
Materiale produceret af AI har generelt ikke ophavsretlig beskyttelse, medmindre der er en menneskelig medskaber, der har udøvet en personlig og kreativ indsats. Det skyldes, at ophavsretten kræver et originalt værk, der udtrykker et menneskes personlighed. Kunstig intelligens er ikke et menneske, og derfor kan den ikke have ophavsret over sit output.
Der er dog nogle undtagelser og nuancer i lovgivningen, som kan påvirke ophavsretten til materiale produceret ved brug af AI. For eksempel er der i EU vedtaget et nyt ophavsretsdirektiv, DSM-direktivet, som giver visse rettig heder til visuelle kunstnere, hvis deres værker bliver brugt til at træne kunstig intelligens. Direktivet giver også forskere bredere adgang til at dataminere ophavsretligt beskyttede værker til forskningsformål.
Et andet ophavsretsligt aspekt er, at der i træningen af AI- systemer kan være brugt ophavsretligt beskyttet indhold, som ikke må kopieres eller tilgængeliggøres uden sam tykke fra ophavsmanden. Der er derfor en risiko for, at der ved benyttelse af AI sker en krænkelse af ophavs retten.
AI's uigennemskuelige beregningsmodel
AI-systemernes manglende transparens betyder, at vi har væsentligt begrænset mulighed for at forstå, hvordan de kommer frem til et resultat. Det gør det svært at sikre, at borgeres rettigheder og retsgarantier bliver overholdt. Det er derfor vigtigt, at vi altid forholder os kritisk til resultatet, så vi kan udfordre det og eventuelt bremse en forkert beslutning.
AI har forudindtagethed
Output af den kunstige intelligens afhænger i vid udstrækning af, hvilke data den er trænet på. Forudindtagethed eller bias kan ofte spores tilbage til algoritmens input og skyldes misvisende repræsentation eller en utilstrækkelig kvalitet i træningsdata. Er udbyderne ikke påpasselige med at bruge de rette data til at træne den kunstige intelligens, kan den ende med at diskriminere i sine svar.
Hvordan kommer vi sikkert i gang med AI-baserede systemer?
Der er god grund til at tænke sig godt om, før din virksomhed integrerer kunstig intelligens i jeres processer. Vi anbefaler blandt andet, at I udvikler en politik for brugen af kunstig intelligens i virksomheden. Her kan I fx beskrive, hvilke AI-systemer I vil anvende til hvilke formål og opstille regler for brugen af dem. Det kan fx være krav om, at output altid skal kontrolleres af et menneskeligt øje, og hvordan I undgår brud på ophavsrettigheder.
Hvis din virksomhed bruger personoplysninger i forbindelse med den kunstige intelligens, skal I være særlig forsigtige, medmindre systemerne er lukkede, så personoplysningerne ikke bliver en del af læringsdata i den kunstige intelligens.
EU’s reguleringer og digitale strategi 2030 for AI
Hvad skal EU's regulering af kunstig intelligens sikre?
- Et sikkert og troværdigt onlinemiljø.
- Digital uddannelse og opbygning af knowhow.
- Miljøvenlige digitale systemer og enheder.
- Menneskecentrerede tjenester.
- Etiske principper for kunstig intelligens.
- Beskyttelse af børn online.
- Adgang til digitale sundhedsydelser.
- Nye muligheder for virksomheder og forbrugere.
- EU's grønne omstilling og klimaneutralitet inden 2050.
- Digitalisering af offentlige tjenester.
- Grundlæggende rettigheder som fx privatliv og ytringsfrihed.
Hvilke reguleringer er der på vej for AI?
- EU's forordning om AI (se afsnittet nedenfor).
- Forordningen om digitale tjenester, Digital Services Act.
- Forordningen om europæiske mikrochips.
- Forordningen om cybersecurity.
- Oprettelse af en fælles europæisk digital identitet.
- Bedre beskyttelse af online gamere.
- Lovgivning om kryptovaluta.
- Minimum skattebetaling for multinationale virksomheder for at undgå skatteunddragelse.
Hvad er de vigtigste punkter i EU's AI-forordning?
Kernen i AI-forordningen er at tage hånd om kunstig intelligens gennem en risikobaseret tilgang. Jo større skade teknologien kan forvolde på samfundet ved dens anvendelse, desto strengere regler vil systemet/applikationen blive underlagt. Virksomheder, der ikke efterlever reglerne, kan tildeles bøder. AI-forordningen opstiller således forskellige krav til tre kategorier af AI-systemer: Forbudte systemer, højrisiko systemer og almindelige systemer med kunstig intelligens. Kravene retter sig både mod selve systemet og virksomhedens rolle i forhold til det – fx som udvikler, importør, distributør eller bruger. Efterleves kravene ikke, vil det blandt andet kunne medføre betydelige bøder.
AI-forordningen blev vedtaget den 8. december 2023 og forventes at træde i kraft i det første halvår af 2026.
- Forbudte AI-systemer er fx systemer til adfærdsmanipulation af specifikke, sårbare grupper, klassificering af personers troværdighed baseret på adfærd, socioøkonomisk status eller personlige egenskaber og biometriske identifikationssystemer i realtid på offentlige steder med henblik på retshåndhævelse.
- Højrisiko AI-systemer kan fx anvende kunstig intelligens til biometrisk identifikation og kategorisering af fysiske personer, forvaltning og drift af kritisk infrastruktur som vejtrafik og forsyning, rekruttering og retshåndhævelse.
Særlige krav til højrisiko AI-systemer:
- Oprettelse af risikostyringssystem.
- Fjernelse eller eliminering af risiko.
- Test ved brug af prøvede datasæt til træning, validering og prøvning.
- Teknisk dokumentation.
- Logning under brug.
- Gennemsigtighed for brugere.
- Menneskeligt tilsyn.
- Mulighed for, at brugerne kan tolke output og bruge det korrekt.
- Brugsanvisninger til systemerne.
- Passende niveau af nøjagtighed, robusthed og cybersikkerhed.
- Kvalitetsstyringssystem og særlig dokumentation.
- Underretningspligt til offentlige myndigheder.
- Læring af partiske output undgås behørigt.
- Modstandsdygtighed over for 3. parters forsøg på at ændre systemets anvendelse eller ydeevne.
- Løbende korrektion af systemerne.
- Krav til brugerne af systemet.
Krav til alle AI-systemer:
- I skal oplyse fysiske personer om, at de interagerer med et AI-system.
- Bruger I systemerne til biometrisk kategorisering, skal I oplyse det til fysiske personer, der er eksponeret for systemet.
- Hvis I genererer eller manipulerer billeder, lyd eller video indhold, der i væsentlig grad ligner faktiske personer, steder, andre enheder eller begivenheder, og som fejlagtigt vil fremstå ægte, skal I oplyse om, at indholdet er genereret kunstigt eller manipuleret (deepfake).