Vi rådgiver dig

Hvad er bias i AI?

Bias i AI kan være svær at få øje på – men kan have stor betydning. Det kan føre til uretfærdige beslutninger, diskrimination og forstærke stereotyper. Læs med og bliv klogere på hvorfor bias opstår, hvordan det måles og hvordan du bør forholde dig.

Når kunstig intelligens (AI) har en bias, betyder det, at det svar den genererer er farvet eller ubalanceret. Man kan sige, at resultatet kan være forudindtaget eller måske direkte fordomsfuldt. Resultatet kan f.eks. være skævt baseret på køn, alder eller etnicitet.

AI modeller "arver" typisk disse skævheder fra de data, de trænes på, hvilket ofte spejler eksisterende stereotyper i samfundet.

Hvis du bruger en af de mange generative AI modeller, og beder den om at generere et billede af en sygeplejerske, så vil den formentlig generere en kvinde. På samme måde vil en tømrer nok være en mand. Dette afspejler ikke blot stereotypiske mønstre, men kan være med til at forstærke dem.

Hvorfor opstår bias i AI?

Bias kan opstå flere steder i udviklingen og brugen af AI – fra selve dataindsamlingen til den måde, algoritmen er bygget op på. Her er nogle af de mest almindelige typer:

Data collection bias
Data bias opstår, når de data, en AI bliver trænet på, ikke er repræsentative for virkeligheden. Det kan f.eks. være, at en sprogmodel er trænet på tekst fra internettet, hvor visse grupper er overrepræsenterede, og andre næsten ikke findes. Det kan føre til, at AI modellen lærer et skævt verdensbillede.

Labeling bias
Mange AI-systemer bruger menneskeligt mærkede data – for eksempel billeder, hvor nogen har skrevet “læge” eller “tømrer”. Men de mennesker, der laver disse mærkninger, har selv opfattelser og fordomme, som smitter af på dataene. Hvis tusindvis af billeder med kvinder bliver mærket som “sygeplejersker” og mænd som “læger”, lærer modellen hurtigt den sammenhæng – og gætter derefter skævt.

Billedet her er generereret af ChatGPT ved at prompte den til at generere et billede af en læge og en sygeplejerske, men uden at specificere kønnet på personerne.

Selection bias
Selektionsbias sker, når bestemte grupper bliver udeladt fra data – enten bevidst eller ubevidst. Det kan være, at en AI til sygdomsdiagnose kun er trænet på patienter fra ét bestemt land eller helbredssystem. Når modellen så bruges på en bredere befolkning, virker den dårligere for dem, den ikke har “mødt” før – f.eks. personer med andre etniske baggrunde, alder eller køn.

Algorithmic bias
Selvom dataene er gode, kan selve måden AI modellen er bygget op på også skabe bias. Algoritmens design og de valg, udviklerne træffer undervejs (fx vægtning af bestemte mønstre), kan gøre, at den forstærker skævheder. Det sker især, når der optimeres for præcision i stedet for retfærdighed – og modellen derfor favoriserer de mest “almindelige” mønstre i dataene.

Alignment bias
Bias kan også opstå i de senere faser af AI modellens udvikling – f.eks. under fine-tuning eller gennem såkaldt alignment, hvor modellen justeres til at opføre sig mere ønskværdigt eller “politisk korrekt”.

Det sker blandt andet, når udviklere forsøger at gøre modeller mere inkluderende og sikre, at de ikke reproducerer skadelige stereotyper. Men hvis disse justeringer bliver for firkantede eller mekaniske, kan det føre til nye, utilsigtede skævheder.

Dette har vi set konkrete eksempler på – blandt andet med Googles Gemini-model, som i et forsøg på at sikre større mangfoldighed i sine billedgenereringer kom til at overkompensere. Det resulterede blandt andet i, at modellen genererede nazister i forskellige etniciteter. Her er problemet ikke, at modellen diskriminerer, men at den overkompenserer i et forsøg på at undgå diskrimination. Resultatet kan virke absurd, virkelighedsfjernt – eller i værste fald stødende.

Hvordan identificerer man bias?

At opdage og måle bias i AI handler grundlæggende om at stille spørgsmålet: ”Behandler denne model alle grupper lige godt, eller ser vi systematiske forskelle i, hvordan den performer for forskellige mennesker?”

Der findes en række fairness-metrikker, som kan bruges til at finde svar på det spørgsmål. Nogle af de mest brugte er:

  • Demographic Parity (demografisk lighed): Her ser man på, om modellen giver lige mange positive resultater til forskellige grupper. For eksempel: Bliver mænd og kvinder i lige høj grad vurderet egnede til et job af en AI-baseret ansøgningsscanner?

  • Equal Opportunity (lige muligheder): Denne metrik fokuserer på rigtigheden af modellens beslutninger, men opdelt på grupper. Har kvalificerede mænd og kvalificerede kvinder f.eks. samme sandsynlighed for at blive korrekt udvalgt?

  • Equalized Odds (udlignede odds): En kombination af ovenstående – modellen bør både have samme fejlrate og samme korrekthed på tværs af grupper. Det betyder f.eks. at man ikke må have højere falsk-positive eller falsk-negative resultater for én gruppe end en anden.

Disse metrikker er ikke “one-size-fits-all”, og de kan i praksis pege i forskellige retninger. Derfor handler det om at vælge de rigtige målepunkter i forhold til konteksten.

Hvilke risici er der ved bias?

I mange tilfælde kan bias i AI være en uskyldig detalje, der ikke kræver yderligere opmærksomhed. Men i andre tilfælde kan det være et grundlæggende spørgsmål om retfærdighed, ansvarlighed og tillid som kan få både juridiske og økonomiske konsekvenser.

Når en AI-model kommer med svar, anbefalinger eller beslutningsstøtte, påvirker det virkelige mennesker, hvor bias kan føre til diskrimination, som kan føre til klager, retssager og bøder - særligt i takt med at lovgivningen omkring AI strammes i både EU og globalt.

Et par eksempler på diskrimination der kunne forekomme som resultat af AI bias er:

  • Visse jobansøgere konsekvent bliver fravalgt
  • Performancevurderinger og deraf karriere- og lønudvikling bliver skævvredet
  • Bestemte befolkningsgrupper får dårligere adgang til lån
  • Sundhedsteknologi virker dårligere for minoriteter.

Hvad bør du gøre som virksomhed?

Hvis du vil minimere den risiko, der er forbundet med bias, handler det om at etablere ansvarlige rammer og at udvikle organisatoriske kompetencer. Her er tre centrale skridt, enhver virksomhed bør tage:

Sørg for løbende uddannelse af medarbejdere i bias og AI etik.
Medarbejdere, der bruger eller arbejder tæt på AI systemer, skal kunne forstå, identificere og handle på potentielle bias. Denne form for kompetenceudvikling – ofte kaldet AI literacy – er ikke længere blot “nice to have”, men blev i februar 2025 en del af de formelle lovkrav i EU’s AI Act. Det handler om at undervise og klæde folk på til at bruge AI ansvarligt og bevidst – både teknisk og etisk.

Sæt klare retningslinjer for data governance, etik og compliance.
Skab gennemsigtighed og kontrol over, hvor jeres data kommer fra, hvordan de bruges og hvem der har ansvaret. Det kræver klare retningslinjer for data governance, etik og anvendelse. Organisationen skal tage tydelig stilling til, hvordan AI bør – og ikke bør – bruges. Eksempelvis er rekruttering klassificeret som et højrisikoområde, og har derfor øgede krav til brug af AI, for at sikre fair behandling.

Vær ærlige og transparente om jeres AI-brug
Lad være med at skjule AI teknologien bag en menneskelig facade. Hvis I f.eks. bruger en chatbot på jeres hjemmeside, så vær tydelige om, at det er en automatisk løsning – ikke en medarbejder. Når brugere ved, hvad teknologien kan (og ikke kan), øger det både tilliden og forståelsen, samtidig med at risikoen for fejlfortolkning mindskes.

Når AI bliver en del af forretningskritiske beslutninger, følger der et ansvar med – ikke kun for udviklere og dataspecialister, men for hele organisationen. Ledelsen, bestyrelsen og medarbejdere i alle funktioner må være bevidste om, at ansvarlig AI ikke opstår af sig selv – den skal bygges ind i både kultur, kompetencer og strukturer.

Vil du lære mere om AI?

AI udvikler sig hurtigt, og det kan være svært at følge med, men du står ikke alene. Hos Dansk Industri har vi samlet en lang række ressourcer, der gør det lettere at forstå, anvende og implementere AI – uanset om du er i gang, på vej eller bare nysgerrig.

Hvis du har fået blod på tanden efter at læse om bias og ansvarlig AI, og gerne vil lære mere om hvordan teknologien bag virker, så kan du læse om hvordan generativ AI virker på vores AI for Alle univers.

Her finder du desuden:

AI er ikke kun for specialister og teknikere. Det er for alle, der vil være med til at forme fremtiden – og bruge teknologien klogt og ansvarligt.

Hvad er bias?

Bias refererer til menneskers forudindtagede holdninger og stereotype forestillinger om andre. Disse holdninger er ofte relateret til grupper som køn, alder, etnicitet, seksuel orientering osv.

Hvad er AI Act?

AI Act (Artificial Intelligence Act) er en EU-forordning, der har til formål at regulere brugen af kunstig intelligens i EU for at sikre, at AI anvendes på en sikker, etisk og respektfuld måde.

Hvad er generativ AI?

Generativ AI kan skabe indhold – fx tekst, billeder og musik – ud fra en simpel tekstinstruktion. Eksempler: ChatGPT (2022): Genererer tekst og samtaler. DALL·E, Midjourney: Skaber billeder ud fra tekst. Det gør avanceret AI tilgængelig for alle.