08.11.23 DI Digital Nyheder

Internationalt momentum på AI-dagsordenen

Vi har de seneste par uger set et hidtil uset internationalt ryk på AI-dagsordenen. Særligt sidste uge var travl, hvor flere internationale AI-tiltag skabte overskrifter.

Præsident Biden underskrev et dekret om kunstig intelligens og G7-landende lancerede et AI-adfærdskodeks i samme dage som den britiske premierminister afholdte et AI Safety Summit med en deltagerliste, der talte både Elon Musk og Sam Altman fra OpenAI side om side med regeringsrepræsentanter fra både Kina, EU og USA. Der har i langt tid været efterspørgsel på retningslinjer og politisk handling. Spørgsmålet er, om ambitionerne er høje nok, og også omfavner de mange muligheder kunstig intelligens medbringer.

Vil AI-forordningen nå i mål inden årets udgang?

Netop balancen mellem muligheder og risiko er noget EU bestræber sig på i den kommende AI-forordning. EU Kommissionen, Ministerrådet og Europa parlamentet er i disse uger ved at forhandle de sidste og afgørende paragraffer.

Det forventes fortsat, at forhandlingerne vil blive færdiggjort i december i år. Men meget tyder på at interne uenigheder kan gøre det svært. Uenighederne drejer sig om, hvilke anvendelser af AI der skal forbydes, hvilke begrænsninger der skal pålægges politiet, og hvorvidt de store sprogmodeller skal reguleres. Sidstnævnte relaterer sig til striden om regulering af de såkaldte foundation models (FM) og General Purpose AI Systems (GPAI). Denne diskussion er kun blevet yderligere udfordret da de forskellige Rådet og Parlamentet endnu ikke er blevet enige om selve definitionen af hhv. FMs og GPAI.

Hvis vi skal lykkes med regulering er det nødvendigt at blive enige om både definitioner, samt hvor vidtrækkende regulering så skal være. I DI mener vi ikke at GPAI i sig selv er højrisiko, og bør derfor reguleres i henhold til deres anvendelse og endelig brug. Det er afgørende, at AI-forordningen er teknologineutral og giver juridisk klarhed.

Et uventet sammenspil mellem AI-forordningen og Produktansvarsdirektivet

Sideløbende med AI-forordningens afgørende timer, er direktivet om produktansvar (PLD) også på vej ind i de sidste trilogforhandlinger. PLD forventes færdigbehandlet i december, og kan have stor betydning for AI-dagsordenen da softwaresystemer, heraf mange AI-systemer, sandsynligvis vil være inden for rækkevidden af produktansvarsdirektivet. Det vil betyde at AI-leverandører i Europa vil stå over for en uforholdsmæssig streng ansvarlighedsordning, tilgodeser retsforfølgelse imod brugerrettede virksomheder.

Et andet vigtigt element er direktivets artikel om sagsøgerens forpligtelse til at bevise, hvilken skade og defekt produktet har forvoldt/indeholder, og hvad sammenhængen er mellem de to. Her er direktivets foreslåede definitioner vage, og tilmed uhensigtsmæssig svære for virksomheder at efterleve. Såfremt PLD ikke formår at konkretisere definitionerne på disse, kan AI-leverandører ultimativt risikere retssager med ikke legitime krav.

DI står klar til at hjælpe

Er du i tvivl om AI-forordningen, og hvilken betydning den vil have for din virksomhed? Kontakt venligst Mette Finnemann på mefi@di.dk eller Maria Smith på mhbs@di.dk.

Mette Finnemann

Mette Finnemann

Teamleder (interim)

Relateret indhold