02.11.20 Tech Der Tæller Blog

Explainable AI - Bryd ud af den sorte kasse

Det kan være svært at gennemskue, hvordan kunstig intelligens (AI) finder frem til de resultater, vi præsenteres for. Explainable AI er et voksende forskningsområde, og der er nu kommet værktøjer, som giver os forklaringer på algoritmernes mellemregninger, blogger Rasmus Hauch, CTO i 2021.ai.

Hvorfor? Det er det spørgsmål, som mange stiller sig selv, når de får serveret et søgeresultat på Google, ser en reklame på Facebook, eller når en algoritme beregner, hvor meget dit hus kan sælges for.

AI og Machine Learning (ML) løser flere forretningsproblemer hos virksomhederne end nogensinde før, både når det gælder nye produkter og services til kunderne og for at nedbringe omkostninger eller effektivisere.

Langt de fleste af de AI/ML-modeller, der bruges i virksomhederne i dag, er baseret på, at data fødes ind i en læringsalgoritme, og når læringsalgoritmen er præcis nok, kan den baseret på lignende input give et output.

Et eksempel kunne være:

Eksempel 1

Din lejlighed kan sælges for 1.367.214 kr.

Forståelse er nøglen til at afmystificere AI

Det underliggende problem er, at vi ikke altid stoler på de beslutninger, som en model kan give os. Dette skyldes vores hang til at forstå den kontekst, som algoritmerne opererer under, de fejl som algoritmen begår og bevæggrundene for, hvorfor en algoritme giver et givent resultat.

Det er muligt, at de data scientists, som har udviklet algoritmen, måske i højere grad forstår systemet, men for en slutbruger, der modtager svaret, vil det være "ren magi". Som Arthur C. Clarke sagde i 1973 i sin berømte tredje lov: "Any sufficiently advanced technology is indistinguishable from magic".

Det handler altså om at skabe forståelse. For når vi forstår algoritmens resultater, skabes der en større grad af fortrolighed og tillid til systemet og måske også en trang til at "lære" systemet en ting eller to.

Med explainable AI får vi en logisk grund

Der er i de seneste 20 år blevet forsket en del inden for explainable AI (XAI), og specielt de sidste 5 år er der kommet værktøjer, som er i stand til at give en form for forklaring.

Med sådanne værktøjer og det rette datasæt er det muligt at give forklaringen:

Eksempel 2

"Din lejlighed kan sælges for 1.367.214 kr, fordi din lejlighed ligger på en fordelagtig adresse, har 3 værelser og er blevet renoveret for nylig"

Bagved denne tekst ligger, at en række parametre er blevet valgt ud som “de mest betydningsfulde” parametre for den pris, der gives. Inden for billedgenkendelse og fritekst-data er der lavet lignende værktøjer.

Mange gange bliver disse forklaringsværktøjer brugt, når der udvikles og driftes AI/Machine Learning-modeller, men resultaterne bliver desværre sjældent leveret til slutbrugere.

I takt med, at kunstig intelligens hjælper os mennesker med at tage større og vigtigere beslutninger, må vi arbejde med at skabe større tillid, blogger Rasmus Haunch, CTO i 2021.ai.

Vi må vide, hvordan algoritmen er skabt

Et andet overordnet problem er, at en fuld og egentlig forklaring på et givent resultat, udover den ovennævnte "lokale forklaring" også kræver, at man ved, hvordan en given algoritme er blevet skabt, dvs. hvilke data i hvilken version, den er bygget på, samt hvilke bevidste eller ubevidste beslutninger, der blev taget, mens algoritmen blev udviklet, trænet og driftet. Disse forklaringer kaldes "globale forklaringer" eller transparens.

Det er derfor også særdeles vigtigt for virksomheder at have den rette teknologi og platforme til både at skabe processer omkring transparens, lokale og globale forklaringer og at sikre sporbarheden af alt dette, da det er den eneste måde, hvorpå man sikre tillid.

Med sådanne teknologier og platforme er det muligt meget nemt at give forklaringen:

Eksempel 3

"Din lejlighed kan sælges for 1.367.214 kr, fordi din lejlighed ligger på en fordelagtig adresse, har 3 værelser og er blevet renoveret for nylig"

Data som blev brugt til modellen:

  • Tinglysning udtræk 10 Okt kl 10:24 (rapport)

Algoritmen bliver løbende:

  • Monitoreret for bias (rapport)
  • Testet for præcision (rapport)

Der blev foretaget følgende valg:

  • Algoritmen dækker udelukkende over lejligheder i københavns området. (rapport)
  • Algoritmen benyttet er Decision Tree (rapport)

Algoritmen er blevet godkendt af relevante myndigheder til brug d. 2 Okt kl 9:28 (rapport)"

Arbejde med kunstig intelligens kræver tillid

I takt med, at kunstig intelligens hjælper os mennesker med at tage større og vigtigere beslutninger, må vi arbejde med at skabe større tillid. Explainable AI og transparens er fundamentet for at skabe denne tillid, men det kræver, at virksomhederne går i gang med at skabe et mere tillidsbaseret samfund nu.

Hos 2021.AI hjælper vi aktivt organisationer med at accelerere og skalere alle faser i udviklingen, driften og governance indenfor AI. Dette sker via 2021.AI's Enterprise AI Platform ”Grace”.

Relateret