Vi rådgiver dig

AI historie

AI har ikke altid været ChatGPT og selvkørende biler. Historien om kunstig intelligens strækker sig over næsten et århundrede. Tag med på en rejse gennem de vigtigste milepæle, pionerer og gennembrud, der har formet AI til det, vi kender i dag.


Når vi taler om kunstig intelligens (AI) i dag, tænker mange på de nyeste fremskridt – chatbots, selvkørende biler og intelligente assistenter. Men AI historie er langt mere omfattende end de seneste teknologiske gennembrud. Den strækker sig over et århundrede og bygger på idéer og opdagelser fra nogle af de mest visionære tænkere i moderne tid.

Ved at se tilbage på AI’s udvikling – fra de skelsættende gennembrud i 1950’erne og frem til i dag – får vi en dybere forståelse for, hvordan teknologien er blevet, hvad den er i dag, og hvilken retning den bevæger sig i.

Hvornår blev AI opfundet?

Kunstig intelligens (AI) blev officielt opfundet i 1956 under en berømt workshop ved Dartmouth College i Hanover, New Hampshire, USA. Denne begivenhed, der senere blev kendt som Dartmouth-konferencen, samlede en gruppe visionære forskere, som sammen skulle undersøge, om det var muligt at udarbejde maskiner, der tænkte. Projektet blev døbt ”Artificial intelligence” og definerede de første principper for det, vi i dag kalder kunstig intelligens.

Blandt deltagerne ved AI-workshoppen i Dartmouth i 1956 ses i bageste række fra venstre: Oliver Selfridge, Nathaniel Rochester, Marvin Minsky og John McCarthy. Forrest sidder Ray Solomonoff til venstre og Claude Shannon til højre - The Minsky Family

Hvem har opfundet AI?

AI blev ikke opfundet af én enkelt person, men af en gruppe forskere, som hver især bidrog med grundlæggende idéer og tekniske gennembrud. Flere af disse deltog netop på Dartmouth-konferencen i 1956, og regnes som nogle af feltets oprindelige pionerer.

  • John McCarthy regnes ofte som “AI’s fader”. Det var ham, der første gang brugte betegnelsen artificial intelligence, og han stod bag udviklingen af programmeringssproget LISP, som blev et centralt værktøj i tidlig AI-forskning.

  • Marvin Minsky arbejdede tæt sammen med McCarthy og var med til at forme de første teorier om, hvordan maskiner kunne efterligne menneskelig tænkning.

  • Claude Shannon, kendt som informations­teknologiens grundlægger, var blandt de første til at overveje, hvordan logik og sandsynlighed kunne bruges til at skabe intelligente systemer.

  • Allen Newell og Herbert Simon udviklede “Logic Theorist” – det første program, der kunne efterligne menneskelig problemløsning. Det blev af mange betragtet som den første demonstration af ægte kunstig intelligens.

Selv før Dartmouth havde Alan Turing lagt det teoretiske fundament for feltets filosofiske og praktiske dimensioner. Han foreslog allerede i 1950, at maskiner kunne tænke, og formulerede den berømte Turing-test.

AI’s historiske udvikling

1940 – 1960: De tidligere år

AI’s historie strækker sig dog længere tilbage end Dartmouth workshoppen. Allerede i 1940'erne begyndte forskere som den verdenskendte Alan Turing at arbejde med ideer, der danner grundlaget for AI. Dette kom i direkte forlængelse af de første computere, som kom ud i løbet af 40’erne. I 1950 introducerede Turing den berømte Turing-test (også kendt som ”imitation game”) i artiklen "Computing Machinery and Intelligence". Formålet med testen var, at skabe en måde hvorpå man kan vurdere, om en maskine udviser intelligent adfærd svarende til et menneske. Testen har været populær helt op til den moderne tid, og bliver stadig omtalt i forbindelse med moderne AI assistenter.

En vigtig – men ofte overset – figur i denne historie er Joan Clarke. Hun arbejdede tæt sammen med Turing under Anden Verdenskrig og spillede en nøglerolle i deres arbejde med dekrypteringen af Enigma-koderne. Hendes matematiske evner og indsigt i logik var afgørende for det arbejde, der senere inspirerede flere af AI-feltets grundidéer.

Perceptroner

I 1957 introducerede Frank Rosenblatt "perceptronen", som var en af de allerførste modeller for det, vi i dag kender som kunstige neurale netværk. Ideen bag perceptronen var at skabe en computerbaseret model, der kunne efterligne nogle af de måder, hjernen arbejder på – særligt hvordan vi mennesker lærer at genkende mønstre og træffe beslutninger.

Perceptronen fungerer ved at tage imod nogle input – for eksempel tal, billeder eller signaler – og give et resultat (et output). Mellem input og output er der nogle forbindelser, som hver har en "vægt", som bestemmer, hvor meget den skal påvirke resultatet. Det smarte er, at disse vægte justeres automatisk, hver gang perceptronen lærer noget nyt. Hvis den f.eks. laver en fejl, ændrer den sine vægte lidt for at blive bedre næste gang.

Forestil dig, at du prøver at blødkoge et æg. Første gang giver du det 6 minutter – men det viser sig at være hårdkogt. Næste gang prøver du med 2 minutter, men så er det stadig råt. Du justerer tiden lidt op og ned, indtil du finder den rette balance. Du lærer altså af dine fejl og justerer din strategi undervejs.

Det er præcis sådan en perceptron fungerer: Den justerer sine "vægtninger" lidt hver gang, den laver en fejl, så den gradvist bliver bedre til at ramme det rigtige resultat.

Selvom perceptronen i sig selv kun kunne lære ret simple ting, var den banebrydende. Den viste, at det faktisk var muligt for en maskine at "lære" af erfaring – ikke bare følge faste regler. Det blev starten på en hel ny gren inden for kunstig intelligens og lagde grundstenen for de avancerede neurale netværk og deep learning-teknikker, vi bruger i dag.

1960 – 1970: Fremgang og optimisme

Efter Dartmouth-konferencen tog AI-forskningen fart med vigtige fremskridt i 1960'erne. Forskere udviklede programmer, der kunne spille skak og løse matematiske problemer. Samtidig blev nye programmeringssprog som LISP introduceret, hvilket muliggjorde mere avanceret AI-udvikling. Robotter og AI blev også mere fremtrædende i populærkulturen, hvilket øgede offentlighedens interesse for feltet.

1970 – 1980: Første AI-vinter

I 1970'erne oplevede AI-forskningen en nedgang, kendt som den første "AI-vinter". Årsagen var en kombination af overdrevne forventninger og teknologiske begrænsninger. Kritiske rapporter, såsom Lighthill-rapporten i 1973, påpegede manglende fremskridt, hvilket førte til reduceret finansiering fra regeringer og institutioner. Mange AI-systemer blev anset for at være "legetøjsprogrammer", der ikke kunne håndtere komplekse og virkelige problemer.

Men selv om AI-forskningen var udfordret begyndte personlige computere at vinde frem. Maskiner som Commodore 64 (1982) og Apple Macintosh (1984) bragte computere ind i almindelige hjem og på skoler, hvilket gjorde digital teknologi mere tilgængelig for den brede befolkning. Denne demokratisering af computere skabte et gunstigt miljø for, at AI-forskningen kunne sprede sig ud over universiteter og ind i det bredere teknologiske landskab.

1980 – 1987: Genopblomstring

Efter skuffelserne i 1970’erne oplevede kunstig intelligens en genopblomstring i begyndelsen af 1980’erne, især drevet af den voksende interesse for ekspertsystemer – computerprogrammer, der kunne efterligne beslutningstagning fra menneskelige eksperter.

Systemer som MYCIN og DENDRAL, udviklet i slutningen af 1960’erne og begyndelsen af 1970’erne, blev forbilleder for denne tilgang og inspirerede en bredere anvendelse inden for områder som medicin, kemi og industriproduktion.

Kommercielt blev ekspertsystemer betragtet som gennembruddet, der endelig kunne gøre AI nyttig i praksis.

Samtidig blev der investeret massivt i AI-forskning. Mest markant var Japans Fifth Generation Computer Systems Project, lanceret i 1982, som satte ambitiøse mål for fremtidens intelligente systemer. Denne satsning førte til øget global konkurrence og investeringer i AI fra bl.a. USA og Europa.

Denne periode er kendetegnet ved en optimistisk tro på, at AI nu for alvor stod foran sit store gennembrud – en tro, der både blev drevet af teknologiske fremskridt og et stigende forretningsmæssigt og politisk fokus på intelligenssystemer.

1987 – 2000: Anden AI-vinter

Fra 1987 til begyndelsen af 1990'erne blev AI ramt af den anden "AI-vinter". De tidligere succesfulde ekspertssystemer mistede popularitet, da de viste sig at være svære at vedligeholde og ikke kunne skalere til komplekse problemer. Mange firmaer og regeringer trak deres investeringer i AI tilbage, hvilket førte til et fald i både forskning og interesse. Der var stor mangel på offentlig og kommerciel tro på AI teknologien.

Men selv om støtten til udviklingen var historisk lav fortsatte forskningen i kulisserne. En ny retning begyndte at vokse frem – de kunstige neurale netværk. Selvom idéen om neurale netværk stammer helt tilbage fra 1950’erne, var teknologien og datakraften dengang ikke moden nok. Det ændrede sig i slutningen af 1980'erne, da forskere som Geoffrey Hinton, Yann LeCun og David Rumelhart genoplivede feltet med bedre matematiske modeller og træningsmetoder.

Et af de store gennembrud var anvendelsen af "backpropagation" – en metode til at justere vægtene i et neuralt netværk gennem flere lag, så netværket gradvist bliver bedre til at forudsige det rigtige output. Dette gjorde det muligt at træne dybere netværk og banede vejen for moderne ”deep learning”.

Et konkret eksempel fra perioden er LeCuns arbejde med håndskriftgenkendelse, hvor han og hans team udviklede et neuralt netværk til at læse cifre på checks – en tidlig og succesfuld anvendelse af maskinlæring i kommerciel sammenhæng.

Samtidig begyndte maskinlæring som felt at adskille sig mere tydeligt fra klassisk AI. Forskere fokuserede i stigende grad på algoritmer, der kunne lære af data uden at være eksplicit programmeret til hver enkelt opgave.

Deep Blue

Et markant højdepunkt kom i 1997, da IBMs Deep Blue besejrede verdensmesteren i skak, Garri Kasparov. Det var et symbolsk gennembrud og viste, at maskiner kunne konkurrere med menneskelig intelligens på specialiserede opgaver.

Hos DI havde vi fornøjelsen af at se Kasparov i virkeligheden, og høre hans mening om det skelsættende øjeblik. Her var budskabet:

"Machines don't have to be perfect, just better."

Vi mennesker forventer ofte, at computere skal være 100 % præcise – især fordi vi kender dem fra deterministiske opgaver, som regneark og systemer, der ikke må fejle. Men kunstig intelligens opererer i langt mere komplekse problemrum, hvor der sjældent findes entydigt rigtige svar.

Et skaktræk kan eksempelvis forbedre én del af ens position, mens det samtidig svækker en anden – og derfor handler det ikke om at være perfekt, men om at være bedre end modstanderen. Når AI overgår mennesket, har teknologien taget et afgørende skridt fremad – også selvom den ikke er fejlfri.

2000 – 2012: Grundlaget for moderne AI bliver lagt

I starten af 2000’erne begyndte flere vigtige elementer at falde på plads, som senere skulle gøre AI langt mere effektiv og brugbar i praksis. Selvom AI endnu ikke fyldte meget i den brede offentlighed, blev teknologien stille og roligt styrket på tre afgørende områder:

  1. Større mængder data - tilgængeligt gennem internettet.
  2. Computerkraft – kraftige grafikkort (GPU’er) blev både billigere og mere udbredt.
  3. Forskning i maskinlæring blev mere systematiseret, med stærkere algoritmer og bedre forståelse for statistisk læring.

Samtidig blev open source-fællesskaber som scikit-learn, Weka og R populære blandt forskere og dataanalytikere, hvilket betød, at viden og værktøjer i stigende grad blev delt globalt.

Selvom AI endnu ikke revolutionerede hverdagen, blev grundlaget lagt for det gennembrud, der skulle komme få år senere.

2012–2025: Deep learning

I 2012 skete et markant skifte med en begivenhed, der ofte omtales som startskuddet til moderne AI’s gennembrud: Geoffrey Hinton og hans hold vandt billedgenkendelseskonkurrencen ImageNet med en deep learning model kaldet AlexNet. Modellen var markant bedre end alt andet og viste, at deep learning – komplekse neurale netværk med mange lag – kunne knække problemer, man tidligere troede var uden for AI’s rækkevidde.

Efter AlexNet i 2012 gik det stærkt. Deep learning blev den dominerende tilgang i AI-verdenen – især takket være såkaldte scaling laws, som viste, at AI-modeller generelt bliver bedre, jo mere data, beregning og parametre man tilfører. Det satte gang i kapløbet om større og stærkere modeller – og samtidig en enorm efterspørgsel på energi og computerkraft.

I de følgende år blev AI en del af hverdagen – ofte uden vi lagde mærke til det.

  • Talegenkendelse blev radikalt forbedret (f.eks. i Siri, Alexa og Google Assistant).
  • Maskinoversættelse tog store spring fremad med neurale netværk (f.eks. Google Translate).
  • Billedgenkendelse og ansigtsgenkendelse blev udbredt og præcis. Blandt andet bruges det til ansigtsgenkendelse, når du skal låse din mobiltelefon op.
  • Autonome køretøjer, som dem udviklet af Tesla og Waymo, begyndte at bruge AI i stor stil til selvkørende biler.
  • AI i sundhedsvæsenet fik modeller der kunne hjælpe med at opdage kræft, analysere røntgenbilleder og forudsige sygdomsforløb.

AlphaGO

Et afgørende øjeblik i AI-historien kom i 2016, da Googles DeepMind udviklede AlphaGo – en AI bygget til at spille det ekstremt komplekse brætspil Go. AlphaGo blev verdenskendt, da den besejrede den sydkoreanske stormester Lee Sedol i en historisk kamp. Særligt én sekvens fik hele Go-verdenen til at måbe: Træk 37 i den anden kamp.

Trækket blev i første omgang betragtet som en fejl – det var så utraditionelt, at selv kommentatorerne afskrev det. Men som spillet udviklede sig, blev det tydeligt, at trækket var genialt. AlphaGo havde set et mønster og spillet en strategi, som ingen menneskelig spiller hidtil havde overvejet. Det blev et symbol på, at AI ikke kun kunne kopiere menneskelig intelligens, men i visse situationer også overgå den og komme med idéer, vi aldrig selv ville være kommet på.

Træk 37 blev et kulturelt vendepunkt: Et klart bevis på, at AI ikke bare handler om regnekraft og data – men også om kreativitet, intuition og nytænkning på maskinens egne præmisser.

Transformer arkitektur

I 2017 blev transformer-arkitekturen introduceret, hvilket revolutionerede sprogbehandling. En transformer-arkitektur er en AI-model, der er designet til at forstå kontekst i tekst bedre end tidligere modeller.

Den fungerer ved at fokusere på vigtige dele af teksten gennem noget, der kaldes "opmærksomhedsmekanismer" (attention mechanisms). Disse mekanismer hjælper AI-modellen med at forstå og holde styr på sammenhænge mellem ord, uanset hvor de befinder sig i teksten. Transformer-arkitekturen blev fundamentet for moderne, avancerede sprogmodeller

Generativ AI

Fra 2020 og frem blev generativ AI den helt store bevægelse, med lanceringen af sprogmodeller som GPT-3 (2020) og senere applikationen ChatGPT (2022).

ChatGPT blev udviklet af OpenAI – en forskningsdrevet virksomhed, der oprindeligt blev grundlagt som en non-profit med det formål at sikre, at kunstig intelligens kommer hele menneskeheden til gode. OpenAI formåede med ChatGPT at bringe avanceret AI-teknologi ud til millioner af mennesker gennem et revolutionerende brugervenligt interface, der gjorde teknologien både tilgængelig og intuitiv at anvende.

Før havde AI været en meget teknisk øvelse, der foregik i meget specialiserede teams. Nu blev AI allemandseje, og lige så simpelt som at udføre en Google søgning. Samtidig dukkede billedgenereringsværktøjer som DALL·E og Midjourney op, der kunne skabe realistiske billeder ud fra tekstbeskrivelser. Det var her, at AI for alvor blev populært.

Open source vs. closed source

Samtidig er der opstået en voksende debat om, hvem der skal have adgang til AI-teknologi. På den ene side står virksomheder og organisationer, der arbejder med closed source – det vil sige, at de holder deres modeller, data og kode lukket af hensyn til konkurrence, sikkerhed og kontrol. På den anden side er der en stærk bevægelse for open source, hvor modeller og kode deles frit, så udvikling og innovation kan ske åbent og mere demokratisk.

Tilhængere af open source fremhæver gennemsigtighed, samarbejde og mulighed for offentlig kontrol som vigtige gevinster. Kritikerne advarer om, at det også kan gøre det nemmere for ondsindede aktører at misbruge teknologien.

Hvorvidt AI-teknologi skal være open eller closed source, når hurtigt op på et storpolitisk niveau. Det handler ikke kun om etik og innovation, men også om strategisk magt – for mange aktører gælder det om at få adgang til og kontrollere teknologien før konkurrenterne.

Spørgsmålet er langt fra afklaret, og balancen mellem åbenhed og ansvar er blevet en central brik i den geopolitiske og etiske debat om AI’s fremtid.

AI's voksende energibehov

Udviklingen af store AI-modeller kræver enorme mængder computerkraft – og dermed også energi. Træning af moderne sprogmodeller foregår på avancerede supercomputere, som bruger tusindvis af specialiserede chips, og sker over flere måneder.

Det samme gælder brugen af modellerne i dagligdagen, hvor millioner af forespørgsler hver dag aktiverer datacentre verden over. Det har rejst spørgsmål om AI’s miljøaftryk og behovet for bæredygtig drift.

Der forskes intensivt i, hvordan AI kan blive mere energieffektiv – både gennem smartere algoritmer, bedre hardware og optimering af selve træningsprocessen. Flere virksomheder eksperimenterer også med at drive datacentre med vedvarende energi som sol, vind og geotermisk varme.

Derudover har AI selv potentiale til at bidrage til den grønne omstilling: for eksempel ved at optimere energiforbrug i bygninger, forbedre elnettet eller forudsige vedvarende energiproduktion mere præcist.

Opsamling

Siden 1950’erne har forskere arbejdet med idéen om kunstig intelligens. Gennem årtier har interessen for AI svinget, med både store gennembrud og perioder med stilstand. Men i de seneste år er udviklingen accelereret markant.

AI er gået fra at være et specialiseret værktøj, som kun eksperter arbejdede med, til at være en generel assistent, som millioner bruger hver dag. Teknologien har rykket grænserne for, hvad maskiner kan – og har samtidig sat gang i store spørgsmål om ansvar, åbenhed og magt.

Det er en dagsorden, der fylder alle steder. Fra produktionsgulvet hos en SMV til de største politiske organisationer. Vi er kun lige begyndt at forstå, hvad AI egentlig betyder for os og vores verden, og vi er spændte på, hvad fremtiden bringer med sig.

Hvordan kommer du igang med kunstig intelligens?

Hvis du endnu ikke har prøvet at bruge en AI-assistent, er det et oplagt sted at starte, og du behøver ikke engang at oprette en konto for at opleve magien. Til det har vi lavet en guide der tager dig igennem hvordan du kommer igang.

Måske opdager du, at AI kan hjælpe dig med at skrive hurtigere, få nye idéer, analysere data eller bare give dig et bedre overblik i en travl hverdag.

Hvis du gerne vil blive endnu klogere på AI, så besøg vores ”AI for Alle” univers. Her kan du finde yderligere cases og ressourcer om AI i praksis. Derudover tilbyder vi kurser og events, der gør det nemt at komme i gang, uanset om du er nybegynder eller erfaren.

AI er ikke kun fremtiden. Det er nutiden. Og du er inviteret med.

Hvornår blev kunstig intelligens opfundet?

AI blev officielt “opfundet” i 1956 ved en workshop på Dartmouth College i USA. Her samlede en gruppe forskere sig om idéen om at skabe maskiner, der kunne tænke. Det var også her, udtrykket Artificial Intelligence blev brugt for første gang.

Hvem opfandt kunstig intelligens?

Der var ikke én enkelt opfinder. Feltet blev grundlagt af flere pionerer: John McCarthy (opfinder af termen "AI" og LISP) Marvin Minsky (udviklede teorier om maskinintelligens) Claude Shannon (far til informationsteori) Allen Newell & Herbert Simon (skabte det første AI-program) Alan Turing (lagde det teoretiske fundament allerede i 1950)

Hvem har lavet ChatGPT?

ChatGPT er udviklet af OpenAI, en amerikansk forskningsvirksomhed med speciale i kunstig intelligens.

Hvad er en perceptron?

En perceptron er en tidlig model af et kunstigt neuralt netværk, udviklet i 1957. Den kunne lære af erfaring og inspirerede den senere udvikling af deep learning – grundlaget for moderne AI.

Hvad er transformer-arkitekturen?

Introduceret i 2017, er transformer-modeller designet til at forstå tekstkontekst bedre. Det blev fundamentet for avancerede sprogmodeller som ChatGPT og har revolutioneret, hvordan maskiner forstår og genererer sprog.

Hvad er generativ AI?

Generativ AI kan skabe indhold – fx tekst, billeder og musik – ud fra en simpel tekstinstruktion. Eksempler: ChatGPT (2022): Genererer tekst og samtaler. DALL·E, Midjourney: Skaber billeder ud fra tekst. Det gør avanceret AI tilgængelig for alle.

Hvad er Open Source og Closed Source?

Open source betyder, at kildekoden er frit tilgængelig, så alle kan se, ændre og dele den. Closed source betyder, at kildekoden er lukket, og kun ejeren har adgang til at ændre eller dele den.