Biblioteket
En rejse gennem de vigtigste milepæle i kunstig intelligens - fra de tidlige teoretiske fundamenter til dagens generative AI revolution.
Warren McCulloch og Walter Pitts beskrev den første matematiske model af et neuralt netværk. Arbejdet viste, at simple beregningsenheder kan kobles sammen til logiske regler inspireret af hjernen.
Alan Turing beskrev en praktisk måde at diskutere maskinintelligens på. Han foreslog en test, hvor en maskine vurderes ud fra sin evne til at føre en naturlig samtale via tekst.
John McCarthy samlede forskere til Dartmouth Summer Research Project og introducerede begrebet "artificial intelligence". Workshoppen markerede startskuddet for AI som et selvstændigt forskningsfelt.
Frank Rosenblatt udviklede perceptron, den første praktiske model der kunne lære simple mønstre fra data. Mark I Perceptron var en fysisk maskine med fotoceller, og den gjorde idéen om læring i maskiner konkret.
IBM's Deep Blue besejrede verdensmester Garry Kasparov i en sekskamps match. Det var første gang en computer slog den regerende verdensmester i skak, og begivenheden fik stor symbolsk betydning.
Geoffrey Hinton og hans team viste i 2006, hvordan dybe neurale netværk kunne trænes mere stabilt. Det genoplivede interessen for neurale netværk efter en længere periode med lav aktivitet.
Alex Krizhevsky, Ilya Sutskever og Geoffrey Hinton vandt ImageNet-konkurrencen med AlexNet. Resultatet viste tydeligt, at dybe neurale netværk kunne overgå tidligere metoder i billedgenkendelse.
Google Brain introducerede transformer-arkitekturen i paperet "Attention is All You Need". Den gjorde det muligt at behandle lange tekstsekvenser mere effektivt og blev basis for moderne sprogmodeller.
BERT fra Google og GPT fra OpenAI viste, at fortræning på store tekstmængder kan give stærke modeller, som senere kan tilpasses konkrete opgaver. Det gjorde transfer learning til en standard i NLP.
OpenAI lancerede GPT-3 med 175 milliarder parametre. Modellen viste, at skalering kan give nye evner som few-shot learning, hvor opgaver løses ud fra få eksempler.
OpenAI lancerede ChatGPT den 30. november 2022. Den simple chat-grænseflade gjorde avanceret AI let at bruge og skabte den hurtigste brugeradoption i moderne tech-historie.
OpenAI lancerede GPT-4 i marts 2023. Modellen kunne arbejde med både tekst og billeder og viste bedre evne til at løse komplekse opgaver end tidligere versioner.
Nye modeller i 2024 viser bedre reasoning og kan arbejde mere målrettet med opgaver. De kan planlægge trin, bruge værktøjer og følge op på resultater frem for kun at svare på en enkelt prompt.
AI-modeller bevæger sig fra enkeltstående prompts til sammenhængende workflows. Længere kontekst, bedre værktøjsbrug og mere styring gør det muligt at bygge egentlige "AI-roller" i produktion.
EU’s AI-lovgivning begynder at blive implementeret i praksis. Fokus er på risikoklassificering, dokumentation, transparens og ansvar samt krav til leverandørkæder.
Warren McCulloch og Walter Pitts beskrev den første matematiske model af et neuralt netværk. Arbejdet viste, at simple beregningsenheder kan kobles sammen til logiske regler inspireret af hjernen.
Alan Turing beskrev en praktisk måde at diskutere maskinintelligens på. Han foreslog en test, hvor en maskine vurderes ud fra sin evne til at føre en naturlig samtale via tekst.
John McCarthy samlede forskere til Dartmouth Summer Research Project og introducerede begrebet "artificial intelligence". Workshoppen markerede startskuddet for AI som et selvstændigt forskningsfelt.
Frank Rosenblatt udviklede perceptron, den første praktiske model der kunne lære simple mønstre fra data. Mark I Perceptron var en fysisk maskine med fotoceller, og den gjorde idéen om læring i maskiner konkret.
IBM's Deep Blue besejrede verdensmester Garry Kasparov i en sekskamps match. Det var første gang en computer slog den regerende verdensmester i skak, og begivenheden fik stor symbolsk betydning.
Geoffrey Hinton og hans team viste i 2006, hvordan dybe neurale netværk kunne trænes mere stabilt. Det genoplivede interessen for neurale netværk efter en længere periode med lav aktivitet.
Alex Krizhevsky, Ilya Sutskever og Geoffrey Hinton vandt ImageNet-konkurrencen med AlexNet. Resultatet viste tydeligt, at dybe neurale netværk kunne overgå tidligere metoder i billedgenkendelse.
Google Brain introducerede transformer-arkitekturen i paperet "Attention is All You Need". Den gjorde det muligt at behandle lange tekstsekvenser mere effektivt og blev basis for moderne sprogmodeller.
BERT fra Google og GPT fra OpenAI viste, at fortræning på store tekstmængder kan give stærke modeller, som senere kan tilpasses konkrete opgaver. Det gjorde transfer learning til en standard i NLP.
OpenAI lancerede GPT-3 med 175 milliarder parametre. Modellen viste, at skalering kan give nye evner som few-shot learning, hvor opgaver løses ud fra få eksempler.
OpenAI lancerede ChatGPT den 30. november 2022. Den simple chat-grænseflade gjorde avanceret AI let at bruge og skabte den hurtigste brugeradoption i moderne tech-historie.
OpenAI lancerede GPT-4 i marts 2023. Modellen kunne arbejde med både tekst og billeder og viste bedre evne til at løse komplekse opgaver end tidligere versioner.
Nye modeller i 2024 viser bedre reasoning og kan arbejde mere målrettet med opgaver. De kan planlægge trin, bruge værktøjer og følge op på resultater frem for kun at svare på en enkelt prompt.
AI-modeller bevæger sig fra enkeltstående prompts til sammenhængende workflows. Længere kontekst, bedre værktøjsbrug og mere styring gør det muligt at bygge egentlige "AI-roller" i produktion.
EU’s AI-lovgivning begynder at blive implementeret i praksis. Fokus er på risikoklassificering, dokumentation, transparens og ansvar samt krav til leverandørkæder.
Om denne tidslinje
Denne tidslinje highlighter de mest betydningsfulde begivenheder der har formet AI-feltet. Udviklingen accelererer konstant, og nye milepæle tilføjes løbende.