PromptSkolen Text Logo
Tilbage til tidslinje
2023

GPT-4 og multimodal AI

OpenAI lancerede GPT-4 i marts 2023. Modellen kunne arbejde med både tekst og billeder og viste bedre evne til at løse komplekse opgaver end tidligere versioner.

GPT-4 og multimodal AI

Den 14. marts 2023 annoncerede OpenAI GPT-4. Modellen var mere robust end GPT-3.5 og kunne også arbejde med billeder. Det gjorde den mere relevant i praktiske arbejdsgange.

Bedre præstationer

GPT-4 klarede sig markant bedre på mange standardtests end forgængeren. Det viste, at modellen kunne løse mere komplekse opgaver med færre fejl. For virksomheder betød det, at AI kunne bruges mere sikkert i faglige sammenhænge.

Billeder som input

GPT-4 kunne analysere billeder, diagrammer og skitser. Det åbnede nye anvendelser som dokumentforståelse, graf-analyse og visuelle forklaringer. Multimodalitet gjorde modellen mere alsidig end rene tekstmodeller.

Pålidelighed og styring

Modellen blev trænet til at afvise risikable forespørgsler og give mere stabile svar. Bedre styring via system-instruktioner gjorde den lettere at tilpasse til konkrete behov. Det gav et mere professionelt niveau af kontrol og ansvar.

GPT-4 og multimodal AI - billede 1
GPT-4 og multimodal AI - billede 2

Impact og Betydning

GPT-4 satte en ny standard for generative modeller. Multimodalitet og højere kvalitet gjorde teknologien mere relevant i arbejdsopgaver, uddannelse og analyse. Det var et vigtigt skridt mod AI som pålidelig hjælper i praksis.