AlexNet og ImageNet
Alex Krizhevsky, Ilya Sutskever og Geoffrey Hinton vandt ImageNet-konkurrencen med AlexNet. Resultatet viste tydeligt, at dybe neurale netværk kunne overgå tidligere metoder i billedgenkendelse.
ImageNet var en årlig konkurrence i billedgenkendelse med 1,2 millioner billeder fordelt på 1000 kategorier. I 2012 slog AlexNet konkurrenterne med stor margin og ændrede forventningerne til, hvad deep learning kunne.
Hvad modellen gjorde anderledes
AlexNet var dybere end tidligere modeller og brugte ReLU-aktiveringer, hvilket gjorde træning hurtigere. Den anvendte dropout for at reducere overfitting og data augmentation for at udvide træningssættet. Hver teknik var kendt, men kombinationen viste sig at være markant stærkere.
GPU og data
Modellen blev trænet på GPU’er, hvilket gjorde det muligt at arbejde med store datasæt og mange parametre. Træningen tog omkring en uge, men ville have taget måneder på CPU. Det gjorde hurtige eksperimenter mulige og satte en ny standard for, hvordan AI blev udviklet.
Hvorfor det fik så stor effekt
AlexNet viste, at deep learning kunne løse opgaver bedre end håndlavede features. Det blev startskuddet for en bred industriel satsning på neurale netværk. Virksomheder investerede i GPU-infrastruktur og AI-teams, og vision blev kun begyndelsen.
Impact og Betydning
Efter 2012 gik billedgenkendelse fra håndbyggede features til end-to-end læring. AlexNet blev beviset på, at store netværk kunne trænes effektivt og levere bedre resultater. Det ændrede både forskning og industripraksis.