AI-historien: Fra Turing til GPT
Kunstig intelligens har en 75-årig historie fylt med vill optimisme, bitre skuffelser, og plutselige gjennombrudd – fra Alan Turings filosofiske spørsmål i 1950 til ChatGPTs 200 millioner brukere og kappløpet mot AGI.
Kort forklart AI har gått gjennom sykluser av hype og skuffelse – «AI-vintre» der finansiering tørket inn. Men tre gjennombrudd endret alt: deep learning + GPU-er (2012), transformer-arkitekturen (2017), og ChatGPT (2022). Nå investeres hundrevis av milliarder årlig. Spørsmålet er ikke OM AI vil transformere verden – men HVOR RASKT og HVORDAN. Her er historien.
Begynnelsen (1950–1969)
1950: Alan Turing publiserer «Computing Machinery and Intelligence» med det berømte spørsmålet: «Can machines think?» og foreslår Turing-testen. 1956: Dartmouth-konferansen – begrepet «Artificial Intelligence» opprettes offisielt av John McCarthy, Marvin Minsky og andre. Vill optimisme – «AI vil matche menneskelig intelligens innen 20 år.» 1957: Frank Rosenblatt bygger Perceptron – det første nevrale nettverket. Enorm begeistring. 1966: ELIZA – det første chatbot-programmet (MIT). Overraskende overbevisende for sin tid.
Første AI-vinter (1970–1980)
1969: Minsky & Papert publiserer «Perceptrons» som viser fundamentale begrensninger i nevrale nettverk. Finansiering kollapser. AI-forskning anses som «umulig.» 1970-tallet er en mørk periode – «AI-vinter.» Forskerne overvurderte mulighetene, og skuffelsen var enorm.
Ekspertsystemer og andre vinter (1980–1993)
1980-tallet: Ekspertsystemer (regelbasert AI) blir populært i næringslivet – milliarder investeres. 1986: Backpropagation gjenoppdages (Rumelhart, Hinton, Williams) – nevrale nettverk kan trenes effektivt igjen. 1987–1993: Ekspertsystemboomen kollapser – for rigide, for dyre å vedlikeholde. Andre AI-vinter.
Stille fremgang (1993–2011)
1997: IBMs Deep Blue slår Garry Kasparov i sjakk – men det er brute force, ikke «intelligens.» 1998: Yann LeCun utvikler LeNet – CNN for håndskriftgjenkjenning. Viktig men lite bemerket. 2000-tallet: Maskinlæring vokser stille – støttevektormaskiner, random forests, statistiske metoder. Nyttig men ikke revolusjonerende.
Deep learning-revolusjonen (2012–2016)
2012: AlexNet (Krizhevsky, Sutskever, Hinton) vinner ImageNet-konkurransen med CNN + GPU-er. Feilraten halveres over natten. DETTE er vendepunktet – deep learning fungerer. 2014: Ian Goodfellow oppfinner GAN – generative modeller som lager bilder. DeepMind (nå Google) lager AI som spiller Atari-spill bedre enn mennesker med reinforcement learning. 2015: ResNet (152 lag!) overgår menneskelig ytelse på bildegjenkjenning. 2016: AlphaGo slår verdensmester Lee Sedol i Go – et øyeblikk sammenlignbart med Deep Blue, men med ekte «intelligens.»
Transformer-æraen (2017–2021)
2017: Google publiserer «Attention Is All You Need» – transformer-arkitekturen. Det mest innflytelsesrike AI-paperet i historien. 2018: Google lanserer BERT – transformers for språkforståelse. OpenAI lanserer GPT-1. 2019: GPT-2 (1,5B parametere) – OpenAI holder den tilbake fordi den er «for farlig.» 2020: GPT-3 (175B) – det første virkelig store språkmodellen. Scaling laws oppdages. 2021: DALL-E 1 – bilder fra tekst. GitHub Copilot lanseres.
ChatGPT-æraen (2022–i dag)
November 2022: ChatGPT lanseres. 100 millioner brukere på 2 måneder – det raskest adopterte teknologiproduktet i historien. AI blir mainstream. 2023: GPT-4 lanseres (mars) – multimodal, dramatisk bedre. Claude fra Anthropic. Llama fra Meta (åpen kildekode LLM-revolusjon). Midjourney og Stable Diffusion eksploderer. EU vedtar AI Act.
2024: Sora (video fra tekst). DeepSeek sjokkerer fra Kina. Reasoning models (o1, R1). Agentic AI vokser. NVIDIA passerer 3 billioner dollar.
2025–2026: AI-agenter i produksjon. Small language models på alle enheter. Reasoning som standard. Kappløpet mot AGI intensiveres.
Hva kommer neste?
De store spørsmålene er om scaling laws vil fortsette å holde eller om vi treffer en vegg, om AGI (kunstig generell intelligens) kommer i dette tiåret, om AI-agenter vil transformere arbeidslivet fundamentalt, og hvordan samfunnet tilpasser seg AI-ens hastighet.
Det som er sikkert: AI i 2026 er fundamentalt annerledes fra 2022 – og 2028 vil være like annerledes fra nå.
Relaterte begreper
- Kunstig intelligens – det overordnede konseptet
- Nevrale nettverk – den tekniske kjernen
- Transformer-arkitekturen – gjennombruddet i 2017
- ChatGPT – øyeblikket AI ble mainstream
- AGI – det neste store spørsmålet
Se også
Oppsummering
AI-historien spenner fra Turings spørsmål (1950) via to «AI-vintre» til deep learning-revolusjonen (2012), transformers (2017) og ChatGPT (2022). Hvert tiår hadde overvurderinger og skuffelser – men den underliggende fremgangen var reell. I dag investeres hundrevis av milliarder årlig. Kappløpet mot AGI er i gang. Historien viser at AI-fremgang er ulineær – lange perioder med stille arbeid, etterfulgt av plutselige, transformative gjennombrudd.