Hva er Ollama?

Kort forklartConcept

Ollama lar deg kjøre AI-modeller lokalt på din maskin med én kommando – gratis, privat, uten internett. Lær hva Ollama er og hvordan du kommer i gang.

Også kjent som:ollama.ailokal LLM

Hva er Ollama?

Ollama er et verktøy som lar deg laste ned og kjøre AI-modeller lokalt på din maskin med én enkelt kommando – helt gratis, helt privat, uten å sende data til noen sky.

Kort forklart Installer Ollama, åpne terminalen, skriv «ollama run llama3.1» – og du har en ChatGPT-lignende AI som kjører 100 prosent lokalt. Ingen API-nøkkel, ingen abonnement, ingen data som sendes til OpenAI eller noen andre. Det fungerer på Mac, Windows og Linux. Du kan kjøre Llama, Mistral, DeepSeek, Phi, Gemma og hundrevis av andre åpne modeller. For personvern, offline-bruk og eksperimentering er Ollama det enkleste startpunktet.

Hva betyr begrepet

Ollama (navnet er en lek med «llama» – Metas modellserie) gjør lokal AI enkel. Uten Ollama krever lokal AI manuell nedlasting av modellvekter, konfigurering av inferensmotorer (llama.cpp, vLLM), og teknisk oppsett av API-er og grensesnitt. Med Ollama er alt pakket i én kommando.

Ollama håndterer modellnedlasting (laster ned kvantiserte modeller automatisk), inferens (kjører modellen optimalisert for din maskinvare), API (lokal API på port 11434 – kompatibel med OpenAI-format), og modellbibliotek (hundrevis av modeller tilgjengelig via ollama.com/library).

Populære modeller å kjøre med Ollama er llama3.1 (Metas flaggskip – 8B kjører på de fleste maskiner), mistral (Europas beste – rask og effektiv), deepseek-r1 (reasoning-modell med synlig tenkning), phi3 (Microsofts kompakte modell – kjører på alt), gemma2 (Googles åpne modell), og codellama (spesialisert for koding).

Hvordan fungerer det

Tre steg fra null til lokal AI.

Steg 1: Installer
  Mac: brew install ollama
  Windows/Linux: last ned fra ollama.com

Steg 2: Kjør en modell
  ollama run llama3.1
  → Modellen lastes ned (~5 GB for 8B) → Klar

Steg 3: Chat
  >>> Hva er hovedstaden i Norge?
  Hovedstaden i Norge er Oslo.
  
  >>> Skriv et Python-script som sorterer en liste
  [genererer komplett kode]

Alt skjer lokalt – ingen data forlater maskinen din.

For utviklere eksponerer Ollama en lokal API som er kompatibel med OpenAI-formatet – du kan bytte ut OpenAI API med Ollama i eksisterende kode ved å endre base URL.

Maskinvarekrav: Llama 8B krever ~5 GB RAM (kjører på de fleste moderne maskiner). Llama 70B krever ~40 GB RAM (kraftig maskin eller GPU). Mistral 7B og Phi-3 krever ~4 GB (kjører på nesten alt).

Hvorfor er det viktig

Ollama demokratiserer AI – du trenger verken API-nøkkel, abonnement eller teknisk ekspertise. Det er spesielt viktig for personvern (sensitive data forlater aldri maskinen), kostnadsbesparelse (gratis vs $20/mnd for ChatGPT Plus), offline-bruk (fungerer uten internett), utvikling (test og prototyp med lokal AI), og eksperimentering (prøv hundrevis av modeller).

Eksempler

Privat assistent: Du kjører Llama 3.1 via Ollama og bruker den til å analysere sensitive forretningsdokumenter – ingen data sendes til sky.

Koding offline: Du sitter på flyet uten internett. Ollama + CodeLlama gir deg en AI-kodingsassistent som fungerer helt offline.

Open WebUI: Du installerer Open WebUI (et ChatGPT-lignende grensesnitt) som kobler til Ollama – vakker lokal AI-chatbot i nettleseren.

Vanlige spørsmål

Er Ollama gratis?

Ja – helt gratis. Åpen kildekode. Ingen abonnement, ingen API-kostnad, ingen begrensninger.

Trenger jeg en kraftig maskin?

For små modeller (Phi-3, Mistral 7B): nei – de fleste moderne laptoper duger. For store modeller (Llama 70B): ja – 40+ GB RAM eller NVIDIA GPU.

Er lokale modeller like gode som ChatGPT?

Llama 8B ≈ GPT-3.5 kvalitet. Llama 70B ≈ nær GPT-4 på mange oppgaver. For daglige oppgaver er lokale modeller mer enn gode nok.

Kan jeg bruke Ollama i apper?

Ja – Ollama eksponerer en lokal API. Mange apper (Open WebUI, Continue, Enchanted) kobler direkte til Ollama.

Relaterte begreper

Se også

Oppsummering

Ollama lar deg kjøre AI lokalt med én kommando – gratis, privat, offline. Installer, skriv «ollama run llama3.1», og chat. Ingen API, ingen abonnement, ingen data sendt ut. Perfekt for personvern, eksperimentering og utvikling. Støtter Llama, Mistral, DeepSeek, Phi og hundrevis av modeller. Det er den enkleste veien til lokal AI.