Webhuset
Tilbake til Nyheter
1 min lesetid

Slik kjører du din egen AI på en VPS med Ollama

Kunstig intelligens trenger ikke å bety at du sender dataene dine til store amerikanske selskaper. Med Ollama og en VPS fra Webhuset kan du kjøre store

Kjør din egen AI – uten å gi bort dataene dine

Kunstig intelligens trenger ikke å bety at du sender dataene dine til store amerikanske selskaper. Med Ollama og en VPS fra Webhuset kan du kjøre store språkmodeller helt privat på din egen server i Norge. I denne guiden viser vi deg hvordan.

Hva du trenger:

  • En Cloud Server fra Webhuset (anbefalt: minst 4 GB RAM)
  • Ubuntu 22.04 eller nyere
  • SSH-tilgang til serveren din
  • Grunnleggende kjennskap til terminalen
Trinn 1 – Logg inn på serveren din via SSHssh bruker@din-server-ip
Trinn 2 – Oppdater systemetsudo apt update && sudo apt upgrade -y
Trinn 3 – Installer Ollamacurl -fsSL https://ollama.com/install.sh | sh
Trinn 4 – Start Ollama-tjenestensudo systemctl start ollama
sudo systemctl enable ollama
Trinn 5 – Last ned en språkmodell (f.eks. Llama 3)ollama pull llama3
Trinn 6 – Test modellenollama run llama3

(Skriv inn et spørsmål og se at AI-en svarer direkte fra din egen server)
Trinn 7 – Valgfritt: Gjør Ollama tilgjengelig via nettleserenFor å bruke Ollama med et webgrensesnitt kan du installere Open WebUI:

sudo apt install docker.io -y
sudo docker run -d -p 3000:8080 –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui ghcr.io/open-webui/open-webui:main

Tips og anbefalinger

Modeller som Llama 3 (8B) fungerer godt med 8 GB RAM.
For bedre ytelse, velg en VPS med flere CPU-kjerner.
All data forblir på din server i Norge – ingenting sendes til tredjeparter.

Oppsummering

Du har nå din egen AI-assistent som kjører helt privat på en norsk server. Ingen data forlater serveren din, og du har full kontroll over hvilke modeller du bruker.