Slik kjører du din egen AI på en VPS med Ollama
Kunstig intelligens trenger ikke å bety at du sender dataene dine til store amerikanske selskaper. Med Ollama og en VPS fra Webhuset kan du kjøre store
Kjør din egen AI – uten å gi bort dataene dine
Kunstig intelligens trenger ikke å bety at du sender dataene dine til store amerikanske selskaper. Med Ollama og en VPS fra Webhuset kan du kjøre store språkmodeller helt privat på din egen server i Norge. I denne guiden viser vi deg hvordan.
Hva du trenger:
- En Cloud Server fra Webhuset (anbefalt: minst 4 GB RAM)
- Ubuntu 22.04 eller nyere
- SSH-tilgang til serveren din
- Grunnleggende kjennskap til terminalen
| Trinn 1 – Logg inn på serveren din via SSH | ssh bruker@din-server-ip |
| Trinn 2 – Oppdater systemet | sudo apt update && sudo apt upgrade -y |
| Trinn 3 – Installer Ollama | curl -fsSL https://ollama.com/install.sh | sh |
| Trinn 4 – Start Ollama-tjenesten | sudo systemctl start ollama sudo systemctl enable ollama |
| Trinn 5 – Last ned en språkmodell (f.eks. Llama 3) | ollama pull llama3 |
| Trinn 6 – Test modellen | ollama run llama3 (Skriv inn et spørsmål og se at AI-en svarer direkte fra din egen server) |
| Trinn 7 – Valgfritt: Gjør Ollama tilgjengelig via nettleseren | For å bruke Ollama med et webgrensesnitt kan du installere Open WebUI: sudo apt install docker.io -y sudo docker run -d -p 3000:8080 –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui ghcr.io/open-webui/open-webui:main |
Tips og anbefalinger
Modeller som Llama 3 (8B) fungerer godt med 8 GB RAM.
For bedre ytelse, velg en VPS med flere CPU-kjerner.
All data forblir på din server i Norge – ingenting sendes til tredjeparter.
Oppsummering
Du har nå din egen AI-assistent som kjører helt privat på en norsk server. Ingen data forlater serveren din, og du har full kontroll over hvilke modeller du bruker.