Slik kjører du DeepSeek R1 og andre modeller på din Mac
Det kinesiske AI-selskapet DeepSeek lanserte på juleaften DeepSeek v3 som jeg omtalte i «Ukens notater #17» og denne AI-modellen skapte furore når den greide å matche OpenAIs ChatGPT 4o på mange områder. Denne furoren ble enda større når DeepSeek forrige uke slapp DeepSeek R1 som er en «reasoning AI» som ser ut til å nå helt opp til ChatGPT o1.
I motsetning til OpenAI så har DeepSeek sluppet R1 modellen som åpen kildekode og det betyr at du faktisk kan kjøre den lokalt på din egen Mac eller PC. Kjører du den lokalt, slipper du også at informasjon du gir til modellen lagres i Kina og det er absolutt et stort pluss når vi vet at DeepSeek er underlagt kinesisk lovgiving og lagrer alt du gir den i Kina. Den kan heller ikke svare på enkle ting som hva som skjedde på den himmelske fredsplass og sensurerer masse. Med disse begrensningene avklart, let's go.
Du trenger en relativt moderne Mac (minst M1 med 16GB RAM), litt diskplass og ikke mye mer enn det for å installere og kjøre de minste DeepSeek-modellene og andre modeller lokalt. Det er verdt å merke seg at dette er Llama- og Qwen-modeller som har blitt finjustert med DeepSeek-data. Disse modellene er avledede versjoner av Llama og Qwen, men med DeepSeek-data. Hele DeepSeek-modellen kan du ikke kjøre på en vanlig Mac eller PC da den har 671 milliarder parametre.
Skal du kjøre de største avledede modellene bør du ha en Mac med M3-prosessor, minimum 64GB minne og mye diskplass. I denne guiden viser jeg deg hvordan du kjører de minste avledede modellene.
Det er mange veier til målet. Du kan enten gjøre det veldig enkelt eller litt mer avansert. Den enkle metode må du forholde deg til en app og dens grensesnitt, mens i den avanserte metoden kan du bruke en rekke forskjellige grensesnitt til å kommunisere med DeepSeek eller andre LLMer du installerer.
Enkel
Steg 1: Installer LM Studio
- Last ned LM Studio som er en app som lar deg kjøre en rekke åpne AI-modeller lokalt og gir deg et ChatGPT-ish grensesnitt til å snakke med dem.
- Installer LM Studio ved å dra den til «Applications» mappen på Macen
- Start LM Studio og klikk på søkeikonet. Søk etter DeepSeek R1 og velg «DeepSeek R1 Distill (Llama). Velg den minste varianten og last ned.

- Når den er ferdig lastet ned trykker du på «Load model»
- Deretter er du klar til å stille den spørsmål.

Avansert
Steg 1: Installer Ollama
- Første steg er å laste ned Ollama som er en app som lar deg kjøre en rekke åpne AI-modeller lokalt.
- Installer Ollama ved å dra den til «Applications» mappen på Macen
- Start Ollama
Steg 2: Last ned og installer AI-modellen
- Neste steg er å laste ned og installere DeepSeek R1. Til dette trenger du å åpne appen «Terminal» på Macen.
- Det finnes en rekke forskjellige størrelser av DeepSeek R1. Enkelt forklart; jo større størrelse, jo mer krevende er det for Macen din og jo bedre svar vil den generere. Et godt forslag er å begynne med den minste modellen og prøve deg fram.
1.5B version (minst):
ollama run deepseek-r1:1.5b
8B version:
ollama run deepseek-r1:8b
14B version:
ollama run deepseek-r1:14b
32B version:
ollama run deepseek-r1:32b
70B version (størst):
ollama run deepseek-r1:70b
- For å installere den minste versjon av DeepSeek R1 skriver du følgende i Terminal og trykker enter:
ollama run deepseek-r1:1.5b
- Ollama vil begynne å laste ned den minste modellen og installere den på Macen din. Jeg har testet 1.5B og 8B versjonen på en Mac mini m1 med 16GB RAM og begge fungerte. Versjonene over ble for krevende for denne hardwaren.
- Når prosessen er ferdig, er DeepSeek installert og du kan begynne å stille den spørsmål rett i Terminal. Hvis du helst vil forholde deg til brukervennlige brukergrensesnitt fremfor Terminal vil jeg lastet ned Enchanted, Chatbox eller BoltAI.

Steg 3 (valgfritt): Last ned Enchanted, Chatbox eller BoltAI
- Hvis du gjerne vil ha et ChatGPT-ish grensesnitt på Macen du kan prate til fremfor å jobbe i Terminalen, må du laste ned en app som kan gi deg det. Enchanted (gratis og enkel), Chatbox (gratis og mye valgmuligheter) og BoltAI (betalt, men avansert) er tre slike alternativ.
- Enklest: Enchanted finner du i Mac App Store og du kan installere med ett klikk. Når du har installert, åpner du appen og den vil automatisk konfigurere seg mot Ollama som du installerte i steg 2. Du er klar til bruk umiddelbart og det hele ligner veldig på ChatGPT.

- Litt mer avansert: Chatbox er litt mer avansert og gir deg flere valgmuligheter. Du laster ned appen fra Chatboxai.app og deretter drar du appen til «Applications»-mappa på Macen din og åpner den.
- Trykk deretter på «Settings» nede i venstre hjørne og under «Model» må du endre «Model provider» til OLLAMA API.
- Under API host legger du inn:
http://localhost:11434
- Under Model velger du modellen du installerte i forrige steg.

- Du er nå klar til å bruke Chatbox på samme måte som du bruker ChatGPT

Med Ollama er du ikke begrenset til kun DeepSeek. Du kan også installere et stort antall andre populære modeller som Metas Llama, Googles Gemma eller Mistral. Du finner en oversikt hos Ollama. Lykke til!