DeepSeek er den nye kunstige intelligensen Kina som alle snakker om og som har skapt så mye oppstyr. Du har sannsynligvis allerede prøvd det fra nettstedet deres eller ved å installere appen på mobilenheten din. Men vil du det? Bruker DeepSeek lokalt? I dette innlegget viser vi deg den enkleste måten å gjøre det på en Windows 11-datamaskin.
Å bruke DeepSeek lokalt har sine fordeler. Det viktigste av alt er det Du trenger ikke en internettforbindelse for å samhandle med chatboten. Dette forhindrer at informasjonen du skriver inn blir delt med eksterne servere, noe som gir deg større personvern. Er du interessert? La oss ta en titt på prosedyren for å installere og starte DeepSeek lokalt på Windows 11.
Hva du trenger for å bruke DeepSeek lokalt med Windows 11

La oss først se på kravene for å bruke DeepSeek lokalt med Windows 11. Det er flere måter å gjøre det på, men den vi skal beskrive nedenfor er den enkleste av alle. For å gjøre dette, det første du trenger i en Windows 10 eller Windows 11 datamaskin, selv om prosedyren også fungerer på datamaskiner som kjører Linux og macOS.
For det andre trenger du ha omtrent 5 GB tilgjengelig på lagringsenheten. Det er den omtrentlige størrelsen på de nedstrippede versjonene 7b (4.7 GB) og 8b (4.9 GB) av DeepSeek som kan installeres på nesten hvilken som helst datamaskin. Det finnes også andre større versjoner som krever mer strøm for å kjøre lokalt, for eksempel 671b, som veier 404 GB. Logisk sett er det slik at jo større størrelsen er, desto bedre er ytelsen og responsen til AI.
Og for det tredje vil det være nødvendig Installer et program på datamaskinen din som lar deg kjøre DeepSeek og chatte med modellen. En av de mest populære er Ollama, designet for å kjøre flere kunstig intelligens-modeller lokalt. En annen er LM Studio, som i utgangspunktet utfører samme funksjon, men med fordelen av å gi et mer brukervennlig grafisk grensesnitt for å samhandle med AI.
Trinn for trinn for å bruke DeepSeek lokalt med Windows 11

Når det er sagt, la oss komme til Trinn for trinn for å bruke DeepSeek lokalt med Windows 11. Først vil vi se prosedyren for å gjøre det gjennom Ollama, og deretter bruke LM Studio-programmet. Husk at du også kan følge disse trinnene for å bruke DeepSeek lokalt med Windows 10, macOS og GNU Linux.
Den første tingen å gjøre er Besøk Ollamas nettside y Last ned versjonen for Windows-operativsystemet. Klikk på knappen på ollama.com-hjemmesiden Last ned for å gå til nedlastingssiden og laste ned Ollama .exe-filen. Gå deretter til nedlastingssiden på datamaskinen og kjør filen for å installere applikasjonen.
Neste trinn består av start Ollama-applikasjonen. Du kan finne ikonet i Windows Start-menyen og klikke på det. Du vil legge merke til at programmet ikke åpnes som alle andre, men vil kjøre i bakgrunnen. Sjekk dette i venstremenyen på verktøylinjen (du vil se Ollama-ikonet ved siden av de andre programmene som kjører).
Last ned og installer DeepSeek fra ledeteksten
Med Ollama kjørende i bakgrunnen, la oss åpne ledeteksten eller CMD. Du kan søke etter den i Start-menyen eller åpne den ved å trykke på snarveien Windows+R. Når dette er gjort, la oss skrive følgende kode for å laste ned DeepSeek R1 i versjon 7b: ollama pull deepseek-r1:7b. Hvis du vil installere en annen versjon, erstatt 7b med versjonsnummeret du foretrekker.
Når nedlastingen er fullført, skriv inn følgende kode i ledeteksten for å installere og starte DeepSeek: ollama kjøre deepseek-r1:7b. Hvis du har lastet ned en annen versjon, husk å erstatte 7b med riktig kode. Installasjonsprosessen vil ta mer eller mindre tid avhengig av internettforbindelsen din og versjonen av DeepSeek du vil kjøre. Når du er ferdig, vil du kunne bruke DeepSeek lokalt på din Windows 11-datamaskin.
På dette tidspunktet kan du stille AI et spørsmål. skrive en ledetekst ved ledeteksten. Før du ser svaret, vil du se etiketten og resonnementet som AI bruker for å generere det. Dette ligner på det som skjer i DeepSeek-appen for mobile enheter. Når du skal bruke AI på datamaskinen din lokalt, husk å kjøre Ollama-appen først.
Bruker DeepSeek lokalt med LM Studio

Å bruke DeepSeek lokalt med Ollama er fordelaktig fordi applikasjonen har lavt ressursforbruk, men det er lite intuitivt for den gjennomsnittlige brukeren. Hvis dette er ditt tilfelle, har du muligheten til Kjør DeepSeek AI med grafisk grensesnitt ved hjelp av LM Studio-programmet. For å bruke den må du først laste ned den Windows 11-kompatible versjonen fra den offisielle nettsiden, lmstudio.ai.
Når den er installert, åpner du LM Studio-applikasjonen og Skriv DeepSeek i søkefeltet ovenfor. Du vil se DeepSeek-modellene som er tilgjengelige for nedlasting. Velg den du ønsker og klikk på knappen Last ned for å laste den ned. Husk at jo tyngre modellen er, desto lengre tid vil det ta å laste ned og desto større ressursbehov for å kjøre den.
Når du har lastet ned DeepSeek-modellen, klikker du på mappeikon som er i den vertikale menyen til venstre av LM Studio. Der finner du alle AI-modellene du har lastet ned. Velg DeepSeek og klikk på knappen Last modell å starte utførelse og samhandle med kunstig intelligens.
Bruke LM Studio for å bruke DeepSeek lokalt med Windows 11 det er mye enklere. Grensesnittet ser ganske likt ut som det vi ser i DeepSeek-mobilappen eller når vi åpner AI fra nettleseren. Det er et tekstfelt for å skrive ledeteksten, og du kan til og med legge til dokumenter og andre filer som en del av spørringen. Enten du foretrekker Ollama eller holder deg til LM Studios grafiske grensesnitt, bruker du DeepSeek lokalt og offline. Dra nytte av alle fordelene som denne modaliteten tilbyr!
Siden jeg var veldig ung har jeg vært veldig nysgjerrig på alt relatert til vitenskapelige og teknologiske fremskritt, spesielt de som gjør livene våre enklere og mer underholdende. Jeg elsker å holde meg oppdatert med de siste nyhetene og trendene, og dele mine erfaringer, meninger og råd om utstyret og dingsene jeg bruker. Dette førte til at jeg ble nettskribent for litt over fem år siden, primært fokusert på Android-enheter og Windows-operativsystemer. Jeg har lært å forklare med enkle ord hva som er komplisert slik at leserne mine kan forstå det lett.