Hoe u DeepSeek-R1 lokaal op uw computer installeert en gebruikt, of u nu Ubuntu of een ander systeem gebruikt

  • DeepSeek-R1 is een open-sourcemodel met geavanceerde redeneringsmogelijkheden.
  • Ollama vereenvoudigt de installatie en het beheer van AI-modellen lokaal.
  • ChatBoxAI biedt een grafische interface voor interactie met modellen zoals DeepSeek.
  • Het model kan eenvoudig worden geïntegreerd in ontwikkelingsprojecten met Python.

DeepSeek-R1 op Ubuntu

Kunstmatige intelligentie blijft onze wereld transformeren, en de mogelijkheden om met geavanceerde taalmodellen te werken groeien met grote sprongen. Niet iedereen hoeft echter verbinding te maken met clouddiensten of op derden te vertrouwen om deze technologieën te verkennen. Een interessant en toegankelijk alternatief is DeepSeek-R1, een AI-model waarmee gebruikers het lokaal op bescheiden computers kunnen uitvoeren. In dit artikel leg ik uit hoe je DeepSeek installeert en optimaal profiteert van de mogelijkheden ervan.

DeepSeek-R1 is een open source AI-model die opvalt door zijn efficiëntie en geavanceerd redeneervermogen. Door het lokaal uit te voeren, bespaart u niet alleen terugkerende kosten, maar beschermt u ook uw privacy en krijgt u de flexibiliteit om deze in aangepaste projecten te integreren. Hoewel sommige modellen krachtige hardware vereisen, biedt DeepSeek-R1 versies die zijn afgestemd op verschillende bronnen, van basiscomputers tot geavanceerde werkstations.

Wat is DeepSeek en waarom zou u het lokaal gebruiken?

DeepSeek-R1 is een geavanceerd taalmodel ontworpen voor complexe taken zoals logisch redeneren, het oplossen van wiskundige problemen en het genereren van code. Het belangrijkste voordeel is dat het open source is, wat betekent dat u het op uw eigen computer kunt installeren en uitvoeren zonder afhankelijk te zijn van externe servers.

Enkele van de opvallende kenmerken zijn:

  • flexibiliteit: U kunt het model aanpassen aan uw behoeften, van lichte versies tot geavanceerde configuraties.
  • Privacy: Alle verwerking gebeurt lokaal, waardoor u zich geen zorgen hoeft te maken over het blootstellen van gevoelige gegevens. Dit is misschien wel het belangrijkste punt, omdat velen zich zorgen maken over wat bedrijven met onze gegevens kunnen doen.
  • besparingen: U hoeft geen geld uit te geven aan abonnementen of cloudservices, waardoor het een betaalbare optie is voor ontwikkelaars en bedrijven.

Vereisten voor installatie

Zorg ervoor dat u aan het volgende voldoet voordat u met de installatie begint vereisten:

  • Een computer met een Linux-, macOS- of Windows-besturingssysteem (met ondersteuning voor WSL2 in het laatste geval).
  • Een minimum van 8 GB RAM-geheugen, hoewel het op zijn minst wordt aanbevolen 16 GB voor optimale prestaties.
  • Internettoegang om de modellen in eerste instantie te downloaden.
  • Basiskennis van terminal of opdrachtregel.

Bovendien heeft je zult een tool moeten installeren genaamd Ollama, dat DeepSeek-modellen lokaal beheert en uitvoert.

Ollama-installatie

Ollama is een eenvoudige oplossing waarmee u taalmodellen zoals DeepSeek-R1. Volg deze stappen om het te installeren:

  1. Op Linux of macOS open je de terminal en voer je de volgende opdracht uit om Ollama te installeren: het pakket krullen Het is uiteraard noodzakelijk –:
curl -fsSL https://ollama.com/install.sh | sch
  1. Zorg er op Windows-systemen voor dat WSL2 vooraf is ingeschakeld en volg vervolgens dezelfde stappen in de Ubuntu-terminal die u configureert binnen WSL.
  2. Controleer of Ollama correct is geïnstalleerd door het programma uit te voeren ollama --version. Als de opdracht een versienummer retourneert, bent u klaar om verder te gaan.

DeepSeek-R1 downloaden

Met Ollama geïnstalleerd en actief (ollama serve in de terminal als de download die we later uitleggen mislukt), nu kunt u het DeepSeek-model downloaden dat het beste bij uw behoeften en hardware past:

  • 1.5B-parameters: Ideaal voor basiscomputers. Dit model neemt ongeveer in beslag 1.1 GB.
  • 7B-parameters: Aanbevolen voor apparatuur met GPU's middelhoog. Dit beslaat ongeveer 4.7 GB.
  • 70B-parameters: Voor complexe taken aan apparatuur met grote capaciteit geheugen en krachtige GPU.

Om het standaard 7B-model te downloaden, voert u deze opdracht uit in de terminal:

Olama Voer Deepseek-R1 uit

De downloadtijd is afhankelijk van uw internetsnelheid en is alleen nodig de eerste keer dat we de chatbot gebruiken. Eenmaal voltooid, is het model klaar voor gebruik vanaf de opdrachtregel of via een grafische interface.

DeepSeek gebruiken met een grafische interface

Hoewel u rechtstreeks vanaf de terminal met DeepSeek kunt communiceren, geven veel gebruikers voor het gemak de voorkeur aan een grafische interface. In dit geval kunt u installeren ChatBoxAI, een gratis applicatie waarmee u kunt profiteren van DeepSeek visuele vorm.

  • Download en installeer ChatBoxAI van de officiële pagina.
  • Stel de app in die u wilt gebruiken Ollama als modelleverancier:

Selecteer in de ChatBoxAI-instellingen “Gebruik mijn eigen API” en kies het DeepSeek-model dat u eerder hebt gedownload. Als alles correct is geconfigureerd, kunt u query's en taken rechtstreeks vanuit de grafische interface uitvoeren.

DeepSeek-integratie in projecten

Als u een ontwikkelaar bent, kunt u DeepSeek in uw projecten integreren met behulp van zijn programma API OpenAI-compatibel. Hier is een eenvoudig voorbeeld met behulp van Python:

import openai client = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") response = client.chat.completions.create(model="deepseek-r1", messages=[{ "role": "user", "content": "Genereer code in Python om Fibonacci te berekenen"}])

Dit script stuurt een query naar het lokale DeepSeek-model en retourneert het resultaat in uw terminal of applicatie.

Het DeepSeek-R1 AI-model is een uitstekende optie voor wie op zoek is een geavanceerde en economische oplossing. Met het gemak van toegang dat Ollama biedt, de flexibiliteit van zijn modellen en de mogelijkheid om te integreren in aangepaste projecten, opent DeepSeek nieuwe mogelijkheden voor ontwikkelaars, studenten en AI-experts. Met zijn focus op privacy en prestaties is het een tool die het verdient om grondig te worden onderzocht.