DeepSeek e Ollama: rodando LLMs localmente com o poder da sua GPU

DeepSeek e Ollama: rodando LLMs localmente com o poder da sua GPU

LLM

Introdução: O universo da IA e dos LLMs está mudando rápido demais

Semana passada, a Nvidia gigante por trás do hardware de IA viu suas ações caírem. Por quê, você pergunta? Porque o mundo está percebendo que não precisa mais depender de infraestrutura cara na nuvem ou de GPUs caríssimas pra aproveitar o poder da IA.

O novo modelo desenvolvido de LLM desenvolvido pela chinesa DeepSeek Inc, abalou a mercado tech global oferecendo uma alternativa aos modelos já consolidados no mercado.

Mas vamos deixar a volatilidade da bolsa de lado e aprender como rodar o DeepSeek localmente no seu PC, passo a passo. Sem enrolação.

Passo 1: Instale o Ollama

Mas o que é o Ollama David?

Ollama é uma ferramenta open-source que roda modelos de linguagem (LLMs) direto na sua máquina, usando o poder da sua GPU, sem precisar de servidor, nuvem ou complicação.

Abra seu terminal e rode o seguinte comando:

$ curl -fsSL https://ollama.com/install.sh | sh

Esse script vai instalar e configurar o Ollama no seu sistema.

Passo 2: Verifique se a instalação deu certo

Depois que o Ollama estiver instalado, cheque se está funcionando:

$ ollama

Se você receber uma resposta no terminal, tá tudo certo. Ollama instalado com sucesso.

Passo 3: Escolha seu modelo DeepSeek

O Ollama já suporta diferentes versões do modelo DeepSeek. As duas principais são:

  1. DeepSeek-R1
  • Parâmetros: 7B (7 bilhões de parâmetros)
  • Ideal para: iniciantes, tarefas leves, quem tem máquina mais simples
  • Use cases: geração de texto simples, ajuda básica com código, testes
  • Requisitos: roda até em CPU ou GPU mais fraca
  1. DeepSeek-V3
  • Parâmetros: 70B (70 bilhões de parâmetros)
  • Ideal para: usuários avançados, tarefas complexas, uso profissional
  • Use cases: programação avançada, pesquisa, escrita criativa, análise de dados
  • Requisitos: precisa de uma GPU parruda

Mas o que são parâmetros?

Parâmetros são os "neurônios" do modelo quanto mais ele tem, mais inteligente e complexo ele é. Resumindo:

  • 7B: mais rápido, leve, bom pra brincar e fazer testes
  • 70B: mais poderoso, preciso, mas exige muito mais da sua máquina

Passo 4: Rode o modelo escolhido

Depois de decidir qual modelo quer usar, rode ele com o Ollama

  • Para rodar o DeepSeek-R1:
$ ollama run deepseek-r1
  • Para rodar o DeepSeek-V3:
$ ollama run deepseek-v3

Passo 5: Hora de experimentar

Com o modelo rodando, você já pode usar ele para:

  • Assistente de código: gerar trechos de código, encontrar bugs
  • Escrita criativa: histórias, poemas, roteiros
  • Pesquisa e análise: gerar insights com base em dados
  • Experimentação: testar ajustes, otimizar uso, criar ferramentas próprias

Conclusão

Seja você iniciante ou veterano no mundo da IA, rodar o DeepSeek localmente com o Ollama é libertador.

  • Quer só brincar ou aprender? Comece com o DeepSeek-R1
  • Quer algo mais sério e poderoso? Vai de DeepSeek-V3

O importante é: você não precisa mais da nuvem para brincar com IA de verdade, aproveite.

Compartilhar este post