
DeepSeek e Ollama: rodando LLMs localmente com o poder da sua GPU
Introdução: O universo da IA e dos LLMs está mudando rápido demais
Semana passada, a Nvidia gigante por trás do hardware de IA viu suas ações caírem. Por quê, você pergunta? Porque o mundo está percebendo que não precisa mais depender de infraestrutura cara na nuvem ou de GPUs caríssimas pra aproveitar o poder da IA.
O novo modelo desenvolvido de LLM desenvolvido pela chinesa DeepSeek Inc, abalou a mercado tech global oferecendo uma alternativa aos modelos já consolidados no mercado.
Mas vamos deixar a volatilidade da bolsa de lado e aprender como rodar o DeepSeek localmente no seu PC, passo a passo. Sem enrolação.
Passo 1: Instale o Ollama
Mas o que é o Ollama David?
Ollama é uma ferramenta open-source que roda modelos de linguagem (LLMs) direto na sua máquina, usando o poder da sua GPU, sem precisar de servidor, nuvem ou complicação.
Abra seu terminal e rode o seguinte comando:
$ curl -fsSL https://ollama.com/install.sh | sh
Esse script vai instalar e configurar o Ollama no seu sistema.
Passo 2: Verifique se a instalação deu certo
Depois que o Ollama estiver instalado, cheque se está funcionando:
$ ollama
Se você receber uma resposta no terminal, tá tudo certo. Ollama instalado com sucesso.
Passo 3: Escolha seu modelo DeepSeek
O Ollama já suporta diferentes versões do modelo DeepSeek. As duas principais são:
- Parâmetros: 7B (7 bilhões de parâmetros)
- Ideal para: iniciantes, tarefas leves, quem tem máquina mais simples
- Use cases: geração de texto simples, ajuda básica com código, testes
- Requisitos: roda até em CPU ou GPU mais fraca
- Parâmetros: 70B (70 bilhões de parâmetros)
- Ideal para: usuários avançados, tarefas complexas, uso profissional
- Use cases: programação avançada, pesquisa, escrita criativa, análise de dados
- Requisitos: precisa de uma GPU parruda
Mas o que são parâmetros?
Parâmetros são os "neurônios" do modelo quanto mais ele tem, mais inteligente e complexo ele é. Resumindo:
- 7B: mais rápido, leve, bom pra brincar e fazer testes
- 70B: mais poderoso, preciso, mas exige muito mais da sua máquina
Passo 4: Rode o modelo escolhido
Depois de decidir qual modelo quer usar, rode ele com o Ollama
- Para rodar o DeepSeek-R1:
$ ollama run deepseek-r1
- Para rodar o DeepSeek-V3:
$ ollama run deepseek-v3
Passo 5: Hora de experimentar
Com o modelo rodando, você já pode usar ele para:
- Assistente de código: gerar trechos de código, encontrar bugs
- Escrita criativa: histórias, poemas, roteiros
- Pesquisa e análise: gerar insights com base em dados
- Experimentação: testar ajustes, otimizar uso, criar ferramentas próprias
Conclusão
Seja você iniciante ou veterano no mundo da IA, rodar o DeepSeek localmente com o Ollama é libertador.
- Quer só brincar ou aprender? Comece com o DeepSeek-R1
- Quer algo mais sério e poderoso? Vai de DeepSeek-V3
O importante é: você não precisa mais da nuvem para brincar com IA de verdade, aproveite.