Instalação e Configuração do DeepSeek com Open WebUI
Kaique de Miranda

Kaique de Miranda @kbdemiranda

Location:
São Paulo, SP
Joined:
Jan 5, 2021

Instalação e Configuração do DeepSeek com Open WebUI

Publish Date: Feb 7
8 0

Este guia explica como instalar o Ollama, baixar o modelo DeepSeek, e configurar o Open WebUI para rodar na porta 3000.


1. Instalação do Ollama

O Ollama é um runtime para executar modelos de IA localmente.

1.1 Baixar e Instalar

Acesse o site oficial e baixe a versão apropriada para seu sistema operacional:

Depois de instalado, verifique se o Ollama está funcionando corretamente:

ollama --version
Enter fullscreen mode Exit fullscreen mode

Se o comando retornar a versão do Ollama, a instalação foi bem-sucedida.


2. Baixar o Modelo DeepSeek

Agora, baixe o modelo DeepSeek diretamente pelo Ollama:

ollama pull deepseek-r1:1.5b
Enter fullscreen mode Exit fullscreen mode

Caso precise de um modelo maior, substitua 1.5b por 8b, 14b ou 32b, conforme a capacidade do seu hardware.

Para testar se o modelo funciona, execute:

ollama run deepseek-r1:1.5b
Enter fullscreen mode Exit fullscreen mode

3. Instalação do Open WebUI via Docker

Para facilitar o uso do DeepSeek, utilizamos o Open WebUI, uma interface amigável para modelos de IA.

3.1 Instalar o Docker

Se ainda não tiver o Docker instalado, baixe e instale-o aqui:

Verifique se o Docker está rodando corretamente:

docker --version
Enter fullscreen mode Exit fullscreen mode

3.2 Baixar e Executar o Open WebUI

Agora, baixe e inicie o container do Open WebUI na porta 3000:

docker run -d --name open-webui -p 3000:3000 -e PORT=3000 -v open-webui-data:/app/data --pull=always ghcr.io/open-webui/open-webui:main
Enter fullscreen mode Exit fullscreen mode

Se precisar parar e remover o container, utilize:

docker rm -f open-webui
Enter fullscreen mode Exit fullscreen mode

E depois recrie com o comando acima.


4. Teste e Configuração do Open WebUI

Após iniciar o Open WebUI, acesse no navegador:

➡️ http://localhost:3000

Se a página não carregar, verifique se o container está rodando corretamente:

docker ps | grep open-webui
Enter fullscreen mode Exit fullscreen mode

Se precisar ver os logs para encontrar erros:

docker logs open-webui --follow
Enter fullscreen mode Exit fullscreen mode

5. Conectar o DeepSeek ao Open WebUI

Dentro do Open WebUI, configure uma nova conexão para o modelo:

  1. Acesse Administração dentro do Open WebUI.
  2. Adicione uma nova conexão OpenAI com as seguintes configurações:
    • URL: http://127.0.0.1:11434/v1
    • Chave API: none

Isso permitirá que você utilize o DeepSeek via WebUI.


6. Testando o Modelo no Open WebUI

Agora, teste enviando uma pergunta no chat. Se tudo estiver configurado corretamente, o DeepSeek deve responder!

Se houver problemas, verifique:

docker logs open-webui --follow
Enter fullscreen mode Exit fullscreen mode

Ou teste o DeepSeek diretamente no terminal:

ollama run deepseek-r1:1.5b
Enter fullscreen mode Exit fullscreen mode

Conclusão

Agora você tem o DeepSeek rodando localmente com uma interface web amigável no Open WebUI! Se precisar trocar de modelo, basta rodar novamente:

ollama pull deepseek-r1:14b
Enter fullscreen mode Exit fullscreen mode

E ajustar o Open WebUI para usá-lo.

Para mais detalhes, acesse:

Comments 0 total

    Add comment