Instalando e Configurando o Ollama no Windows #

Ollama é uma plataforma que permite rodar modelos de linguagem (LLMs) localmente no seu computador de forma simples e rápida, sem depender da nuvem. Com ele, você pode baixar e interagir com modelos como LLaMA, Mistral e Gemma diretamente via terminal ou API, garantindo mais privacidade, controle e desempenho nas aplicações de IA.

Baixar e Instalar o Ollama #

  • Acesse o site oficial do Ollama: https://ollama.com
  • Clique no botão de download para Windows e baixe o instalador.
  • Execute o instalador e siga as instruções na tela para completar a instalação.
💡 O instalador configura o Ollama para iniciar automaticamente com o sistema e instala uma aplicação de desktop para facilitar o gerenciamento do servidor.

Baixar Modelos de Linguagem #

Com o Ollama instalado, você pode baixar modelos de linguagem para uso local. Abra o Prompt de Comando ou o PowerShell e execute os seguintes comandos conforme necessário:

  • Llama 3.2 (1B):
    ollama run llama3.2:latest

Outros modelos recomendados:

Gemma 2 (2B):

ollama run gemma2:2b

Mistral (7B):

ollama run mistral

Como Abrir e Usar o Ollama #

Configurando OLLAMA_HOST e OLLAMA_ORIGINS #

Para permitir que o Ollama aceite conexões de outras origens, siga os passos abaixo:

  1. Encerrar o Ollama:
    • Clique com o botão direito no ícone do Ollama na bandeja do sistema (próximo ao relógio) e selecione “Sair”.
  2. Abrir as Configurações de Variáveis de Ambiente:
    • Pressione Win + S, digite “variáveis de ambiente” e selecione “Editar variáveis de ambiente do sistema”.
  3. Adicionar Variáveis de Ambiente:
    • Na seção “Variáveis de usuário”, clique em “Novo…” e adicione as seguintes variáveis:
      • Nome da variável: OLLAMA_HOST
      • Valor da variável: 0.0.0.0
    • Clique novamente em “Novo…” e adicione:
      • Nome da variável: OLLAMA_ORIGINS
      • Valor da variável: *
  4. Salvar e Reiniciar o Ollama:
    • Clique em “OK” para salvar as alterações.
    • Inicie o Ollama novamente a partir do menu Iniciar.

🔒 Essas configurações permitem que o Ollama aceite conexões de qualquer origem. Para ambientes de produção, é recomendável restringir as origens permitidas por motivos de segurança.