Para instalar o Ollama no Linux, basta executar o seguinte comando:
curl -sSfL https://ollama.com/download.sh | sh
Para macOS ou Windows, você pode baixar o instalador diretamente do site oficial: Download
Para verificar se a instalação foi bem-sucedida, execute o seguinte comando:
ollama version
Por padrão, o Ollama roda na porta 127.0.0.1:11434. Caso ele não esteja em execução, você pode iniciar o serviço com o seguinte comando:
ollama serve
Rodando o primeiro modelo
Vamos testar o Qwen3 na versão mais simples, com 0.6B de parâmetros:
ollama run qwen3:0.6B
Ele irá baixar e iniciar o modelo e, em seguida, abrirá um prompt para que possamos interagir com ele. Basta digitar algo e pressionar Enter.
Para sair do prompt, basta pressionar Ctrl + D.
Com isso ja é possivel construir aplicações que utilizem o Ollama como backend de IA.