Claude Code + Ollama: Utilize o Claude Code de forma 100% GRATUITA (veja como)
Автор: Matheus Battisti - Hora de Codar
Загружено: 2026-03-16
Просмотров: 4768
Описание:
Dá pra rodar o Claude Code de graça, sem API key, sem plano Pro, sem pagar nada. Usando um modelo de IA rodando direto na sua máquina. Nesse vídeo instalo tudo ao vivo e crio um projeto do zero pra provar que funciona.
🔴 Formação Vibe Coding (Antigravity, Claude Code e +): https://app.horadecodar.com.br/lp/for...
🟪 Hospedagem para n8n que eu indico: https://hostinger.com.br/matheusbattisti (use o cupom HORADECODAR para ter +10% de desconto)
📘 Guia Engenharia de Prompt: https://app.horadecodar.com.br/ebookp...
O Claude Code é a ferramenta de coding da Anthropic que roda no terminal. Normalmente precisa de um plano Pro de 20 dólares por mês ou créditos de API pra usar. Mas o Ollama mudou isso. O Ollama é um runtime que roda modelos de IA localmente na sua máquina. Desde a versão 0.14 ele implementou compatibilidade com a API da Anthropic. Isso significa que o Claude Code pensa que tá falando com os servidores da Anthropic mas na real tá falando com um modelo local rodando no seu computador.
O modelo usado é o GLM-4.7 Flash da Zhipu AI. É um modelo Mixture of Experts com 30 bilhões de parâmetros mas que só ativa 3 bilhões por token. Traduzindo: roda rápido em hardware de consumidor. Tem 128k de contexto e suporta tool calling que é essencial pro Claude Code funcionar direito.
Pra rodar o GLM-4.7 Flash local precisa de hardware razoável. O recomendado é uma GPU NVIDIA com pelo menos 12GB de VRAM tipo RTX 3060 12GB, 4070 Ti, 4080, 4090 ou um Mac M-series com 32GB de RAM unificada. O mínimo é 16GB de RAM total. Dá pra rodar na CPU sem GPU mas vai ser bem mais lento.
A instalação é em 4 passos. Primeiro instala o Ollama pelo site ollama.com. Segundo baixa o modelo com ollama pull glm-4.7-flash. O modelo tem por volta de 18GB. Terceiro instala o Claude Code se ainda não tem. Quarto roda ollama launch claude --model glm-4.7-flash e pronto. O Ollama configura automaticamente as variáveis de ambiente e lança o Claude Code conectado no modelo local. Sem API key, sem plano pago, sem nada.
Na demo crio uma landing page completa pra uma startup fictícia chamada AutoBot. HTML, CSS e JavaScript separados. Dark mode com gradiente, contadores animados, cards com flip no hover, pricing com toggle mensal e anual que recalcula via JS, FAQ com accordion, smooth scroll. Tudo gerado pelo Claude Code rodando 100% local. Depois itero adicionando formulário de contato com validação JS pra mostrar que a iteração funciona.
Sou honesto sobre as limitações. O modelo local não é igual ao Sonnet ou Opus. Funciona bem pra sites estáticos, scripts, funções isoladas, CRUD simples. Sofre em projetos complexos com múltiplos componentes interligados. A velocidade: uma tarefa que o Sonnet resolve em 30 segundos pode levar 3 a 5 minutos no modelo local. Pra quem tá começando, pra projetos menores, pra trabalhar offline ou pra manter código privado é excelente. Pra trabalho profissional em projetos grandes ainda compensa o plano Pro.
Se sua máquina não aguenta rodar local o Ollama oferece modelos cloud que rodam nos servidores deles de graça. Roda ollama pull glm-4.7:cloud e depois ollama launch claude --model glm-4.7:cloud. Precisa de internet mas o custo é zero.
🔗 Links do vídeo:
▸ Ollama: https://ollama.com
Entre no nosso servidor de Discord e me siga nas redes:
🟣 Discord Hora de Codar: / discord
🔴 Instagram: / horadecodar
🔷 Telegram: https://t.me/horadecodar
TIMESTAMPS
00:00 Claude Code gratuito com Ollama
00:45 Passo a passo para deixar o Claude Code grátis com Ollama
03:45 Download do Ollama
04:10 Escolhendo modelo de LLM para rodar Claude Code gratuitamente
07:00 Usando o Claude Code de maneira gratuita com LLM local
08:50 Usando o Claude Code gratuitamente com LLM via Cloud
10:55 Minhas considerações sobre Claude Code + Ollama = gratuito
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: