O Código Claude custa até US$ 200 por mês. Goose faz a mesma coisa de

Este artigo é uma tradução/adaptação para o português (PT-BR) de uma notícia do VentureBeat.

A revolução da codificação da inteligência artificial tem um problema: é cara. Claude Code, o agente de IA baseado em terminal da Anthropic que pode escrever, depurar e implantar código de forma autônoma, capturou a imaginação de desenvolvedores de software em todo o mundo. Mas seu preço – variando de US$ 20 a US$ 200 por mês, dependendo do uso – provocou uma rebelião crescente entre os próprios programadores que pretende servir. Agora, uma alternativa gratuita está ganhando força. Goose, um agente de IA de código aberto desenvolvido pela Block (a empresa de tecnologia financeira anteriormente conhecida como Square), oferece funcionalidade quase idêntica ao Claude Code, mas funciona inteiramente na máquina local do usuário. Sem taxas de assinatura. Sem dependência de nuvem. Sem limites de taxa que são redefinidos a cada cinco horas. “Seus dados ficam com você, ponto final”, disse Parth Sareen, engenheiro de software que demonstrou a ferramenta durante uma transmissão ao vivo recente. O comentário captura o apelo principal: Goose oferece aos desenvolvedores controle total sobre seu fluxo de trabalho baseado em IA, incluindo a capacidade de trabalhar offline – mesmo em um avião.

O projeto explodiu em popularidade. Goose agora possui mais de 26.100 estrelas no GitHub, a plataforma de compartilhamento de código, com 362 colaboradores e 102 lançamentos desde seu lançamento. A versão mais recente, 1.20.1, foi lançada em 19 de janeiro de 2026, refletindo um ritmo de desenvolvimento que rivaliza com os produtos comerciais. Para desenvolvedores frustrados com a estrutura de preços e limites de uso do Claude Code, Goose representa algo cada vez mais raro na indústria de IA: uma opção genuinamente gratuita e sem compromisso para um trabalho sério. Os novos limites de taxas da Anthropic provocam uma revolta dos desenvolvedores. Para entender por que Goose é importante, você precisa entender a controvérsia de preços do Código Claude. A Anthropic, empresa de inteligência artificial de São Francisco fundada por ex-executivos da OpenAI, oferece Claude Code como parte de seus níveis de assinatura. O plano gratuito não oferece nenhum acesso. O plano Pro, de US$ 17 por mês com faturamento anual (ou US$ 20 mensais), limita os usuários a apenas 10 a 40 solicitações a cada cinco horas – uma restrição que os desenvolvedores sérios esgotam em poucos minutos de trabalho intensivo.

Os planos Max, de US$ 100 e US$ 200 por mês, oferecem mais espaço: 50 a 200 prompts e 200 a 800 prompts respectivamente, além de acesso ao modelo mais poderoso da Anthropic, Claude 4.5 Opus. Mas mesmo esses níveis premium vêm com restrições que inflamaram a comunidade de desenvolvedores. No final de julho, a Anthropic anunciou novos limites de taxas semanais. No sistema, os usuários Pro recebem de 40 a 80 horas de uso do Sonnet 4 por semana. Os usuários máximos na faixa de US$ 200 recebem de 240 a 480 horas de Sonnet 4, mais 24 a 40 horas de Opus 4. Quase cinco meses depois, a frustração não diminuiu. O problema? Essas “horas” não são horas reais. Eles representam limites baseados em token que variam muito dependendo do tamanho da base de código, da duração da conversa e da complexidade do código que está sendo processado. Análises independentes sugerem que os limites reais por sessão se traduzem em aproximadamente 44.000 tokens para usuários Pro e 220.000 tokens para o plano máximo de US$ 200. “É confuso e vago”, escreveu um desenvolvedor em uma análise amplamente compartilhada. "Quando dizem '24-40 horas de Opus 4', isso não diz nada de útil sobre o que você está realmente obtendo."

A reação no Reddit e nos fóruns de desenvolvedores tem sido feroz. Alguns usuários relatam atingir seus limites diários em 30 minutos de codificação intensiva. Outros cancelaram totalmente suas assinaturas, chamando as novas restrições de “uma piada” e “inutilizáveis ​​para o trabalho real”. A Anthropic defendeu as mudanças, afirmando que os limites afetam menos de cinco por cento dos usuários e têm como alvo as pessoas que executam o Claude Code “continuamente em segundo plano, 24 horas por dia, 7 dias por semana”. Mas a empresa não esclareceu se esse número se refere a cinco por cento dos assinantes do Max ou a cinco por cento de todos os usuários – uma distinção que é extremamente importante. Como Block construiu um agente de codificação de IA gratuito que funciona offlineGoose adota uma abordagem radicalmente diferente para o mesmo problema. Construído pela Block, empresa de pagamentos liderada por Jack Dorsey, Goose é o que os engenheiros chamam de “agente de IA na máquina”. Ao contrário do Claude Code, que envia suas consultas aos servidores da Anthropic para processamento, o Goose pode ser executado inteiramente em seu computador local usando modelos de linguagem de código aberto que você mesmo baixa e controla.

A documentação do projeto descreve-o como indo “além das sugestões de código” para “instalar, executar, editar e testar com qualquer LLM”. Essa última frase – “qualquer LLM” – é o principal diferencial. Goose é independente de modelo por design. Você pode conectar o Goose aos modelos Claude da Anthropic se tiver acesso à API. Você pode usar o GPT-5 da OpenAI ou o Gemini do Google. Você pode encaminhá-lo através de serviços como Groq ou OpenRouter. Ou – e é aqui que as coisas ficam interessantes – você pode executá-lo inteiramente localmente usando ferramentas como o Ollama, que permite baixar e executar modelos de código aberto em seu próprio hardware. As implicações práticas são significativas. Com uma configuração local, não há taxas de assinatura, limites de uso, limites de taxa e nenhuma preocupação com o envio do seu código para servidores externos. Suas conversas com a IA nunca saem da sua máquina. “Eu uso Ollama o tempo todo em aviões – é muito divertido!” Sareen observou durante uma demonstração, destacando como os modelos locais libertam os desenvolvedores das restrições da conectividade à Internet.

O que o Goose pode fazer e que os assistentes de código tradicionais não conseguem. O Goose opera como uma ferramenta de linha de comando ou aplicativo de desktop que pode executar tarefas de desenvolvimento complexas de forma autônoma. Ele pode criar projetos inteiros do zero, escrever e executar códigos, depurar falhas, orquestrar fluxos de trabalho em vários arquivos e interagir com APIs externas — tudo isso sem supervisão humana constante. A arquitetura depende do que a indústria de IA chama de “chamada de ferramenta” ou “chamada de função” – a capacidade de um modelo de linguagem solicitar ações específicas de sistemas externos. Quando você pede ao Goose para criar um novo arquivo, executar um conjunto de testes ou verificar o status de uma solicitação pull do GitHub, ele não apenas gera um texto descrevendo o que deve acontecer. Na verdade, ele executa essas operações. Esta capacidade depende muito do modelo de linguagem subjacente. Os modelos Claude 4 da Anthropic atualmente apresentam melhor desempenho em chamadas de ferramentas, de acordo com o Berkeley Function-Calling Leaderboard, que classifica os modelos de acordo com sua capacidade de traduzir solicitações de linguagem natural em código executável e comandos do sistema.

Mas os modelos de código aberto mais recentes estão se atualizando rapidamente. A documentação do Goose destaca várias opções com forte suporte para chamadas de ferramentas: a série Llama do Meta, os modelos Qwen do Alibaba, as variantes Gemma do Google e as arquiteturas focadas no raciocínio do DeepSeek. A ferramenta também se integra ao Model Context Protocol, ou MCP, um padrão emergente para conectar agentes de IA a serviços externos. Através do MCP, o Goose pode acessar bancos de dados, mecanismos de pesquisa, sistemas de arquivos e APIs de terceiros — estendendo seus recursos muito além do que o modelo de linguagem base oferece. Configurando o Goose com um modelo localPara desenvolvedores interessados ​​em uma configuração totalmente gratuita e que preserva a privacidade, o processo envolve três componentes principais: o próprio Goose, o Ollama (uma ferramenta para executar modelos de código aberto localmente) e um modelo de linguagem compatível. Passo 1: Instale o Ollama Ollama é um projeto de código aberto que simplifica drasticamente o processo de execução de grandes modelos de linguagem em hardware pessoal. Ele lida com o trabalho complexo de baixar, otimizar e servir modelos por meio de uma interface simples.

Baixe e instale o Ollama em ollama.com. Depois de instalado, você pode extrair modelos com um único comando. Para tarefas de codificação, o Qwen 2.5 oferece forte suporte para chamadas de ferramentas: ollama run qwen2.5 O modelo é baixado automaticamente e começa a ser executado em sua máquina. Etapa 2: Instalar o Goose O Goose está disponível como aplicativo de desktop e como interface de linha de comando. A versão desktop oferece uma experiência mais visual, enquanto a CLI atrai desenvolvedores que preferem trabalhar inteiramente no terminal. As instruções de instalação variam de acordo com o sistema operacional, mas geralmente envolvem o download da página de lançamentos do GitHub do Goose ou o uso de um gerenciador de pacotes. Block fornece binários pré-construídos para macOS (Intel e Apple Silicon), Windows e Linux. Etapa 3: Configurar a conexão no Goose Desktop, navegue até Configurações, Configurar provedor e selecione Ollama. Confirme se o Host da API está definido como http://localhost:11434 (porta padrão do Ollama) e clique em Enviar. Para a versão de linha de comando, execute goose configure, selecione "Configurar provedores", escolha Ollama e insira o nome do modelo quando solicitado.

É isso. Goose agora está conectado a um modelo de linguagem executado inteiramente em seu hardware, pronto para executar tarefas complexas de codificação sem quaisquer taxas de assinatura ou dependências externas. A RAM, o poder de processamento e as vantagens e desvantagens que você deve conhecerA pergunta óbvia: que tipo de computador você precisa? A execução local de grandes modelos de linguagem requer substancialmente mais recursos computacionais do que software típico. A principal restrição é a memória – especificamente, RAM na maioria dos sistemas, ou VRAM se estiver usando uma placa gráfica dedicada para aceleração. A documentação do Block sugere que 32 gigabytes de RAM fornecem “uma base sólida para modelos e resultados maiores”. Para usuários de Mac, isso significa que a memória unificada do computador é o principal gargalo. Para usuários de Windows e Linux com placas gráficas NVIDIA discretas, a memória GPU (VRAM) é mais importante para aceleração. Mas você não precisa necessariamente de hardware caro para começar. Modelos menores com menos parâmetros funcionam em sistemas muito mais modestos. O Qwen 2.5, por exemplo, vem em vários tamanhos, e as variantes menores podem operar efetivamente em máquinas com 16 gigabytes de RAM.

“Você não precisa executar modelos maiores para obter resultados excelentes”, enfatizou Sareen. A recomendação prática: comece com um modelo menor para testar seu fluxo de trabalho e depois aumente conforme necessário. Para contextualizar, o MacBook Air básico da Apple com 8 gigabytes de RAM teria dificuldades com os modelos de codificação mais capazes. Mas um MacBook Pro com 32 gigabytes – cada vez mais comum entre desenvolvedores profissionais – lida com eles confortavelmente. Por que manter seu código fora da nuvem é mais importante do que nuncaGoose com um LLM local não é um substituto perfeito para Claude Code. A comparação envolve compensações reais que os desenvolvedores devem compreender. Qualidade do modelo: Claude 4.5 Opus, o modelo carro-chefe da Anthropic, continua sendo indiscutivelmente a IA mais capaz para tarefas de engenharia de software. Ele é excelente na compreensão de bases de código complexas, seguindo instruções diferenciadas e produzindo código de alta qualidade na primeira tentativa. Os modelos de código aberto melhoraram dramaticamente, mas persiste uma lacuna – especialmente para as tarefas mais desafiadoras. Um desenvolvedor que mudou para o plano Claude Code de US$ 200 descreveu a diferença sem rodeios: "Quando digo 'faça com que pareça moderno', a Opus sabe o que quero dizer. Outros modelos me deram o Bootstrap por volta de 2015."

Janela de contexto: Claude Sonnet 4.5, acessível por meio da API, oferece uma enorme janela de contexto de um milhão de tokens – o suficiente para carregar grandes bases de código inteiras sem problemas de fragmentação ou gerenciamento de contexto. A maioria dos modelos locais são limitados a 4.096 ou 8.192 tokens por padrão, embora muitos possam ser configurados para contextos mais longos ao custo de maior uso de memória e processamento mais lento. Velocidade: serviços baseados em nuvem, como o Claude Code, são executados em hardware de servidor dedicado otimizado para inferência de IA. Os modelos locais, executados em laptops de consumo, normalmente processam solicitações mais lentamente. A diferença é importante para fluxos de trabalho iterativos em que você faz alterações rápidas e aguarda feedback da IA. Maturidade das ferramentas: Claude Code se beneficia dos recursos de engenharia dedicados da Anthropic. Recursos como cache de prompt (que pode reduzir custos em até 90% para contextos repetidos) e resultados estruturados são sofisticados e bem documentados. Goose, embora tenha sido ativamente desenvolvido com 102 lançamentos até o momento, depende das contribuições da comunidade e pode carecer de refinamento equivalente em áreas específicas.

Como o Goose se compara ao Cursor, ao GitHub Copilot e ao mercado pago de codificação de IAGoose entra em um mercado lotado de ferramentas de codificação de IA, mas ocupa uma posição distinta. O Cursor, um popular editor de código aprimorado por IA, cobra US$ 20 por mês pelo nível Pro e US$ 200 pelo Ultra – preços que refletem os planos Max da Claude Code. O Cursor fornece aproximadamente 4.500 solicitações Sonnet 4 por mês no nível Ultra, um modelo de alocação substancialmente diferente das redefinições horárias do Claude Code. Cline, Roo Code e projetos semelhantes de código aberto oferecem assistência de codificação de IA, mas com vários níveis de autonomia e integração de ferramentas. Muitos se concentram na conclusão do código, em vez da execução de tarefas de agente que define Goose e Claude Code. O CodeWhisperer da Amazon, o GitHub Copilot e as ofertas empresariais dos principais provedores de nuvem têm como alvo grandes organizações com processos de aquisição complexos e orçamentos dedicados. Eles são menos relevantes para desenvolvedores individuais e pequenas equipes que buscam ferramentas leves e flexíveis.

A combinação de autonomia genuína, agnosticismo de modelo, operação local e custo zero da Goose cria uma proposta de valor única. A ferramenta não tenta competir com ofertas comerciais em polimento ou qualidade do modelo. Está competindo pela liberdade – tanto financeira quanto arquitetônica. A era de US$ 200 por mês para ferramentas de codificação de IA pode estar terminando. O mercado de ferramentas de codificação de IA está evoluindo rapidamente. Os modelos de código aberto estão melhorando a um ritmo que diminui continuamente a lacuna em relação às alternativas proprietárias. Kimi K2 da Moonshot AI e GLM 4.5 da z.ai agora fazem benchmark próximo aos níveis Claude Sonnet 4 – e estão disponíveis gratuitamente. Se esta trajetória continuar, a vantagem de qualidade que justifica o preço premium da Claude Code poderá diminuir. A Anthropic enfrentaria então pressão para competir em recursos, experiência do usuário e integração, em vez de capacidade bruta do modelo. Por enquanto, os desenvolvedores enfrentam uma escolha clara. Aqueles que precisam da melhor qualidade de modelo, que podem pagar preços premium e que aceitam restrições de uso podem preferir o Claude Code. Aqueles que priorizam custo, privacidade, acesso offline e flexibilidade têm uma alternativa genuína no Goose.

O fato de um produto comercial de US$ 200 por mês ter um concorrente de código aberto de zero dólar com funcionalidade central comparável é por si só notável. Reflete tanto o amadurecimento da infraestrutura de IA de código aberto como o apetite dos desenvolvedores por ferramentas que respeitem a sua autonomia. Ganso não é perfeito. Requer mais configuração técnica do que alternativas comerciais. Depende de recursos de hardware que nem todo desenvolvedor possui. Suas opções de modelo, embora melhorem rapidamente, ainda seguem as melhores ofertas proprietárias em tarefas complexas. Mas para uma comunidade crescente de desenvolvedores, essas limitações são compensações aceitáveis ​​para algo cada vez mais raro no cenário da IA: uma ferramenta que realmente lhes pertence. Goose está disponível para download em github.com/block/goose. Ollama está disponível em ollama.com. Ambos os projetos são gratuitos e de código aberto.

Saiba mais sobre o assunto

Para ler a notícia completa no idioma original, acesse a fonte diretamente:

Claude Code costs up to $200 a month. Goose does the same thing for free. — VentureBeat


Fonte original: VentureBeat · Traduzido e adaptado por TemTech.

Fontes e referências

Materiais usados para apuração, checagem ou contexto desta matéria.

Tags
Ia
Ver todos os artigos

Receba novos posts por e-mail

Entre para a lista e receba as próximas publicações direto na caixa de entrada.