Anthropic Corta o Acesso das Subscrições Claude ao OpenClaw: Fim do Atalho e o Que Muda na Prática

A 4 de Abril de 2026, a Anthropic bloqueou definitivamente a utilização das subscrições Claude Pro e Max em ferramentas third-party, incluindo o OpenClaw. O que funcionava como um atalho económico — usar uma subscrição de taxa fixa para alimentar sessões intensivas de agente — deixou de estar disponível. A partir dessa data, qualquer utilizador do OpenClaw que queira continuar a usar os modelos Claude precisa de uma chave API própria e pagar por consumo. Esta mudança tem impacto directo nos custos, na escolha de modelos, e na viabilidade prática para quem dependia do Claude em fluxos de trabalho intensivos.

⚠ Efectivo desde 4 de Abril de 2026: Utilizadores que configuraram o OpenClaw com credenciais de sessão Claude (via browser ou OAuth da claude.ai) começaram a receber erros de autenticação a partir do meio-dia (hora do Pacífico) dessa data. A política aplica-se a todos os "third-party harnesses" — o OpenClaw foi o primeiro afectado, com outros a seguir.

O Que Aconteceu: A Decisão da Anthropic em Detalhe

Em meados de Março de 2026, utilizadores do OpenClaw começaram a reportar comportamentos inconsistentes nas suas sessões Claude — limites atingidos inesperadamente, sessões interrompidas durante automações longas, e mensagens de erro atípicas. O que parecia um problema técnico pontual revelou-se o prenúncio de uma decisão estratégica maior.

A 4 de Abril, a Anthropic enviou um email a subscritores Claude Pro e Max com a seguinte mensagem, posteriormente partilhada no Hacker News e amplamente divulgada pela imprensa tecnológica:

"Starting April 4..., you'll no longer be able to use your Claude subscription limits for third-party harnesses including OpenClaw. [...] our subscriptions weren't built for the usage patterns of these third-party tools."

— Email da Anthropic a subscritores, 4 de Abril de 2026

Boris Cherny, responsável pelo Claude Code na Anthropic, confirmou e detalhou a decisão no X (anteriormente Twitter), afirmando que a empresa estava a "tentar ser intencional na gestão do crescimento para continuar a servir os nossos clientes de forma sustentável a longo prazo". A mensagem era clara: as subscrições de taxa fixa foram desenhadas para utilizadores humanos em sessões de chat — não para agentes autónomos que geram volumes de chamadas API entre 5 a 10 vezes superiores.

Como Funcionava o Atalho: Contexto Técnico

Para perceber o impacto desta mudança é necessário compreender o mecanismo que estava a ser utilizado. As subscrições Claude Pro ($20/mês) e Claude Max ($100-$200/mês) dão acesso à interface claude.ai com limites de utilização generosos mas finitos. Tecnicamente, esta interface comunica com os modelos Claude através de tokens de sessão autenticados.

Ferramentas third-party como o OpenClaw, ao invés de usar a API oficial da Anthropic (que cobra por token consumido), conseguiram durante algum tempo reutilizar estes tokens de sessão para fazer chamadas aos modelos Claude — beneficiando dos limites da subscrição sem pagar pela API. Do ponto de vista do utilizador, a configuração era simples: copiar as credenciais de sessão da claude.ai e colá-las no ficheiro de configuração do OpenClaw.

Modelo Anterior (antes de 4 Abr 2026)

Utilizador paga subscrição Claude Max ($200/mês) → copia token de sessão → OpenClaw usa esse token para fazer chamadas ilimitadas (dentro do limite da subscrição) → custo fixo e previsível, com modelos topo de gama incluídos.

Modelo Actual (após 4 Abr 2026)

Utilizador precisa de conta na Anthropic API (platform.anthropic.com) → gera chave API → paga por token consumido, separado da subscrição → custo variável, proporcional ao uso real do agente.

O que a Anthropic detectou — e a motivou a agir — foi que uma subscrição Claude Max de $200/mês estava a ser utilizada para gerar o equivalente a $1.000 a $5.000 em chamadas API, segundo dados reportados pelo The Decoder. Do ponto de vista da Anthropic, este diferencial era insustentável: estava a subsidiar enormes volumes de computação agentica a preço de subscrição pessoal.

Impacto Real para Utilizadores do OpenClaw

O impacto não é uniforme — depende do perfil de utilização. Há três categorias principais de utilizadores afectados de forma distinta:

Utilizador Casual / Exploratório

Quem usa o OpenClaw para tarefas pontuais e sessões curtas (pesquisa, redacção ocasional, automações simples) sentirá o impacto principalmente na configuração inicial. O custo real via API para uso leve pode até ser inferior ao da subscrição mensal — uma chave API com crédito de $10 pode durar semanas para este perfil.

Utilizador Avançado / Programador

Quem usa o OpenClaw para automação regular, processamento de documentos em massa, ou fluxos de trabalho com múltiplas iterações diárias vai sentir a mudança nos custos de forma significativa. O modelo pay-as-you-go expõe o custo real por tarefa — o que antes era "incluído" na subscrição passa a ser uma linha de despesa com variabilidade.

Equipas Técnicas / Automação Intensiva

Para quem dependia do Claude dentro do OpenClaw como motor de fluxos de produção — pipelines de conteúdo, análise de dados recorrente, agentes em loop contínuo — a mudança é a mais disruptiva. O custo mensal pode multiplicar por 5x a 10x face ao que era pago via subscrição, tornando o Claude potencialmente inviável como modelo principal para uso intensivo.

Análise de Custos: O Que Passa a Custar

Com o modelo pay-as-you-go da API Anthropic, o custo é determinado pelo número de tokens processados — tanto de entrada (contexto, instruções, histórico) como de saída (resposta do modelo). Os preços variam consoante o modelo escolhido:

Modelo Input (1M tokens) Output (1M tokens)
Claude Sonnet 4.6 $3 $15
Claude Opus 4.6 $15 $75
Claude Haiku 3.5 $0.80 $4

Preços indicativos de referência. Consulta sempre platform.anthropic.com para valores actualizados.

Para contextualizar: uma sessão típica de OpenClaw com o Sonnet 4.6 para uma tarefa de análise e redacção de média complexidade consume entre 10.000 e 50.000 tokens (input + output combinados). Isso equivale a $0,03 a $0,75 por sessão. Para uso diário intensivo — dez sessões/dia, cinco dias por semana — estamos a falar de $6 a $150 por mês, apenas em Claude. A diferença face à subscrição Max é significativa para utilizadores de uso médio, mas devastadora para utilizadores com o modelo Opus em ciclos longos.

O Modelo Opus: A Escolha que Mais Muda

Uma das consequências menos discutidas desta mudança é o impacto específico sobre a escolha de modelo. Com a subscrição Claude Max, o acesso ao Claude Opus — o modelo mais capaz da Anthropic — estava incluído no preço fixo. Via API, o Opus passa a custar 5x mais do que o Sonnet por tarefa equivalente.

Para utilizadores que configuravam o OpenClaw especificamente com Opus para raciocínio complexo, análise profunda de código ou planeamento multi-etapas, a equação económica muda radicalmente. A decisão prática para a maioria dos utilizadores avançados passará a ser usar Sonnet 4.6 como modelo padrão e reservar o Opus apenas para tarefas onde a qualidade adicional justifique o custo — uma escolha que antes não era necessária fazer.

O Que Diz o Criador do OpenClaw

A comunidade OpenClaw reagiu com frustração considerável. O criador do projecto, Peter Steinberger — que entretanto se juntou à OpenAI — manifestou publicamente o desacordo com a decisão, argumentando que muitos utilizadores subscreveram o Claude Pro ou Max precisamente porque a taxa fixa tornava viável usar o Claude como motor do OpenClaw. Na sua perspectiva, a Anthropic estava a retirar o valor central que motivou parte significativa das subscrições.

A empresa também reconheceu que a política era inevitável: a Anthropic tinha começado a introduzir limites de sessão em horas de pico nos meses anteriores, afectando até 7% dos utilizadores — um sinal de que a infra-estrutura estava sob pressão crescente de padrões de uso agentico que a subscrição plana não conseguia acomodar financeiramente.

ⓘ Contexto estratégico: A Anthropic lançou entretanto funcionalidades próprias no Claude Code (como canais de agentes integrados com Discord e Telegram) que competem directamente com o que tornava o OpenClaw atractivo para utilizadores Claude. A decisão de bloquear o acesso third-party não pode ser dissociada deste posicionamento estratégico.

Alternativas Práticas para Utilizadores do OpenClaw

A boa notícia é que o OpenClaw foi construído desde o início com uma arquitectura multi-modelo. Claude nunca foi o único motor disponível — é um entre muitos. Esta é, na prática, a principal vantagem do OpenClaw face a ferramentas proprietárias: a portabilidade entre fornecedores de LLM.

Migrar para API Claude (pay-as-you-go)

A opção mais directa: criar conta em platform.anthropic.com, gerar uma chave API e configurá-la no OpenClaw. Mantém o Claude como modelo, perde a previsibilidade de custo. Recomendável para utilizadores que fazem uso moderado ou que consomem principalmente Haiku e Sonnet.

Pacotes Pré-Pagos da Anthropic

A Anthropic disponibilizou opções de "prepaid usage bundles" — crédito pré-pago com desconto face às taxas standard. Para utilizadores com consumo regular e previsível, esta modalidade aproxima-se do conforto de uma subscrição sem ser ilimitada.

Alternar para Outros Modelos

O OpenClaw suporta nativamente modelos como GPT-5 (OpenAI), Gemini 2.5 Pro (Google), Grok (xAI) e vários modelos open source via Ollama local. A v2026.2.6 alargou significativamente este suporte. Para utilizadores que usavam Claude apenas por conveniência de preço, pode ser o momento de explorar alternativas.

Modelos Locais via Ollama

Para utilizadores com hardware adequado (GPU com 8GB+ VRAM), correr modelos como Llama 3.3, Mistral Small ou Qwen2.5 localmente elimina qualquer custo de API e qualquer dependência de serviços cloud. O custo de electricidade é negligenciável face aos custos de API para uso intensivo. A configuração do OpenClaw com Ollama está documentada na página de instalação.

Como Migrar a Configuração do OpenClaw para API Key

Se pretendes continuar a usar Claude mas migrar para chave API, o processo é simples. O OpenClaw suporta ambas as formas de autenticação — o que muda é apenas a entrada no ficheiro de configuração:

# config.json — configuração com API key Anthropic
{
  "mcpServers": {},
  "env": {
    "ANTHROPIC_API_KEY": "sk-ant-api03-..."
  },
  "model": "claude-sonnet-4-6-20261022"
}

A variável de ambiente ANTHROPIC_API_KEY é reconhecida automaticamente pelo OpenClaw. Alternativamente, podes exportá-la no terminal antes de iniciar o agente: export ANTHROPIC_API_KEY="sk-ant-...". A documentação oficial do OpenClaw detalha as opções de configuração por fornecedor.

⚠ Segurança da chave API: Nunca comitas a chave API para repositórios Git, nem a incluas em ficheiros partilhados. Usa variáveis de ambiente ou ficheiros .env com permissões restritas (chmod 600 .env). Uma chave API comprometida gera custos directos na tua conta Anthropic sem limite automático — configura sempre um orçamento mensal máximo em platform.anthropic.com.

Implicações Estratégicas para o Ecossistema OpenClaw

Esta mudança vai além de uma questão de custos — tem implicações estruturais para o posicionamento do OpenClaw como ferramenta.

Por um lado, o OpenClaw sai reforçado na sua proposta de valor de independência de fornecedor. A decisão da Anthropic é um argumento concreto, empiricamente validado, para a arquitectura multi-modelo do OpenClaw. Utilizadores que investiram tempo a aprender a plataforma não perdem o investimento — apenas reposicionam o motor. Isto contrasta com ferramentas proprietárias que ficam totalmente dependentes das políticas de um único fornecedor.

Por outro lado, o Claude foi durante muito tempo o modelo de referência dentro da comunidade OpenClaw — particularmente o Opus para tarefas complexas de raciocínio e o Sonnet para automação diária. A perda do acesso a preço de subscrição vai provocar uma migração natural de utilizadores para outros fornecedores, com impacto nos benchmarks e nas recomendações de configuração que circulam na comunidade.

A decisão da Anthropic segue uma tendência mais ampla do mercado: as grandes empresas de IA estão a distinguir explicitamente o uso humano (subscrição plana, interface web) do uso agentico e de programação (API, pay-as-you-go). O que era um atalho tornara-se um problema de sustentabilidade para a Anthropic — e a correcção era previsível para qualquer observador atento dos padrões de custo de infra-estrutura de LLMs.

O Que Esperar a Seguir

A política da Anthropic deverá manter-se. Não há indicações públicas de que a empresa vai reconsiderar o bloqueio a third-party harnesses — pelo contrário, Boris Cherny indicou que a medida seria alargada a outras ferramentas para além do OpenClaw.

Para a comunidade OpenClaw, os próximos meses serão de adaptação. É expectável que:

  • A base de utilizadores que usa modelos alternativos (OpenAI, Google, modelos locais) cresça significativamente
  • A documentação de configuração e os guias da comunidade sejam actualizados para reflectir o novo paradigma de autenticação
  • Ferramentas de controlo de custos de API (dashboards de tokens, limites por sessão, alertas de gastos) ganhem mais destaque nas funcionalidades do OpenClaw
  • O debate sobre modelos locais via Ollama ganhe novo impulso — especialmente com a melhoria contínua dos modelos open source de menor dimensão

Mantém-te actualizado sobre o OpenClaw

O ecossistema do OpenClaw está em constante evolução. Acompanha as notícias no OpenClaw.pt, explora a documentação oficial e junta-te à comunidade no GitHub para ficar a par das próximas actualizações — incluindo novas formas de configuração e suporte a modelos.

Repositório GitHub Todas as Notícias

Perguntas Frequentes

O OpenClaw deixou de funcionar com Claude?

Não. O OpenClaw continua a suportar o Claude na totalidade — o que mudou é o método de autenticação. Em vez de usar credenciais de sessão da claude.ai (que aproveitavam os limites da subscrição), é agora necessário usar uma chave API da Anthropic obtida em platform.anthropic.com. Com chave API, o Claude funciona exactamente como antes — apenas passa a ter custos por consumo em vez de custo fixo mensal.

Posso continuar a usar a minha subscrição Claude Pro para outra coisa?

Sim. A subscrição Claude Pro ou Max continua completamente válida para uso directo na interface claude.ai — chat, projectos, Claude Code (a ferramenta oficial da Anthropic). O bloqueio aplica-se especificamente ao uso dos limites de subscrição em ferramentas third-party como o OpenClaw. São dois serviços distintos: a subscrição para a interface oficial, e a API para integrações programáticas.

Qual é o modelo mais económico para usar no OpenClaw via API Anthropic?

O Claude Haiku 3.5 é o mais económico ($0.80/$4 por milhão de tokens input/output). Para a maioria das tarefas de automação, processamento de texto e fluxos de trabalho estruturados, o Haiku oferece um equilíbrio adequado entre custo e desempenho. O Sonnet 4.6 é a opção intermédia recomendada para tarefas que requerem maior capacidade de raciocínio. O Opus deve ser reservado para casos específicos onde a diferença de qualidade é perceptível e justificada.

Existem alternativas gratuitas ao Claude para o OpenClaw?

Sim. A forma mais acessível de usar o OpenClaw sem custos de API é com modelos locais via Ollama — modelos como Llama 3.3 70B, Qwen2.5 ou Mistral Small correm localmente em hardware moderno. A qualidade é inferior ao Claude Opus mas comparável ao Sonnet para muitas tarefas. Outra opção é a API da Google (Gemini), que inclui um tier gratuito com limites generosos para uso não-comercial.

Esta mudança afecta o Claude Code (ferramenta oficial da Anthropic)?

Não. O Claude Code é a ferramenta oficial da Anthropic — não é considerado "third-party harness" e por isso mantém acesso aos limites da subscrição normalmente. A ironia desta situação não passou despercebida à comunidade: a Anthropic bloqueou o acesso ao Claude em ferramentas concorrentes (como o OpenClaw) precisamente no período em que lançou o Claude Code com funcionalidades que concorrem directamente com o OpenClaw, como canais de agentes e integração com Discord/Telegram.

Últimas Notícias Ver Todas →