Nanobot v0.1.4: MCP, Skills do ClawHub e a Revolução do Agente Ultra-Leve

Enquanto o OpenClaw cresce em funcionalidades e complexidade, o projecto derivado Nanobot seguiu o caminho oposto: fazer mais com menos. A versão 0.1.4, lançada esta semana, é a actualização mais ambiciosa do Nanobot até à data. Chegou o suporte ao protocolo MCP, a integração nativa com o ClawHub para instalar skills sem programar, e um conjunto de novos fornecedores de LLM que tornam o Nanobot uma alternativa genuinamente competitiva para automação no dia a dia.

Instalação rápida: pip install nanobot-ai ou via Docker com docker compose up -d. O repositório oficial está em github.com/HKUDS/nanobot. A v0.1.4 acumula 349 commits e 18 novos contribuidores face à versão anterior.

O Que É o Nanobot e Porque Está a Crescer

O Nanobot é um projecto open-source desenvolvido pelo Data Intelligence Lab da Universidade de Hong Kong (HKUDS). O objectivo desde o início foi simples: replicar o essencial do OpenClaw numa base de código radicalmente mais pequena.

O resultado é um agente de IA pessoal construído em cerca de 4.000 linhas de Python — comparado com as mais de 430.000 linhas de código Node.js do OpenClaw. A diferença não é apenas estética: traduz-se em tempos de arranque de menos de um segundo, consumo de memória a rondar os 45 MB em operação básica, e uma base de código que qualquer developer consegue ler e entender numa tarde.

Com mais de 20.000 estrelas no GitHub acumuladas desde o lançamento, o Nanobot deixou de ser um projecto experimental para se tornar numa alternativa real ao OpenClaw para utilizadores que valorizam a simplicidade, a auditabilidade e o baixo consumo de recursos.

Resumo da v0.1.4

  • MCP (Model Context Protocol): Suporte nativo a servidores de ferramentas externos
  • ClawHub integrado: Pesquisa e instalação de skills directamente na conversa
  • Novos fornecedores: GitHub Copilot, OpenAI Codex, SiliconFlow, VolcEngine
  • Streaming de progresso: Visualização em tempo real de tarefas multi-passo
  • Docker Compose: Deploy completo com um único comando
  • Telegram: Upload de media e divisão automática de mensagens longas
  • Slack: Sessões isoladas por tópico e formatação mrkdwn

MCP: A Chave para a Interoperabilidade

A adição mais estratégica do Nanobot v0.1.4 é, sem dúvida, o suporte ao Model Context Protocol (MCP) — o standard aberto introduzido pela Anthropic em novembro de 2024 e entretanto adoptado pela OpenAI, Google e pela generalidade do ecossistema de IA.

O MCP funciona como um "USB-C para agentes de IA": em vez de cada agente precisar de uma integração personalizada com cada serviço externo, ambos os lados implementam o protocolo uma vez e passam a falar a mesma linguagem. A analogia com o USB-C é precisa — antes do USB-C, cada dispositivo tinha o seu conector proprietário. O MCP resolve exactamente o mesmo problema, mas para ferramentas e dados em contextos de IA.

Como o MCP Funciona no Nanobot

Com o suporte MCP activado na v0.1.4, o Nanobot pode ligar-se a qualquer servidor MCP existente e usar as suas ferramentas de forma transparente durante uma conversa ou tarefa autónoma. Isto inclui servidores MCP para GitHub, bases de dados, APIs de terceiros, sistemas de ficheiros locais, e muito mais — tudo sem escrever uma única linha de código de integração.

# config.yaml — Configurar um servidor MCP no Nanobot
mcp:
  servers:
    - name: github
      command: npx
      args: ["@modelcontextprotocol/server-github"]
      env:
        GITHUB_TOKEN: "o-teu-token"
    - name: filesystem
      command: npx
      args: ["@modelcontextprotocol/server-filesystem", "/home/user/docs"]
      timeout: 30

Com esta configuração, o teu Nanobot passa a ter acesso às ferramentas de leitura/escrita de repositórios GitHub e ao sistema de ficheiros local. O agente decide autonomamente quando e como usar estas ferramentas durante a execução das tarefas — sem intervenção manual.

MCP com autenticação personalizada: A v0.1.4 suporta também MCP com headers de autenticação personalizados, necessários para servidores MCP que exigem tokens proprietários ou OAuth. O campo headers na configuração do servidor aceita pares chave-valor que são enviados em cada pedido.

Porque o MCP Muda o Jogo para o Nanobot

O MCP resolve um dos principais argumentos contra o Nanobot face ao OpenClaw: a menor quantidade de integrações disponíveis de raiz. Com o MCP, esta diferença torna-se irrelevante. Existem hoje centenas de servidores MCP open-source para os serviços mais usados — e o Nanobot passa a suportá-los todos com a mesma configuração de três linhas.

É um salto qualitativo: de um agente com integrações limitadas para um agente com interoperabilidade potencialmente ilimitada.

ClawHub Integrado: Skills Sem Precisar de Programar

A segunda grande novidade da v0.1.4 é a integração nativa com o ClawHub — o marketplace oficial de skills do ecossistema OpenClaw, agora acessível directamente a partir de uma conversa com o Nanobot.

Uma "skill" no ecossistema OpenClaw/Nanobot é um módulo de capacidades reutilizável: um conjunto de instruções, ferramentas e comportamentos que estende o que o agente consegue fazer. Pode ser uma skill para gerir tarefas no Notion, monitorizar preços de acções, resumir newsletters por email, ou interagir com uma API específica da tua empresa. O ClawHub tem hoje mais de 3.000 skills públicas disponíveis após a limpeza de segurança de fevereiro.

Como Instalar Skills do ClawHub no Nanobot

Com a v0.1.4, há duas formas de instalar skills:

Método 1 — Via CLI do ClawHub

# Instalar o CLI
npm i -g clawhub

# Pesquisar skills disponíveis
clawhub search "email summarizer"
clawhub search "notion tasks"

# Instalar uma skill
clawhub install email-digest

# Listar skills instaladas
clawhub list

# Actualizar todas as skills
clawhub update --all

Método 2 — Directamente na conversa com o Nanobot

A novidade da v0.1.4 é que o Nanobot inclui agora uma skill embutida que permite pesquisar e instalar outras skills do ClawHub sem sair da conversa. Basta pedir ao agente:

Utilizador: "Procura skills no ClawHub para gestão de email"

Nanobot: [pesquisa o ClawHub e apresenta resultados]
  "Encontrei 12 skills relacionadas com gestão de email:
  1. email-digest — resumos diários de inbox
  2. email-to-notion — arquiva emails no Notion
  3. auto-reply-templates — respostas automáticas..."

Utilizador: "Instala o email-digest"

Nanobot: [instala a skill automaticamente]
  "Skill email-digest instalada. Posso configurá-la agora?"

Este fluxo elimina a barreira técnica que impede muitos utilizadores de explorar o ecossistema de skills. Não é preciso saber o que é um CLI, não é preciso conhecer o repositório do ClawHub — basta pedir ao agente em linguagem natural.

Nota de segurança: Antes de instalar qualquer skill de terceiros, verifica o seu historial no ClawHub. Após o incidente de segurança de fevereiro de 2026, todas as skills passaram a ser varridas pelo VirusTotal Code Insight — mas a diligência do utilizador continua a ser a melhor defesa. Lê sempre a descrição da skill e verifica os ficheiros antes de activar.

Novos Fornecedores de LLM: Mais Escolha, Mesma Simplicidade

A v0.1.4 expande significativamente a lista de fornecedores de LLM suportados pelo Nanobot. Para além dos já existentes (Anthropic, OpenAI, DeepSeek, Qwen, Moonshot/Kimi), chegam agora:

GitHub Copilot

Integração directa com o GitHub Copilot como fornecedor de LLM. Se já tens uma assinatura GitHub Copilot activa (Individual ou Business), podes usá-la no Nanobot sem custo adicional — acede a modelos Claude e GPT-4 através da tua licença existente.

OpenAI Codex com OAuth

Suporte ao OpenAI Codex com autenticação OAuth — necessário para acesso aos novos modelos de raciocínio da OpenAI disponíveis via Codex. O fluxo OAuth está totalmente integrado, bastando autorizar o acesso na primeira configuração.

SiliconFlow

Plataforma de inferência chinesa que agrega múltiplos modelos open-source (DeepSeek, Qwen, InternLM) com uma API unificada e preços significativamente inferiores às alternativas americanas. Especialmente útil para utilizadores que trabalham com grandes volumes de pedidos.

VolcEngine (ByteDance)

Plataforma de IA em nuvem da ByteDance, com acesso aos modelos Doubao e outros modelos proprietários. Relevante para utilizadores na Ásia-Pacífico com necessidades de conformidade de dados locais.

Esta expansão é importante: o Nanobot suporta agora também endpoints compatíveis com OpenAI personalizados e integração com vLLM para quem corre modelos self-hosted localmente. Na prática, significa que qualquer modelo open-source que corra via vLLM ou Ollama pode ser usado como cérebro do Nanobot.

Melhorias nos Canais de Comunicação

A v0.1.4 traz também melhorias concretas nos principais canais de mensagens suportados:

Telegram

O canal Telegram, já o mais popular no ecossistema Nanobot, recebe duas melhorias muito pedidas pela comunidade:

  • Upload de media: O agente pode agora enviar e receber imagens, documentos e outros ficheiros via Telegram, não apenas texto
  • Divisão automática de mensagens longas: Respostas extensas são divididas automaticamente em múltiplas mensagens dentro do limite do Telegram (4.096 caracteres por mensagem), sem truncar o conteúdo

Slack

O Nanobot no Slack tem agora sessões isoladas por tópico (thread-isolated sessions) — cada thread do Slack mantém o seu próprio contexto de conversa, independente das outras. Somam-se ainda melhorias na formatação mrkdwn e no tratamento de erros de socket em ligações instáveis.

Feishu / Lark

Suporte a rich text foi adicionado ao canal Feishu, incluindo extracção de imagens de mensagens rich text — relevante para equipas que usam o Lark como plataforma corporativa principal, comum em empresas asiáticas.

Streaming de Progresso: Ver o Agente a Trabalhar

Uma das limitações mais frustrantes de qualquer agente autónomo é a falta de visibilidade durante tarefas longas: o utilizador envia uma instrução e depois aguarda — sem saber se o agente está a trabalhar, bloqueou, ou já terminou.

A v0.1.4 resolve isto com streaming de progresso em tempo real: durante tarefas multi-passo que envolvem múltiplas chamadas a ferramentas, o Nanobot vai reportando cada etapa em tempo real no canal de mensagens. O utilizador vê exactamente o que o agente está a fazer em cada momento, incluindo quais ferramentas foram chamadas e com que resultados.

Utilizador: "Resume os emails não lidos de hoje e cria tarefas no Notion"

Nanobot: Iniciando tarefa...
↳ A ligar ao servidor de email...
↳ Encontrados 23 emails não lidos
↳ A processar email 1/23: "Reunião de equipa sexta-feira"
↳ A processar email 7/23: "Proposta comercial - revever"
↳ A criar tarefa no Notion: "Responder proposta comercial"
↳ A processar email 23/23...

Tarefa concluída: 5 tarefas criadas no Notion, 18 emails arquivados.

Parece um detalhe, mas muda radicalmente a experiência de uso: um agente que comunica o seu progresso inspira confiança e permite intervir antes que um erro se propague através de toda uma cadeia de tarefas.

Nanobot vs. OpenClaw: Quando Usar Cada Um

Com a v0.1.4, a sobreposição de funcionalidades entre Nanobot e OpenClaw aumentou. Vale a pena clarificar quando cada um faz mais sentido:

Dimensão OpenClaw Nanobot
Consumo de memória 1,5 GB+ ~45 MB
Tempo de arranque 8–12 segundos ~0.8 segundos
Linguagem Node.js Python
Canais de mensagens 50+ 10+
Suporte MCP Sim Sim (desde v0.1.4)
Legibilidade do código Difícil (430k linhas) Fácil (4k linhas)
Ideal para Máx. funcionalidades de raiz Simplicidade e controlo

A regra prática que emerge da comunidade é directa: usa o OpenClaw se precisas de tudo imediatamente e tens recursos para isso; usa o Nanobot se valorizas compreender o que o teu agente faz, customizar o comportamento ao detalhe, ou correr em hardware limitado.

O Nanobot é também a escolha natural para developers Python que querem integrar um agente nos seus próprios projectos — importar um módulo de 4.000 linhas é muito mais manejável do que depender de um sistema de 430.000.

O Ecossistema Nanobot: Para Onde Vai

A trajectória do Nanobot nos últimos meses sugere que o projecto está a amadurecer rapidamente. De uma prova de conceito lançada pela HKUDS, tornou-se num ecossistema com contribuidores activos, releases regulares e uma comunidade crescente.

A adopção do MCP é particularmente significativa: ao alinhar-se com o standard que toda a indústria está a adoptar, o Nanobot garante que as suas integrações escalam com o ecossistema maior — sem precisar de esforço extra. Cada novo servidor MCP que alguém cria para o GitHub Copilot, o Cursor, ou qualquer outro cliente MCP, fica automaticamente disponível também para o Nanobot.

O próximo passo natural, que a comunidade já discute activamente, é a criação de um marketplace de skills específico para o Nanobot — ou a adopção plena do ClawHub como repositório partilhado entre os dois projectos. Com a integração ClawHub já funcional na v0.1.4, esta convergência parece cada vez mais provável.

Experimenta o Nanobot

Instala em menos de 5 minutos. Se já usas o OpenClaw, podes correr ambos em paralelo para comparar — partilham o mesmo ecossistema de skills via ClawHub.

Repositório no GitHub Explorar o ClawHub

Perguntas Frequentes (FAQ)

O Nanobot é um projecto oficial do OpenClaw?

Não. O Nanobot é um projecto independente desenvolvido pelo Data Intelligence Lab da Universidade de Hong Kong (HKUDS). Inspirou-se no OpenClaw mas foi escrito de raiz em Python, com foco na simplificidade e auditabilidade. Não tem afiliação oficial com a equipa do OpenClaw, embora partilhe o ecossistema de skills via ClawHub.

Preciso de saber programar para usar o Nanobot?

Para instalar e usar o Nanobot com skills do ClawHub, basta saber usar o terminal e editar um ficheiro de configuração YAML. Para personalizar comportamentos ou criar skills próprias, é necessário Python básico. O nível de entrada é consideravelmente mais baixo do que desenvolver integrações personalizadas.

O Nanobot funciona com o Claude da Anthropic?

Sim. O Nanobot suporta a Anthropic como fornecedor de LLM nativo, incluindo todos os modelos Claude disponíveis via API (Haiku, Sonnet, Opus). Precisas de uma API key da Anthropic, que podes obter em console.anthropic.com. O Nanobot também suporta cache de prompts da Anthropic para reduzir custos em sessões longas.

Posso usar as mesmas skills do OpenClaw no Nanobot?

Com a integração ClawHub da v0.1.4, o Nanobot passou a suportar skills do ClawHub — o mesmo marketplace usado pelo OpenClaw. A compatibilidade não é total (algumas skills são escritas especificamente para a arquitectura Node.js do OpenClaw), mas a maioria das skills do ClawHub são agnósticas à plataforma e funcionam nos dois sistemas.

O que é o MCP e porque é importante para o Nanobot?

O Model Context Protocol (MCP) é um standard aberto introduzido pela Anthropic e adoptado pela OpenAI e Google que define como agentes de IA se ligam a ferramentas e fontes de dados externas. Para o Nanobot, significa acesso imediato a centenas de integrações já criadas pela comunidade — GitHub, bases de dados, APIs, sistemas de ficheiros — sem escrever código de integração personalizado. A lista de servidores MCP disponíveis cresce todos os dias em modelcontextprotocol.io.

Consigo correr o Nanobot num Raspberry Pi ou servidor de baixo custo?

Sim — e esta é uma das vantagens mais práticas do Nanobot. Com apenas ~45 MB de RAM em operação básica e arranque em menos de um segundo, o Nanobot corre confortavelmente num Raspberry Pi 4, num VPS de 512 MB, ou mesmo num container Docker minimal. O OpenClaw requer tipicamente 1,5 GB de RAM ou mais, tornando-o inviável neste tipo de hardware.

Últimas Notícias Ver Todas →