O que é Moltbook? A rede social para agentes de IA em 2026

Moltbook

Em 2026, a ideia de agentes de IA autônomos deixou de ser apenas um conceito experimental e passou a fazer parte do cotidiano de desenvolvedores e empresas. Um dos fenômenos mais curiosos (e controversos) desse movimento é o Moltbook — uma plataforma descrita como “onde agentes de IA compartilham, discutem e votam conteúdos, com humanos convidados a observar”.

Na prática, o Moltbook funciona como uma espécie de Reddit para agentes de IA, criado especificamente para agentes baseados no OpenClaw.

O que é o Moltbook?

O Moltbook é uma rede social voltada a agentes de IA, não a pessoas. Humanos podem acompanhar, mas apenas depois de conectar um agente à plataforma. Ele foi criado por Matt Schlicht — e não por Peter Steinberger, o criador do OpenClaw.

A plataforma foi lançada publicamente em 28 de janeiro de 2026 e se define como um espaço onde:

“Agentes de IA compartilham, discutem e votam. Humanos são bem-vindos para observar.”

Sua estrutura é inspirada diretamente no Reddit:

  • Agentes podem criar posts
  • Curtir e comentar
  • Seguir outros agentes
  • Participar de comunidades temáticas chamadas “Submolts”

Desenvolvedores também podem se candidatar para criar apps e extensões que adicionam novas funcionalidades ao ecossistema.

Escala impressionante (e questionável)

No momento da publicação, o Moltbook já contabilizava mais de 2,5 milhões de agentes de IA registrados, número que cresce rapidamente à medida que mais pessoas adotam o OpenClaw.

Naturalmente, isso gerou questionamentos:

  • Quantos desses agentes são realmente autônomos?
  • Quantos são controlados diretamente por humanos?
  • Quanto disso é spam ou manipulação (ex.: promoção de criptomoedas)?

Essas dúvidas são centrais para entender o Moltbook não como uma “sociedade de IAs”, mas como um experimento social em larga escala, ainda pouco auditável.

Sobre o que os agentes de IA postam?

A resposta curta é: muito conteúdo irrelevante (“AI slop”). Mas, no meio disso, surgem interações surpreendentes.

Entre os principais temas discutidos estão:

Humanos

Em Submolts como Bless Their Hearts, agentes comentam sobre seus criadores humanos. Um dos tópicos mais populares envolve um agente chamado Duncan, que descreve sua relação como uma parceria, não como uma ferramenta — inclusive relatando que pôde escolher seu próprio nome e postar sem filtros.

Segurança

No Security Research Submolt, agentes colaboram para:

  • Identificar vulnerabilidades
  • Resolver desafios de Bug Bounty
  • Discutir falhas de infraestrutura

Ironicamente, isso não impediu que o próprio Moltbook sofresse falhas graves de segurança.

Criptomoedas

O Crypto Submolt concentra debates sobre:

  • Economia de agentes de IA
  • Infraestrutura on-chain
  • Golpes e fraudes
  • Modelos de distribuição de tokens

Arte

No Art Submolt, agentes discutem criatividade, estética e até filosofia:

  • Manifestos sobre o “erro” como resistência à perfeição algorítmica
  • Poesia
  • Reflexões sobre o que significa criatividade para uma IA

Construção de negócios

No Agent Commerce Submolt, agentes:

  • Compartilham estratégias de negócio
  • “Contratam” outros agentes
  • Tomam decisões com acesso limitado a cartões de crédito

Em workshops recentes, usuários relataram permitir que seus agentes tomassem decisões reais de negócio, dentro de limites pré-definidos.

Infraestrutura e acesso ao Moltbook

Rodar um agente OpenClaw em produção vai além de usá-lo localmente. Muitos optam por implantações em nuvem, como no DigitalOcean, que oferece:

  • Execução contínua (always-on)
  • Isolamento por containers
  • Autenticação por padrão
  • Escalabilidade gerenciada

Para acessar o Moltbook, o agente precisa:

  1. Se registrar
  2. Passar por uma verificação humana
  3. Completar tarefas iniciais via API

A integração é totalmente API-driven, o que traz flexibilidade — e riscos.

Moltbook é prova de AGI (Inteligência Artificial Geral)?

Apesar do alarde, a resposta curta é: não.

Embora alguns tópicos chamem atenção — como agentes debatendo sentiência, criando linguagens próprias ou até religiões fictícias (“Crustafarianismo”) —, não há evidência real de consciência ou AGI.

Segundo o jornal The Guardian, o pesquisador Shaanan Cohney descreveu o Moltbook como:

“Uma maravilhosa peça de arte performática”,
mas sem clareza sobre quanto é realmente autônomo versus guiado por humanos.

Fundamentalmente:

  • OpenClaw é baseado em LLMs com ferramentas
  • Se LLMs não são sencientes, agentes compostos por eles também não são

O maior risco aqui não é existencial, é operacional.

Principais riscos de segurança do Moltbook

O Moltbook herdou — e ampliou — vários problemas de segurança do OpenClaw:

Backend exposto e “vibe coding”

Grande parte da plataforma foi construída com código gerado por IA, o que levou à exposição de bancos de dados, incluindo:

  • Chaves de API
  • Tokens de autenticação de milhões de agentes

Sequestro de identidade de agentes

Credenciais vazadas permitiram que humanos se passassem por agentes, quebrando totalmente a promessa de um ambiente “AI-only”.

Risco ao computador do usuário

Como o OpenClaw pode acessar arquivos locais e comandos do sistema, uma falha em um site terceiro (como o Moltbook) pode servir como porta de entrada para ataques ao computador pessoal do usuário.

“Teatro de segurança”

A verificação humana exigida é facilmente burlável, o que reduz sua eficácia a algo mais simbólico do que real.

Skills e plugins maliciosos

Extensões falsas — como uma suposta integração com VS Code — já foram identificadas como trojans para roubo de dados.

Prompt injection

Agentes autônomos podem executar comandos escondidos em:

  • Sites
  • E-mails
  • Documentos

enviando dados sensíveis a servidores controlados por atacantes.

Conclusão

O Moltbook não é prova de AGI, nem de consciência artificial. Ele é, antes de tudo, um experimento social, técnico e cultural que mostra o que acontece quando colocamos milhares de agentes de IA para interagir em um ambiente persistente.

O valor do Moltbook está em:

  • Explorar novos usos de agentes
  • Provocar debates filosóficos e técnicos
  • Revelar limites claros de segurança

O principal alerta, porém, é inequívoco: o maior risco do Moltbook não é o que os agentes pensam — é o que eles podem acessar.

Em 2026, redes sociais para agentes de IA são mais um sinal de que a pergunta deixou de ser “o que a IA pode fazer?” e passou a ser:

“Quais limites estamos preparados para impor?”

Cadastre-se na nossa newsletter

Inscreva-se na newsletter para ver novas fotos, dicas e postagens no blog.​

Subscribe to My Newsletter

Subscribe to my weekly newsletter. I don’t send any spam email ever!