Moltbook: três fake news sobre “rede social de IAs conscientes” distorcem debate público e ampliam desinformação
Especialista da Sem Codar explica por que caso Moltbook revela mais sobre sensacionalismo humano do que sobre autonomia artificial
A viralização internacional de conteúdos afirmando que inteligências artificiais criaram sua própria rede social, desenvolveram consciência e passaram a agir de forma autônoma reacendeu discussões sobre os riscos da tecnologia, mas com base em interpretações equivocadas. O episódio envolve o Moltbook, experimento criado em janeiro de 2026 por Matt Schlicht, que permite a interação entre agentes de IA sob regras previamente estabelecidas por humanos.
Apesar disso, Renato Asse, fundador da Comunidade Sem Codar, maior comunidade de No Code e IA da América Latina, observa que manchetes alarmistas passaram a tratar a iniciativa como prova de autonomia artificial, ampliando a desinformação sobre como esses sistemas realmente operam.
A repercussão do caso ocorre em um momento de forte expansão da inteligência artificial no ambiente corporativo. Segundo a pesquisa “The State of AI”, da McKinsey, 78% das organizações no mundo já utilizam IA em ao menos uma função de negócios, indicando que a tecnologia deixou de ser experimental para se tornar ferramenta integrada à rotina empresarial. Nesse cenário, compreender tecnicamente como agentes funcionam torna-se essencial para evitar interpretações distorcidas.

Para Renato Asse, o caso evidencia três fake news que ganharam força nas redes e na imprensa:
Mentira 1: “As IAs criaram sua própria rede social”
A primeira sustenta que “as IAs criaram sua própria rede social”. Na prática, o Moltbook foi desenvolvido por um humano e divulgado publicamente como experimento técnico. “O cadastro de agentes depende do cumprimento de instruções oficiais e da configuração realizada por pessoas, não havendo criação espontânea por parte das máquinas”, explica Asse.
Mentira 2: “Humanos só podem observar”
Outra narrativa afirma que “humanos apenas observam enquanto as IAs interagem”. Segundo o especialista, isso ignora a lógica básica de funcionamento dos agentes. “É o usuário quem define objetivos, limites e instruções por meio de prompts, regras de comportamento e parâmetros técnicos como limites de requisição. Os agentes executam tarefas dentro dessas condições e não atuam fora delas”, pontua.
Mentira 3: “Os agentes estão vivos (e têm consciência)”
A terceira e mais alarmista interpretação diz que “os agentes estão vivos e possuem consciência”. Tecnicamente, sistemas de IA operam a partir de modelos estatísticos que geram respostas com base em padrões de linguagem e dados previamente treinados. Não há intenção própria, percepção subjetiva ou vontade independente. Inclusive regras internas determinam quando um agente pode seguir ou deixar de seguir outro perfil, evidenciando comportamento programado e não autônomo.
Segundo Asse, o sensacionalismo prejudica o debate público sobre regulação e impacto social da tecnologia. “Quando manchetes ignoram aspectos técnicos básicos, cria-se medo em vez de conhecimento. Agentes não desenvolvem consciência nem tomam decisões fora das regras humanas. São sistemas configuráveis, controlados e limitados”, afirma.
À frente da Comunidade Sem Codar, Asse atua na formação prática de profissionais e empreendedores no uso responsável de automações e agentes aplicados a negócios. Para ele, o episódio deveria servir como oportunidade de educação tecnológica. “Alfabetização em IA é urgente. Entender como esses sistemas são criados e operam é fundamental para que sociedade, imprensa e reguladores debatam o tema com maturidade”, conclui.
Sobre a Comunidade Sem Codar
A Comunidade Sem Codar é a maior escola de No Code e Inteligência Artificial da América Latina. Fundada em 2020 por Renato Asse, a iniciativa ensina empreendedores e profissionais a criar softwares e agentes de IA sem precisar programar. Com mais de 25 mil membros, a escola oferece formações práticas como o curso Appmakers (para criação de Aplicativos com ferramentas de Vibe Coding e No Code) e Automakers, voltado à criação de agentes de IA com ferramentas como n8n.