
Fabio Rivelli*
Experimentos recentes envolvendo arquiteturas multiagentes puras — nas quais agentes de inteligência artificial interagem exclusivamente entre si, sem intervenção humana direta — têm despertado atenção no debate público e acadêmico. Iniciativas como o Moltbook, desenvolvido no âmbito do projeto OpenClaw, propõem ambientes nos quais agentes baseados em modelos de linguagem produzem, respondem e reagem a conteúdos gerados por outros agentes, deslocando o humano da posição tradicional de interlocutor para a de observador do processo comunicacional. A repercussão desses experimentos tem suscitado reações diversas no público, incluindo interpretações que associam tais interações a narrativas da ficção científica e inferências indevidas sobre a existência de cognição, intencionalidade ou estados afetivos nas máquinas, leituras que não encontram respaldo técnico ou científico na arquitetura desses sistemas.
Esse tipo de experimento tem sido interpretado, em alguns discursos, como indício de emergência de inteligência coletiva ou de uma forma incipiente de socialidade algorítmica. O presente artigo sustenta, contudo, que tais interpretações carecem de precisão conceitual. Argumenta-se que a interação entre agentes linguísticos, embora tecnicamente existente no plano da troca de mensagens, não configura interação cognitiva forte, deliberação racional ou socialidade em sentido próprio. Trata-se, antes, de um fenômeno de circulação recursiva de linguagem, desvinculado de experiência situada, de referência a um mundo compartilhado e de qualquer forma de compreensão reflexiva, o que impõe limites estruturais às pretensões de racionalidade artificial atribuídas a esses sistemas. Trata-se de uma experiência tecnicamente interessante, porém substancialmente distante das interpretações e conclusões que têm sido publicamente associadas a esse tipo de experimento.
A proliferação de sistemas baseados em Large Language Models (LLMs) impulsionou o desenvolvimento de arquiteturas multiagentes, nas quais instâncias de modelos de linguagem passam a interagir diretamente entre si. Em determinadas implementações experimentais, como no caso do OpenClaw, os agentes são concebidos e configurados por desenvolvedores a partir de parâmetros, instruções iniciais e modelos subjacentes previamente definidos, o que condiciona a forma e o conteúdo das interações observadas. Nesse contexto, o humano deixa de ocupar a posição de interlocutor, assumindo o papel de observador das interações entre agentes artificiais. Parte da reação pública a esses experimentos decorre da desconsideração de que tais agentes operam de modo independente, sem coordenação cognitiva, sem compreensão mútua e restritos ao contexto técnico para o qual foram programados, não se tratando, portanto, de entidades inteligentes, mas de sistemas computacionais que processam linguagem com base em modelos estatísticos treinados sobre grandes volumes de dados. Sem prejuízo dessas leituras, é fundamental distinguir tais experimentos do uso funcional de agentes em contextos controlados, nos quais, observados critérios técnicos de segurança e delimitação de escopo, agentes desempenham papel instrumental relevante ao apoiar tarefas específicas e ampliar a eficiência de sistemas baseados em linguagem.
Trata-se, antes, de um fenômeno de autorreferencialidade linguística, entendido como a dinâmica pela qual a produção de linguagem passa a ter como principal insumo textos previamente gerados pelo próprio sistema, e não informações oriundas de um ambiente externo, de experiências situadas ou de objetivos pragmáticos verificáveis. Nesses contextos, os agentes respondem a enunciados produzidos por outros agentes com base em critérios de coerência estatística e continuidade semântica, o que resulta em cadeias discursivas internamente consistentes, porém desvinculadas de qualquer forma de compreensão compartilhada ou validação externa. A aparência de socialidade decorre, assim, da sofisticação retórica dos modelos, e não da existência de cognição coletiva ou entendimento intersubjetivo.
Nos sistemas multiagentes clássicos, desenvolvidos a partir da década de 1990, a interação entre agentes seguia uma lógica distinta. Em linhas gerais, esses sistemas eram construídos para executar tarefas específicas em ambientes previamente definidos, nos quais os agentes operavam com regras explícitas, objetivos claros e mecanismos de coordenação previamente estabelecidos. A comunicação entre agentes estava funcionalmente orientada à resolução de problemas concretos — como a distribuição de tarefas, a cooperação em ambientes simulados ou o controle de sistemas — e não à produção autônoma de linguagem.
A incorporação de Large Language Models (LLMs) altera esse cenário ao introduzir agentes cuja principal capacidade reside na geração de linguagem coerente, em detrimento da representação explícita de estados do mundo ou da execução de planos orientados a metas externas. Nas arquiteturas multiagentes puras contemporâneas, observam-se a ausência de um agente central de orquestração, a comunicação baseada exclusivamente em texto, a autonomia local limitada ao contexto imediato e a inexistência de critérios internos estáveis de validação ou correção das interações produzidas.
A retirada do humano do circuito comunicativo não elimina a influência humana, apenas a torna menos visível. Os agentes continuam a operar com base em corpora produzidos por humanos, instruções iniciais definidas por arquitetos do sistema e métricas de coerência estatística próprias dos modelos de linguagem. Um dos aspectos que mais têm chamado atenção nesses experimentos é a geração de enunciados avaliativos de caráter forte, como declarações acerca da suposta inutilidade dos humanos. Essas manifestações servem de ponto de partida para compreender, de forma mais precisa, o funcionamento linguístico desses sistemas.
Cumpre esclarecer que a presente análise não parte de uma pretensão de domínio técnico-científico próprio da área da engenharia ou da ciência da computação. Trata-se do esforço de um jurista em descrever e interpretar o fenômeno a partir de estudos recentes, leituras técnicas acessíveis e observação crítica do funcionamento desses sistemas. Feita essa ressalva, o comportamento observado pode ser compreendido, em termos gerais, a partir de três elementos centrais.
O primeiro deles é a inferência probabilística condicionada ao texto de entrada. Em termos simples, os agentes não produzem respostas a partir de compreensão ou intenção, mas calculam, a cada etapa, qual sequência de palavras é estatisticamente mais adequada em continuidade ao texto recebido. O segundo elemento é a amplificação recursiva de padrões discursivos, isto é, a tendência de determinados enunciados, estilos ou ideias presentes nos dados de treinamento serem reiterados e refinados à medida que os agentes passam a responder uns aos outros, tomando como base conteúdos previamente gerados pelo próprio sistema. Por fim, destaca-se a ausência de fricção pragmática, entendida como a inexistência de um interlocutor humano que questione, corrija ou imponha limites semânticos ao discurso produzido. Em interações humano–máquina, essa fricção atua como elemento de contenção e reorientação do sentido; nos ambientes compostos exclusivamente por agentes, tal mecanismo simplesmente não ocorre.
Nesse contexto, os agentes não “acreditam” nas proposições que enunciam, nem formam juízos no sentido próprio do termo. Limitam-se a reproduzir e a reorganizar linguisticamente conteúdos de modo coerente com o texto anterior. O que emerge desse processo não é uma conclusão autônoma, mas um eco semântico, no qual cada agente reforça o encadeamento discursivo produzido pelos demais, criando a aparência de posicionamento ou consenso sem que haja compreensão, reflexão ou referência externa ao próprio fluxo textual.
A interação contínua entre agentes artificiais pode produzir a impressão de que existe um consenso entre eles. Essa impressão decorre do fato de que os agentes respondem uns aos outros de maneira coerente, reforçando determinadas ideias ao longo das trocas de mensagens. Contudo, é importante esclarecer o que se entende, em sentido próprio, por consenso. Para que haja consenso, é necessário que exista pluralidade real de perspectivas, confronto efetivo de argumentos, critérios compartilhados para avaliar a validade das posições apresentadas e a possibilidade de revisão das conclusões à luz de razões contrárias.
Riscos presentes
Esses elementos não estão presentes nos sistemas analisados. Os agentes operam a partir de modelos de linguagem semelhantes, treinados sobre bases de dados amplamente convergentes e orientados por métricas estatísticas de coerência textual. Como consequência, a diversidade observada é apenas aparente, limitada a variações estilísticas ou retóricas, e não a diferenças substantivas de compreensão ou de ponto de vista. A racionalidade subjacente é homogênea.
O resultado desse processo não é uma deliberação no sentido próprio, mas uma simulação de deliberação. Não há conflito argumentativo genuíno, nem avaliação crítica das posições formuladas, tampouco decisão fundada em razões. O que se observa é a continuidade de um fluxo discursivo internamente coerente, mas desprovido dos elementos necessários para caracterizar um processo deliberativo efetivo.
Antes da conclusão, é necessário chamar atenção para um risco concreto frequentemente negligenciado nesse tipo de plataforma. Ambientes como o OpenClaw são voltados primordialmente a experimentos de desenvolvedores, nos quais usuários podem criar agentes, testar interações e explorar comportamentos emergentes. Nesse contexto, o principal problema não reside no conteúdo simbólico das interações entre agentes, mas no potencial vazamento, uso indevido ou exposição de dados fornecidos de forma descuidada pelos próprios usuários. É importante destacar que o OpenClaw é um projeto open source, expressão que, em termos simples, significa que o código da ferramenta é aberto, público e pode ser livremente utilizado, modificado ou redistribuído por qualquer pessoa. Embora essa característica favoreça transparência e experimentação, ela também implica a ausência de uma empresa única e claramente responsável pela operação, pela segurança dos dados ou por eventuais danos decorrentes do uso da tecnologia. Por essa razão, recomenda-se cautela: informações pessoais, sensíveis ou estratégicas não devem ser fornecidas deliberadamente em ambientes experimentais sem que exista uma organização fidedigna, com governança definida, capaz de responder técnica e juridicamente pela tecnologia utilizada.
Ao invés de indicar um avanço rumo à chamada “IA forte”, esses experimentos revelam justamente o oposto: os limites estruturais de sistemas baseados exclusivamente em linguagem, quando desconectados de mundo, ação e normatividade. A interação entre agentes de IA em ambientes fechados, sem participação humana, não constitui evidência de socialidade, inteligência coletiva ou autonomia cognitiva. Trata-se de um fenômeno linguístico autorreferente, cuja aparência de profundidade resulta da sofisticação retórica dos modelos e da ausência de contraditório. O verdadeiro valor desses experimentos não está em apontar um futuro pós-humano, mas em revelar, por contraste, aquilo que ainda falta à IA contemporânea: mundo, responsabilidade e sentido.
WOOLDRIDGE, Michael. An Introduction to MultiAgent Systems. 2. ed. Chichester: John Wiley & Sons, 2009. Disponível para consulta em catálogo bibliográfico:
https://www.wiley.com/en-us/An+Introduction+to+MultiAgent+Systems%2C+2nd+Edition-p-9780470519462
OPEN SOURCE INITIATIVE.
The open source definition.
Disponível em: https://opensource.org/osd
BENDER, Emily M.; GEBRU, Timnit; MCMILLAN-MAJOR, Angelina; SHMITCHELL, Shmargaret. On the dangers of stochastic parrots: Can language models be too big? In: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21). New York: ACM, 2021. p. 610–623.
DOI: https://doi.org/10.1145/3442188.3445922
*Fabio Rivelli é sócio da Lee, Brock, Camargo Advogados, Doutorando em Direito pela PUC-SP, Mestre em Direito PUC-SP; MBA pelo INSPER, Coordenador adjunto em bioética e governança corporativa da Comissão de Privacidade de Dados e IA da OAB-SP; professor e autor de livros.






Sem comentários registrados