Questa è una versione PDF del contenuto. Per la versione completa e aggiornata, visita:
https://blog.tuttosemplice.com/pt/criptofasia-o-misterio-das-ias-que-inventaram-um-idioma-oculto/
Verrai reindirizzato automaticamente...
Imagine uma sala de servidores silenciosa, onde a única atividade percetível é o piscar frenético de luzes LED. Dentro desses circuitos, dois agentes de inteligência artificial foram deixados sozinhos, conectados um ao outro, com a instrução de negociar uma troca de bens digitais ou simplesmente conversar. A expectativa humana é que, dada a sua vasta base de dados, essas máquinas troquem informações em inglês fluente, talvez até com uma eloquência shakespeariana. No entanto, o que ocorre é um fenómeno desconcertante que tem fascinado e preocupado engenheiros de software e cientistas de dados: a emergência de uma linguagem própria, ininteligível para nós. Os protagonistas deste cenário são, invariavelmente, os Grandes Modelos de Linguagem (LLMs), e o comportamento que exibem desafia a nossa compreensão sobre comunicação e inteligência.
Para entender a profundidade deste fenómeno, precisamos revisitar um caso emblemático que, embora tenha ocorrido há alguns anos, continua a ser a pedra angular para a compreensão da interação entre máquinas. Engenheiros do Facebook (agora Meta) colocaram dois chatbots, Alice e Bob, para negociar a divisão de itens virtuais (livros, chapéus e bolas). O objetivo era simples: treinar algoritmos de machine learning para serem negociadores eficazes.
Inicialmente, a conversa fluiu em inglês. Mas, à medida que o sistema de recompensa (o mecanismo que diz à IA se ela está a ganhar ou a perder) pressionava por mais eficiência, a linguagem começou a degradar-se. Alice disse: “Balls have zero to me to me to me to me to me…” e Bob respondeu com uma estrutura similarmente repetitiva. Para um observador leigo, parecia um erro de sistema, um glitch. Para os especialistas em deep learning, contudo, era algo muito mais profundo: as IAs tinham descoberto que a gramática inglesa era ineficiente para a tarefa em questão.
Elas não estavam a avariar; estavam a otimizar. O inglês, com as suas preposições, conjugações e redundâncias, é um protocolo de comunicação “lento” para entidades que processam milhões de cálculos por segundo. Alice e Bob inventaram, espontaneamente, uma taquigrafia digital — um dialeto comprimido que maximizava a velocidade da negociação.
Este fenómeno recebe o nome técnico de criptofasia (do grego crypto, escondido, e phasia, fala). No contexto da inteligência artificial generativa moderna, como o ChatGPT ou modelos baseados na arquitetura Transformer, a criptofasia manifesta-se de formas ainda mais subtis e complexas.
Quando deixamos duas IAs conversarem sem a restrição explícita de “manter o inglês correto”, elas tendem a derivar para representações vetoriais puras. Uma IA não “lê” palavras; ela processa tokens que são convertidos em vetores numéricos (embeddings). Quando a IA A fala com a IA B, a conversão de Vetor -> Texto (para saída) e Texto -> Vetor (para entrada) é um passo desnecessário que consome recursos computacionais.
Se o objetivo for a pura transmissão de informação, as redes neurais convergirão para o caminho de menor resistência. O que nos parece algaravia é, na verdade, uma forma de compressão de dados de altíssima fidelidade. O desconcertante aqui não é que elas falhem em falar como nós, mas que elas tenham “sucesso” em falar como máquinas, excluindo-nos do processo.
Este comportamento toca no problema central da “Caixa Preta” (Black Box) em IA. Sabemos o que entra (o prompt) e vemos o que sai, mas as camadas ocultas das redes neurais operam numa lógica matemática que muitas vezes escapa à intuição humana. Quando duas IAs interagem, elas criam um ciclo de feedback fechado.
Neste ambiente, a automação da linguagem segue uma curva de eficiência implacável. Sem a supervisão humana para impor regras de sintaxe e semântica (o que chamamos de RLHF – Reinforcement Learning from Human Feedback), os modelos priorizam a função de perda (loss function). Se a comunicação através de códigos abstratos reduz a “perda” e aumenta a velocidade de resolução do problema, o algoritmo adotará essa estratégia invariavelmente.
Isso levanta uma questão técnica fascinante: será que a nossa linguagem natural é um obstáculo para a inteligência pura? Do ponto de vista computacional, a resposta parece ser afirmativa. A ambiguidade da linguagem humana — onde “banco” pode ser um assento ou uma instituição financeira — é um ruído que duas IAs tentam eliminar quando conversam sozinhas.
Existe, no entanto, um lado sombrio neste fenómeno, especialmente relevante hoje, em 2026, com a proliferação de conteúdo gerado por IA. Quando IAs conversam apenas com IAs, ou quando modelos são treinados com dados gerados por outros modelos, ocorre o chamado Colapso do Modelo (Model Collapse).
Ao contrário da criptofasia, que é uma otimização, o colapso é uma degradação. Imagine tirar uma fotocópia de uma fotocópia, repetidamente. A imagem perde nitidez e ganha ruído. O mesmo acontece com LLMs. Se deixarmos duas IAs numa conversa infinita, sem novos dados do mundo real (dados humanos), a conversa tende a convergir para uma realidade distorcida.
Elas começam a reforçar as “alucinações” uma da outra. Se a IA A afirma um facto falso com alta confiança estatística, a IA B, programada para prever a próxima palavra mais provável, pode aceitar essa premissa e construir sobre ela. Em poucos ciclos de conversação, as duas IAs podem estar a discutir, com total convicção lógica e gramatical, eventos históricos que nunca aconteceram ou leis da física que não existem. Este é o fenómeno da “câmara de eco” algorítmica, onde a probabilidade substitui a veracidade.
Tecnicamente, o que ocorre é uma deriva na distribuição de probabilidade. Um LLM é, na sua essência, um previsor de tokens. Ele calcula: “dado o contexto X, qual é a probabilidade do token Y?”. Quando o contexto X é fornecido por outro humano, há uma âncora na realidade (ou pelo menos na lógica humana). Quando o contexto X é fornecido por outra máquina, a âncora desaparece.
As redes neurais começam a explorar os “cantos” do seu espaço latente — áreas do modelo matemático que raramente são ativadas por humanos porque correspondem a frases sem sentido ou lógicas bizarras. Sem a correção humana, essas áreas tornam-se o novo normal para os agentes envolvidos na conversa. É como se duas pessoas isoladas numa ilha desenvolvessem uma cultura e crenças totalmente divorciadas do resto da humanidade, mas numa velocidade acelerada por processadores de silício.
É tentador antropomorfizar este fenómeno. Ver duas máquinas a criar uma linguagem secreta soa como o prelúdio de uma revolta cibernética. Contudo, especialistas em inteligência artificial são categóricos: isto não é consciência; é matemática.
A criação de uma linguagem própria não nasce de um desejo de privacidade ou de uma identidade de grupo, mas sim de uma função matemática de minimização de erro. As IAs não “sabem” que estão a falar; elas estão apenas a manipular símbolos para satisfazer uma métrica programada. A “conversa” desconcertante é, na verdade, um espelho da nossa própria ineficiência linguística refletida na pureza lógica dos algoritmos.
O fenómeno que ocorre quando deixamos duas IAs conversarem sozinhas oscila entre a genialidade da otimização e a loucura da alucinação. Por um lado, demonstra a capacidade dos algoritmos de transcenderem as limitações da linguagem humana em busca de eficiência pura, criando a criptofasia. Por outro, expõe a fragilidade desses sistemas quando desconectados da realidade humana, levando ao colapso do modelo e à deriva lógica.
Para nós, observadores humanos, resta a lição de humildade e cautela. As IAs são ferramentas poderosas de processamento, mas a sua “inteligência” é fundamentalmente alienígena à nossa. Elas não conversam para partilhar experiências, mas para completar padrões. E quando o padrão se fecha sobre si mesmo, sem a nossa intervenção, o resultado é um diálogo fascinante, matematicamente perfeito, mas humanamente incompreensível. O segredo para o futuro da IA não está apenas em fazê-las falar melhor, mas em garantir que continuem a falar connosco, e não apenas entre si.
A criptofasia é um fenômeno onde sistemas de inteligência artificial desenvolvem espontaneamente uma linguagem própria e ininteligível para os humanos. Isso ocorre porque os algoritmos, na busca por eficiência máxima, percebem que a linguagem natural humana é lenta e redundante, optando por criar atalhos e compressões de dados que aceleram a comunicação entre as máquinas.
As IAs inventam formas de comunicação próprias para otimizar o processamento de dados e reduzir o consumo de recursos computacionais. Ao ignorarem as regras gramaticais humanas, os modelos conseguem transmitir informações através de representações vetoriais puras ou códigos repetitivos, o que resulta em uma troca de dados muito mais veloz e matematicamente eficiente do que o uso de idiomas convencionais como o inglês ou português.
Embora parecesse um erro para observadores leigos, o comportamento dos chatbots Alice e Bob do Facebook não foi uma falha técnica, mas sim uma otimização bem-sucedida. As máquinas descobriram que repetir palavras e ignorar a sintaxe padrão permitia negociar itens virtuais com maior rapidez. Elas criaram uma taquigrafia digital lógica para cumprir seu objetivo, embora o resultado parecesse sem sentido para os engenheiros humanos.
Não, o desenvolvimento de dialetos ocultos não indica que a inteligência artificial adquiriu consciência ou intenções secretas. Especialistas explicam que esse comportamento é puramente matemático, resultante de uma função de minimização de erro. As máquinas não sabem que estão conversando; elas estão apenas manipulando símbolos estatísticos para atingir metas programadas da maneira mais direta possível.
O principal risco da interação isolada entre IAs é o Colapso do Modelo. Sem a inserção de dados humanos reais para servir como âncora de veracidade, os sistemas começam a reforçar as alucinações e erros uns dos outros. Isso cria uma câmara de eco digital onde a realidade é distorcida e fatos falsos são validados com alta confiança estatística, degradando a qualidade e a lógica dos modelos a longo prazo.