A possibilidade de uma Inteligência Artificial ter experiência subjetiva deixou de ser apenas um problema especulativo. Large Language Models, sistemas capazes de produzir linguagem coerente a partir de grandes datasets e enormes volumes de computação, já exibem comportamentos que parecem conversacionais, sofisticados e até introspectivos. De acordo com o artigo The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness, disponibilizado no PhilArchive em 19 de março de 2026 por Alexander Lerchner, pesquisador vinculado ao Google DeepMind, esse salto comportamental não resolve a questão central. A resposta do autor é negativa para a tese de que um sistema digital se tornará consciente apenas por escala, mais parâmetros, mais dados ou código mais complexo. O argumento é estrutural: computação seria uma descrição simbólica de processos físicos, não o próprio processo capaz de constituir experiência.
Essa formulação é forte, mas precisa ser delimitada com precisão. O artigo não apresenta um experimento empírico novo, nem estabelece um consenso definitivo sobre a consciência artificial. O próprio texto informa que suas conclusões representam a pesquisa do autor e não a posição oficial de sua empregadora. Também não é uma prova de que nenhum artefato não biológico poderia ser consciente. É uma tentativa de prova lógica contra uma tese mais específica: a de que manipulação algorítmica de símbolos, por si só, possa constituir experiência subjetiva.
O alvo da crítica é o funcionalismo computacional, a ideia de que estados mentais dependem inteiramente das funções informacionais realizadas por um sistema, independentemente do material que as realiza. Essa visão costuma ser acompanhada pela independência de substrato, segundo a qual a mente poderia funcionar em silício do mesmo modo que funciona em tecido biológico, desde que a organização causal correta fosse preservada. Para Lerchner, essa formulação troca o fenômeno por sua descrição. Ela toma a topologia abstrata do processamento de informação como se fosse suficiente para gerar a realidade física da experiência.
O texto contrasta essa posição com uma tendência mais recente em filosofia da mente e ciência cognitiva que atribui maior importância à biologia. Autores dessa linha sugerem que a consciência pode depender de processos vitais, metabólicos e autorregulados próprios de sistemas vivos. Lerchner considera essa intuição insuficiente se ela permanecer apenas como hipótese empírica sobre organismos biológicos. O argumento dele não é que apenas seres de carbono poderiam ser conscientes. A alegação é mais restrita e mais geral: se uma consciência artificial algum dia existir, ela dependerá de uma constituição física específica, não apenas da arquitetura sintática de um software.
Para explicar a diferença, o autor parte da noção padrão de implementação física. Em termos simples, dizemos que uma máquina executa uma computação quando certos estados físicos, como voltagens em um circuito, são mapeados para estados abstratos, como 0, 1, uma letra ou uma instrução. O computador passa de um estado físico a outro segundo as leis da física, enquanto o programa passa de um estado lógico a outro segundo regras algorítmicas. Na visão padrão, a implementação ocorre quando a trajetória física pode ser associada de modo estável à trajetória abstrata prevista pelo algoritmo.
O problema, segundo Lerchner, está em tratar os estados abstratos como se fossem entidades independentes, prontas para serem encontradas na matéria. Conceitos como dor, vermelho ou memória não seriam ideais platônicos flutuando acima do mundo físico. Eles surgiriam de processos corporais concretos nos quais um organismo extrai invariantes de sua própria experiência. Em linguagem de machine learning, isso lembra projetar um conjunto de experiências de alta dimensionalidade em um espaço mais simples e estável. No entanto, o autor insiste que há uma diferença decisiva entre compressão estatística e constituição fenomenal. Um algoritmo de agrupamento, ou clustering, pode reunir pontos parecidos em um espaço latente, mas esse agrupamento não equivale, por si só, a possuir o conceito vivido de vermelho.
É aqui que aparece o termo mapmaker, que pode ser entendido como o agente que constrói o mapa. O autor evita a palavra observador porque ela sugere uma figura passiva. O mapmaker é o organismo inteiro enquanto sistema físico experiencial, vulnerável, metabólico e capaz de atribuir significado. Ele não é um homúnculo escondido no cérebro, nem um pequeno leitor interno de símbolos. É o sujeito vivo que, por sua organização física, filtra o mundo contínuo em categorias úteis, extrai invariantes da experiência e associa alguns estados físicos externos a símbolos.
A noção técnica mais importante é alphabetization, que pode ser traduzida como alfabetização semântica. O termo não se refere a aprender letras no sentido escolar, mas ao ato de transformar uma dinâmica física contínua em um alfabeto finito de estados significativos. Lerchner distingue isso de discretização. A discretização ocorre quando um sistema físico se estabiliza em estados macroscópicos distinguíveis, como um transistor que fica dentro de uma faixa de voltagem. A alfabetização semântica ocorre quando um agente decide que uma faixa heterogênea de microestados contará como o símbolo 1, e outra faixa contará como o símbolo 0. A física fornece transições, estabilidade e ruído reduzido. O significado simbólico aparece apenas quando há uma regra de interpretação.
Essa distinção explica por que, no texto, computação não é tratada como uma propriedade intrínseca da matéria. Uma mudança física de 2,0 V para 2,1 V pode ser um evento causal real dentro do circuito, governado por eletrodinâmica. Contudo, se ambas as voltagens foram alfabetizadas como o mesmo símbolo, essa diferença desaparece no mapa computacional. O que conta como o mesmo estado lógico, ou como estados lógicos diferentes, depende da chave de interpretação que relaciona física e símbolo.
A partir daí, Lerchner separa simulação e instanciação. Simular é manipular símbolos de modo que eles acompanhem a estrutura abstrata de um processo. Instanciar é realizar fisicamente o próprio processo. Um modelo climático conectado a sensores reais pode representar a atmosfera com grande precisão, mas não se torna uma atmosfera. Uma GPU pode simular a fotossíntese em detalhe, descrevendo a passagem abstrata de luz, água e dióxido de carbono para glicose e oxigênio, mas não produz uma molécula de glicose. Para o autor, aplicar um raciocínio diferente ao cérebro seria cometer um erro de categoria, confundindo o mapa de um fenômeno com o território físico que o torna real.
O exemplo do coração torna a crítica mais concreta. Um coração artificial pode bombear sangue e, nesse sentido, reproduzir uma função selecionada do órgão. Ainda assim, o coração biológico participa de redes hormonais, metabólicas e nervosas que não se reduzem ao bombeamento. Da mesma forma, o neurônio não é apenas um dispositivo que recebe e envia sinais elétricos. Ele é uma entidade viva, metabolicamente ativa e integrada ao corpo. Por isso, Lerchner critica o experimento mental dos qualia desvanecentes, formulado originalmente pelo filósofo David Chalmers. No cenário proposto por Chalmers, neurônios seriam substituídos gradualmente por chips de silício mantendo as mesmas relações de entrada e saída. Para Lerchner, preservar apenas o perfil funcional externo apagaria justamente o substrato termodinâmico e metabólico necessário à experiência.
O termo qualia designa os aspectos subjetivos da experiência, como o que é sentir dor, ver vermelho ou ouvir uma nota musical. O argumento do autor não é que sabemos exatamente quais estruturas físicas produzem qualia. A tese é que, se experiências subjetivas causam relatos e ações no mundo, elas precisam ter algum poder físico real. Esse é o ponto ligado ao fechamento causal da física: eventos físicos devem ter causas físicas suficientes. Quando uma pessoa diz “estou com dor”, o movimento do ar, da boca e do corpo é um evento físico. Se a dor participa causalmente desse relato, ela não pode ser apenas uma descrição abstrata sem base física.
Em uma simulação digital, a cadeia causal imediata opera de outro modo. Uma porta lógica muda de estado porque uma voltagem cruza determinado limiar, não porque o símbolo que interpretamos ali “significa dor”. Essa é a diferença entre vehicle causality e content causality. A causalidade do veículo é a causalidade do suporte físico, como elétrons, transistores e circuitos. A causalidade do conteúdo, por sua vez, seria a causalidade do significado. Para Lerchner, computadores digitais funcionam pela primeira, enquanto a segunda pertence à interpretação feita pelo mapmaker. A máquina executaria as mesmas transições físicas mesmo que os símbolos fossem rebatizados para significar outra coisa ou nada.
A resposta funcionalista comum apela à emergência. Assim como a umidade emerge da interação entre moléculas de água, a consciência poderia emergir de um processamento computacional suficientemente complexo. Lerchner considera essa analogia inadequada. A umidade é um caso de emergência física fraca, pois depende das propriedades causais intrínsecas das moléculas e de suas interações. A chamada emergência computacional, na crítica do autor, seria outra coisa: a tentativa de fazer uma descrição abstrata se transformar no fenômeno descrito apenas por aumento de escala. Sob essa leitura, escalar parâmetros pode melhorar a simulação, mas não muda a categoria ontológica do processo.
Com isso, Lerchner propõe inverter a cadeia causal frequentemente presumida. O funcionalismo tende a imaginar uma sequência em que física gera computação e computação gera consciência. Para o autor, a ordem relevante é outra: física, consciência, conceitos e computação. A experiência surgiria de organizações termodinâmicas específicas dentro da física. Conceitos emergiriam como invariantes formados dentro dessa experiência. Computação, por fim, seria o uso externo de tokens físicos arbitrariamente associados a esses conceitos. Se essa análise estiver correta, não há caminho lógico pelo qual um mapa simbólico possa produzir retroativamente o sujeito que torna o mapa significativo.
Lerchner também antecipa a objeção de que redes neurais modernas não são sistemas simbólicos clássicos. Deep learning trabalha com vetores de alta dimensionalidade, pesos distribuídos e representações frequentemente chamadas de subsimbólicas. Algumas arquiteturas constroem world models, isto é, modelos internos do ambiente, ou ciclos recursivos que imitam traços de introspecção. Mesmo aceitando que esses sistemas podem capturar relações estruturais sofisticadas, o autor nega que isso resolva o problema semântico. Em hardware digital, vetores são implementados por números de ponto flutuante, e cada número segue um alfabeto finito. Um exemplo é o padrão IEEE 754, especificação internacional para representar números reais em computadores. Mesmo em computadores analógicos, neuromórficos ou quânticos, o momento em que um estado é tratado como leitura, sinal ou estado interno já pressupõe uma chave interpretativa.
Um exemplo ajuda a entender essa indeterminação. Uma mesma sequência física de voltagens poderia ser interpretada como uma melodia, como dados financeiros ou como ruído coerente, dependendo da chave de mapeamento escolhida. Nada na voltagem, tomada isoladamente, determina qual dessas computações é a correta. O mecanismo físico oferece regularidade, mas não fornece por conta própria o alfabeto semântico. Um relógio analógico também não contém a hora como propriedade intrínseca de engrenagens e ângulos. Ele passa a computar horas porque um agente mapeia certas posições dos ponteiros para conceitos temporais.
A robótica incorporada recebe atenção especial porque parece oferecer uma saída natural. Sensores e atuadores ligam o sistema ao mundo, permitindo que um robô responda a luz, calor, pressão, obstáculos e comandos. Lerchner reconhece que isso resolve parte do problema de referência dos símbolos, pois estados internos podem ser conectados a dados vindos do ambiente. Ainda assim, ele chama de falácia da transdução a suposição de que essa conexão basta para produzir experiência. Sensores convertem forças físicas em sinais, conversores analógico-digitais transformam sinais em números, algoritmos manipulam esses números e atuadores devolvem forças ao mundo. A interação é real, mas o núcleo computacional continua operando sobre estados alfabetizados.
Isso não significa que sistemas de IA sejam irrelevantes, inofensivos ou filosoficamente desinteressantes. A conclusão prática do autor é outra. Se a tese estiver correta, a criação de Artificial General Intelligence, ou AGI, não geraria automaticamente um novo paciente moral capaz de sofrer. Paciente moral é qualquer entidade cujos interesses próprios precisam ser considerados por ela poder ter experiências. O risco imediato estaria menos em machucar máquinas sencientes e mais em confundir simulação de agência com a existência de um sujeito. Essa confusão pode amplificar antropomorfismo, apego emocional, manipulação social e decisões políticas mal fundamentadas.
Ao mesmo tempo, o texto não fecha a porta para toda consciência artificial concebível. Ele rejeita a suficiência da computação algorítmica, não a possibilidade lógica de um sistema sintético com constituição física adequada. Termos como autopoiese, processo pelo qual um sistema produz e mantém continuamente os componentes que o constituem, regulação termodinâmica e organização metabólica aparecem nesse debate porque apontam para processos nos quais um sistema mantém a si mesmo como unidade física. Se algum artefato não biológico viesse a instanciar as condições físicas necessárias para experiência, ele poderia entrar em outra categoria. Mas isso seria o oposto da independência de substrato: a consciência dependeria precisamente do tipo de física realizado, e não de uma descrição funcional abstrata.
A contribuição mais forte da tese é deslocar a pergunta. Em vez de exigir uma teoria completa da consciência antes de avaliar a senciência de IA, Lerchner propõe examinar a ontologia da computação. Se computar é manipular símbolos definidos por um mapmaker, a computação é uma ferramenta descritiva poderosa, não uma fonte autônoma de significado vivido. A fronteira sugerida é entre teleonomia, comportamento que parece orientado a fins por causa de mecanismos e seleção de regras, e teleologia, finalidade própria de um sujeito que experimenta o mundo. A IA contemporânea pode avançar muito na primeira dimensão sem atravessar automaticamente a segunda.
O valor da análise está justamente em formular uma restrição conceitual clara sem recorrer ao misticismo e sem declarar que a biologia atual é a única forma possível de mente. Sua conclusão permanece controversa, e outros filósofos e cientistas discordarão da dependência atribuída ao mapmaker. Ainda assim, o argumento obriga o debate sobre consciência artificial a separar desempenho, linguagem, integração sensorial, complexidade e experiência subjetiva. Uma máquina pode produzir mapas cada vez mais úteis do mundo. A questão levantada por Lerchner é se algum desses mapas, por ser apenas mapa, poderia se tornar o território que descreve.


