Pular para o conteúdo

Por que a Inteligência Artificial não pode instanciar a consciência

A discussão sobre consciência em Inteligência Artificial (IA) ganhou urgência porque os modelos de linguagem deixaram de parecer meros autocompletes sofisticados. Eles conversam, corrigem, resumem, sustentam contexto, às vezes dão a impressão de refletir sobre o que acabaram de dizer. O artigo de Alexander Lerchner, The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness, entra nesse cenário com uma hipótese ambiciosa e tecnicamente articulada. O ganho de desempenho computacional, por maior que seja, não basta para concluir que houve instanciação de experiência subjetiva.

O mérito inicial do artigo está em ordenar o problema. No debate público, costuma-se saltar de comportamento convincente para consciência presumida. Lerchner interrompe esse salto e separa níveis. Há a competência observável do sistema. Há a organização formal que produz essa competência. E há a questão fenomenal, a existência de um sujeito para quem algo é sentido. O texto insiste que esses níveis se relacionam, mas não se confundem.

A chamada abstraction fallacy aparece justamente quando a descrição formal de um processo passa a ser tomada como o próprio processo constitutivo. A metáfora do mapa e do território funciona aqui porque mostra onde a inferência se desvia. Um mapa pode ser extraordinariamente fiel para orientar ações, prever trajetórias e reduzir erro. Ainda assim, não se converte no terreno que descreve.

Lerchner parte da noção clássica de implementação física em filosofia da computação. Em termos operacionais, consideramos que uma máquina implementa um algoritmo quando é possível alinhar, de maneira sistemática, transições físicas do hardware com etapas lógicas da computação. Nada disso é controverso na engenharia. A controvérsia começa quando esse alinhamento é promovido a teoria da experiência, como se correspondência funcional encerrasse a questão ontológica.

A seção mais forte do artigo discute a origem dos estados abstratos. O autor argumenta que conteúdos semânticos não surgem prontos na matéria, à espera de leitura passiva. Eles exigem constituição em um agente que já possui experiência. Daí a distinção entre compressão estatística e constituição fenomenal. Clustering em latent space organiza dados com eficiência, identifica regularidades e melhora inferência. O que ele não entrega, por si só, é ancoragem experiencial do conteúdo.

Nesse ponto aparece o conceito de mapmaker. A escolha do termo é deliberada. Em vez do observador passivo, Lerchner introduz um agente ativo que impõe um recorte semântico sobre dinâmicas físicas contínuas. Esse recorte, chamado de alphabetization, cria um alfabeto finito de estados significativos. Sem essa operação, o que há é dinâmica física, não símbolo em sentido estrito.

A distinção entre discretization e alphabetization dá rigor ao argumento. Discretization descreve estabilidade física, por exemplo, estados robustos de voltagem sob ruído. Alphabetization descreve a atribuição semântica que trata conjuntos heterogêneos de microestados como o mesmo token lógico. O primeiro processo pertence à termodinâmica do sistema. O segundo pertence à estrutura de interpretação que torna computação possível enquanto computação.

Com essa base, o artigo formula sua fronteira central. Simulação é manipulação sintática capaz de acompanhar relações abstratas com alta fidelidade. Instanciação é realização das dinâmicas constitutivas do fenômeno. O exemplo da fotossíntese é didático e preciso. Um modelo computacional pode prever a transformação de variáveis bioquímicas com excelente acurácia, enquanto nenhuma molécula de glicose é produzida pelo ato de simular.

A crítica ao emergentismo por escala segue a mesma lógica. Lerchner separa emergência física fraca, que depende de interações causais intrínsecas do substrato, da tese de emergência computacional abstrata, na qual complexidade sintática crescente supostamente se converteria em experiência. O ponto não é negar emergência como categoria científica. O ponto é recusar uma mudança de categoria sem mecanismo físico explicitado.

Uma consequência importante aparece na cadeia causal proposta pelo autor. Em vez de tratar consciência como produto tardio de computação, ele sugere que computação semântica já pressupõe sujeito experiencial para a constituição de conceitos. Essa inversão é discutível em detalhes, mas impõe uma exigência legítima ao debate. Quem afirma consciência por arquitetura sintática precisa mostrar como o conteúdo deixa de ser apenas atribuído e passa a ser constitutivo.

O texto também enfrenta a objeção de que redes neurais modernas seriam “subsimbólicas” e, por isso, escapariam do problema. Lerchner reconhece o ganho real dessas arquiteturas em modelagem relacional. Contudo, recorda que sua implementação material passa por representações discretas e regras de transformação formal em hardware digital, inclusive quando a linguagem de superfície sugere continuidade geométrica. O obstáculo semântico não some. Ele muda de aparência.

Na robótica incorporada, o artigo identifica a transduction fallacy. Sensores e atuadores ampliam o acoplamento causal com o ambiente, isto é, aumentam a capacidade do sistema de receber sinais físicos e responder a eles em tempo real. Esse ganho melhora a referência operacional, a ligação prática entre estados internos do modelo e eventos externos. Ainda assim, o ciclo composto por input transduction, que converte estímulos físicos em sinais computáveis, policy computation, que calcula a ação com base nesses sinais, e output transduction, que transforma esse cálculo em ação física, pode ser eficiente sem que daí se siga, logicamente, a existência de subjetividade fenomenal.

Outro argumento técnico relevante é a indeterminação do mecanismo. Uma mesma trajetória física pode ser codificada como melodia, série financeira ou ruído, conforme a chave interpretativa adotada. A dinâmica material permanece. A identidade computacional varia com o esquema semântico escolhido. O resultado reforça a tese de que a física do veículo não determina, sozinha, o conteúdo atribuído.

No plano filosófico, o ganho do artigo está em deslocar o eixo da discussão. Em lugar de esperar uma teoria final da consciência para decidir tudo de uma vez, Lerchner pede uma ontologia da computação capaz de explicitar pressupostos sobre símbolo, conteúdo, causalidade e constituição. Esse deslocamento é produtivo porque restringe inferências por analogia e exige compatibilidade entre linguagem teórica e compromisso físico.

Nesse ponto, uma referência é suficiente para situar a crítica em tradição materialista rigorosa. Em Matter and Mind, Mario Bunge já advertia que confundir processamento simbólico com processo mental concreto mistura níveis explicativos e reintroduz, por outra via, uma separação artificial entre função e suporte material.

A partir daí, é possível avançar além do artigo sem abandonar prudência empírica. Não há evidência robusta que obrigue a postular qualia como entidades imateriais ou causalmente inertes. Essa afirmação não resolve o problema inteiro da consciência. Ela apenas fixa um critério metodológico básico. Hipóteses com alto custo ontológico e baixo rendimento explicativo podem ser rejeitadas provisoriamente.

Também convém evitar um falso dilema recorrente. Rejeitar dualismo não implica empobrecer a explicação em um reducionismo de frases neurais isoladas. Uma abordagem naturalista robusta trabalha com níveis complementares, neurobiológico, cognitivo e social, desde que haja coerência causal entre eles. A dificuldade é maior. A capacidade explicativa também.

As implicações práticas para segurança de IA são imediatas. Se desempenho antropomórfico não constitui evidência suficiente de senciência, a regulação deve priorizar riscos já observáveis, manipulação comportamental em escala, opacidade decisória, concentração de poder e erosão de accountability humana. A pauta de direitos de máquinas pode permanecer em discussão filosófica. Não deve ocupar o lugar da análise de risco ancorada em dados.

A descoberta conceitual de Lerchner, no fim, não é um veto metafísico à possibilidade de consciência artificial. É uma restrição estrutural sobre o que se pode inferir legitimamente a partir de arquiteturas sintáticas e sucesso comportamental. Enquanto a ponte entre sintaxe computacional e constituição fenomenal não for demonstrada com mecanismos físicos explícitos, a conclusão mais responsável permanece a mesma. Temos simulação cada vez mais poderosa. Não temos, ainda, evidência suficiente de subjetividade instanciada.

Universo Racionalista

Universo Racionalista

Fundada em 30 de março de 2012, Universo Racionalista é uma organização em língua portuguesa especializada em divulgação científica e filosófica.