Por Philip Ball
Publicado na Quanta Magazine
Qual é a diferença entre física e biologia? Deixe uma bola de golfe e uma bola de canhão despencarem da Torre de Pisa. As leis da física permitem que você preveja suas trajetórias precisamente.
Agora faça a mesma experiência novamente, mas substitua a bola de canhão por um pombo.
Os sistemas biológicos não desafiam as leis físicas, é claro – mas também não parecem ser previstos por elas. Em contraste, eles são direcionados a objetivos: sobreviver e reproduzir. Podemos dizer que eles têm um propósito – ou o que os filósofos tradicionalmente chamam de teleologia – que orienta seu comportamento.
Da mesma forma, a física agora nos permite prever, a partir do estado do universo, um bilionésimo de segundo depois do Big Bang. Mas ninguém imagina a aparência das primeiras células primitivas na Terra que levou previsivelmente à raça humana. As leis, ao que parece, não ditam o curso da evolução.
A teleologia e a contingência histórica da biologia, disse o biólogo evolucionista Ernst Mayr, a torna única entre as ciências. Ambas as características derivam talvez do único princípio orientador geral da biologia: a evolução. Depende do acaso e da aleatoriedade, mas a seleção natural dá-lhe a aparência de intenção e propósito. Os animais são atraídos para a água não por alguma atração magnética, mas por causa de seu instinto, sua intenção, para sobreviver. As pernas servem ao propósito de, entre outras coisas, levar-nos à água.
Mayr afirmou que essas características tornam a biologia excepcional – uma lei em si mesma. Mas os recentes desenvolvimentos em física não-equilibrada, sistemas complexos de ciência e teoria da informação desafiam essa visão.
Uma vez que consideramos os seres vivos como agentes realizando uma computação – coletando e armazenando informações sobre um ambiente imprevisível – capacidades e considerações tais como replicação, adaptação, agência, propósito e significado podem ser entendidas como decorrentes não da improvisação evolutiva, mas como inevitáveis corolários das leis da física. Em outras palavras, parece haver uma espécie de física de coisas fazendo coisas, e evoluindo para fazer coisas. O significado e a intenção – pensados como sendo as características definidoras dos sistemas vivos – podem emergir naturalmente através das leis da termodinâmica e da mecânica estatística.
Em novembro passado, físicos, matemáticos e cientistas da computação reuniram-se com biólogos evolucionários e moleculares para conversar – e por vezes discutir – sobre essas ideias em um workshop no Instituto Santa Fé no Novo México, a meca da ciência dos “sistemas complexos”. Eles perguntaram: Quão especial (ou não) é a biologia?
Não é de surpreender que não houvesse consenso. Mas uma mensagem que emergiu muito claramente foi que, se há um tipo de física por trás da teleologia biológica e da ação, ela tem algo a ver com o mesmo conceito que parece ter se instalado no cerne da própria física fundamental: a informação.
Desordem e demônios
A primeira tentativa de trazer informações e intenções para as leis da termodinâmica surgiu em meados do século XIX, quando a mecânica estatística estava sendo inventada pelo cientista escocês James Clerk Maxwell. Maxwell mostrou como a introdução desses dois ingredientes parecia permitir fazer coisas que a termodinâmica proclamava impossíveis.
Maxwell já havia mostrado como as relações matemáticas previsíveis e confiáveis entre as propriedades de uma pressão de gás, volume e temperatura poderiam ser derivadas dos movimentos aleatórios e incognoscíveis de inúmeras moléculas que balançam freneticamente com a energia térmica. Em outras palavras, a termodinâmica – a ciência do fluxo de calor, que uniu propriedades de grande escala da matéria como pressão e temperatura – foi o resultado da mecânica estatística na escala microscópica de moléculas e átomos.
De acordo com a termodinâmica, a capacidade de extrair trabalho útil dos recursos energéticos do universo está sempre diminuindo. As bolsas de energia estão diminuindo, as concentrações de calor estão sendo suavizadas. Em cada processo físico, alguma energia é inevitavelmente dissipada como calor inútil, perdida entre os movimentos aleatórios das moléculas. Essa aleatoriedade é equiparada à quantidade termodinâmica chamada entropia – uma medida da desordem – que está sempre aumentando. Essa é a segunda lei da termodinâmica. Eventualmente todo o universo será reduzido a um uniforme e chata desordem: um estado de equilíbrio, onde a entropia é maximizada e nada significativo jamais acontecerá novamente.
Estamos realmente condenados a esse triste destino? Maxwell estava relutante em acreditar, e em 1867 ele partiu para, como ele disse, “escolher um buraco” na segunda lei. Seu objetivo era começar com uma caixa desordenada de moléculas se agitando aleatoriamente, então separar as moléculas rápidas das lentas, reduzindo a entropia no processo.
Imagine uma pequena criatura – o físico William Thomson mais tarde a chamou, para o desânimo de Maxwell, de demônio – que pode ver cada molécula individual na caixa. O demônio separa a caixa em dois compartimentos, com uma porta deslizante na parede entre eles. Toda vez que ele vê uma molécula particularmente energética aproximando-se da porta do compartimento direito, abre-a para deixá-la passar. E toda vez que uma molécula lenta, “fria”, se aproxima da esquerda, ele a deixa passar também. Eventualmente, ele tem um compartimento de gás frio à direita e gás quente à esquerda: um reservatório de calor que pode ser aproveitado para fazer o trabalho.
Isso só é possível por duas razões. Primeiro, o demônio tem mais informações do que nós: ele pode ver todas as moléculas individualmente, ao invés de apenas médias estatísticas. E segundo, tem intenção: um plano para separar o quente do frio. Ao explorar seu conhecimento com intenção, ele pode desafiar as leis da termodinâmica.
Pelo menos, assim parecia. Demorou cem anos para entender por que o demônio de Maxwell não pode de fato derrotar a segunda lei e evitar a inexorável corrediça para o equilíbrio mortal e universal. E a razão mostra que há uma profunda conexão entre a termodinâmica e o processamento da informação – ou seja, a computação. O físico alemão-americano Rolf Landauer mostrou que mesmo que o demônio possa coletar informações e mover a porta (sem atrito) sem nenhum custo de energia, uma penalidade deve eventualmente ser paga. Pelo fato de não poder ter a memória ilimitada de cada movimento molecular, deve ocasionalmente limpar sua memória – esqueça o que viu e comece outra vez – antes que possa continuar a colher a energia. Esse ato de apagamento de informações tem um preço inevitável: ele dissipa energia e, portanto, aumenta a entropia. Todos os ganhos contra a segunda lei feita pela habilidosa obra dos demônios são cancelados pelo “limite de Landauer”: o custo finito de apagamento de informações (ou, mais geralmente, de converter informações de uma forma para outra).
Os organismos vivos parecem um pouco como o demônio de Maxwell. Considerando que um copo cheio de substâncias químicas reagentes acabará por gastar sua energia e cair em estase desordenada e equilibrada, sistemas vivos vêm coletivamente evitando o estado de equilíbrio sem vida desde a origem da vida há cerca de três bilhões e meio de anos atrás. Eles colhem a energia de seus arredores para sustentar esse estado de não equilíbrio, e eles fazem isso com “intenção”. Mesmo bactérias simples movem-se com “propósito” em direção a fontes de calor e nutrição. Em seu livro de 1944, What is Life?, o físico Erwin Schrödinger expressou isso dizendo que os organismos vivos se alimentam de “entropia negativa”.
Eles conseguem isso, disse Schrödinger, ao capturar e armazenar informações. Algumas dessas informações são codificadas em seus genes e transmitidas de uma geração para a seguinte: um conjunto de instruções para colher entropia negativa. Schrödinger não sabia onde a informação é mantida ou como ela é codificada, mas sua intuição de que ela está escrita no que ele chamou de “cristal aperiódico” inspirou Francis Crick, ele mesmo treinado como físico, e James Watson, quando em 1953, descobriram como a informação genética pode ser codificada na estrutura molecular da molécula de DNA.
Um genoma, então, é pelo menos em parte um registro do conhecimento útil que permitiu aos ancestrais de um organismo – de volta ao passado distante – sobreviver em nosso planeta. De acordo com David Wolpert, matemático e físico do Instituto Santa Fé que convocou o recente workshop, e seu colega Artemy Kolchinsky, o ponto-chave é que organismos bem adaptados estão correlacionados com esse ambiente. Se uma bactéria nadar de forma confiável para a esquerda ou para a direita quando há uma fonte de alimento nessa direção, é melhor adaptado, e vai florescer mais, do que um que nada em direções aleatórias e por isso só encontra o alimento por acaso. Uma correlação entre o estado do organismo e do seu ambiente implica que eles compartilham informações em comum. Wolpert e Kolchinsky dizem que é essa informação que ajuda o organismo a ficar fora do equilíbrio – porque, como o demônio de Maxwell, ele pode então adaptar seu comportamento para extrair o trabalho das flutuações em seu ambiente. Se não adquirisse esta informação, o organismo iria gradualmente reverter ao equilíbrio: morreria.
Olhando por esse lado, a vida pode ser considerada como uma computação que visa otimizar o armazenamento e uso de informações significativas. E a vida acaba por ser extremamente boa nisso. A resolução de Landauer do enigma do demônio de Maxwell estabeleceu um limite inferior absoluto sobre a quantidade de energia que uma computação de memória finita requer: a saber, o custo energético do esquecimento. Os melhores computadores hoje desperdiçam muito mais energia do que isso, normalmente consumindo e dissipando mais de um milhão de vezes mais. Mas, de acordo com Wolpert, “uma estimativa muito conservadora da eficiência termodinâmica da computação total feita por uma célula é que é apenas 10 ou mais vezes maior do que o limite de Landauer”.
A implicação, disse ele, é que “a seleção natural tem estado extremamente preocupada em minimizar o custo termodinâmico da computação. Ela fará tudo o que puder para reduzir a quantidade total de computação que uma célula deve executar”. Em outras palavras, a biologia (possivelmente, exceto nós mesmos) parece ter muito cuidado para não pensar demais no problema da sobrevivência. Essa questão dos custos e benefícios de computar o caminho da vida, disse ele, tem sido largamente ignorada na biologia até agora.
Darwinismo inanimado
Organismos vivos podem ser considerados como entidades que se sintonizam com seu ambiente usando informações para colher energia e evadir o equilíbrio. Claro, é um bocado. Mas observe que ele não disse nada sobre genes e evolução, em que Mayr, como muitos biólogos, assumiu que a intenção biológica e propósito dependem.
Até que ponto essa imagem pode nos levar? Os genes aperfeiçoados pela seleção natural são, sem dúvida, fundamentais para a biologia. Mas será que a evolução pela seleção natural é justamente um caso particular de um imperativo mais geral em relação à função e propósito aparente que existe no universo puramente físico? Estamos começando a olhar dessa maneira.
A adaptação tem sido vista como a marca da evolução darwiniana. Mas Jeremy England, do Massachusetts Institute of Technology, argumentou que a adaptação ao ambiente pode acontecer mesmo em sistemas complexos não-vivos.
A adaptação aqui tem um significado mais específico do que o retrato darwiniano usual de um organismo bem equipado para a sobrevivência. Uma dificuldade com a visão darwiniana é que não há maneira de definir um organismo bem adaptado, exceto em retrospecto. Os “mais aptos” são aqueles que resultaram ser melhores em sobrevivência e replicação, mas você não pode prever o que a aptidão implica. As baleias e o plâncton são bem adaptados à vida marinha, mas de formas que têm pouca relação óbvia entre si.
A definição de England de “adaptação” está mais próxima da de Schrödinger e, na verdade, da de Maxwell: uma entidade bem adaptada pode absorver eficientemente a energia de um ambiente imprevisível e flutuante. É como a pessoa que mantém seu pé em um barco, enquanto outros cair porque ela é melhor em ajustar as flutuações do convés. Usando os conceitos e métodos da mecânica estatística em um cenário de não equilíbrio, England e seus colegas argumentam que esses sistemas bem adaptados são os que absorvem e dissipam a energia do ambiente, gerando entropia no processo.
Os sistemas complexos tendem a se instalar nesses estados bem adaptados com uma facilidade surpreendente, disse England: “A matéria com flutuação se encaixa espontaneamente em formas que são boas em absorver o trabalho do ambiente variável no tempo”.
Não há nada neste processo que envolva a acomodação gradual ao ambiente através dos mecanismos darwinianos de replicação, mutação e herança de traços. Não há replicação. “O que é excitante sobre isso é que significa que quando damos um relato físico das origens de algumas das estruturas de aparência adaptada que vemos, elas não precisam necessariamente ter tido pais no sentido biológico usual”, disse England. “Você pode explicar a adaptação evolutiva usando termodinâmica, mesmo em casos intrigantes onde não há auto-replicadores e a lógica darwiniana quebra” – enquanto o sistema em questão for complexo, versátil e sensível o suficiente para responder às flutuações em seu ambiente.
Mas também não há conflito entre adaptação física e darwiniana. Na verdade, este último pode ser visto como um caso particular do primeiro. Se a replicação está presente, então a seleção natural torna-se a rota pela qual os sistemas adquirem a capacidade de absorver o trabalho – entropia negativa de Schrödinger – do ambiente. A auto-replicação é, de fato, um mecanismo especialmente bom para estabilizar sistemas complexos, e por isso não é nenhuma surpresa que isto seja o que a biologia usa. Mas no mundo não vivo, onde a replicação não costuma acontecer, as estruturas dissipativas bem adaptadas tendem a ser altamente organizadas, como ondulações de areia e dunas que cristalizam a partir da dança aleatória de areia levada pelo vento. Visto desta maneira, a evolução darwiniana pode ser considerada como um exemplo específico de um princípio físico mais geral que governa os sistemas de não equilíbrio.
Máquinas de previsão
Esta imagem de estruturas complexas adaptando-se a um ambiente flutuante nos permite também deduzir algo sobre como essas estruturas armazenam informações. Em suma, desde que tais estruturas – vivas ou não – sejam compelidas a utilizar eficientemente a energia disponível, são suscetíveis de se tornarem “máquinas de previsão”.
É quase uma característica definidora da vida que os sistemas biológicos mudam seu estado em resposta a algum sinal de direção do ambiente. Algo aconteceu; você responde. As plantas crescem para a luz; elas produzem toxinas em resposta a patógenos. Esses sinais ambientais são tipicamente imprevisíveis, mas os sistemas vivos aprendem com a experiência, armazenando informações sobre seu ambiente e as usando para orientar o comportamento futuro (os genes, neste quadro, só fornecem o básico propósito geral fundamentos).
A previsão não é opcional. De acordo com o trabalho de Susanne Still na Universidade do Havaí, Gavin Crooks, anteriormente no Lawrence Berkeley National Laboratory, na Califórnia, e seus colegas, prever o futuro parece ser essencial para qualquer sistema de eficiência energética em um ambiente aleatório e flutuante.
Há um custo termodinâmico para armazenar informações sobre o passado que não tem valor preditivo para o futuro, mostram Still e colegas. Para ser eficiente no máximo, um sistema tem que ser seletivo. Se ele se lembra indiscriminadamente de tudo o que aconteceu, ele incorre em um grande custo de energia. Por outro lado, se não se preocupa em armazenar qualquer informação sobre seu ambiente, ele estará constantemente lutando para lidar com o inesperado. “Uma máquina termodinamicamente ideal deve equilibrar memória contra previsão, minimizando sua nostalgia – a informação inútil sobre o passado”, disse um coautor, David Sivak, agora na Universidade Simon Fraser em Burnaby, British Columbia. Em suma, deve ser bom na coleta de informações significativas – o que é suscetível de ser útil para a sobrevivência futura.
Você esperaria que a seleção natural favorecesse os organismos que usam a energia eficientemente. Mas até mesmo dispositivos biomoleculares individuais como as bombas e motores em nossas células devem, de alguma forma importante, aprender com o passado para antecipar o futuro. Para obter sua notável eficiência, Still disse, que esses dispositivos devem “construir implicitamente representações concisas do mundo que eles têm encontrado até agora, permitindo-lhes antecipar o que está por vir”.
A termodinâmica da morte
Mesmo que algumas dessas características básicas de processamento de informação dos sistemas vivos já sejam induzidas, na ausência de evolução ou replicação, por termodinâmica não equilibrada, você pode imaginar que traços mais complexos – uso de ferramentas, digamos, ou cooperação social – devem ser fornecidos por evolução.
Bem, não conte com isso. Estes comportamentos, comumente considerados como sendo o domínio exclusivo do nicho evolucionário altamente avançado que inclui primatas e aves, podem ser imitados num modelo simples constituído por um sistema de partículas que interagem. O truque é que o sistema é guiado por uma restrição: ele age de uma forma que maximiza a quantidade de entropia (neste caso, definida em termos dos diferentes caminhos possíveis que as partículas poderiam tomar) que gera dentro de um determinado intervalo de tempo.
A maximização de entropia tem sido pensada há muito tempo como sendo uma característica de sistemas de não equilíbrio. Mas o sistema neste modelo obedece a uma regra que permite maximizar a entropia em uma janela de tempo fixa que se estende para o futuro. Em outras palavras, tem previsão. Com efeito, o modelo analisa todos os caminhos que as partículas podem tomar e os obriga a adotar o caminho que produz a maior entropia. Grosseiramente falando, este tende a ser o caminho que mantém aberto o maior número de opções de como as partículas podem se mover posteriormente.
Pode-se dizer que o sistema de partículas experimenta um tipo de desejo de preservar a liberdade de ação futura, e que esse impulso guia seu comportamento a qualquer momento. Os pesquisadores que desenvolveram o modelo – Alexander Wissner-Gross na Universidade de Harvard e Cameron Freer, matemático do Instituto de Tecnologia de Massachusetts – chamam isso de “força entrópica causal“. Em simulações computadorizadas de configurações de partículas em forma de disco movendo-se em configurações próprias, essa força cria resultados que estranhamente sugerem inteligência.
Em um caso, um disco grande era capaz de “usar” um pequeno disco para extrair um segundo pequeno disco de um tubo estreito – um processo que parecia ser um uso de ferramenta. Liberar o disco aumentou a entropia do sistema. Em outro exemplo, dois discos em compartimentos separados sincronizaram seu comportamento para puxar um disco maior para que eles pudessem interagir com ele, dando a aparência de cooperação social.
Naturalmente, esses agentes interagiram obter o benefício de um vislumbre para o futuro. A vida, como regra geral, não. Então, quão relevante é isso para a biologia? Isso não é claro, embora Wissner-Gross tenha dito que ele está trabalhando agora para estabelecer “um mecanismo prático, biologicamente plausível, para as forças entrópicas causais”. Enquanto isso, ele acha que a abordagem poderia ter spinoffs práticos, oferecendo um atalho para a inteligência artificial. “Eu prevejo que uma maneira mais rápida de alcançá-la será descobrir esse comportamento primeiro e depois trabalhar em retrocesso a partir dos princípios físicos e restrições, ao invés de trabalhar progressivamente a partir de determinado cálculo ou técnicas de previsão”, disse ele. Em outras palavras, primeiro encontre um sistema que faça o que você quer que ele faça e, em seguida, descubra como ele faz isso.
O envelhecimento, também, tem sido convencionalmente visto como um traço ditado pela evolução. Os organismos têm uma vida útil que cria oportunidades para se reproduzir, diz a história, sem inibir as perspectivas de sobrevivência da prole pelos pais que vivem muito tempo e competem por recursos. Isso parece certamente fazer parte da história, mas Hildegard Meyer-Ortmanns, físico da Universidade Jacobs, em Bremen, na Alemanha, acha que o envelhecimento final é um processo físico, não biológico, governado pela termodinâmica da informação.
Certamente não é simplesmente uma questão de coisas desgastando. “A maior parte do material macio de que somos feitos é renovada antes que tenha a chance de envelhecer”, disse Meyer-Ortmanns. Mas esse processo de renovação não é perfeito. A termodinâmica da cópia de informação dita que deve haver um trade-off entre precisão e energia. Um organismo tem um suprimento finito de energia, então os erros necessariamente se acumulam ao longo do tempo. O organismo então tem que gastar uma quantidade cada vez maior de energia para reparar esses erros. O processo de renovação eventualmente produz cópias muito falhas para funcionar corretamente, e, assim, a morte chega.
Evidências empíricas parecem suportar isso. Sabe-se há muito tempo que as células humanas cultivadas parecem capazes de replicar não mais de 40 a 60 vezes (chamado de limite Hayflick) antes de parar e tornar-se senescente. E observações recentes da longevidade humana sugeriram que pode haver alguma razão fundamental para que os seres humanos não possam sobreviver muito além dos 100 anos.
Há um corolário para este desejo aparente de sistemas energeticamente eficientes, organizados e preditivos aparecerem em um ambiente flutuante de não equilíbrio. Nós mesmos somos um tal sistema, como todos os nossos ancestrais de volta à primeira célula primitiva. E a termodinâmica do não equilíbrio parece estar nos dizendo que isso é exatamente o que a matéria faz sob tais circunstâncias. Em outras palavras, a aparência da vida em um planeta como a Terra primitiva, imbuída de fontes de energia como a luz solar e a atividade vulcânica que mantém as coisas saindo do equilíbrio, começa a parecer não um evento extremamente improvável, como muitos cientistas assumiram, mas virtualmente inevitável. Em 2006, Eric Smith e o falecido Harold Morowitz, no Instituto Santa Fé, argumentaram que a termodinâmica de sistemas de não equilíbrio faz com que o surgimento de sistemas organizados e complexos seja muito mais provável numa Terra prebiótica longe do equilíbrio do que seria se os ingredientes químicos brutos estivessem em um “pequeno lago quente” (como Charles Darwin dizia).
Na década desde que esse argumento foi feito pela primeira vez, os pesquisadores acrescentaram detalhes e insights para a análise. As qualidades que Ernst Mayr considerava essenciais para a biologia – propósito e intenção – podem emergir como uma consequência natural da estatística e da termodinâmica. E essas propriedades gerais podem, por sua vez, levar naturalmente a algo como a vida.
Ao mesmo tempo, os astrônomos nos mostraram quantos mundos existem – por algumas estimativas que se estendem aos bilhões – orbitando outras estrelas em nossa galáxia. Muitos estão longe do equilíbrio, e pelo menos alguns são semelhantes à Terra. E as mesmas regras certamente estão sendo aplicadas lá fora.