Por Sean Carroll
Publicado no Preposterous Universe
Entropia aumenta. Sistemas fechados se tornam cada vez mais desordenados ao longo do tempo. É o que diz a Segunda Lei da Termodinâmica, uma das minhas favoritas entre todos os conceitos da física.
Ao menos, a entropia geralmente aumenta. Se conceituarmos entropia definindo primeiramente os “macroestados” – coleções dos estados individuais do sistema que são macroscopicamente indistinguíveis uns dos outros – e, em seguida, tomar o logaritmo do número de microestados por macroestado, então nós não esperamos que entropia sempre aumente. De acordo com Boltzmann, o aumento da entropia é apenas muito, muito provável, uma vez que os macroestados de maior entropia é maior, muito maior do que os de baixa entropia. Mas se esperarmos tempo suficiente – muito mesmo, muito mais tempo do que a idade do universo – um sistema macroscópico irá flutuar espontaneamente em um estado de baixa entropia. Creme e café não se misturarão, ovos não quebrarão, talvez universos inteiros passarão a existir. Mas como a escala de tempo é muito longa, isso é apenas uma questão de curiosidade intelectual, e não ciência experimental.
Em todo o caso, isso é o que me foi ensinado. Mas desde que eu [Sean Carroll] saí da pós-graduação, físicos (também químicos e biólogos) se tornaram cada vez mais interessados em sistemas de ultra pequenos, com apenas algumas partes em movimento. Nanomáquinas ou componentes moleculares dentro de células vivas. Em sistemas como estes, a flutuação de queda ocasional na entropia não é apenas possível, mas como é o que acontece com uma frequência relativa – com consequências cruciais para a forma como o mundo real funciona.
Assim sendo, nos últimos quinze anos ou mais, nota-se uma espécie de revolução na mecânica estatística de não-equilíbrio – o estudo dos sistemas estatísticos longe de seus felizes estados de repouso. Dois dos resultados mais importantes são o Teorema de Flutuação Crooks (de Gavin Crooks), que relaciona a probabilidade de um processo para a frente no tempo para a probabilidade de seu tempo reverso, e a Igualdade Jarzynski (de Christopher Jarzynski), que relaciona a mudança de energia livre entre dois estados ao valor médio do trabalho feito em uma viagem entre elas. (Mecânica estatística profissional está tão acostumada a lidar com a desproporcionalidade que, quando eles finalmente têm uma equação proporcional, eles chamam a de uma “igualdade”.) Há um sentido em que estas relações estejam na base da boa e velha Segunda Lei; a Igualdade Jarzynski pode ser derivada a partir do Teorema de Flutuação Crooks, e a segunda lei pode ser derivada a partir da Igualdade Jarzynski. Embora tenha sido descoberto as três relações em ordem cronológica inversa de como cada um é usado para derivar o outro.
Ainda assim, há um mistério escondido na forma como pensamos sobre a entropia e a Segunda Lei – um quebra-cabeça que, como muitos desses enigmas, eu realmente nunca pensei muito sobre isso até nós surgirmos com uma solução. A definição de entropia de Boltzmann (logaritmo do número de microestados em um macroestado) é muito conceitualmente claro e bom o suficiente para ser gravado em sua lápide. Mas não é a única definição de entropia, e nem mesmo é aquela que é usada com mais frequência.
Ao invés de se referir a macroestados, podemos pensar na entropia em como caracterizar algo mais subjetivo: a nossa compreensão do estado do sistema. Ou seja, nós não podemos saber a posição exata x e impulso p de todos os átomos que compõem um fluido, mas podemos ter alguma distribuição de probabilidade ρ (x, p) que nos diz a probabilidade de o sistema estar em qualquer estado particular. Em seguida, a entropia associada com esta distribuição é representada por uma fórmula diferente, embora igualmente famosa:
Ou seja, nós pegamos a distribuição de probabilidade ρ, multiplicamos por seu próprio logaritmo e integramos o resultado sobre todos os possíveis estados do sistema, para obter a entropia. Uma fórmula como esta foi introduzida pelo próprio Boltzmann, mas nos dias de hoje é frequentemente associada com Josiah Willard Gibbs, a menos que você esteja na teoria da informação, onde ele é creditada a Claude Shannon. Não se preocupe se os símbolos são totalmente obscuros; o ponto é que baixa entropia significa que sabemos muito sobre como é um sistema em um estado específico e alta entropia significa que não sabemos muito em todos.
Em circunstâncias apropriadas, as formulações de Boltzmann e Gibbs da entropia e a Segunda Lei estão intimamente relacionados entre si. Mas há uma diferença crucial: em um sistema perfeitamente isolado, a entropia de Boltzmann tende a aumentar, mas a entropia de Gibbs permanece exatamente constante. Em um sistema aberto – permitida a interagir com o ambiente – a entropia Gibbs vai subir, mas ela vai apenas subir, nunca vai flutuar para baixo. Entropia pode diminuir por meio de perda de calor, se você colocar o sistema em um refrigerador ou algo assim, mas você sabe o que quero dizer. A entropia Gibbs é sobre a nossa compreensão do sistema, e como o sistema é atacado aleatoriamente pelo seu ambiente, sabemos cada vez menos sobre seu estado específico. Dessa forma, do ponto de vista Gibbs, talvez podemos nos expressar com “entropia raramente, mas, ocasionalmente, vai flutuar para baixo”.
Desde que entropia Gibbs/Shannon é um recurso do nossa compreensão do sistema, a forma como ele pode flutuar para baixo é, para nós, observar o sistema e notar que ele está em um estado relativamente improvável.
Mas esta operação de “observar o sistema” não tem uma implementação pronta em como nós normalmente formulamos mecânica estatística. Até agora! Eu [Sean Carroll] e meus colaboradores Tony Bartolotta, Stefan Leichenauer, Jason Pollack escrevemos um artigo formulando mecânica estatística atualizada com o compreendimento explícito por meio dos resultados de medições. Algumas imagens extras, animações e códigos estão disponíveis nesta página web.
A Segunda Lei da Termodinâmica Bayesiana
Anthony Bartolotta, Sean M. Carroll, Stefan Leichenauer e Jason Pollack
Obtivemos uma generalização da Segunda Lei da Termodinâmica que usa atualizações bayesianas para incorporar explicitamente os efeitos de uma medida de um sistema em algum momento da sua evolução. Ao permitir que a compreensão de um experimentador seja atualizado pelo processo de medição, esta formulação resolve uma tensão entre o fato de que a entropia de um sistema estatístico pode, às vezes, flutuar para baixo e a informação teórica de que a compreensão de um sistema em desenvolvimento aleatório degrada com o tempo. O Segunda Lei Bayesiana pode ser escrito como ΔH(ρm,ρ)+⟨Q⟩F|m≥0, onde ΔH(ρm,ρ) é a variação da entropia cruzada entre o estado original da distribuição de probabilidade ρ e a distribuição de medição atualizada ρm, e ⟨Q⟩F|m é o valor esperado de um fluxo de calor generalizado para fora do sistema. Nós também derivamos versões refinadas da Segunda Lei que limitavam o aumento de entropia abaixo de um número não-negativo, bem como a versão bayesiana da Igualdade Jarzynski. Nós demonstramos o formalismo usando exemplos analíticos e numéricos simples.
A palavra “bayesiana” fundamental aqui se refere ao Teorema de Bayes, um resultado central na teoria da probabilidade. O teorema de Bayes nos diz como atualizar a probabilidade que atribuímos a uma determinada ideia após recebermos novas informações relevantes. No caso da mecânica estatística, começamos com distribuições de probabilidade para o sistema, e então a deixamos se desenvolver (por ser influenciado pelo mundo exterior, ou simplesmente interagindo com um banho de calor). Então nós fazemos medimos – mas uma medida realista, o que nos diz algo sobre o sistema, mas não tudo. Assim podemos usar o Teorema de Bayes para atualizar nossa compreensão e obter uma nova distribuição de probabilidade.
Até agora, está tudo perfeitamente normal. Iremos um pouco mais longe e também atualizaremos a distribuição inicial que nós começamos – nossa compreensão do resultado de medição influenciou no que pensávamos que sabíamos sobre o sistema no início do experimento. Então nós derivamos a Segunda Lei da Termodinâmica Bayesiana, o que relacionou a distribuição original (desatualizada) em momentos iniciais e finais com a distribuição atualizada em momentos iniciais e finais.
Essa relação faz uso da entropia cruzada entre duas distribuições, o que você realmente não vê que muitas vezes na teoria da informação. Pense em quanto você teria que esperar para saber qual é o estado específico de um sistema, quando tudo o que você sabia originalmente era alguma distribuição de probabilidade. Se essa distribuição bruscamente atingiu o pico em torno de algum valor, você não precisa esperar muito para saber – basicamente, você já sabe em qual estado o sistema está. Mas se ele se espalhar, você terá que esperar um pouco mais para saber. De fato, podemos pensar na entropia Gibbs/Shannon S(ρ) como “a quantidade média de espera para saber estado exato do sistema, uma vez que é descrito por uma distribuição de probabilidade ρ”.
Em contraste, a entropia cruzada H(ρ, ω) é uma função de duas distribuições: a distribuição “assumida” ω, e a distribuição “verdadeira” ρ. Agora estamos imaginando que existem duas fontes de incerteza: a distribuição real porque tem uma entropia diferente de zero, e outra porque não estamos mesmo usando a distribuição certa! A entropia cruzada entre essas duas distribuições é “a quantidade média de espera para saber estado exato do sistema, dado que nós pensamos que é descrito por uma distribuição de probabilidade ω, mas na verdade é descrito por uma distribuição de probabilidade ρ”. E a Segunda Lei Bayesiana (Bayesian Second Law – BSL) nos diz que essa falta de compreensão – o montante que iríamos saber na média, pode ser dito o estado exato do sistema, dado que estávamos usando a distribuição desatualizada – é sempre maior no final da experiência do que no início. Assim, a BSL nos dá uma boa maneira informação teórica de incorporar o ato de “olhar para o sistema” para o formalismo da mecânica estatística.
Será interessante ver o que podemos fazer com a BSL, agora com o que temos. Como mencionado, flutuações em entropia para baixo ocasionais acontecem o tempo todo em pequenos sistemas, e são especialmente importantes em biofísica, talvez mesmo para a origem da vida. Enquanto nós formulamos a BSL em termos de uma medição realizada por um observador, certamente não é necessário ter uma pessoa real lá fazendo a observação. Todos as nossas equações mantém-se perfeitamente bem se simplesmente perguntar “o que acontece, dado que o sistema acaba em um certo tipo de distribuição de probabilidade”. Isso condicionado no final pode ser “uma bactéria foi replicada”, ou “uma molécula de RNA se juntou”. É uma conexão empolgante entre os princípios fundamentais da física e da realidade do nosso flutuante mundo bagunçado.