Por Naomi Oreskes e Erik M. Conway
Publicado na Scientific American
É um truísmo entre os cientistas que nosso trabalho beneficia a humanidade por causa dos avanços tecnológicos que seguem o rastro das descobertas. E é um truísmo entre os historiadores que a relação entre ciência e tecnologia é muito mais complexa e muito menos linear do que as pessoas costumam presumir. Antes do século 19, a invenção e a inovação emergiam principalmente de tradições artesanais entre pessoas que não eram cientistas e que normalmente desconheciam os desenvolvimentos científicos pertinentes da época. A bússola magnética, a pólvora, a imprensa, o cronômetro, a máquina de fiação de algodão, a máquina a vapor e a roda d’água estão entre os muitos exemplos. No final dos anos 1800, as coisas mudaram: as tradições artesanais foram remoduladas como “tecnologias” que mantinham uma relação importante com a ciência, e os cientistas começaram a ter um interesse mais profundo na aplicação de teorias a problemas práticos. Um bom exemplo deste último é a comissão voltada para as explosões de caldeiras a vapor, nomeada pelo Congresso estadunidense para investigar tais acidentes e discutida na edição da Scientific American de 23 de março de 1878.
Ainda assim, os tecnólogos frequentemente trabalharam mais em paralelo com a ciência contemporânea do que indo além dela. Os tecnólogos – que logo seriam conhecidos como engenheiros – eram uma comunidade diferente de pessoas com objetivos, valores, expectativas e metodologias diferentes. Suas realizações não podiam ser entendidas simplesmente como ciência aplicada. Mesmo no início do século 20, o elo frequentemente desprendido entre o conhecimento científico e o avanço tecnológico era surpreendente; por exemplo, os aviões decolaram antes que os cientistas tivessem uma teoria funcional de sustentação. Cientistas disseram que voar com máquinas “mais pesadas que o ar” era impossível, mas mesmo assim os aviões voaram.
Quando olhamos para os últimos 175 anos, a manipulação da matéria e da energia se destaca como um domínio central dos avanços científicos e técnicos. As inovações tecnocientíficas às vezes cumprem suas promessas e às vezes não. Dos maiores avanços, três realmente mudaram nossas vidas – provavelmente para melhor – enquanto dois foram muito menos importantes do que as pessoas pensavam que seriam. E um dos impactos abrangentes que agora reconhecemos como uma visão a posteriori foi fracamente antecipado: ao mover matéria e energia, acabaríamos movendo informações e ideias.
Um exemplo forte da tecnologia baseada na ciência que mudou nossas vidas é a eletricidade. Benjamin Franklin é famoso por reconhecer que o raio é uma descarga elétrica atmosférica e por demonstrar, nos anos 1700, que os pára-raios podem proteger pessoas e propriedades. Mas os maiores avanços científicos na compreensão da eletricidade vieram depois, quando Michael Faraday e James Clerk Maxwell estabeleceram que a eletricidade era o fluxo de elétrons – matéria – e que poderia ser compreendido no contexto mais amplo do eletromagnetismo. Faraday mostrou que eletricidade e magnetismo são os dois lados da mesma moeda: o movimento dos elétrons cria um campo magnético e o movimento de um ímã induz corrente elétrica em um condutor. Essa compreensão, quantificada nas equações de Maxwell – um modelo matemático para eletricidade, magnetismo e luz – lançou as bases para a invenção do dínamo, da geração de eletricidade para indústrias e residências e das telecomunicações: telégrafo, telefone, rádio e televisão.
A eletricidade expandiu dramaticamente o tamanho das fábricas. A maioria das fábricas era movida a água, o que significava que precisavam estar localizadas perto de riachos, normalmente em vales de rios estreitos onde o espaço era apertado. Mas, com a eletricidade, uma fábrica poderia ser construída em qualquer lugar e assumir qualquer tamanho e ainda completadas com iluminação para funcionar 24 horas por dia. Essa inovação ampliou a produção em massa e, com ela, o crescimento da sociedade de consumo. A eletricidade também transformou a vida cotidiana, provendo energia aos metrôs, bondes e trens urbanos que permitem que os trabalhadores os utilizem e as cidades se expandam, criando a possibilidade de uma vida suburbana. A iluminação doméstica ampliou o tempo disponível para leitura, costura e outras atividades. O entretenimento floresceu em uma variedade de formas, desde as exibições de luzes “eletrizantes” da Exposição Universal de 1904 para o cinema e o rádio. Em breve, a eletricidade doméstica também forneceria energia a geladeiras, torradeiras, aquecedores de água, máquinas de lavar e ferros de passar roupa. Em seu livro premiado de More Work For Mother (Em português: Mais trabalho para a mãe) de 1983, Ruth Schwartz Cowan argumenta que esses aparelhos para “diminuir o tempo de trabalho” fizeram mais para aumentar as expectativas de ordem e limpeza doméstica do que para economizar o trabalho das mulheres, mas não há dúvida de que eles mudaram a maneira como os americanos viviam.
Uma das mudanças mais significativas e duradouras envolveu informações e ideias. A eletricidade tornou a câmera cinematográfica possível, o que levou ao surgimento do cinema. A primeira exibição pública do filme foi em Paris, em 1895, usando um dispositivo inspirado no cinetoscópio elétrico de Thomas Edison. (O filme mostrava trabalhadores de fábrica saindo após um turno.) Em poucos anos, uma indústria de filmes comerciais se desenvolveu na Europa e na América. Hoje pensamos nos filmes principalmente como entretenimento – especialmente devido ao surgimento da indústria do entretenimento e à centralidade de Hollywood na vida estadunidense – mas no início do século 20 muitos filmes (possivelmente a maioria) eram documentários e cinejornais. Os cinejornais, uma característica padrão nos cinemas da época, tornaram-se uma importante fonte de informações sobre eventos mundiais e nacionais. Eles também foram uma fonte de propaganda e desinformação, como um filme de “fake news” do final da década de 1890 sobre o Caso Dreyfus (um escândalo político francês em que um oficial do exército judeu foi falsamente acusado de espionagem, num contexto social favorável ao antissemitismo) e um filme com cenas falsas do ataque de San Juan Hill na Guerra Hispano-Americana.
A informação impulsionou o surgimento do rádio e da televisão. Na década de 1880, Heinrich Hertz demonstrou que as ondas de rádio eram uma forma de radiação eletromagnética – como previsto pela teoria de Maxwell – e, na década de 1890, o físico indiano Jagadish Chandra Bose conduziu um experimento no qual utilizava microondas para acender pólvora e tocar um sino, provando que a radiação eletromagnética pode viajar sem fios. Essas descobertas científicas estabeleceram as bases para as telecomunicações modernas e, em 1899, Guglielmo Marconi enviou os primeiros sinais sem fio pelo Canal da Mancha. Os tecnofideístas – pessoas que acreditam na tecnologia – proclamaram que o rádio levaria à paz mundial porque possibilitava que as pessoas em todo o mundo se comunicassem. Mas foi um caminho relativamente longo entre os sinais enviados por Marconi e o rádio como o conhecemos: os primeiros programas não foram desenvolvidos até a década de 1920. Ainda por cima, o rádio não fez nada para evitar a Grande Guerra de 1914-1918, posteriormente renomeada para Primeira Guerra Mundial.
No início do século 20, havia pouca demanda por rádio além da dos militares e dos entusiastas. Para persuadir as pessoas a comprar rádios, as emissoras tiveram que criar conteúdo, o que exigiu patrocinadores, que por sua vez contribuíram para o crescimento da publicidade, marketing de massa e da cultura de consumo. Entre as décadas de 1920 e 1940, o rádio tornou-se um acessório nos lares americanos, à medida que os programas competiam e frequentemente substituíam os jornais impressos como fonte primária de informação das pessoas. O rádio não nos trouxe paz mundial, mas trouxe notícias, música, drama e discursos presidenciais para nossas vidas.
A história da televisão é semelhante: o conteúdo teve que ser criado para levar a tecnologia para os lares americanos. Os patrocinadores comerciais produziram muitos programas no começo, como o Texaco Star Theatre e o General Electric Theatre. As redes também transmitiram eventos como jogos de beisebol e, com o tempo, começaram a produzir conteúdo original, principalmente noticiários. Apesar (ou talvez por causa) da qualidade medíocre de grande parte dessa programação, a televisão tornou-se extremamente popular. Embora sua base científica envolvesse o movimento da matéria e da energia, sua expressão tecnológica estava no movimento da informação, do entretenimento e das ideias.
A Segunda Guerra Mundial dividiu o mundo novamente e as tecnologias baseadas na ciência se tornaram cada vez mais essenciais. Os historiadores são quase unânimes na crença de que a pesquisa operacional, a quebra de códigos, o radar, o sonar e a espoleta de proximidade desempenharam maiores papéis na vitória dos Aliados do que a bomba atômica — mas foi a bomba que chamou a atenção de todos. O secretário da Guerra dos Estados Unidos, Henry Stimson, promoveu a ideia de que a bomba havia colocado o Japão de joelhos, permitindo aos Estados Unidos evitar uma invasão de terra custosa e salvar milhões de vidas americanas. Sabemos agora que esta história foi uma invenção do pós-guerra com o objetivo de afastar as críticas ao uso da bomba, que matou 200.000 civis. Os líderes dos EUA declararam por isso que a segunda metade do século 20 seria a Era Atômica. Teríamos aviões atômicos, trens, navios e até carros atômicos. Em 1958, a Ford Motor Company construiu um modelo de chassi para o Nucleon, um carro que seria movido a vapor de um microrreator. (Desnecessário dizer que nunca foi concluído, mas o modelo pode ser visto no Museu Henry Ford em Dearborn, Michigan, EUA.) Sob o plano Atoms for Peace do presidente Dwight Eisenhower, os EUA desenvolveriam energia nuclear civil tanto para seu próprio uso quanto para ajudar nações em desenvolvimento ao redor do globo. Os lares americanos seriam alimentados por energia nuclear gratuita “muito barata para ser contada”.
A promessa da energia nuclear nunca foi cumprida. A Marinha dos Estados Unidos construiu uma frota de submarinos com propulsão nuclear e trocou seus porta-aviões pela energia nuclear (embora não o resto da frota de superfície), e o governo montou um cargueiro movido a energia nuclear como demonstração. Mas mesmo os reatores pequenos se mostraram muito caros ou arriscados para quase todos os fins civis. Incentivadas pelo governo dos Estados Unidos, as concessionárias de energia elétrica nas décadas de 1950 e 1960 começaram a desenvolver capacidade de geração nuclear. Em 1979, cerca de 72 reatores estavam operando em todo o país, principalmente no Leste e no Centro-Oeste. Mas, mesmo antes do infame acidente na usina nuclear de Three Mile Island naquele ano, a demanda por novos reatores estava enfraquecendo porque os custos de capital e da construção não estavam caindo e a oposição pública estava aumentando. Nos cinco anos após o acidente, mais de 50 reatores planejados nos Estados Unidos foram cancelados e outros exigiram retrofits caros. A ansiedade nuclear piorou após o desastre de Chernobyl em 1986 na ex-União Soviética. Hoje, os Estados Unidos geram cerca de 20% de sua eletricidade a partir de usinas nucleares, o que, embora significativo, está longe de ser o que os especialistas em energia nuclear dos anos 1950 previram.
Enquanto alguns especialistas afirmam que o século 20 foi a Era Atômica, outros insistiram que foi a Era Espacial. Crianças americanas na metade do século cresceram assistindo a programas de ficção científica centrados no sonho de viagens interplanetárias e intergalácticas, lendo histórias em quadrinhos estrelando super-heróis de outros planetas e ouvindo discos de vinil com canções sobre o triunfo da viagem espacial. Seus heróis foram Alan Shepard, o primeiro americano no espaço, e John Glenn, o primeiro americano a orbitar a Terra. Alguns de seus pais até fizeram reservas para um voo à lua prometido pela Pan American World Airways, e Stanley Kubrick apresentou o voo espacial de um avião em seu filme de 1968, 2001: Uma Odisséia no Espaço. A mensagem era clara: em 2001, estaríamos voando rotineiramente no espaço sideral.
A física essencial necessária para as viagens espaciais era conhecida desde os tempos de Galileu e Newton, e a história está repleta de visionários que viram o potencial nas leis do movimento. O que tornou a perspectiva real no século 20 foi o advento dos foguetes. Robert Goddard é frequentemente chamado de “pai dos foguetes modernos”, mas foram os alemães, liderados pelo cientista nazista Wernher von Braun, que construíram o primeiro foguete funcional do mundo: o míssil V-2. Um programa paralelo de foguetes financiado pelo Exército dos EUA no Laboratório de Propulsão a Jato da NASA demonstrou seu próprio grande míssil balístico logo após a guerra. A Operação Paperclip do governo dos EUA discretamente trouxe von Braun e sua equipe aos Estados Unidos para acelerar o trabalho, o que, entre outras coisas, acabou levando ao surgimento da Marshall Space Flight Center da NASA.
Este caro esforço científico e de engenharia, impulsionado pelo nacionalismo e por fundos federais, levou os americanos a pousarem na Lua e voltarem para casa. Mas o trabalho não resultou em missões tripuladas rotineiras, muito menos em viagens de férias para o espaço. Apesar do entusiasmo contínuo e, recentemente, de um investimento privado substancial, as viagens espaciais têm sido basicamente um fracasso nesse quesito. No entanto, os mesmos foguetes que poderiam lançar embarcações com tripulação também podem propulsionar satélites artificiais para a órbita da Terra, o que permitiu grandes mudanças em nossa capacidade de coletar e mover informações. As telecomunicações por satélite agora nos permitem enviar informações ao redor do globo quase instantaneamente e a um custo extremamente baixo. Também podemos estudar nosso planeta de cima, levando a avanços significativos nas previsões do tempo, entendendo o clima, quantificando mudanças nos ecossistemas e nas populações humanas, analisando os recursos hídricos e – por meio do GPS – permitindo-nos localizar e rastrear pessoas com precisão. A ironia da ciência espacial é que sua maior recompensa tem sido nossa capacidade de saber em tempo real o que está acontecendo aqui na Terra. Como o rádio e a TV, o espaço tornou-se um meio de transmissão de informações.
Uma evolução semelhante ocorreu com a tecnologia computacional. Os computadores foram originalmente projetados para substituir pessoas (normalmente mulheres) que faziam cálculos trabalhosos, mas hoje eles são principalmente um meio de armazenar, acessar e criar “conteúdo”. Os computadores apareceram como uma tecnologia para furtividade militar que teve muito mais impacto do que muitos de seus pioneiros imaginaram. O presidente da IBM, Thomas J. Watson, costuma ser citado como tendo o autor da frase, em 1943: “acho que existe um mercado mundial para talvez cinco computadores”.
Dispositivos de cálculo mecânico e eletromecânico já existiam há muito tempo, mas durante a Segunda Guerra Mundial, os oficiais de defesa dos Estados Unidos procuraram tornar os cálculos muito mais rápidos por meio do uso de eletrônicos – na época, válvulas termiônicas ou tubos de vácuo. Um dos resultados foi o Whirlwind, um computador em tempo real ligado a tubos desenvolvido no Instituto de Tecnologia de Massachusetts como um simulador de voo para a Marinha dos Estados Unidos. Durante a Guerra Fria, a Força Aérea dos Estados Unidos transformou o Whirlwind na base de um sistema de defesa aérea. O sistema Semi-Automatic Ground Environment (SAGE; em português: ambiente de base semiautomático) era uma rede em escala continental de computadores, radares, sistemas de telecomunicações com e sem fio e interceptores (pilotados ou não) que operaram na década de 1980. O SAGE foi a chave para o abandono das máquinas mecânicas de tabulação da IBM por computadores digitais mainframe, e revelou o potencial de sistemas de gerenciamento em rede automatizados e em grande escala. Seu domínio, é claro, era a informação – sobre um possível ataque militar.
Os primeiros computadores mainframe eram tão grandes que ocupavam a maior parte de uma sala. Eles eram caros e esquentavam muito, exigindo resfriamento. Pareciam ser o tipo de tecnologia que apenas um governo, ou uma empresa muito grande com grandes recursos financeiras, poderia fazer jus ao uso. Na década de 1980, o computador pessoal mudou essa perspectiva drasticamente. De repente, um computador era algo que qualquer empresa e muitas pessoas podiam comprar e usar não apenas para computação intensa, mas também para gerenciar informações.
Esse potencial explodiu com a comercialização da Internet. Quando a Agência de Projetos de Pesquisa Avançada de Defesa dos Estados Unidos decidiu desenvolver uma rede de comunicações digitais segura e tolerante a falhas, ela já tinha o SAGE como modelo. Mas o SAGE, construído em um sistema telefônico usando comutação mecânica, também era um modelo do que os militares não queriam, porque as centrais de comutação centralizadas eram altamente vulneráveis a ataques. Para um sistema de comunicação ser “capaz de sobreviver”, ele deve ter um conjunto de centros, ou “nós”, interconectados em uma rede. A solução – ARPANET – foi desenvolvida na década de 1960 por um grupo diversificado de cientistas e engenheiros financiados pelo governo dos Estados Unidos. Na década de 1980, ela gerou o que conhecemos como Internet.
A Internet e seu aplicativo triunfante, a World Wide Web, trouxeram uma enorme quantidade de informações agora ao nosso alcance, informações que mudaram a maneira como vivemos e trabalhamos e que impulsionaram setores totalmente novos, como mídia social, entretenimento para download, reuniões virtuais, compras e encontros online, compartilhamento de caronas e muito mais. Em certo sentido, a história da Internet é oposta à da eletricidade: o setor privado desenvolveu a geração elétrica, mas foi preciso que o governo distribuísse amplamente o produto. Em contraste, o governo desenvolveu a Internet, mas o setor privado a entregou em nossas casas – um lembrete de que generalizações casuais sobre o desenvolvimento de tecnologia tendem a ser falsas. Também é bom lembrar que cerca de um quarto dos adultos americanos ainda não tem serviço de Internet de alta velocidade.
Por que a eletricidade, as telecomunicações e a computação tiveram tanto sucesso, mas a energia nuclear e as viagens espaciais humanas foram uma decepção? Hoje é claro que o último envolveu grandes doses de pensamento ilusório. A viagem espacial foi sobreposta com ficção científica, com sonhos de coragem heróica que continuam a alimentar fantasias não científicas. Embora tenha sido bastante administrável lançar foguetes e colocar satélites em órbita, colocar humanos no espaço – especialmente por um período prolongado – continuou algo perigoso e caro.
O ônibus espacial da NASA deveria inaugurar uma era de voos espaciais humanos baratos e até lucrativos. Não foi. Até agora, ninguém criou um negócio lucrativo com base nesse conceito. O lançamento de dois astronautas para a Estação Espacial Internacional pela SpaceX no final de maio pode ter mudado as possibilidades, mas é muito cedo para dizer. A maioria dos empreendedores espaciais vê o turismo como o caminho para a lucratividade, com voos suborbitais ou talvez hotéis espaciais flutuantes para recreação na gravidade zero. Talvez um dia os tenhamos, mas é importante notar que no passado o turismo acompanhou o desenvolvimento e a colonização comercial, e não o contrário.
A energia nuclear também se revelou extremamente cara, pelo mesmo motivo: custa muito para manter as pessoas seguras. A ideia de eletricidade barata demais para ser contada nunca fez sentido; essa declaração foi baseada na ideia de que pequenas quantidades de combustível de urânio barato poderiam render uma grande quantidade de energia, mas o combustível é o menor custo da energia nuclear. Os principais custos são construção, materiais e mão de obra, que para as usinas nucleares têm permanecido bem mais elevados do que para outras fontes de energia, principalmente por causa de todo o esforço extra que é necessário para garantir a segurança.
O risco costuma ser um fator de controle para a tecnologia. A viagem espacial e a energia nuclear envolvem níveis de risco que se mostraram aceitáveis em contextos militares, mas principalmente não em contextos civis. E apesar das afirmações de algumas pessoas no Vale do Silício, os capitalistas de risco geralmente [e ironicamente]* não se importam muito com o risco. Os governos, especialmente quando se defendem de inimigos reais ou antecipados, têm sido mais empreendedores do que a maioria dos empresários. Além disso, nem as viagens espaciais humanas nem a energia nuclear foram uma resposta à demanda do mercado. Ambos foram filhas de governos que desejavam essas tecnologias por razões militares, políticas ou ideológicas. Podemos ficar tentados a concluir, portanto, que o governo deveria ficar fora do negócio de tecnologia, mas a Internet também não foi concebida em resposta à demanda do mercado. Foi financiada e desenvolvida pelo governo dos EUA para fins militares. Uma vez aberto ao uso civil, ela cresceu, se metamorfoseou e, com o tempo, mudou nossas vidas.
Na verdade, o governo desempenhou um papel no sucesso em todas as tecnologias que abordamos aqui. Embora o setor privado trouxesse eletricidade para as grandes cidades – Nova York, Chicago, St. Louis – a Rural Electrification Administration (em português: Administração de Eletrificação Rural) do governo federal trouxe eletricidade para grande parte da América, ajudando a tornar o rádio, os aparelhos elétricos, a televisão e as telecomunicações parte da vida diária de todos. Uma boa parte do investimento privado criou essas tecnologias, mas as transformações que produziram foram possibilitadas pela “mão oculta” do governo, e os cidadãos muitas vezes experimentaram seu valor de maneiras imprevistas.
Esses benefícios inesperados parecem confirmar o famoso ditado – atribuído a Niels Bohr, Mark Twain e Yogi Berra – de que a previsão é muito difícil, especialmente sobre o futuro. Os historiadores relutam em fazer prognósticos porque porque, em nosso trabalho, vemos como as generalizações muitas vezes não resistem ao escrutínio, como nunca duas situações são iguais e como as expectativas passadas das pessoas tantas vezes foram confundidas.
Dito isso, uma mudança que já está em andamento no movimento da informação é a indefinição das fronteiras entre consumidores e produtores. No passado, o fluxo de informações era quase inteiramente unilateral, do jornal, rádio ou televisão para o leitor, ouvinte ou telespectador. Hoje, esse fluxo é cada vez mais bidirecional – um dos principais objetivos de Tim Berners-Lee quando ele criou a World Wide Web em 1990. Nós, “consumidores”, podemos nos comunicar por meio do Skype, Zoom e FaceTime; postar informações no Instagram, Facebook e Snapchat; e usar software para publicar nossos próprios livros, músicas e vídeos – sem sair de nossos sofás.
Para o bem ou para o mal, podemos esperar uma linha tênue ainda mais longa de muitas fronteiras convencionais – entre trabalho e casa, entre “amadores” e profissionais, e entre público e privado. Não tiraremos férias em Marte tão cedo, mas podemos ter webcams lá mostrando o pôr do sol marciano.
* Nota do tradutor.