abril 22, 2024

Câmera Pinhole




    
    Atualmente, com a profusão dos celulares, uma câmera fotográfica é um instrumento bastante comum. Talvez para a maioria dos seus usuários, a câmera de um celular pode parecer bem diferente das câmeras fotográficas mais elaboradas. O que torna estes dois equipamentos similares, é o fato de que as duas registram imagens em um sensor. Mas a câmera de um celular, parece ser muito mais simples do que uma câmera profissional.

    No entanto uma câmera mais simples, consiste de uma cavidade escura com um único buraco na entrada, e no lado oposto ao buraco dentro da cavidade é colocado um aparato na qual é formado uma imagem (invertida). O aparato pode ser um filme, um sensor eletrônico ou uma simples folha translúcida.


    E esta simples câmara possui praticamente todos os elementos de uma câmera mais moderna, sendo que o buraco funciona como a lente. Para entender o funcionamento dela como lente, para uma explicação inicial basta utilizamos a ótica geométrica (que considera os raios de luz como propagando em linha reta, sem considerar o seu comportamento ondulatório).

    Mas como seria uma câmera pinhole? Bem a forma mais simples é pegar uma lata, fazer um furo e pintar a parte interna com tinta preta fosca. Para fazer um buraco pequeno, o melhor é fazer um furo com a ponta de uma agulha em um pedaço de lata de alumínio. (As instruções para construir uma câmera de pinhole, serão postadas em um outro texto, mas é possível encontrar diversos sítios da internet que ensinam como fazer uma destas câmeras, por exemplo em manual do mundo )

    Um objeto ao ser iluminado (por exemplo pelo Sol), reflete essa luz para todas as direções, e alguns destes feixes de luz acabam chegando até a câmera pinhole, entrando pelo pequeno buraco, até atingir o fundo da câmera aonde está o filme (vamos usar o termo filme, mas pode ser qualquer coisa onde a imagem é formada), formando uma imagem invertida do objeto. A próxima figura, ilustra este processo (figura de domínio público, disponível em https://commons.wikimedia.org/wiki/File:Pinhole-camera.png ), onde está representado apenas dois raios de luz, uma saindo do topo da árvore e outro da sua base.

Figura 1. A camêra pinhole. Fonte wikipedia, licença Creative Commons



    Por que necessitamos de um buraco pequeno? Se pensarmos em uma janela de um quarto, não conseguimos perceber nenhuma imagem na parede oposta. A razão são duas: muita luz e o tamanho da janela. Mas mesmo que todo o quarto fosse escuro, não veríamos uma imagem projetada na parede. Uma possibilidade seria a de usar um quarto com persianas bem opaca, com um pequeno buraco (se for fazer isso em casa, não esqueça que está estragando a persiana). Neste caso, seria possível ver a imagem projetada na parede. Então o tamanho do buraco é importante para que possamos ver a imagem projetada.

    Na figura 2 a seguir, ilustramos a influência do buraco na formação da imagem. No caso de um buraco grande (imagem (a), na esquerda) , os raios de luz que saem da parte superior, atingem o fundo formando uma região grande, o que torna a imagem bem borrada. Ao reduzirmos o tamanho do buraco (ver a imagem (b), na direita ),  atingem o fundo formando uma região pequena. Então pela ótica geométrica, quanto menor o buraco, melhor seria o resultado da imagem obtida.

Figura 2. Efeito do tamanho do buraco na imagem projetada.



    Notemos que se afastarmos o plano onde a imagem é formada (figura 3, o plano B está mais afastado do que o plano A ) a imagem pode ficar novamente indistinguível. 

Figura 3. Efeito de deslocar o plano da imagem.

 A figura 3 nos ajuda a  entender o que significa "pequeno buraco". O diâmetro deve ser pequeno em relação à distância entre o furo e a superfície na qual a imagem será projetada.

 
    A figura 4,  do artigo  de Fernando Lang e Ronaldo Axt , que trata da formação de imagens em um espelho plano, é uma ilustração de como os raios provenientes de duas regiões distintas,  formam a imagem, que é invertida.

Figura 4. Formação da imagem que passa pelo furo. Fonte Fernando Lang e Ronaldo Axt


    Na hipótese de termos um buraco muito grande, as duas regiões ficariam superpostas, e não teríamos uma imagem bem definida.

    Com a construção  da figura 3 e 4,  podemos imaginar que de acordo com a ótica geométrica, quanto maior a distância entre o furo e o plano aonde é formado a imagem, menor deve ser o buraco. E portanto, reduzindo o seu tamanho obteríamos imagens melhores.

    No entanto isto não é correto. Ao diminuirmos o tamanho do buraco, existe um limite mínimo aceitável para a formação da imagem. A partir de um certo diâmetro do buraco, os efeitos de difração da luz (um efeito devido ao comportamento ondulatório da luz) passam a ser importante e precisamos considerar a luz utilizando a ótica física, não a ótica geométrica.

    Assim, do ponto de vista da ótica geométrica, quanto menor o buraco, melhor a imagem obtida, mas pelo ponto de vista da ótica física, quando menor o buraco , pior fica a imagem (De uma maneira simples, se o diâmetro do buraco for muito maior que o comprimento de onda da luz, os efeitos da difração ficam desprezíveis, apenas a partir de um certo diâmetro o efeito da difração passam a ser importante). Estes dois efeitos devem ser levados em consideração no desenho de uma câmera de pinhole. (O comportamento específico da cada um dos efeitos não são semelhantes, para maiores detalhes, ver o artigo M.Young 1989.)  

Figura 5. Retirado de M. Young, 1989

    A figura 5, retirado do artigo de Young,  mostra o raio da imagem formada em função do raio do buraco de agulha. A reta representa a condição da ótica geométrica e a hipérbole a condição da ótica física (considerando a luz como uma onda). A região ideal é na intersecção das duas curvas.

    Para um projeto completo de uma câmera pinhole, é necessário conhecer também o tamanho da imagem a ser produzida, a distância do furo até o plano da imagem , e naturalmente o diâmetro do furo. Com estas informações, podemos calcular o que chamamos de f-stop da pinhole. Normalmente o f-stop é bem elevado, sendo comum valores próximos de 200 ou maiores. Para quem não sabe o que é f-stop, em um texto futuro, vamos escrever com mais detalhes sobre o que é o f-stop e seus efeitos para a fotografia. Mas basicamente está relacionado com a quantidade de luz que atinge o sensor, quanto maior o número, menor a quantidade de luz. Em câmeras comuns, dependendo da lente utilizada este valor pode variar de 1.2 (ditas lentes claras ou lentes rápidas) até cerca de 22. No momento o que nos interessa é que com uma câmera pinhole, entra muita pouca luz comparativamente a uma câmera comum. Por outro lado, temos uma grande profundidade de foco. Isto significa que tudo que for fotografado com uma câmera pinhole, estará em foco. No entanto, a imagem de uma pinhole possui uma resolução muito menor que uma câmera comum com lente (tipicamente uma pinhole tem uma resolução de algumas linhas por mm, enquanto uma câmera comum tem uma resolução de algumas dezenas de linhas por mm, ver M. Young 1989), de forma que a imagem vai se assemelhar com as obtidas usando as lentes ditas "soft focus".

    E como fica uma imagem de uma câmera pinhole? A próxima imagem é um exemplo de imagem possível. A distorção ocorre devido ao formato curvo do local onde o filme foi colocado. A imagem original é em negativo, e a imagem da figura 5 já é invertida, isto é, transformada em imagem positiva.

Figura 5. Exemplo de imagem obtida com câmera pinhole.

    O efeito da superfície na qual o filme é colocado, pode ser percebido, comparando com uma iamgem obtida com uma câmera com fundo plano, que apresentamos na figura 6.
Figura 6. Exemplo de imagem com o filme em uma superfície plana.


    
    Para quem tiver interesse em construir uma câmera pinhole, um sitio interessante para dar uma olhada no site  https://www.mrpinhole.com/calcpinh.php , onde é possível obter informações sobre o tamanho do buraco ideal para a sua câmera pinhole.

Referências




M. Young, The pinhole camera,Physics Teacher, 27: 648–655, 1989




abril 11, 2024

A Teoria das Ondas Piloto na Mecânica Quântica

Ondas Piloto e a Dupla Fenda Fonte

   

     A moderna mecânica quântica tem início em 1925, com a publicação do trabalho de W. Heisenberg e um ano depois, Erwin Schroedinger pública o artigo apresentando a equação  de onda. E neste mesmo ano ocorre o Congresso de Solvay, que começa a  estabelecer  o que denominamos a interpretação ortodoxa da Mecânica Quântica (que é tradicionalmente ensinado nos cursos de graduação em física).

     A dualidade onda-partícula, é um dos conceitos mais importantes dentro da abordagem  da mecânica quântica. Esta dualidade estabelece que um objeto dependendo da medida pode se comportar como onda OU como uma partícula, um exemplo tradicionalmente apresentado é o da fenda dupla, no qual observamos um padrão de interferência característico de ondas, mas se determinarmos por qual fenda ocorreu a passagem, o obtermos um resultado com características de partículas. 

    No entanto, alguns anos antes, Louis De Broglie publica uma série de artigos [1], e apresenta a chamada Teoria de Ondas Pilotos. Nestes trabalhos Louis De Broglie, defende a igualdade entre  Princípio de Maupertius e o Princípio de Fermat [2].  Nos trabalhos de Louis De Broglie, existem a onda a partícula. A onda funcionando como um guia ( onda guia) para a partícula. Foi a partir dos trabalhos de Louis De Broglie, que Schroedinger obteve a sua equação, mas retirou o conceito de partícula, mantendo apenas o conceito de onda.

    Após 1926 [3], a ideia da Teoria de Ondas Pilotos, praticamente foi esquecida. Somente seria retomada em 1952, com a publicação de um artigo por David Bom. Por este motivo, hoje falamos da Mecânica Bohmniana ou Teoria de Bohm [4].

    Mas o que é a Teoria das Ondas Pilotos?

    Na Teoria das Ondas Piloto, a função de onda  é descrita pela equação de Schroedinger, a mesma que é ensinada nos cursos de graduação. A diferença é que agora existe também a partícula, sendo que o movimento da partícula não é descrito pela Equação de Schrodinger, mas por uma outra equação. que relaciona a velocidade da partícula com a função de onda, que é  obtida com a solução da equação de Schroedinger, e servem como uma onda guia (onda piloto) para a partícula. Nesta formulação, as partículas possuem posição e momento linear (ou a velocidade) bem definidos, e são consideradas como as "variáveis escondidas " [3] da teoria (não aparecem na função de onda).

    De acordo com a teoria de ondas pilotos, as trajetórias das partículas são reais, mas devido as condições iniciais que são aleatórias, não é possível determinar com precisão qual a sua trajetória real. Com as teoria de ondas piloto, os resultados  obtidos com a mecânica quântica  ortodoxa, podem ser reproduzidos, com a grande vantagem de que não é necessário introduzir o colapso da função de onda, isto é, o chamado problema da medida, deixa de existir. 

    Uma questão interessante é que na Teoria de Ondas Pilotos, uma partícula livre NÃO segue uma trajetória retilínea, isto porque a dinâmica não é a Newtoniana, e de acordo com De Broglie (citado em [1] ): 

    "O quanta de luz [átomo de luz] ... não propaga sempre em uma linha reta ...parece necessário modificar o princípio da inércia"

    Em muitas situações nas quais classicamente (isto é, movimentos descritos pela física newtoniana) temos movimento, na Teoria de Ondas Pilotos, a partícula possui velocidade nula! De forma que fica claro que na proposta das ondas pilotos, estamos trabalhando com uma nova dinâmica (no congresso de Solvay de 1927, o título do trabalho apresentado por Dr Broglie foi "The New Dynamics of quanta" ), de forma que as concepções newtonianas deixam de ser válidas.

    A teoria de ondas piloto ou mecânica bohmniana, é uma das alternativas para a mecânica quântica tradicional. Mas dificilmente faz parte da formação dos profissionais de física. Para os defensores da mecânica bohmniana, existem muitos motivos que justificam a sua utilização, mas fora destes círculos é normalmente ignorada.  Talvez, na véspera de completarmos 100 anos da mecânica quântica,  uma introdução aos conceitos básicos da teoria de ondas pilotos seria uma boa atitude nos cursos de graduação em física. 


 Notas e referências

[1] Sobre os artigos de Louis de Broglie, ver por exemplo G. Bacciagalluppi e A. Valentini, Quantum Theory at Crossroads, com acesso livre nos arxiv. A tese de doutorado de L. De Broglie, traduzido para o inglês pode ser acessado neste link. 

[2] O Princípio de Maupertius, é utilizado para obter a trajetória partículas, e o Princípio de Fermat para obter a  trajetória da luz. De Broglie, faz esta identidade considerando a proposta de Einstein de considerar a luz como uma partícula (o efeito fotoelétrico).

[3] Em 1927, foi realizado o quinto Congresso de Solvay, quando começa a ser estabelecido o que denominamos Interpretação de Copenhaguem da Mecânica Quântica.   Ver [1], que faz um detalhamento do V Congresso Solvay.

[4] Ver por exemplo Rodrigo Siqueira-Batista , Mathias Viana Vicari, José Abdalla Helayël-Neto, David Bohm e a Mecânica Quântica: o Todo e o Indiviso, Revista Brasileira de Ensino de Física, vol. 44, e20220102 (2022), DOI: https://doi.org/10.1590/1806-9126-RBEF-2022-0102 (o acesso é livre)

abril 01, 2024

Descongelando no forno micro-ondas

    

    Quem já utilizou o forno micro ondas para descongelar um alimento, deve ter notado que o processo ocorre com alguns momentos o aparelho ficando ligado e outros momentos ficando desligado. Qual a razão deste liga e desliga? Não seria mais rápido ficar ligado todo tempo?

    Inicialmente é importante saber como um forno micro ondas aquece os alimentos, uma referência é [1], da qual extraímos o trecho "A forma como o micro-ondas aquece os alimentos na realidade é um fenômeno conhecido como aquecimento dielétrico. Uma molécula polar, como a água, quando inserida em um campo elétrico tende a girar de maneira a se alinhar com o campo. Quando o campo elétrico inverte o seu sentido periodicamente, como nas ondas eletromagnéticas produzidas pelo forno, as moléculas giram em sentido alternado em busca de se realinhar com o campo. "

    Como a radiação gerada é absorvida por moléculas de água, ligar o forno micro-ondas sem nenhuma quantidade de água, pode causar danos ao forno, pois a energia fornecida não será absorvida e pode retornar para o circuito interno do equipamento. Então evite ligar o forno micro-ondas sem um pouco de água dentro. E é justamente devido ao comportamento da água que o processo de descongelamento ocorre com o liga e desliga do forno micro-ondas.

    Um fator importante é a  constante dielétrica da água [2] .  No caso da água, o seu valor vai depender de diversos fatores, mas em particular do estado físico da água, sendo que o seu valor no estado de gelo é muito menor que o caso da água no estado líquido. A energia absorvida depende do valor da constante dielétrica, logo, a água no estado líquido absorve muito mais energia do que a água no estado de gelo.  Isto tem muita influência no processo de descongelamento dos alimentos.


    Quando utilizamos o forno micro-ondas, assumindo que toda água esteja na forma de gelo, o forno micro ondas irá aquecer muito lentamente o alimento, quando comparado com o caso do alimento descongelado, e neste caso precisaríamos manter o forno micro ondas ligado por mais tempo, aumentando o consumo de energia. E talvez o fator mais importante é que como o descongelamento não ocorre de forma igual, durante o processo teremos um pouco de água na forma líquida, e o local com água irá absorver mais energia que os locais com gelo. Mantendo o forno micro-ondas ligado, então ao colocarmos um alimento congelado, podemos ter ao final do processo um alimento com algumas partes ainda frias, enquanto algumas partes podem estar quentes e talvez excessivamente cozida. Algo que talvez já tenha experimentado ao  esquentar salgados congelados com o forno micro-ondas, com algumas partes ficando frias e outras quentes.

    Para tornar o processo mais homogêneo, o forno micro-ondas deve ser desligado periodicamente. Algumas partes do alimento, formam uma região com água na forma líquida ( o gelo já  derreteu). Este líquido em contato com outras regiões ainda congeladas, faz com com que outras partes ainda com  gelo comecem a derreter. E este processo ocorre de forma lenta, sem que ocorra um cozimento do alimento, principalmente se o forno micro-ondas estiver desligado. Então na etapa que o forno está desligado, é a água já na forma líquida que ajuda a derreter o gelo. Notemos que neste caso, a temperatura do líquido é reduzida, de forma que quando o forno for novamente ligado, não vai ficar suficientemente quente para começar a cozinhar o alimento.  Repetindo este processo, o degelo ocorre de forma mais uniforme. Em geral, cada fabricante possui etapas pré-programadas para o degelo, a recomendação é que utilize esta programação. 


Notas e Referências

[1] Aquecimento da água no micro-ondas NÃO se dá por ressonância!  em https://cref.if.ufrgs.br/?contact-pergunta=aquecimento-da-agua-no-micro-ondas-nao-se-da-por-ressonancia

[2] Tecnicamente, depende da  parte imaginária da constante dielétrica. A do gelo é cerca de 4 ordens de grandeza menor que a da água na forma líquida. Este valor depende da temperatura e da frequência da radiação, 

    

março 17, 2024

Gatos na mecânica quântica

    

 Figura 1. O Gato de Cheshire -John Tenniel - domínio público

    O gato mais popular da mecânica quântica é o de Schrodinger, mas existe um outro que apesar de não ser tão popular,  podemos dizer que tem um sorriso mais permanente. É o gato de Cheshire, um dos tantos personagens do livro Alice de Lewis Carroll.

"Bem! Muitas vezes vi um gato sem sorriso”, pensou Alice; “mas um sorriso sem gato! É a coisa mais curiosa que já vi na minha vida!” [1]

    Como seu parente mais famoso, o gato de Cheshire também aparece na mecânica quântica, mas no artigo dos autores Yakir Aharonov, Sandu Popescu, Daniel Rohrlich e  Paul Skrzypczyk,  Quantum Chesire Cats  de 2012. A ideia de forma geral seria de que na mecânica quântica uma propriedade de um objeto pode ser separado do mesmo e ter existência independente do objeto.  O Gato de Cheshire seria um exemplo, ele desaparece mas seu sorriso permanece. 

    No artigo Quantum Cheshire Cats,  os autores escrevem, [2]

Não admira que Alice esteja surpresa. Na vida real, supondo que os gatos realmente sorriam, o sorriso é uma propriedade  do gato – não faz sentido pensar em um sorriso sem gato. E isso vale para quase todos propriedades físicas.

    Os autores apresentam uma proposta de experimento utilizando um interferômetro, no qual um feixe de fótons inicial é separado em duas trajetórias distintas que posteriormente se cruzam. Na figura 2 apresentamos uma representação esquemática do efeito, na qual o fóton entra pelo lado esquerdo (representado com o Gato com Sorriso),  e passa por divisor de feixe, sendo que a polarização do fóton ( sorriso)  segue a trajetória inferior e o  fóton (gato sem o sorriso) segue a trajetória superior, no final os feixes são recombinados  resultando no fóton original (gato com sorriso).


Figura 2. Ilustração artística do efeito do Gato de Cheshire. Fonte

    Este processo depende de um procedimento denominado medida fraca, que é de forma simplificada  uma medida que interfere muito fracamente com o sistema,  não causando o chamado colapso da função de onda [1] e comparam os estados denominados pré-seleção e pós-seleção.

Figura 3. Descrição esquemática do experimento proposto em Quantum Chesire Cats 

    Na figura 3, apresentamos a descrição esquemática proposta em Quantum Chesire Cats , indicando os estado pré-seleção e pós-seleção. Neste experimento um fóton é preparado no estado pré-seleção, sendo  basicamente um estado emaranhado entre os fótons que percorrem o caminho a esquerda e a direita. Destes estados, escolhemos somente aqueles que ativam o detector superior (D1), outros sendo descartados, isto é, realizamos uma escolha posterior do que vamos examinar (por isto o nome pós-seleção).  O experimento é pensado de tal forma que apenas quando o fóton passa pelo lado esquerdo (a trajetória indicado com |L> na  região entre a pré e  a pós-seleção) o detector D1 é ativado. Até este momento temos  um sistema de interferometria sem nenhuma novidade. A diferença é quando realizamos uma  medida fraca -que é  uma medida que não produz o colapso da função de onda - entre os estados de pré e pós-seleção. Neste caso, os autores argumentam que seria possível determinar estatisticamente , por qual lado passou o fóton (quado D1 é ativado) e determinar a polarização do fóton, inserindo um detector no lado |R> . No artigo os autores demonstram que é possível detectar a polarização do fóton no caminho da direita, que NÃO é o caminho seguido pelo fóton (lembrando que apenas os casos no qual o detector D1 é ativado, são analisados). É importante ressaltar que todo processo envolve medidas fracas, sem o colapso da função de onda. 

    No artigo Observation of a quantum Cheshire Cat in a matter-wave interferometer experiment, de 2014,  Denkmayr, T., Geppert, H., Sponar, S. et al. realizaram  o experimento utilizando neutrons ao invés de fótons, e argumentam que conseguiram  demonstrar o efeito do Gato de Cheshire:,ou seja, é possível detectar o spin do neutron no caminho que o neutron não está passando, que é um resultado compatível com a proposta do artigo Quantum Chesire Cats, isto é, a propriedade spin do neutron segue um caminho distinto do caminho do  neutron.

    Existem outros experimentos que indicam a existência do efeito do Gato de Cheshire, o que indicaria mais uma consequência bem contra intuitiva da mecânica quântica, isto é, podemos separar uma propriedade do objeto, a propriedade seguindo uma trajetória e o objeto uma outra trajetória.

    Uma questão importante é de que os resultados das medidas fracas  correspondem a uma média de diversas medidas e não são consequências de medidas em sistemas individuais, o que faz com que alguns físicos considerem que não existe uma separação entre o "gato" e  o seu "sorriso".  No artigo Contextuality, coherences, and quantum Cheshire cats , os autores Jonte R Hance, Ming Ji e Holger F Hofmann, utilizam a teoria da contextualidade  da mecânica quântica (que de maneira simplificada significa que os resultados de uma medida dependem da ordem que é realizada, ou do contexto das  medidas realizadas no sistema [3]), para analisar a existência do Efeito do  Gato de Cheshire. O resultado é que [4]

"...  esclarecemos como o paradoxo quântico do gato de Cheshire deveria ser interpretado – especificamente que o argumento de que a polarização se torna “desincorporada”  (...) em última análise, apenas um sistema contextual.

    Isto implica que ao realizamos medidas de maneiras diferentes, obtemos resultados diferentes e que o Efeito do Gato de Cheshire somente ocorreria em uma situação muito específica de diferentes medidas realizadas no sistema. De forma que não seria um paradoxo real, mas consequência da propriedade de contextualidade da mecânica quântica. 

    Ainda é cedo para afirmar qual é a correta explicação para o Gato de Cheshire na mecânica quântica, mas como no caso do Gato de Schroedinger, este experimento mostra como a análise de efeitos quânticos é bem distinto do que ocorre em situações cotidianas, descritas pela física clássica, e que apesar de ser uma teoria centenária, como excelentes resultados teóricos e experimentais, muita coisa ainda precisa ser estudada. Mas é assim que caminha a ciência.


Notas e Referências



[1] No original “All right,” said the Cat; and this time it vanished quite slowly, beginning with the end of the tail, and ending with the grin, which remained some time after the rest of it had gone.
“Well! I’ve often seen a cat without a grin,” thought Alice; “but a grin without a cat! It’s the most curious thing I ever saw in my life!”,
texto disponível no Projeto Gutemberg

[2] No original, o trecho completo é  "No wonder Alice is surprised. In real life, assuming that cats do indeed grin, the grin is a property of the cat—it makes no sense to think of a grin without a cat. And this goes for almost all physical properties. Polarization is a property of photons; it makes no sense to have polarization without a photon. Yet, as we will show here, in the curious way of quantum mechanics, photon polarization may exist where there is no photon at all. At least this is the story that quantum mechanics tells via measurements on a pre- and post-selected ensemble. "

[3] Para um artigo de revisão sobre contextualidade em mecânica quântica, ver
Kochen-Specker contextuality, Costantino Budroni, Adán Cabello, Otfried Gühne, Matthias Kleinmann, and Jan-Åke Larsson, Rev. Mod. Phys. 94, 045007 – Published 19 December 2022. Com acesso livre no arxiv. Veja também A Pseudo Telepatia Quântica , publicada no Cref ou em  Fisica Sete e Meia .


[4] No artigo, o trecho completo (na conclusão) aparecer como "In this paper, we have clarified how the quantum Cheshire cat paradox should be  interpreted—specifically that the argument that the polarisation becomes ‘disembodied’ results from only considering one specific pairing of the three mutually-incompatible properties in what is ultimately just a  contextual system."

março 08, 2024

O Problema dos Três Corpos



    O chamado Problema dos Três Corpos, é uma situação na qual três corpos estão interagindo mutualmente devido a atração gravitacional. Este é um problema que não existe uma solução analítica que possa ser aplicado para o caso geral [1]. Soluções analíticas gerais somente conseguimos obter quando consideramos o movimento de dois corpos. Isto pode parecer estranho, pois quando estudamos o Sistema Solar, aprendemos que as órbitas dos planetas são elipses com o Sol em um dos focos da elipse, portanto aparentemente conhecemos as soluções analíticas para um problema com muito mais que dois corpos.

    O que ocorre é que a massa do Sol é muito maior que massa dos planetas, o que nos permite em boa aproximação considerar que cada planeta se movimenta apenas sob a influência do Sol, de forma que desconsideramos as interações entre os planetas e os movimentos planetários podem então ser considerados como elipses com o Sol em um dos seus focos.

    Mas dependendo da precisão e do período de tempo analisado, esta aproximação deixa de ser adequada. Por exemplo devido a influência dos outros planetas, Mercúrio tem uma órbita na qual o ponto mais próximo do Sol (o periélio) muda de posição de um ano a outro, e isto pode ser mensurado com bastante precisão  e o valor observado pode ser explicado em quase sua totalidade como sendo devido à influência dos outros planetas [2].

    O chamado Problema de Três Corpos ocorre quando analisamos o movimento de apenas três corpos, mesmo dentro do Sistema Solar. Por exemplo um sistema com o Sol, a Terra e a Lua, , que é talvez o Problema de Três Corpos mais antigo em estudo, possivelmente com as primeiras observações devido realizadas na Mesopotânia cerca de 3000 anos atrás  (ver por exemplo o artigo Moon-Earth-Sun: The oldest three-body problem ). Outro exemplo é a Terra, Lua e um satélite artificial. Notemos que nestes casos, a massa do terceiro corpo é muito pequena e constitui o que denominamos Problema Restrito dos Três Corpos. A rigor Sol, Terra e Lua também sofrem influências dos outros planetas, mas dependendo da precisão e do intervalo de tempo das observações/medidas estas outras influências não serão significativas. O exemplo é que podemos calcular prever com boa precisão, um movimento periódico da Lua em torno da Terra, mas é importante ressaltar que este movimento não é exatamente periódico, veja por exemplo o texto  Rotação da linha apside Terra-Lua: por que acontece?  que introduz um conceito pouco conhecido , a chamada linha de apside. 

    Para algumas situações particulares, em um Problema de Três Corpos, existem as órbitas periódicas  como o exemplo da órbita da Lua no sistema Sol-Terra-Lua. Mas existem outras características no Problema de Três Corpos que são interessantes, como a existência dos chamados Pontos de Lagrange, que são regiões nas quais as forças dos dois corpos maiores produzem uma situação de equilíbrio, isto é, a força resultante devido aos dois corpos é nula. Existem 5 pontos de Lagrange, sendo duas delas estáveis e as outras três instáveis. Ponto instável significa que uma perturbação retira o objeto (o terceiro corpo) do ponto de Lagrange, e no ponto estável , uma perturbação não retira o objeto do ponto de Lagrange. O telescópio James Webb está localizado em um dos pontos de Lagrange (em um ponto instável, conhecido como L2 ) do sistema Terra-Sol (ver figura 1).


Figura 1. Os cinco pontos de Lagrange no Sistema Sol-Terra (fonte NASA)

    

    Uma característica interessante do Problema de Três Corpos, é o resultado obtido por H. Poincaré no final do século XIX, é que o sistema apresenta o chamado comportamento caótico (para uma descrição do que é a Teoria do Caos, veja por exemplo este texto do CREF ).  Isto significa que existem configurações nas quais as órbitas dos corpos não possuem movimentos regulares, de forma que o seu comportamento a longo prazo se torna imprevisível. Esta simulação no Youtube ilustra o que ocorre nas órbitas caóticas.   


Figura 2:Ilustração das órbitas de três corpos para um sistema caótico Fonte


    O Problema de Três Corpos, mesmo após cem anos, ainda é um assunto que tem atraído atenção de pesquisadores, sejam físicos, astrônomos, ou matemáticos  ( para uma aplicação específica em física, veja [3]). O que hoje sabemos que  é um sistema que apresenta um comportamento caótico, mas que dependendo das condições iniciais pode apresentar movimentos periódicos. Mas é importante ressaltar que para observar comportamento caótico, o tempo de observação pode ser muito longo, de forma que dependendo do intervalo de tempo, o comportamento pode ser muito semelhante a um sistema regular.

     Apenas por curiosidade, no livro O Problema do Três Corpos, de Cixiun Li utilizado para produzir a série homônima, não é exatamente um Problema de Três Corpos, mas não vou adiantar o enredo para quem não leu o livro ou está esperando a série. 


Nota

[1] Solução no sentido de possuirmos uma função que descreva a posição e a velocidade de cada um dos corpos em qualquer instante do tempo. Lembrando que podemos resolver numericamente o problema.

[2] No caso de Mercúrio, o chamado avanço do periélio corresponde a cerca de 575 segundos de arco por século e boa parte deste avanço pode ser explicado devido a influência da atração gravitacional de outros planetas. Mas uma pequena parcela somente pode ser explicada utilizando a Teoria da Relatividade Geral no lugar a Gravitação Newtoniana. 


[3] Uma aplicação  do problema de Três Corpos  na astronomia, é  Restricted Problem.of Three Bodies With Newtonian+Yukawa Potencial, https://www.worldscientific.com/doi/10.1142/S021827180400492X ou em https://www.researchgate.net/publication/252081554_Restricted_Problem_of_Three_Bodies_with_Newtonian_Yukawa_Potential

março 01, 2024

Torrando pão no micro-ondas

     O aparelho de micro-ondas é um eletro doméstico extremamente útil, e diversos alimentos podem ser preparados com o mesmo, em especial é muito útil para aquecer alimentos ( ver Aquecimento da água no micro-ondas NÃO se dá por ressonância! caso queria entender como ocorre o aquecimento dos alimentos, para um artigo sobre ). Mas existem alguns alimentos que não são adequados, por exemplo aquecer um ovo, que dependendo da situação pode levar  a explosão do mesmo (ver por exemplo em Ovo explode no forno micro-ondas ) e também objeto que se possível não devem ser colocados dentro do forno micro-ondas (ver  Sobre metal no forno de micro-ondas para alguns cuidados ao utilizar metais dentro do forno micro-ondas).

    É comum utilizar o forno micro-ondas para aquecer pães que deixamos no congelador e neste caso é comum deixar por pouco tempo, cerca de 10 a 15 segundos. Caso o tempo seja maior, algumas vezes o pão fica extremamente borrachudo. E a diferença de tempo é usualmente pequena entre ficar comestível e ficar borrachudo. Isto é interessante, pois quando aquecemos o pão no forno ou em uma frigideira,  o pão não costuma ficar borrachudo. Por que isto ocorre?

    Na figura 1, mostramos no lado esquerdo uma fatia de pão de forma aquecido em uma frigideira e no lado direito o pão aquecido no forno micro-ondas. Notemos que no caso da frigideira, a parte interna não está torrada, mas no caso do forno micro-ondas a parte interna está torrada. Na foto não é possível perceber, mas na fatia aquecida com a frigideira a parte interna está macia e a parte externa crocante, no caso do micro-ondas, a parte interna está torrada e a parte que não está torrada, está bastante borachuda!


Figura 1 . No lado esquerdo a fatia aquecida no forno micro-ondas e no lado direito aquecido na frigideira.

    Um ponto importante a ser notado é que no caso do pão no micro-ondas, a parte torrada não está distribuída de forma homogênea na parte interna, devido a presença de ondas estacionárias. Isto fica mais perceptível na figura 2, com três fatias de pão de forma colocadas  uma encima da outra para aquecer no forno micro-ondas.

Figura 2. Três fatias de pão aquecidas no forno micro-ondas.


    Na figura 2 podemos perceber a parte central torrada e também que a parte superior da  terceira fatia não está torrada. Estas três fatias também apresentam uma textura muito borrachuda, resultando em um pão que não é agradável ao consumo.
    
    Por que ocorre esta diferença entre a utilização da frigideira e do forno micro-ondas? No caso do pão, a radiação de micro-ondas devido a propriedade de absorção do pão, aquece inicialmente a parte interna ( o que pode ser verificado pelo fato da parte interna ficar torrada antes da parte externa). Isto faz com que o vapor de água da parte interna seja deslocado para a superfície do pão. Mas   a temperatura externa do pão é diferente nos dois casos. No caso do micro-ondas, a temperatura é basicamente a temperatura externa (para tempos de utilizações reduzidas) e no caso da frigideira, a temperatura é muito mais alta (na parte do pão em contato com a frigideira).  Isto faz com que no caso do micro-ondas, a água por  evaporar mais lentamente (lembre que a evaporação não ocorre apenas na temperatura de ebulição, leia este artigo do Fernando Lang) acaba encharcando o pão, tornando o mesmo mais borrachudo, mas no caso da frigideira como a temperatura é mais alta, o processo de evaporação ocorre mais rapidamente e o pão não fica molhado como no caso do micro-ondas.

    O fato do pão ficar desagradável para comer quando aquecido no forno micro-ondas, é que a sua quantidade de água é menor, do que por exemplo em uma batata. Podemos cozinhar uma batata no forno micro-ondas, e ela não fica ressecada, pois a mesma contém comparativamente ao pão, muito mais água.
    
   O ideal é não aquecer o pão no forno micro-ondas, utilize uma torradeira.

Notas

Um artigo muito interessante é  Bad food and good physics: the development of domestic microwave cookeryh , Kerry Parker and Michael Vollmer 2004 Phys. Educ. 39 82. O exemplo do pão foi retirado deste artigo.

Um artigo que trata da física de alimentos, considerando com área da soft matter,  ver Soft matter food physics—the physics of food and cooking , Thomas A Vilgis 2015 Rep. Prog. Phys. 78 124602

fevereiro 15, 2024

O termômetro

     O termômetro é o aparelho utilizado para medir a grandeza temperatura, e o seu papel no desenvolvimento da termodinâmica, não pode ser desprezado. Mas qual a origem do termômetro?

      O conceito de  objetos quente ou frio, tem origem muito anterior ao desenvolvimento do termômetro e da noção de temperatura. Que o ar e a água expandiam ao serem aquecidos,  eram conhecidos desde a Grécia antiga,  um exemplo sendo a máquina a vapor de Heron de Alexandria (cerca de 60 AC) ou um termoscópio rudimentar de Filão de Bizâncio (280-220 AC). No entanto, não tinham o propósito de medir temperaturas. 

Figura 1. A máquina de Heron de Alexandria (Fonte)


    Talvez para surpresa de muitas pessoas, o termo temperatura não foi inicialmente elaborado para alguma aplicação em física ou  química. Cláudio Galeno (cerca  de 129 a 227 DC) , filósofo e médico grego, baseava seus tratamentos nas quatro qualidades propostas por Aristóteles calor, frio, seco e umidade. A combinação/mistura destas quatro qualidades, definiria segundo Galeno, as diferenças entre as pessoas. O termo mistura em latim é escrito "tempera", que dá origem ao termo temperatura.  Galeno propunha e existência de uma temperatura neutra, que não seria nem quente nem frio, e que poderia ser obtido com uma mistura igual de água fervendo e gelo, propondo o que seria o primeiro padrão de medida da temperatura, e a partir desta temperatura neutra, Galeno apresentou 4 graus de calor e 4 graus de frio [1]. Mas para a medida da temperatura, não existia nenhum aparelho,  de forma que "quente" ou "frio", eram grandezas subjetivas. 

    Não se sabe exatamente quem inventou ou usou pela primeira vez um termômetro (no sentido de medir temperatura com alguma escala). Existem algumas indicações apontando diferentes autores em diferentes épocas, sendo comum os seguintes autores : Santorio Santorii (Sanctorius) (1561- 1636), que tem o primeiro registro escrito (1611) sobre o termômetro; Galileu Galilei,  apesar de não termos registros escritos, existem algumas indicações que teria inventado um termômetro antes de Santorio, talvez no período de 1592 a 1603;  Robert Fludd (1574- 1637) e  Cornelius Drebbel 1(572-1633) são outros prováveis inventores do termômetro. Não existem registros que eles tivessem conhecimento do trabalho dos outros, de forma que com grande possibilidade, foram desenvolvidos de maneira independente. Lembrando que no período, a comunicação era bem demorada. Mas o termômetro, como conhecemos atualmente, com líquido ou gás em um recipiente fechado, foi desenvolvido em 1641, por Ferdinando II, Grão Duque da Toscana (1610-1670). Os termômetros anteriores eram construídos utilizado recipientes abertos.


Figura 2. Termômetro de Fludd, 1626. (Fonte )

    Uma vez tendo sido construído o termômetro, o próximo importante passo foi a de definir qual a melhor substância para ser utilizado, e qual o melhor padrão a ser utilizado para calibrar um termômetro. Alguns padrões propostos: temperatura dentro de um porão profundo,  temperatura da grutas sob o  Observatório de Paris, cera derretida, temperatura do corpo humano, temperatura do sangue, temperatura da manteiga derretida , água fervendo , mistura de água gelo e sal, dia mais quente do verão e outros [2]. Entre as substâncias, as preferências eram água, vinho, ar e mercúrio. 

    Daniel Gabriel Fahrenheit (1686-1736), foi o responsável por estabelecer a utilização do mercúrio como a substância ideal para os termômetros, e utilizou como padrão a temperatura do corpo  humano e a ponto de congelamento de uma mistura em partes iguais de água, gelo e sal amôniaco, em 96⁰ F e 0 ⁰ F, respectivamente. Note que Fahrenheit NÃO escolheu como pontos fixos a temperatura de ebulição e a temperatura de congelamento da água, em 212 ⁰F e 32⁰F, respectivamente [3]. Os termômetros construídos por Fahrenheit e com o padrão escolhido, tornaram os termômetros confiáveis, com diferentes aparelhos resultando em medidas iguais nas mesmas condições,  o que antes não era possível (o termômetro de vinho (alcool) , que era o mais comum, resultava em medidas diferentes nas mesmas situações). Os valores utilizados por Fahrenheit, possivelmente tem origem em uma escolha para evitar o uso números decimais "Fahrenheit prosseguiu dizendo (....) achava que a escala de Roemer com suas frações era ao mesmo tempo inconveniente e deselegante; então, em vez de 22 1/2 ⁰ dividido em quartos, ou seja, 90, ele decidiu considerar 96° como calor do sangue" [4].

    A escala Celsius que utilizamos no Brasil, foi desenvolvida por Andres Celsius, que utilizou como ponto fixo o ponto  de ebulição da água e o ponto de congelamento em 0⁰ C e 100⁰ C, respectivamente. Na escala original, os pontos fixos de Celsius são invertidos em relação ao que utilizamos atualmente. 

    Uma definição mais precisa da temperatura, somente foi desenvolvida com a consolidação da termodinâmica, e sendo expressa pela Lei Zero da Termodinâmica (já estavam consolidadas as chamadas Primeira e Segunda Lei da Termodinâmica), e a unidade de temperatura sendo o kelvin, simbolizado pela letra K. Note que não é utilizado o símbolo ⁰ de grau na escala kelvin. Atualmente é utilizado como ponto fixo o chamado ponto triplo da água, sendo atribuído o valor de 273.16 K. A escala kelvin é considerada temperatura absoluta, e a  temperatura de 0 K é a menor temperatura possível em um sistema físico [5]. 


Notas e Referências

[1] T J Quinn and J P Compton 1975, The Foundations of Thermometry  Rep. Prog. Phys. 38 151; F. Sherwood Taylor M.A. Ph.D. , 1942,  The origin of the thermometer, Annals of Science, 5:2, 129-156

[2] H. Chang 2007, Inventing Temperature, Oxford Univerity Press.

[3] A escolha do ponto de ebulição da água, não foi simples, até porque a definição precisa de ponto de ebulição não era bem estabelecida. Termos como ebulição branda, ebulição agitada, ebulição violenta eram comuns de serem utilizadas, além de que a utilização de um recipiente de vidro ou de metal, resultava em valores diferentes. Uma discussão interessante sobre estas dificuldades pode ser lida na referência [2].

[4]O trecho completo "Fahrenheit went on to say, in his letter to  Boerhaave, that in 1717 he felt Roemer's scale with its fractions to be both inconvenient and inelegant ; so instead of 22 1/2 ⁰  divided into quarters, that is, 90, he decided to take 96° as blood heat.  Retaining the same zero, the melting point of ice became 32°, instead of 7 1/2 ⁰  divided into quarters,  or 30. This scale he continued to use and was using at the time the letter was written (that is,  in 1729) ; he added that he had been confirmed in his choice because he found it to agree, by pure coincidence, with the scale marked on the thermometer hanging in the Paris Observatory.  " Fonte: Friend, J. The Origin of Fahrenheit's Thermometric Scale. Nature 139, 395–398 (1937). https://doi.org/10.1038/139395a0

[5] Veja por exemplo https://cref.if.ufrgs.br/?contact-pergunta=sobre-a-determinacao-do-zero-absoluto . Uma curiosidade  é que para sistemas fora do equilíbrio ou em equilíbrio meta estável, é possível atribuir uma temperatura negativa, mas que  não representa uma temperatura menor que 0 K.  Em um laser, o processo chamado inversão de população, corresponde a um sistema com temperatura negativa, que a rigor é uma temperatura que é obtida após a temperatura +infinito. 

fevereiro 13, 2024

Gasto de Energia de um Carro Elétrico

    O carro elétrico tem se tornado cada vez mais  uma opção competitiva, em relação aos carros de combustão interna. Existem vários motivos para este crescimento no interesse e oferta destes veículos. Mas um tema que sempre chama a atenção é sobre o seu consumo/autonomia, comparado com os automóveis de combustão interna. Um dado interessante é que no início do século XX, os carros elétricos circulavam em alguns países, de forma que não é uma novidade deste século (ver por exemplo  no link ). 

    Como podemos comparar o consumo de um carro elétrico com um carro de combustão interna?

    Um item importante é como a mesma quantidade de energia é convertida em energia mecânica. No caso de um carro com combustão interna, a eficiência é cerca de 30% e de um carro elétrico, cerca de  85%, de forma que um carro elétrico utiliza de forma mais eficiente a energia inicial. De forma que em relação a eficiência, o carro elétrico é melhor que o carro de combustão interna. 
    
    Na figura 1, apresentamos os diferentes fatores que consomem a energia em um carro elétrico. Notemos que comparado com o carro de combustão interna, o percentual perdido devido ao atrito de rolamento e o arrasto é maior no carro elétrico, como consequência da maior eficiência do motor elétrico.

      A densidade de energia da gasolina é cerca de 32 MJ/ L e de uma bateria usual é inferior a 1MJ/ kg (dependendo da bateria, este valor é bem menor, mas nos casos de baterias de lítio que são utilizados em carros elétricos, o valor é bem próximo de 1 MJ/kg).  Para realizarmos uma comparação, precisamos transformar na mesma unidade. Como 1 litro de gasolina tem massa cerca de 0,750 kg, temos que 32 MJ/L é cerca de  42 MJ/kg  o que torna aparentemente a utilização de uma bateria não muito adequada para um carro. Mesmo considerando as eficiências em cada caso, no caso da gasolina cerca de 30% e no caso do carro elétrico cerca de 80%,  ou seja cerca de 13MJ/kg  para a gasolina e  0,8 MJ/kg para um carro movido a bateria. Será que um carro elétrico então não é vantajoso do ponto de vista de custos? Será que a grande (e importante) vantagem seria a redução na emissão de poluentes? Vamos analisar com um pouco mais detalhes, lembrando que apesar da densidade de energia ser um parâmetro importante, existem outras condições que precisamos considerar.

    Vamos inicialmente comparar os desempenhos dos carros protótipos vencedores da Shell Marathon 2023 no Brasl 

    Na categoria de combustão interna a equipe vencedora foi Drop Team do IFRS Erechim, com o melhor resultado de  715.7 km/l

    Na categoria de carro elétrico a equipe vencedora foi   ARMAC Milhagem da  UFMG, com o melhor resultado de  367.37 km/kWh

    Mas como podemos comparar estes resultados? As unidades são diferentes, uma está em quilômetros por  litro e a outra em quilômetros por kilowatts-hora.

  
    No caso de um carro de combustão interna, o consumo é dado por quilômetro por litro  e do carro elétrico em quilômetro por kilowatt-hora . Então para efetuarmos alguma comparação, precisamos inicialmente   converter km por litro para km por kWh (ou o inverso).  A primeira conversão  é de joule para kWh. Lembrando que 1W corresponde a 1J/s, temos que 1 Wh= 1 (J/s) 3600 s  pois uma hora possui 3600 s,   assim obtemos a relação  1kWh= 3,6 M J.  Como 1 litro de gasolina corresponde a 32 MJ de energia, obtermos a relação

$ \frac{km}{L}=\frac{km}{32 MJ}= \frac{3,6}{32}\frac{km}{  kWh}$

esta relação nos permite transformar o consumo de um carro de combustão interna que costuma ser expresso em quilômetro por litro para quilômetro por kilowatt-hora.

    Assim, no caso dos vencedores da Shell Marathon 2023 no Brasil temos no caso do protótipo de combustão interna cerca de 81 km/KWh que é bem menor que o obtido pelo carro elétrico, que foi  367.37 km/kWh. O protótipo elétrico teve um desempenho cerca de 4,5 vezes melhor que o protótipo de combustão interna.

    Para carros comerciais no Brasil, podemos comparar os resultados obtidos pelo INMETRO  no Programa de Brasileiro de Etiquetagem Veicular. Na tabela do INMETRO, podemos obter a informação sobre o consumo de energia por quilômetro em  MJ/km [1]. Para carros de combustão interna os valores são maiores do que os carros elétricos, lembrando que agora estamos considerando quanto de energia é utilizado por quilômetro, que é o inverso do que foi apresentado no parágrafo anterior, além de utilizar como unidade de energia o joule e não kwh.   Na tabela do INMETRO, para carros classificados como compactos o valor de consumo de energia varia entre 0,58 MJ/km  e 0,59 MJ/km  (somente dois veículos) e no caso de carros com combustão interna de 1,57 MJ/km  até 1,99 MJ/km  (mais de 40 veículos). O desempenho neste caso na melhor situação foi 2,7 vezes maior do carro elétrico do que o carro de combustão interna. E para carros médio variou de 1,09 MJ/km  até 2,29 MJ/km  para combustão interna e 0,42 MJ/km até 0,66 MJ/km  para carros elétricos, e o despenho na melhor situação foi cerca de 1,66 vezes melhor do carro elétrico para o de combustão interna.   No Brasil, o INMETRO utiliza para o cálculo do consumo de combustível a NBR 7024 a qual "estabelece o método para a medição do consumo de combustível de veículos rodoviá­rios automotores leves com motores de combustão interna, por meio de ciclos de condução " (ver em NBR 7024 ) que sejam próximas de uma situação de condução típica, tanto da área urbana como na estrada. Esta norma é baseada em uma norma americana. Existe uma outra norma a WLTP - Worldwide Harmonised Light Vehicle Test Procedure ou Procedimento Mundial Padronizado de Teste de Veículos Leves, ver por exemplo  O automóvel BMW i3 elétrico viola as leis da Termodinâmica?  publicado no CREF.  Os valores de consumo obtidos são diferentes, de forma que precisamos ter cuidado ao comparar apenas os valores nominais de uma norma com a outra, no caso dos dados do INMETRO, os valores são menores que os da WLTP . 

    Desta forma, os carros elétricos possuem do ponto de vista de consumo de energia, uma maior eficiência de gasto de energia por quilômetro em comparação com os veículos de combustão interna. Outros fatores também tornam o carro elétrico mais vantajoso, como o menor ruído, além do citado inicialmente da redução na emissão de poluentes, a utilização de processos regenerativos de energia o que torna o consumo de eletricidade melhor em situações de trânsito urbano). E a autonomia (distância percorrida com uma única carga das baterias) dos carros elétricos tem aumentado de forma consistente, e com a expansão na sua utilização , pontos de recarga devem se tornar mais comuns.  A massa elevada das baterias, pode a princípio ser uma grande desvantagem,  mas como o conjunto das baterias fica na parte inferior do carro, isto ajuda a melhorar a estabilidade do veículo. 


    Existem  questões relacionados com o custo das baterias e seu tempo de uso, além das questões relacionadas com a reciclagem e descarte das mesmas (ver por exemplo neste texto da  Science).  Outra questão que deve ser analisado com cuidado, é a chamada well to wheel efficiency, que de maneira  simplificada, estuda todo ciclo da produção de energia até a sua utilização pelo carro, considerando principalmente a emissão de gases que contribuem para o efeito estufa. Dependendo da matriz energética, a eficiência pode variar bastante. No caso do Brasil, com uma matriz fortemente baseada em hidrelétricas, a emissão de gases que contribuem com o efeito estufa é negligenciável, mas para países que possuem uma matriz baseada em carvão, a emissão pode ser muito alta. Uma outra questão importante é que em condições com temperaturas muito baixa ou muito alta, as baterias apresentam problemas. No caso do Brasil, não teríamos problemas com as baixas temperaturas, mas podemos ter com as altas temperaturas. 

 

   

     

    
 Notas
[1] Preste atenção que anteriormente utilizamos  km/kWh  que corresponde a distância/energia e na tabela da INMETRO é utilizado  MJ/km , que corresponde a energia/distância , e a unidade de energia utilizada pelo INMETRO é joule. Utilizando a relação   1kWh = 3,6  MJ, o protótipo de combustão interna do IFRS , corresponde a cerca de  0,044  MJ/km e protótipo da UFMG a cerca de 0,01 MJ/km. 


janeiro 25, 2024

Gasto de energia de um carro

   

Fonte

    Em um concurso realizado pela Shell em 2023 o vencedor (Drop Team,  representando o Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Sul - Campus Erechim) teve um consumo de 716 km por litro de combustível. Será que um carro urbano em condições normais conseguiria este consumo?

    Esta é uma questão bem interessante, principalmente em um momento que as discussões sobre a necessidade  de reduzir o consumo de combustíveis fósseis é uma urgência.

    Para colocar um carro em movimento a partir do repouso, consumimos uma certa quantidade de energia, que é obtida do combustível utilizado. Esta energia é utilizada  para produzir o movimento do carro. Na hipótese irreal de perdas nulas de energia, uma vez colocado em movimento, o carro  manteria seu estado de movimento indefinidamente. Isto é, poderíamos desligar o motor e o carro ficaria eternamente em movimento. Neste caso, o consumo seria apenas o necessário para colocar o carro em movimento. Uma estimativa do consumo nesta situação completamente irreal, é interessante para podermos ter uma noção aproximada dos gastos de energia que ocorrem em um carro.

Inicialmente precisamos saber quanto de energia temos disponível em um litro de gasolina. Um litro de gasolina contém cerca de 9000 Wh  (9kWh) ou no sistema internacional de unidades, cerca de 32 milhões de joules por litro (32MJ/L). Como uma primeira estimativa, vamos considerar um carro com massa de 1400 kg (considerando o carro e seus passageiros), e determinar quanto de energia necessitamos para fazer o carro deslocar com velocidade de 100 km/h a partir do repouso. Como todo "bom" exercício de física, vamos inicialmente desconsiderar as forças dissipativas (depois vamos incluir, não fique preocupado), neste caso basta determinar a energia cinética do carro, que é dada pela equação  $\frac{mv^2}{2}  $ e obtemos o valor cerca de  540 mil joules (540 kJ), que é  cerca de de 2% da energia contida em um litro de gasolina. Assim, na ausência de qualquer processo dissipativo, com cerca de 20 mL de gasolina, poderíamos fazer um carro andar com velocidade de 100 km/h  por um tempo indeterminado (já que não teria dissipação).  No entanto, existem sempre processos que consomem a energia inicial  de forma que para manter o movimento, precisamos fornecer sempre uma certa quantidade de energia, o que torna a questão do consumo um problema bastante complexo. 

    Mas quais processos consomem a energia fornecida pelo combustível, e portanto influenciam no consumo? Para tentarmos reduzir o consumo, precisamos inicialmente determinar  estes processos.   Existem diferentes fatores que influenciam no consumo de combustível em um carro que podem ser separados em diferentes grupos (ver A review of vehicle fuel consumption models to evaluate eco-driving and eco-routing  para detalhes de cada item): 

  1. Relacionado com o veículo, exemplo   o motor. 
  2. Relacionado com a viagem , exemplo distância da viagem.
  3. Relacionado com a estrada ,  exemplo o piso da estrada, a inclinação.
  4. Relacionado com o clima,  exemplo a temperatura, o vento.
  5. Relacionado com o tráfego,exemplo variação no movimento devido aos sinais de trânsito.
  6. Relacionado com o motorista, exemplo comportamento do motorista.

    A energia fornecida pelo combustível é utilizado para movimentar o motor, e este movimento é transferido para as rodas, fazendo que o carros se desloque. Mas nem toda energia fornecida pelo combustível pode ser utilizada para movimentar o carro. Boa parte da energia é perdida devido aos diversos processos dissipativos existentes.

    Mas antes de considerar perdas por processos dissipativos, podemos desde  o início verificar quanto da energia inicial  pode ser utilizado para realizar algum trabalho útil. E isto é possível determinar com o uso da termodinâmica. Um limite superior pode ser determinado considerando o que conhecemos como ciclo de Carnot. Este ciclo é uma construção idealizada,  e por esta razão nenhuma máquina real pode ter uma eficiência maior que uma máquina ideal de Carnot. A eficiência de uma máquina operando em um ciclo de Carnot, depende apenas  das temperaturas máximas e mínimas que a máquina trabalha.  Mas um motor de combustão interna, não opera em ciclo de Carnot, sendo melhor descrito pelo ciclo de Otto (para uma descrição do ciclo Otto, ver por exemplo Máquinas térmicas à combustão interna de Otto e de Diesel ). Neste caso, a eficiência vai depender basicamente da taxa de compressão do motor (mantendo o mesmo combustível). No caso ideal, o rendimento de um motor trabalhando no ciclo Otto é cerca de 50%, isto é, metade da energia fornecida é utilizada para gerar o movimento. Para motores reais, o valor é menor, e se considerarmos todas as perdas devido ao atrito, qualidade do combustível, gastos para injetar o combustível, e outros fatores, a energia disponível para movimentar o carro é cerca de  30%  da energia inicial contida no combustível (Isto é perdemos quase 70% da energia inicial!).  Representando a energia inicial por  $E_0$ , então teremos $0.30 E_0$ de energia disponível para deslocar o automóvel. Isto significa que da energia inicial de 32MJ por litro, temos a disposição menos de 10 MJ por litro. Ou ainda do volume inicial de 1 litro, temos a disposição cerca de 300mL que pode ser utilizado para gerar o movimento do carro. 

    Uma vez colocado em movimento, o motor precisa ser mantido em funcionamento, em especial para vencer o atrito com o solo (atrito de rolamento) e a resistência do ar. Este dois termos contribuem de maneira significativa para o consumo de energia. O primeiro termo sendo dominante para baixas velocidades e o segundo termo em altas velocidades. No artigo Potência de tração de um veículo automotor que se movimenta com velocidade constante, é realizado uma estimativa para uma situação em particular , sendo obtido que para a velocidade de transição de um regime a outro, obtendo um valor de  60 km/h. Acima desta velocidade o termo de resistência do ar passa a ser mais importante e abaixo desta velocidade, o termo de atrito de rolamento passa a ser mais importante  (no modelo analisado no artigo). Neste caso, para reduzir o consumo, o melhor é deslocar com velocidades menores. Estando em movimento, também consumimos uma parte de energia para frear o carro. Estas perdas (resistência do vento, atrito de rolamento e freagem), podem consumir de cerca de 15%  a 25% da energia.

    Por fim, devemos lembrar que situações dentro de áreas urbanas, o consumo aumenta muito , por que estamos constantemente andando e parando, o que aumenta significativamente o consumo de combustível. No caso de áreas urbanas, o consumo aumenta muito devido ao tempo que o carro fica parado no trânsito. Nos carros modernos, ficar com o motor ligado por mais de cerca de 30 segundos, consome mais do que dar novamente a partida. Neste processo de ficar parado no trânsito com o motor ligado, pode se gastar cercar de 3% da energia total. 

     Se somarmos todos os percentuais, não completamos 100%, pois existem outros consumos que não consideramos (que são devido a utilização de controle eletrônico, ar-condicionado, iluminação , estilo de de condução e outros fatores, para alguns detalhes sobre estes consumos, ver  Where the Energy Goes: Gasoline Vehicles ). Mas o interessante é que o consumo maior ocorre devido ao atrito de rolamento e a resistência do ar. 

        Em relação a pergunta inicial, se um carro normal poderia atingir a marca de 716 km por litro,  para fornecer uma resposta mais precisa, teríamos que analisar cada processo dissipativo com detalhes. Mas, podemos fornecer uma resposta qualitativa, comparando algumas informações, em especial a massa. QPor exemplo, na categoria Protótipo Combustão Interna  a massa do veículo não pode exceder 140 kg (categoria que o consumo foi de 716 km por litro), e na categoria de Carro Conceito Urbano a massa não pode exceder 225 kg (de acordo com as regras de 2023 ), em ambos os casos sem considerar o piloto (que também tem um limite inferior de massa). Desta forma, se consideramos que no Brasil o carro com menor massa tem cerca de 800 kg,  fica claro que atingir o mesmo consumo  não seria possível, mesmo mantendo as outras variáveis constantes.  Para um carro normal,  além da massa maior a seção reta deve ser maior de forma que a resistência do ar deve se tornar mais importante, além disso na Shell Marathon, a velocidade mínima é 20 km/h , que e muito inferior às velocidade em áreas urbanas e muito menor do que nas estradas, além de outras modificações no carro protótipo, de forma que no final o  consumo deve aumentar de maneira significativa. Mas mesmo assim, este tipo de competições pode trazer desenvolvimentos que podem reduzir o consumo nos carros normais. O ideal seria consumo e poluição menores, ou mudar o tipo de motor utilizado.



 

janeiro 14, 2024

Uma mancha de café e a impressora jato de tinta

    Qual a relação entre a mancha de  café e uma impressora jato de tinta?

    O café é uma bebida extremamente popular,  com um consumo 4,77 kg por habitante por ano (dados de 2022 da ABIC ), e assumindo que 1 litro de café necessita cerca de 100g de café, temos um consumo per capita de  cerca de 48 litros de café por ano,  o que resulta quase duas xícaras (xícara de café pequena) por dia por habitante (lembrando que é uma estimativa considerando um consumo para TODA população).

    Isto implica que possivelmente, muitas pessoas já devem ter visto uma mancha de café. As manchas possuem diversas características, e naturalmente dependem da superfície e da concentração do café. Mas uma bem interessante é aquela mancha que nas bordas a mancha é mais forte (figura 1), formando um anel de café.


Figura 1. A mancha característica do café.


    Quando colocamos uma gota de café, inicialmente o a gota é bem homogênea, então qual seria a razão para que mancha fique concentrada apenas na borda? A evaporação não deveria simplesmente secar a gota e deixar o pó de café espalhado homogeneamente?  

    Com a evaporação, o liquido de fato é removido da gota. Com a evaporação a altura da gota diminui e esperamos que  o raio da gota também  diminua.  Mas é preciso considerar que se a borda externa da gota estiver fixa, o seu raio não pode diminuir.  

A figura 2, retirado de [1], ilustra este processo.

Figura 2. Uma ilustração do fluxo do líquido durante a evaporação. (Fonte, referencia [1])

    Na figura 2a, o perfil em verde é a gota original, com a evaporação SE o raio diminuir, a gota assumiria o perfil da parte em branco. Na figura 2b, o raio sendo mantido fixo e ocorrendo a evaporação, o perfil assume a forma da linha mais espessa em preto.  Mas para manter o raio fixo, ocorre o fluxo do líquido (setas em cor azul). Este fluxo transporta o material particulado dissolvido no líquido. A figura 3 (retirado de [1]), é uma composição de diversas imagens obtidas em instantes de tempo diferentes, e o movimento do material particulado surge como traços ao longo das imagens.  A linha vermelha é a borda da gota.

Figura 3. Composição de diversas imagens registrando o movimento do material particulado. (fonte [1])

    A formação desta mancha destacada na borda, depende do material  tanto da gota como da superfície, assim como das condições ambientais. Se a evaporação ocorrer em um tempo muito menor que o tempo característico do movimento das partículas no líquido, a mancha tende a ficar mais homogênea. 

    A figura 4 é um exemplo de como a superfície é importante. Ambas as gotas foram colocadas em um papel milimetrado, mas no da esquerda, o papel foi forrado com uma película plástica, de forma que a gota secou sobre a película plástica e no lado direito, diretamente no papel, que absorveu a gota.

Figura 4. A influência da superfície na formato da mancha.

    E qual a relação com as impressora jato de tinta? Uma impressora jato de tinta, deposita uma gota em uma superfície. Se o efeito de formação do "anel de café" não foi devidamente considerado, a impressão perderá qualidade. Desta forma, as impressoras de boa qualidade, consideram este efeito e utilizam diferentes técnicas para a reduzir ao máximo a formação deste "anéis de café" [2]. 

    As aplicações decorrentes do estudo da formação da mancha de café, tem ocorrido em diferentes áreas além da física. E surgiu de um estudo de uma situação bastante cotidiana:  observação de uma mancha de café [3].

    Agora podemos tomar nosso café e olhar a mancha produzida, com outra perspectiva. E se alguém reclamar, diga que está realizando um experimento científico com muitas aplicações práticas.

 


Notas e Referências

[1] Deegan, R., Bakajin, O., Dupont, T. et al. Capillary flow as the cause of ring stains from dried liquid drops. Nature 389, 827–829 (1997). https://doi.org/10.1038/39827 ou neste link de acesso livre.

[2] Qiu, X.; Gong, X.; Zhang, X.; Zheng, W. Ink-Jet Printing towards Ultra-High Resolution: A Review. Coatings 202212, 1893. https://doi.org/10.3390/coatings12121893 

 [3]  Para quem estiver curioso, na física esta área faz parte do que denominamos Sistemas Complexos ou como prefere De Gennes (prêmio Nobel de Física de de 1991 ) Soft Matter ou Matéria Mole.