abril 22, 2024

Câmera Pinhole




    
    Atualmente, com a profusão dos celulares, uma câmera fotográfica é um instrumento bastante comum. Talvez para a maioria dos seus usuários, a câmera de um celular pode parecer bem diferente das câmeras fotográficas mais elaboradas. O que torna estes dois equipamentos similares, é o fato de que as duas registram imagens em um sensor. Mas a câmera de um celular, parece ser muito mais simples do que uma câmera profissional.

    No entanto uma câmera mais simples, consiste de uma cavidade escura com um único buraco na entrada, e no lado oposto ao buraco dentro da cavidade é colocado um aparato na qual é formado uma imagem (invertida). O aparato pode ser um filme, um sensor eletrônico ou uma simples folha translúcida.


    E esta simples câmara possui praticamente todos os elementos de uma câmera mais moderna, sendo que o buraco funciona como a lente. Para entender o funcionamento dela como lente, para uma explicação inicial basta utilizamos a ótica geométrica (que considera os raios de luz como propagando em linha reta, sem considerar o seu comportamento ondulatório).

    Mas como seria uma câmera pinhole? Bem a forma mais simples é pegar uma lata, fazer um furo e pintar a parte interna com tinta preta fosca. Para fazer um buraco pequeno, o melhor é fazer um furo com a ponta de uma agulha em um pedaço de lata de alumínio. (As instruções para construir uma câmera de pinhole, serão postadas em um outro texto, mas é possível encontrar diversos sítios da internet que ensinam como fazer uma destas câmeras, por exemplo em manual do mundo )

    Um objeto ao ser iluminado (por exemplo pelo Sol), reflete essa luz para todas as direções, e alguns destes feixes de luz acabam chegando até a câmera pinhole, entrando pelo pequeno buraco, até atingir o fundo da câmera aonde está o filme (vamos usar o termo filme, mas pode ser qualquer coisa onde a imagem é formada), formando uma imagem invertida do objeto. A próxima figura, ilustra este processo (figura de domínio público, disponível em https://commons.wikimedia.org/wiki/File:Pinhole-camera.png ), onde está representado apenas dois raios de luz, uma saindo do topo da árvore e outro da sua base.

Figura 1. A camêra pinhole. Fonte wikipedia, licença Creative Commons



    Por que necessitamos de um buraco pequeno? Se pensarmos em uma janela de um quarto, não conseguimos perceber nenhuma imagem na parede oposta. A razão são duas: muita luz e o tamanho da janela. Mas mesmo que todo o quarto fosse escuro, não veríamos uma imagem projetada na parede. Uma possibilidade seria a de usar um quarto com persianas bem opaca, com um pequeno buraco (se for fazer isso em casa, não esqueça que está estragando a persiana). Neste caso, seria possível ver a imagem projetada na parede. Então o tamanho do buraco é importante para que possamos ver a imagem projetada.

    Na figura 2 a seguir, ilustramos a influência do buraco na formação da imagem. No caso de um buraco grande (imagem (a), na esquerda) , os raios de luz que saem da parte superior, atingem o fundo formando uma região grande, o que torna a imagem bem borrada. Ao reduzirmos o tamanho do buraco (ver a imagem (b), na direita ),  atingem o fundo formando uma região pequena. Então pela ótica geométrica, quanto menor o buraco, melhor seria o resultado da imagem obtida.

Figura 2. Efeito do tamanho do buraco na imagem projetada.



    Notemos que se afastarmos o plano onde a imagem é formada (figura 3, o plano B está mais afastado do que o plano A ) a imagem pode ficar novamente indistinguível. 

Figura 3. Efeito de deslocar o plano da imagem.

 A figura 3 nos ajuda a  entender o que significa "pequeno buraco". O diâmetro deve ser pequeno em relação à distância entre o furo e a superfície na qual a imagem será projetada.

 
    A figura 4,  do artigo  de Fernando Lang e Ronaldo Axt , que trata da formação de imagens em um espelho plano, é uma ilustração de como os raios provenientes de duas regiões distintas,  formam a imagem, que é invertida.

Figura 4. Formação da imagem que passa pelo furo. Fonte Fernando Lang e Ronaldo Axt


    Na hipótese de termos um buraco muito grande, as duas regiões ficariam superpostas, e não teríamos uma imagem bem definida.

    Com a construção  da figura 3 e 4,  podemos imaginar que de acordo com a ótica geométrica, quanto maior a distância entre o furo e o plano aonde é formado a imagem, menor deve ser o buraco. E portanto, reduzindo o seu tamanho obteríamos imagens melhores.

    No entanto isto não é correto. Ao diminuirmos o tamanho do buraco, existe um limite mínimo aceitável para a formação da imagem. A partir de um certo diâmetro do buraco, os efeitos de difração da luz (um efeito devido ao comportamento ondulatório da luz) passam a ser importante e precisamos considerar a luz utilizando a ótica física, não a ótica geométrica.

    Assim, do ponto de vista da ótica geométrica, quanto menor o buraco, melhor a imagem obtida, mas pelo ponto de vista da ótica física, quando menor o buraco , pior fica a imagem (De uma maneira simples, se o diâmetro do buraco for muito maior que o comprimento de onda da luz, os efeitos da difração ficam desprezíveis, apenas a partir de um certo diâmetro o efeito da difração passam a ser importante). Estes dois efeitos devem ser levados em consideração no desenho de uma câmera de pinhole. (O comportamento específico da cada um dos efeitos não são semelhantes, para maiores detalhes, ver o artigo M.Young 1989.)  

Figura 5. Retirado de M. Young, 1989

    A figura 5, retirado do artigo de Young,  mostra o raio da imagem formada em função do raio do buraco de agulha. A reta representa a condição da ótica geométrica e a hipérbole a condição da ótica física (considerando a luz como uma onda). A região ideal é na intersecção das duas curvas.

    Para um projeto completo de uma câmera pinhole, é necessário conhecer também o tamanho da imagem a ser produzida, a distância do furo até o plano da imagem , e naturalmente o diâmetro do furo. Com estas informações, podemos calcular o que chamamos de f-stop da pinhole. Normalmente o f-stop é bem elevado, sendo comum valores próximos de 200 ou maiores. Para quem não sabe o que é f-stop, em um texto futuro, vamos escrever com mais detalhes sobre o que é o f-stop e seus efeitos para a fotografia. Mas basicamente está relacionado com a quantidade de luz que atinge o sensor, quanto maior o número, menor a quantidade de luz. Em câmeras comuns, dependendo da lente utilizada este valor pode variar de 1.2 (ditas lentes claras ou lentes rápidas) até cerca de 22. No momento o que nos interessa é que com uma câmera pinhole, entra muita pouca luz comparativamente a uma câmera comum. Por outro lado, temos uma grande profundidade de foco. Isto significa que tudo que for fotografado com uma câmera pinhole, estará em foco. No entanto, a imagem de uma pinhole possui uma resolução muito menor que uma câmera comum com lente (tipicamente uma pinhole tem uma resolução de algumas linhas por mm, enquanto uma câmera comum tem uma resolução de algumas dezenas de linhas por mm, ver M. Young 1989), de forma que a imagem vai se assemelhar com as obtidas usando as lentes ditas "soft focus".

    E como fica uma imagem de uma câmera pinhole? A próxima imagem é um exemplo de imagem possível. A distorção ocorre devido ao formato curvo do local onde o filme foi colocado. A imagem original é em negativo, e a imagem da figura 5 já é invertida, isto é, transformada em imagem positiva.

Figura 5. Exemplo de imagem obtida com câmera pinhole.

    O efeito da superfície na qual o filme é colocado, pode ser percebido, comparando com uma iamgem obtida com uma câmera com fundo plano, que apresentamos na figura 6.
Figura 6. Exemplo de imagem com o filme em uma superfície plana.


    
    Para quem tiver interesse em construir uma câmera pinhole, um sitio interessante para dar uma olhada no site  https://www.mrpinhole.com/calcpinh.php , onde é possível obter informações sobre o tamanho do buraco ideal para a sua câmera pinhole.

Referências




M. Young, The pinhole camera,Physics Teacher, 27: 648–655, 1989




abril 11, 2024

A Teoria das Ondas Piloto na Mecânica Quântica

Ondas Piloto e a Dupla Fenda Fonte

   

     A moderna mecânica quântica tem início em 1925, com a publicação do trabalho de W. Heisenberg e um ano depois, Erwin Schroedinger pública o artigo apresentando a equação  de onda. E neste mesmo ano ocorre o Congresso de Solvay, que começa a  estabelecer  o que denominamos a interpretação ortodoxa da Mecânica Quântica (que é tradicionalmente ensinado nos cursos de graduação em física).

     A dualidade onda-partícula, é um dos conceitos mais importantes dentro da abordagem  da mecânica quântica. Esta dualidade estabelece que um objeto dependendo da medida pode se comportar como onda OU como uma partícula, um exemplo tradicionalmente apresentado é o da fenda dupla, no qual observamos um padrão de interferência característico de ondas, mas se determinarmos por qual fenda ocorreu a passagem, o obtermos um resultado com características de partículas. 

    No entanto, alguns anos antes, Louis De Broglie publica uma série de artigos [1], e apresenta a chamada Teoria de Ondas Pilotos. Nestes trabalhos Louis De Broglie, defende a igualdade entre  Princípio de Maupertius e o Princípio de Fermat [2].  Nos trabalhos de Louis De Broglie, existem a onda a partícula. A onda funcionando como um guia ( onda guia) para a partícula. Foi a partir dos trabalhos de Louis De Broglie, que Schroedinger obteve a sua equação, mas retirou o conceito de partícula, mantendo apenas o conceito de onda.

    Após 1926 [3], a ideia da Teoria de Ondas Pilotos, praticamente foi esquecida. Somente seria retomada em 1952, com a publicação de um artigo por David Bom. Por este motivo, hoje falamos da Mecânica Bohmniana ou Teoria de Bohm [4].

    Mas o que é a Teoria das Ondas Pilotos?

    Na Teoria das Ondas Piloto, a função de onda  é descrita pela equação de Schroedinger, a mesma que é ensinada nos cursos de graduação. A diferença é que agora existe também a partícula, sendo que o movimento da partícula não é descrito pela Equação de Schrodinger, mas por uma outra equação. que relaciona a velocidade da partícula com a função de onda, que é  obtida com a solução da equação de Schroedinger, e servem como uma onda guia (onda piloto) para a partícula. Nesta formulação, as partículas possuem posição e momento linear (ou a velocidade) bem definidos, e são consideradas como as "variáveis escondidas " [3] da teoria (não aparecem na função de onda).

    De acordo com a teoria de ondas pilotos, as trajetórias das partículas são reais, mas devido as condições iniciais que são aleatórias, não é possível determinar com precisão qual a sua trajetória real. Com as teoria de ondas piloto, os resultados  obtidos com a mecânica quântica  ortodoxa, podem ser reproduzidos, com a grande vantagem de que não é necessário introduzir o colapso da função de onda, isto é, o chamado problema da medida, deixa de existir. 

    Uma questão interessante é que na Teoria de Ondas Pilotos, uma partícula livre NÃO segue uma trajetória retilínea, isto porque a dinâmica não é a Newtoniana, e de acordo com De Broglie (citado em [1] ): 

    "O quanta de luz [átomo de luz] ... não propaga sempre em uma linha reta ...parece necessário modificar o princípio da inércia"

    Em muitas situações nas quais classicamente (isto é, movimentos descritos pela física newtoniana) temos movimento, na Teoria de Ondas Pilotos, a partícula possui velocidade nula! De forma que fica claro que na proposta das ondas pilotos, estamos trabalhando com uma nova dinâmica (no congresso de Solvay de 1927, o título do trabalho apresentado por Dr Broglie foi "The New Dynamics of quanta" ), de forma que as concepções newtonianas deixam de ser válidas.

    A teoria de ondas piloto ou mecânica bohmniana, é uma das alternativas para a mecânica quântica tradicional. Mas dificilmente faz parte da formação dos profissionais de física. Para os defensores da mecânica bohmniana, existem muitos motivos que justificam a sua utilização, mas fora destes círculos é normalmente ignorada.  Talvez, na véspera de completarmos 100 anos da mecânica quântica,  uma introdução aos conceitos básicos da teoria de ondas pilotos seria uma boa atitude nos cursos de graduação em física. 


 Notas e referências

[1] Sobre os artigos de Louis de Broglie, ver por exemplo G. Bacciagalluppi e A. Valentini, Quantum Theory at Crossroads, com acesso livre nos arxiv. A tese de doutorado de L. De Broglie, traduzido para o inglês pode ser acessado neste link. 

[2] O Princípio de Maupertius, é utilizado para obter a trajetória partículas, e o Princípio de Fermat para obter a  trajetória da luz. De Broglie, faz esta identidade considerando a proposta de Einstein de considerar a luz como uma partícula (o efeito fotoelétrico).

[3] Em 1927, foi realizado o quinto Congresso de Solvay, quando começa a ser estabelecido o que denominamos Interpretação de Copenhaguem da Mecânica Quântica.   Ver [1], que faz um detalhamento do V Congresso Solvay.

[4] Ver por exemplo Rodrigo Siqueira-Batista , Mathias Viana Vicari, José Abdalla Helayël-Neto, David Bohm e a Mecânica Quântica: o Todo e o Indiviso, Revista Brasileira de Ensino de Física, vol. 44, e20220102 (2022), DOI: https://doi.org/10.1590/1806-9126-RBEF-2022-0102 (o acesso é livre)

abril 01, 2024

Descongelando no forno micro-ondas

    

    Quem já utilizou o forno micro ondas para descongelar um alimento, deve ter notado que o processo ocorre com alguns momentos o aparelho ficando ligado e outros momentos ficando desligado. Qual a razão deste liga e desliga? Não seria mais rápido ficar ligado todo tempo?

    Inicialmente é importante saber como um forno micro ondas aquece os alimentos, uma referência é [1], da qual extraímos o trecho "A forma como o micro-ondas aquece os alimentos na realidade é um fenômeno conhecido como aquecimento dielétrico. Uma molécula polar, como a água, quando inserida em um campo elétrico tende a girar de maneira a se alinhar com o campo. Quando o campo elétrico inverte o seu sentido periodicamente, como nas ondas eletromagnéticas produzidas pelo forno, as moléculas giram em sentido alternado em busca de se realinhar com o campo. "

    Como a radiação gerada é absorvida por moléculas de água, ligar o forno micro-ondas sem nenhuma quantidade de água, pode causar danos ao forno, pois a energia fornecida não será absorvida e pode retornar para o circuito interno do equipamento. Então evite ligar o forno micro-ondas sem um pouco de água dentro. E é justamente devido ao comportamento da água que o processo de descongelamento ocorre com o liga e desliga do forno micro-ondas.

    Um fator importante é a  constante dielétrica da água [2] .  No caso da água, o seu valor vai depender de diversos fatores, mas em particular do estado físico da água, sendo que o seu valor no estado de gelo é muito menor que o caso da água no estado líquido. A energia absorvida depende do valor da constante dielétrica, logo, a água no estado líquido absorve muito mais energia do que a água no estado de gelo.  Isto tem muita influência no processo de descongelamento dos alimentos.


    Quando utilizamos o forno micro-ondas, assumindo que toda água esteja na forma de gelo, o forno micro ondas irá aquecer muito lentamente o alimento, quando comparado com o caso do alimento descongelado, e neste caso precisaríamos manter o forno micro ondas ligado por mais tempo, aumentando o consumo de energia. E talvez o fator mais importante é que como o descongelamento não ocorre de forma igual, durante o processo teremos um pouco de água na forma líquida, e o local com água irá absorver mais energia que os locais com gelo. Mantendo o forno micro-ondas ligado, então ao colocarmos um alimento congelado, podemos ter ao final do processo um alimento com algumas partes ainda frias, enquanto algumas partes podem estar quentes e talvez excessivamente cozida. Algo que talvez já tenha experimentado ao  esquentar salgados congelados com o forno micro-ondas, com algumas partes ficando frias e outras quentes.

    Para tornar o processo mais homogêneo, o forno micro-ondas deve ser desligado periodicamente. Algumas partes do alimento, formam uma região com água na forma líquida ( o gelo já  derreteu). Este líquido em contato com outras regiões ainda congeladas, faz com com que outras partes ainda com  gelo comecem a derreter. E este processo ocorre de forma lenta, sem que ocorra um cozimento do alimento, principalmente se o forno micro-ondas estiver desligado. Então na etapa que o forno está desligado, é a água já na forma líquida que ajuda a derreter o gelo. Notemos que neste caso, a temperatura do líquido é reduzida, de forma que quando o forno for novamente ligado, não vai ficar suficientemente quente para começar a cozinhar o alimento.  Repetindo este processo, o degelo ocorre de forma mais uniforme. Em geral, cada fabricante possui etapas pré-programadas para o degelo, a recomendação é que utilize esta programação. 


Notas e Referências

[1] Aquecimento da água no micro-ondas NÃO se dá por ressonância!  em https://cref.if.ufrgs.br/?contact-pergunta=aquecimento-da-agua-no-micro-ondas-nao-se-da-por-ressonancia

[2] Tecnicamente, depende da  parte imaginária da constante dielétrica. A do gelo é cerca de 4 ordens de grandeza menor que a da água na forma líquida. Este valor depende da temperatura e da frequência da radiação, 

    

março 17, 2024

Gatos na mecânica quântica

    

 Figura 1. O Gato de Cheshire -John Tenniel - domínio público

    O gato mais popular da mecânica quântica é o de Schrodinger, mas existe um outro que apesar de não ser tão popular,  podemos dizer que tem um sorriso mais permanente. É o gato de Cheshire, um dos tantos personagens do livro Alice de Lewis Carroll.

"Bem! Muitas vezes vi um gato sem sorriso”, pensou Alice; “mas um sorriso sem gato! É a coisa mais curiosa que já vi na minha vida!” [1]

    Como seu parente mais famoso, o gato de Cheshire também aparece na mecânica quântica, mas no artigo dos autores Yakir Aharonov, Sandu Popescu, Daniel Rohrlich e  Paul Skrzypczyk,  Quantum Chesire Cats  de 2012. A ideia de forma geral seria de que na mecânica quântica uma propriedade de um objeto pode ser separado do mesmo e ter existência independente do objeto.  O Gato de Cheshire seria um exemplo, ele desaparece mas seu sorriso permanece. 

    No artigo Quantum Cheshire Cats,  os autores escrevem, [2]

Não admira que Alice esteja surpresa. Na vida real, supondo que os gatos realmente sorriam, o sorriso é uma propriedade  do gato – não faz sentido pensar em um sorriso sem gato. E isso vale para quase todos propriedades físicas.

    Os autores apresentam uma proposta de experimento utilizando um interferômetro, no qual um feixe de fótons inicial é separado em duas trajetórias distintas que posteriormente se cruzam. Na figura 2 apresentamos uma representação esquemática do efeito, na qual o fóton entra pelo lado esquerdo (representado com o Gato com Sorriso),  e passa por divisor de feixe, sendo que a polarização do fóton ( sorriso)  segue a trajetória inferior e o  fóton (gato sem o sorriso) segue a trajetória superior, no final os feixes são recombinados  resultando no fóton original (gato com sorriso).


Figura 2. Ilustração artística do efeito do Gato de Cheshire. Fonte

    Este processo depende de um procedimento denominado medida fraca, que é de forma simplificada  uma medida que interfere muito fracamente com o sistema,  não causando o chamado colapso da função de onda [1] e comparam os estados denominados pré-seleção e pós-seleção.

Figura 3. Descrição esquemática do experimento proposto em Quantum Chesire Cats 

    Na figura 3, apresentamos a descrição esquemática proposta em Quantum Chesire Cats , indicando os estado pré-seleção e pós-seleção. Neste experimento um fóton é preparado no estado pré-seleção, sendo  basicamente um estado emaranhado entre os fótons que percorrem o caminho a esquerda e a direita. Destes estados, escolhemos somente aqueles que ativam o detector superior (D1), outros sendo descartados, isto é, realizamos uma escolha posterior do que vamos examinar (por isto o nome pós-seleção).  O experimento é pensado de tal forma que apenas quando o fóton passa pelo lado esquerdo (a trajetória indicado com |L> na  região entre a pré e  a pós-seleção) o detector D1 é ativado. Até este momento temos  um sistema de interferometria sem nenhuma novidade. A diferença é quando realizamos uma  medida fraca -que é  uma medida que não produz o colapso da função de onda - entre os estados de pré e pós-seleção. Neste caso, os autores argumentam que seria possível determinar estatisticamente , por qual lado passou o fóton (quado D1 é ativado) e determinar a polarização do fóton, inserindo um detector no lado |R> . No artigo os autores demonstram que é possível detectar a polarização do fóton no caminho da direita, que NÃO é o caminho seguido pelo fóton (lembrando que apenas os casos no qual o detector D1 é ativado, são analisados). É importante ressaltar que todo processo envolve medidas fracas, sem o colapso da função de onda. 

    No artigo Observation of a quantum Cheshire Cat in a matter-wave interferometer experiment, de 2014,  Denkmayr, T., Geppert, H., Sponar, S. et al. realizaram  o experimento utilizando neutrons ao invés de fótons, e argumentam que conseguiram  demonstrar o efeito do Gato de Cheshire:,ou seja, é possível detectar o spin do neutron no caminho que o neutron não está passando, que é um resultado compatível com a proposta do artigo Quantum Chesire Cats, isto é, a propriedade spin do neutron segue um caminho distinto do caminho do  neutron.

    Existem outros experimentos que indicam a existência do efeito do Gato de Cheshire, o que indicaria mais uma consequência bem contra intuitiva da mecânica quântica, isto é, podemos separar uma propriedade do objeto, a propriedade seguindo uma trajetória e o objeto uma outra trajetória.

    Uma questão importante é de que os resultados das medidas fracas  correspondem a uma média de diversas medidas e não são consequências de medidas em sistemas individuais, o que faz com que alguns físicos considerem que não existe uma separação entre o "gato" e  o seu "sorriso".  No artigo Contextuality, coherences, and quantum Cheshire cats , os autores Jonte R Hance, Ming Ji e Holger F Hofmann, utilizam a teoria da contextualidade  da mecânica quântica (que de maneira simplificada significa que os resultados de uma medida dependem da ordem que é realizada, ou do contexto das  medidas realizadas no sistema [3]), para analisar a existência do Efeito do  Gato de Cheshire. O resultado é que [4]

"...  esclarecemos como o paradoxo quântico do gato de Cheshire deveria ser interpretado – especificamente que o argumento de que a polarização se torna “desincorporada”  (...) em última análise, apenas um sistema contextual.

    Isto implica que ao realizamos medidas de maneiras diferentes, obtemos resultados diferentes e que o Efeito do Gato de Cheshire somente ocorreria em uma situação muito específica de diferentes medidas realizadas no sistema. De forma que não seria um paradoxo real, mas consequência da propriedade de contextualidade da mecânica quântica. 

    Ainda é cedo para afirmar qual é a correta explicação para o Gato de Cheshire na mecânica quântica, mas como no caso do Gato de Schroedinger, este experimento mostra como a análise de efeitos quânticos é bem distinto do que ocorre em situações cotidianas, descritas pela física clássica, e que apesar de ser uma teoria centenária, como excelentes resultados teóricos e experimentais, muita coisa ainda precisa ser estudada. Mas é assim que caminha a ciência.


Notas e Referências



[1] No original “All right,” said the Cat; and this time it vanished quite slowly, beginning with the end of the tail, and ending with the grin, which remained some time after the rest of it had gone.
“Well! I’ve often seen a cat without a grin,” thought Alice; “but a grin without a cat! It’s the most curious thing I ever saw in my life!”,
texto disponível no Projeto Gutemberg

[2] No original, o trecho completo é  "No wonder Alice is surprised. In real life, assuming that cats do indeed grin, the grin is a property of the cat—it makes no sense to think of a grin without a cat. And this goes for almost all physical properties. Polarization is a property of photons; it makes no sense to have polarization without a photon. Yet, as we will show here, in the curious way of quantum mechanics, photon polarization may exist where there is no photon at all. At least this is the story that quantum mechanics tells via measurements on a pre- and post-selected ensemble. "

[3] Para um artigo de revisão sobre contextualidade em mecânica quântica, ver
Kochen-Specker contextuality, Costantino Budroni, Adán Cabello, Otfried Gühne, Matthias Kleinmann, and Jan-Åke Larsson, Rev. Mod. Phys. 94, 045007 – Published 19 December 2022. Com acesso livre no arxiv. Veja também A Pseudo Telepatia Quântica , publicada no Cref ou em  Fisica Sete e Meia .


[4] No artigo, o trecho completo (na conclusão) aparecer como "In this paper, we have clarified how the quantum Cheshire cat paradox should be  interpreted—specifically that the argument that the polarisation becomes ‘disembodied’ results from only considering one specific pairing of the three mutually-incompatible properties in what is ultimately just a  contextual system."

março 08, 2024

O Problema dos Três Corpos



    O chamado Problema dos Três Corpos, é uma situação na qual três corpos estão interagindo mutualmente devido a atração gravitacional. Este é um problema que não existe uma solução analítica que possa ser aplicado para o caso geral [1]. Soluções analíticas gerais somente conseguimos obter quando consideramos o movimento de dois corpos. Isto pode parecer estranho, pois quando estudamos o Sistema Solar, aprendemos que as órbitas dos planetas são elipses com o Sol em um dos focos da elipse, portanto aparentemente conhecemos as soluções analíticas para um problema com muito mais que dois corpos.

    O que ocorre é que a massa do Sol é muito maior que massa dos planetas, o que nos permite em boa aproximação considerar que cada planeta se movimenta apenas sob a influência do Sol, de forma que desconsideramos as interações entre os planetas e os movimentos planetários podem então ser considerados como elipses com o Sol em um dos seus focos.

    Mas dependendo da precisão e do período de tempo analisado, esta aproximação deixa de ser adequada. Por exemplo devido a influência dos outros planetas, Mercúrio tem uma órbita na qual o ponto mais próximo do Sol (o periélio) muda de posição de um ano a outro, e isto pode ser mensurado com bastante precisão  e o valor observado pode ser explicado em quase sua totalidade como sendo devido à influência dos outros planetas [2].

    O chamado Problema de Três Corpos ocorre quando analisamos o movimento de apenas três corpos, mesmo dentro do Sistema Solar. Por exemplo um sistema com o Sol, a Terra e a Lua, , que é talvez o Problema de Três Corpos mais antigo em estudo, possivelmente com as primeiras observações devido realizadas na Mesopotânia cerca de 3000 anos atrás  (ver por exemplo o artigo Moon-Earth-Sun: The oldest three-body problem ). Outro exemplo é a Terra, Lua e um satélite artificial. Notemos que nestes casos, a massa do terceiro corpo é muito pequena e constitui o que denominamos Problema Restrito dos Três Corpos. A rigor Sol, Terra e Lua também sofrem influências dos outros planetas, mas dependendo da precisão e do intervalo de tempo das observações/medidas estas outras influências não serão significativas. O exemplo é que podemos calcular prever com boa precisão, um movimento periódico da Lua em torno da Terra, mas é importante ressaltar que este movimento não é exatamente periódico, veja por exemplo o texto  Rotação da linha apside Terra-Lua: por que acontece?  que introduz um conceito pouco conhecido , a chamada linha de apside. 

    Para algumas situações particulares, em um Problema de Três Corpos, existem as órbitas periódicas  como o exemplo da órbita da Lua no sistema Sol-Terra-Lua. Mas existem outras características no Problema de Três Corpos que são interessantes, como a existência dos chamados Pontos de Lagrange, que são regiões nas quais as forças dos dois corpos maiores produzem uma situação de equilíbrio, isto é, a força resultante devido aos dois corpos é nula. Existem 5 pontos de Lagrange, sendo duas delas estáveis e as outras três instáveis. Ponto instável significa que uma perturbação retira o objeto (o terceiro corpo) do ponto de Lagrange, e no ponto estável , uma perturbação não retira o objeto do ponto de Lagrange. O telescópio James Webb está localizado em um dos pontos de Lagrange (em um ponto instável, conhecido como L2 ) do sistema Terra-Sol (ver figura 1).


Figura 1. Os cinco pontos de Lagrange no Sistema Sol-Terra (fonte NASA)

    

    Uma característica interessante do Problema de Três Corpos, é o resultado obtido por H. Poincaré no final do século XIX, é que o sistema apresenta o chamado comportamento caótico (para uma descrição do que é a Teoria do Caos, veja por exemplo este texto do CREF ).  Isto significa que existem configurações nas quais as órbitas dos corpos não possuem movimentos regulares, de forma que o seu comportamento a longo prazo se torna imprevisível. Esta simulação no Youtube ilustra o que ocorre nas órbitas caóticas.   


Figura 2:Ilustração das órbitas de três corpos para um sistema caótico Fonte


    O Problema de Três Corpos, mesmo após cem anos, ainda é um assunto que tem atraído atenção de pesquisadores, sejam físicos, astrônomos, ou matemáticos  ( para uma aplicação específica em física, veja [3]). O que hoje sabemos que  é um sistema que apresenta um comportamento caótico, mas que dependendo das condições iniciais pode apresentar movimentos periódicos. Mas é importante ressaltar que para observar comportamento caótico, o tempo de observação pode ser muito longo, de forma que dependendo do intervalo de tempo, o comportamento pode ser muito semelhante a um sistema regular.

     Apenas por curiosidade, no livro O Problema do Três Corpos, de Cixiun Li utilizado para produzir a série homônima, não é exatamente um Problema de Três Corpos, mas não vou adiantar o enredo para quem não leu o livro ou está esperando a série. 


Nota

[1] Solução no sentido de possuirmos uma função que descreva a posição e a velocidade de cada um dos corpos em qualquer instante do tempo. Lembrando que podemos resolver numericamente o problema.

[2] No caso de Mercúrio, o chamado avanço do periélio corresponde a cerca de 575 segundos de arco por século e boa parte deste avanço pode ser explicado devido a influência da atração gravitacional de outros planetas. Mas uma pequena parcela somente pode ser explicada utilizando a Teoria da Relatividade Geral no lugar a Gravitação Newtoniana. 


[3] Uma aplicação  do problema de Três Corpos  na astronomia, é  Restricted Problem.of Three Bodies With Newtonian+Yukawa Potencial, https://www.worldscientific.com/doi/10.1142/S021827180400492X ou em https://www.researchgate.net/publication/252081554_Restricted_Problem_of_Three_Bodies_with_Newtonian_Yukawa_Potential

março 01, 2024

Torrando pão no micro-ondas

     O aparelho de micro-ondas é um eletro doméstico extremamente útil, e diversos alimentos podem ser preparados com o mesmo, em especial é muito útil para aquecer alimentos ( ver Aquecimento da água no micro-ondas NÃO se dá por ressonância! caso queria entender como ocorre o aquecimento dos alimentos, para um artigo sobre ). Mas existem alguns alimentos que não são adequados, por exemplo aquecer um ovo, que dependendo da situação pode levar  a explosão do mesmo (ver por exemplo em Ovo explode no forno micro-ondas ) e também objeto que se possível não devem ser colocados dentro do forno micro-ondas (ver  Sobre metal no forno de micro-ondas para alguns cuidados ao utilizar metais dentro do forno micro-ondas).

    É comum utilizar o forno micro-ondas para aquecer pães que deixamos no congelador e neste caso é comum deixar por pouco tempo, cerca de 10 a 15 segundos. Caso o tempo seja maior, algumas vezes o pão fica extremamente borrachudo. E a diferença de tempo é usualmente pequena entre ficar comestível e ficar borrachudo. Isto é interessante, pois quando aquecemos o pão no forno ou em uma frigideira,  o pão não costuma ficar borrachudo. Por que isto ocorre?

    Na figura 1, mostramos no lado esquerdo uma fatia de pão de forma aquecido em uma frigideira e no lado direito o pão aquecido no forno micro-ondas. Notemos que no caso da frigideira, a parte interna não está torrada, mas no caso do forno micro-ondas a parte interna está torrada. Na foto não é possível perceber, mas na fatia aquecida com a frigideira a parte interna está macia e a parte externa crocante, no caso do micro-ondas, a parte interna está torrada e a parte que não está torrada, está bastante borachuda!


Figura 1 . No lado esquerdo a fatia aquecida no forno micro-ondas e no lado direito aquecido na frigideira.

    Um ponto importante a ser notado é que no caso do pão no micro-ondas, a parte torrada não está distribuída de forma homogênea na parte interna, devido a presença de ondas estacionárias. Isto fica mais perceptível na figura 2, com três fatias de pão de forma colocadas  uma encima da outra para aquecer no forno micro-ondas.

Figura 2. Três fatias de pão aquecidas no forno micro-ondas.


    Na figura 2 podemos perceber a parte central torrada e também que a parte superior da  terceira fatia não está torrada. Estas três fatias também apresentam uma textura muito borrachuda, resultando em um pão que não é agradável ao consumo.
    
    Por que ocorre esta diferença entre a utilização da frigideira e do forno micro-ondas? No caso do pão, a radiação de micro-ondas devido a propriedade de absorção do pão, aquece inicialmente a parte interna ( o que pode ser verificado pelo fato da parte interna ficar torrada antes da parte externa). Isto faz com que o vapor de água da parte interna seja deslocado para a superfície do pão. Mas   a temperatura externa do pão é diferente nos dois casos. No caso do micro-ondas, a temperatura é basicamente a temperatura externa (para tempos de utilizações reduzidas) e no caso da frigideira, a temperatura é muito mais alta (na parte do pão em contato com a frigideira).  Isto faz com que no caso do micro-ondas, a água por  evaporar mais lentamente (lembre que a evaporação não ocorre apenas na temperatura de ebulição, leia este artigo do Fernando Lang) acaba encharcando o pão, tornando o mesmo mais borrachudo, mas no caso da frigideira como a temperatura é mais alta, o processo de evaporação ocorre mais rapidamente e o pão não fica molhado como no caso do micro-ondas.

    O fato do pão ficar desagradável para comer quando aquecido no forno micro-ondas, é que a sua quantidade de água é menor, do que por exemplo em uma batata. Podemos cozinhar uma batata no forno micro-ondas, e ela não fica ressecada, pois a mesma contém comparativamente ao pão, muito mais água.
    
   O ideal é não aquecer o pão no forno micro-ondas, utilize uma torradeira.

Notas

Um artigo muito interessante é  Bad food and good physics: the development of domestic microwave cookeryh , Kerry Parker and Michael Vollmer 2004 Phys. Educ. 39 82. O exemplo do pão foi retirado deste artigo.

Um artigo que trata da física de alimentos, considerando com área da soft matter,  ver Soft matter food physics—the physics of food and cooking , Thomas A Vilgis 2015 Rep. Prog. Phys. 78 124602

fevereiro 15, 2024

O termômetro

     O termômetro é o aparelho utilizado para medir a grandeza temperatura, e o seu papel no desenvolvimento da termodinâmica, não pode ser desprezado. Mas qual a origem do termômetro?

      O conceito de  objetos quente ou frio, tem origem muito anterior ao desenvolvimento do termômetro e da noção de temperatura. Que o ar e a água expandiam ao serem aquecidos,  eram conhecidos desde a Grécia antiga,  um exemplo sendo a máquina a vapor de Heron de Alexandria (cerca de 60 AC) ou um termoscópio rudimentar de Filão de Bizâncio (280-220 AC). No entanto, não tinham o propósito de medir temperaturas. 

Figura 1. A máquina de Heron de Alexandria (Fonte)


    Talvez para surpresa de muitas pessoas, o termo temperatura não foi inicialmente elaborado para alguma aplicação em física ou  química. Cláudio Galeno (cerca  de 129 a 227 DC) , filósofo e médico grego, baseava seus tratamentos nas quatro qualidades propostas por Aristóteles calor, frio, seco e umidade. A combinação/mistura destas quatro qualidades, definiria segundo Galeno, as diferenças entre as pessoas. O termo mistura em latim é escrito "tempera", que dá origem ao termo temperatura.  Galeno propunha e existência de uma temperatura neutra, que não seria nem quente nem frio, e que poderia ser obtido com uma mistura igual de água fervendo e gelo, propondo o que seria o primeiro padrão de medida da temperatura, e a partir desta temperatura neutra, Galeno apresentou 4 graus de calor e 4 graus de frio [1]. Mas para a medida da temperatura, não existia nenhum aparelho,  de forma que "quente" ou "frio", eram grandezas subjetivas. 

    Não se sabe exatamente quem inventou ou usou pela primeira vez um termômetro (no sentido de medir temperatura com alguma escala). Existem algumas indicações apontando diferentes autores em diferentes épocas, sendo comum os seguintes autores : Santorio Santorii (Sanctorius) (1561- 1636), que tem o primeiro registro escrito (1611) sobre o termômetro; Galileu Galilei,  apesar de não termos registros escritos, existem algumas indicações que teria inventado um termômetro antes de Santorio, talvez no período de 1592 a 1603;  Robert Fludd (1574- 1637) e  Cornelius Drebbel 1(572-1633) são outros prováveis inventores do termômetro. Não existem registros que eles tivessem conhecimento do trabalho dos outros, de forma que com grande possibilidade, foram desenvolvidos de maneira independente. Lembrando que no período, a comunicação era bem demorada. Mas o termômetro, como conhecemos atualmente, com líquido ou gás em um recipiente fechado, foi desenvolvido em 1641, por Ferdinando II, Grão Duque da Toscana (1610-1670). Os termômetros anteriores eram construídos utilizado recipientes abertos.


Figura 2. Termômetro de Fludd, 1626. (Fonte )

    Uma vez tendo sido construído o termômetro, o próximo importante passo foi a de definir qual a melhor substância para ser utilizado, e qual o melhor padrão a ser utilizado para calibrar um termômetro. Alguns padrões propostos: temperatura dentro de um porão profundo,  temperatura da grutas sob o  Observatório de Paris, cera derretida, temperatura do corpo humano, temperatura do sangue, temperatura da manteiga derretida , água fervendo , mistura de água gelo e sal, dia mais quente do verão e outros [2]. Entre as substâncias, as preferências eram água, vinho, ar e mercúrio. 

    Daniel Gabriel Fahrenheit (1686-1736), foi o responsável por estabelecer a utilização do mercúrio como a substância ideal para os termômetros, e utilizou como padrão a temperatura do corpo  humano e a ponto de congelamento de uma mistura em partes iguais de água, gelo e sal amôniaco, em 96⁰ F e 0 ⁰ F, respectivamente. Note que Fahrenheit NÃO escolheu como pontos fixos a temperatura de ebulição e a temperatura de congelamento da água, em 212 ⁰F e 32⁰F, respectivamente [3]. Os termômetros construídos por Fahrenheit e com o padrão escolhido, tornaram os termômetros confiáveis, com diferentes aparelhos resultando em medidas iguais nas mesmas condições,  o que antes não era possível (o termômetro de vinho (alcool) , que era o mais comum, resultava em medidas diferentes nas mesmas situações). Os valores utilizados por Fahrenheit, possivelmente tem origem em uma escolha para evitar o uso números decimais "Fahrenheit prosseguiu dizendo (....) achava que a escala de Roemer com suas frações era ao mesmo tempo inconveniente e deselegante; então, em vez de 22 1/2 ⁰ dividido em quartos, ou seja, 90, ele decidiu considerar 96° como calor do sangue" [4].

    A escala Celsius que utilizamos no Brasil, foi desenvolvida por Andres Celsius, que utilizou como ponto fixo o ponto  de ebulição da água e o ponto de congelamento em 0⁰ C e 100⁰ C, respectivamente. Na escala original, os pontos fixos de Celsius são invertidos em relação ao que utilizamos atualmente. 

    Uma definição mais precisa da temperatura, somente foi desenvolvida com a consolidação da termodinâmica, e sendo expressa pela Lei Zero da Termodinâmica (já estavam consolidadas as chamadas Primeira e Segunda Lei da Termodinâmica), e a unidade de temperatura sendo o kelvin, simbolizado pela letra K. Note que não é utilizado o símbolo ⁰ de grau na escala kelvin. Atualmente é utilizado como ponto fixo o chamado ponto triplo da água, sendo atribuído o valor de 273.16 K. A escala kelvin é considerada temperatura absoluta, e a  temperatura de 0 K é a menor temperatura possível em um sistema físico [5]. 


Notas e Referências

[1] T J Quinn and J P Compton 1975, The Foundations of Thermometry  Rep. Prog. Phys. 38 151; F. Sherwood Taylor M.A. Ph.D. , 1942,  The origin of the thermometer, Annals of Science, 5:2, 129-156

[2] H. Chang 2007, Inventing Temperature, Oxford Univerity Press.

[3] A escolha do ponto de ebulição da água, não foi simples, até porque a definição precisa de ponto de ebulição não era bem estabelecida. Termos como ebulição branda, ebulição agitada, ebulição violenta eram comuns de serem utilizadas, além de que a utilização de um recipiente de vidro ou de metal, resultava em valores diferentes. Uma discussão interessante sobre estas dificuldades pode ser lida na referência [2].

[4]O trecho completo "Fahrenheit went on to say, in his letter to  Boerhaave, that in 1717 he felt Roemer's scale with its fractions to be both inconvenient and inelegant ; so instead of 22 1/2 ⁰  divided into quarters, that is, 90, he decided to take 96° as blood heat.  Retaining the same zero, the melting point of ice became 32°, instead of 7 1/2 ⁰  divided into quarters,  or 30. This scale he continued to use and was using at the time the letter was written (that is,  in 1729) ; he added that he had been confirmed in his choice because he found it to agree, by pure coincidence, with the scale marked on the thermometer hanging in the Paris Observatory.  " Fonte: Friend, J. The Origin of Fahrenheit's Thermometric Scale. Nature 139, 395–398 (1937). https://doi.org/10.1038/139395a0

[5] Veja por exemplo https://cref.if.ufrgs.br/?contact-pergunta=sobre-a-determinacao-do-zero-absoluto . Uma curiosidade  é que para sistemas fora do equilíbrio ou em equilíbrio meta estável, é possível atribuir uma temperatura negativa, mas que  não representa uma temperatura menor que 0 K.  Em um laser, o processo chamado inversão de população, corresponde a um sistema com temperatura negativa, que a rigor é uma temperatura que é obtida após a temperatura +infinito.