outubro 14, 2024

Luz cansada?


A teoria da luz cansada. Fonte vecteezy

    

    Logo após a publicação do artigo de Edwin Hubble em 1929 a respeito da velocidade de recessão (afastamento) das galáxias distantes, Fritz Zwick apresentou uma explicação para o deslocamento para o vermelho, sem considerar a expansão do Universo. O deslocamento ocorreria devido a luz ter percorrido uma grande distância entre a fonte emissora e a detecção na Terra, e devido a este longo deslocamento  teria perdido energia (estas perdas teriam diversas origens) durante o seu trajeto, ou seja a luz estaria "cansada". Portanto, a teoria da luz cansada foi  uma teoria alternativa para  explicar o deslocamento para o vermelho (redshift) observado em galáxias e que não considera a expansão do Universo. Assim, é uma teoria  que propõe um  Universo estático.  [1].

    Esta hipótese seria razoável? Talvez no início, mas com o desenvolvimento dos modelos de expansão do Universo, e suas consequências  um modelo de Universo estático deixava de ser compatível com os dados observacionais. Um resultado importante foi a determinação da nucleosíntese primordial, que descreve a produção dos primeiros núcleos em um Universo em expansão. 

    George Gamow, um dos proponentes da nucleosíntese primordial, escreve  a respeito da teoria da luz cansada em um artigo de revisão de 1949, On Relativistic Cosmology, afirmando que 

No entanto, exceto pela declaração descritiva no sentido de que "quanta de luz pode se cansar viajando por um caminho tão longo", nenhuma explicação razoável para tal avermelhamento foi proposta até agora e, na verdade, dificilmente pode ser esperada com base nas ideias atuais sobre a natureza da luz. Além disso, abolindo a ideia de um universo em expansão, perder-se-ia imediatamente a base sólida para a interpretação de fenômenos evolucionários  na astronomia, e será muito difícil  responder a perguntas como por que os elementos radioativos naturais ainda existem, por que as estrelas não consumiram todo o hidrogênio há uma eternidade, etc. [2]

    Além de não existir nenhum mecanismo minimamente aceitável para explicar o que causaria o "cansaço da luz", como não existe expansão do Universo, a densidade da Radiação Cósmica de Fundo (RCF) não se alteraria, de forma que o seu espectro também seria diferente ao do observado.      A RCF foi descoberta por Arno  Penzias e Robert Wilson (o artigo tem acesso livre), que detectaram a presença de um ruido de fundo em todas as direções do céu, que inicialmente acreditavam ser devido a um problema técnico e não um sinal de origem cósmica. Curiosamente, um outro grupo estava preparando um experimento para detectar a Radiação Cósmica de Fundo, e que foram    contactados por Penzias e Wilson, que reconheceram imediatamente que o sinal detectado por  era o sinal procurado, e o artigo de R.H. Dicke , P.J.E. Peeble, PG. Roll e D.T. Wilkinson , Cosmic Black-Body Radiation foi publicado no mesmo número da revista do artigo de Penzias e Wilson.  Este resultado, conjuntamente com a nucleosíntese primordial, são resultados que descartam o nosso Universo como estático.

    A figura 2 é uma ilustração entre as diferenças entre um modelo com expansão do Universo e um modelo de cosmologia de luz cansada.

Figura 2. A Teoria da luz cansada versus Expansão do Universo fonte [3]


    Existem outros dados observacionais que descartam a teoria da luz cansada. Uma delas é a medida do brilho de galáxias distantes. No modelo de um Universo em expansão, o brilho das galáxias distantes é reduzido a devido diversos fatores,   sendo possível mostrar que o brilho diminui basicamente como (1+z)⁻⁴ e no modelo da luz cansada em um Universo estático a diminuição como (1+z)⁻¹ , sendo z o redshift da galáxia (caso não tenha estudado cosmologia, podemos associar distâncias com o redshift, e quanto maior a distância, maior será o redshift), e observacionalmente os dados são compatíveis com um Universo em expansão.

    A teoria da luz cansada  também não é compatível com dados a respeito de Supernovas, a figura 3 retirado do Time Dilation in Type Ia Supernova Spectra at High Redshift de 2008, mostra  a compatibilidade dos dados com a expansão do Universo, caso o fosse estático não deveria variar o redshift.  

Figura 3.  Ver artigo que é de livre acesso.

    

    Sobre o constante reaparecimento da teoria da luz cansada, o astrofísico Ned Wright comenta [3] "Eu não acredito que seja possível convencer as pessoa que ainda sustentam a ideia da luz cansada (...) diria que é mais um problema para uma revista de psicologia  (...)" . 

    



Notas

[1] F. Zwick não utilizou este termo no seu  artigo de 1929  ON THE RED SHIFT OF SPECTRAL LINES THROUGHINTERSTELLAR SPACE e nem posteriormente, de acordo com o artigo  de Helge Kragh IS THE UNIVERSE EXPANDING? FRITZ ZWICKY AND  EARLY TIRED-LIGHT HYPOTHESES . Para outras teorias de luz cansada, ver por exemplo Wesson, P.S. (1980). The Status of Non-Doppler Redshifts in Astrophysics. In: Gravity, Particles, and Astrophysics. Astrophysics and Space Science Library, vol 79. Springer, Dordrecht. https://doi.org/10.1007/978-94-009-8999-3_11

[2] Trecho original However, except for  the descriptive statement to the effect that "light quanta may get tired traveling such a long way, no  reasonable explanation of such a reddening has as yet been proposed, and, as a matter of fact, can hardly be expected on the basis of present ideas concerning the nature of light. Moreover, abolishing the idea of an expanding .universe, one would immediately lose the sound foundation for the interpretation of evolutionary phenomena in astronomy, and it will be very difficult  to answer such questions as to why the natural radio-active elements are still in existence, why the stars did  not use up all hydrogen an eternity ago, etc.


[3] 'Tired-Light' Hypothesis Gets Re-Tired na seção News of the Week na Science.  Texto original

Even so, researchers doubt whether the results will convert tired-light diehards. “I don't think it's possible to convince people who are holding on to tired light,” says Ned Wright, an astrophysicist at the University of California, Los Angeles. “I would say it is more a problem for a psychological journal than for Science.”

O amigo de Wigner

     
Figura 1. Fonte "Do we really understand quantum mechanics?", F. Laloë. Cambridge Press, 2019.

3    Em 1967 [1], Eugene Wigner apresentou uma questão que hoje denominamos o amigo de Wigner, em uma  disc6ussão sobre o chamado colapso da função de onda . baseado na seguinte reflexão 

Quando o domínio da física foi   para abran57ger fenômenw seos microscópicos, através da criação da mecânica quântica, o conceito de consciência voltou à tona: não era possível formular as leis da mecânica quântica de uma forma totalmente consistente sem referência à consciência." [2]r4

    No texto de 1967, Wigner considerwa um experimento mental semelhante ao do Gato Schrodinger, mas introduzindo uma pessoa no laboratório, moniitorando o experimento "Qual seria a função de onda se meu amigo olhasse para o local onde o flash poderia aparecer no tempo t?" e após uma discussão sobre o processo, conclui " Segue-se que a descrição quântica dos objetos é influenciada pelas impressões que entram na minha consci8ência." [3] 

    A situação apresentada por Wigner é basicamente a seguinte: em um laboratório existe um experimento que produz um flash , e um observador (o amigo de Wigner)  que está monitorando a situação.  O experimento sendo por exemplo um material radioativo que ao decair, aciona um sinal em uma tela, produzindo um flash de luz na tela.  Nesta situação, o amigo de Wigner ao olhar a tela, pode observar ou não um flash de luz. Se observar o flash, saberá que o material radioativo decaiu, se não observar o flash, saberá que o material não decaiu. Isto basicamente é o que realizamos em um laboratório, de forma que não temos nenhum problema.

    No entanto, vamos imaginar agora que o sistema (LA)  Laboratorio + Amigo de Wigner, está sendo observado por alguém de fora , o Wigner.  Neste caso,  o sistema  LA pela mecânica quântica, será descrito por Wigner ( que está  fora do laboratório) após um certo tempo t de maneira semelhante ao do Gato de Schroedinger, isto é como

"atomo não decaiu, não produz flash, amigo não observa o flash" +  "átomo  decaiu, produz flash, amigo observa o flash" 

que é um estado de superposição análogo ao do gato-vivo , gato-morto do experimento mental do Gato de Schroedinger.

    Para o observada7or externo (Wigner), até o momento de abrir de realizar a medida  o estado de superposição é a descrição correta de acordo com a mecânica quântica. Neste caso  realizar a medida seria abrir o laboratório e perguntar ao amigo o resultado que ele obteve. E somente após abrir o laboratório, o resultado será  um dos estados, por exemplo "o amigo viu o flash" , deixando de existir a superposição, isto é, ocorreu o colapso da função de onda. 

2
    Mas se após o final do experimento, Wigner  perguntar  ao amigor "o que você sentiu (a respeito do flash)  ANTES de eu abrir o laboratorio?" a resposta será naturalmente " eu vi (ou não vi) o flash". Isto é, de acordo com o raciocínio de Wigner, implicaria que mesmo antes de ele  (Wigner) "abrir a caixa" a função de onda já teria sofrido o colapso. E compara com a situação na qual se ao invés do amigo, tivéssemos um aparato físico, "como um átomo que pode ou não ser excitado pelo flash de luz" ([1] página 256), não teríamos problemas em assumir que o estado seria descrito por um estado de superposição antes de abrir a caixa (fazer a medida).   Mas a existência de um observador dentro do laboratório,  que segundo a mecânica quântica  implicaria que o amigo estaria "em um estado de animação suspensa" ( segundo E. Wigner   pagina 256 de [1], (...) it implies that may friend was in a state of suspended animation )  seria um absurdo.  Para o amigo, o colapso da função de onda deve ocorrer antes de Wigner abrir o laboratório! 

    Em relação para a questão da consciência citada no início, Wigner argumenta que  "(...)  o ser com consciência deve ter um papel diferente na mecânica quântica do que o dispositivo de medição inanimado: o átomo considerado acima."  e que   "(...)  diferença nos papéis de instrumentos de observação  e observadores com consciência  (...)  é inteiramente convincente, desde que se aceitem os princípios da mecânica quântica ortodoxa em todas as suas consequências" (página 256 e 257 de  [1]).

    Até o momento não existe nenhum experimento que comprove ou não a situação do "amigo de Wigner". Existem  alguns experimentos inspirados na situação, mas  em nenhuma delas o "amigo de Wigner" é um ser consciente.

    A situação conhecido como "o amigo de Wigner" é um exemplo do que ocorre quando levamos ao limite a aplicação da chamada interpretação ortodoxa da mecânica quântica, na qual a função evolui linearmente e de forma determinística  mas quando realizamos uma medida, a evolução deixa de ser  linear, causando o que é denominado colapso da função de onda. 


    Sobre a questão do colapso da função de onda, e a questão de medidas, John Bell [4] questiona se 

"O que exatamente qualifica alguns sistemas físicas para desempenhar o papel de "medidor"? A função de onda do universo estava esperando para saltar por milhares de milhões de anos até que uma criatura viva unicelular aparecesse? Ou  ela teve que esperar um pouco mais, por algum sistema mais qualificado ... com um PhD? Se a teoria for aplicada a  qualquer coisa além de operações de laboratório altamente idealizadas, não somos  obrigados a admitir que processos mais ou menos 'semelhantes a medições' estão acontecendo mais ou menos o tempo todo, mais ou menos em todos os lugares? Não temos saltos o tempo todo?"

    Em teorias como a de Broglie Bohm, ou de muitos mundos de Everett não existem contradições com a situação imaginada por Wigner. Assim, talvez seja um indício de que a mecânica quântica necessita ser modificada em seus aspectos fundamentais. Aqui deixamos claro que a mecânica quântica tem sido testada nas mais diversas situações, e até o momento não existem contradições entre as previsões teóricas e os resultados experimentais. Isto implica que uma futura modificação ( se existir) deve ocorrer para situações limites que ainda não temos condições de realizar experimentos precisos. 



    
Notas


[1] Eugene Wigner, 1995 , "Remarks on the Mind-Body Question", in The Collected  works of Eugene Paul Wigner, parte B, Philosophical Reflections and Syntheses", Springer. Eugene Wigner rececebeu o Nobel de Física em 1963, dividindo com Maria Goeppert Mayer e J, Hans D. Jensen.  

[2] Trecho retirado de  [1], página 248,  "When the province of physical theory was extended to encompass microscopic phenomena, through the creation of  quantum mechanics, the concept of consciousness came to the fore again: it was not possible to formulate the laws of quantum mechanics  in a fully consistent way without reference to the  consciousness."

[3] O trecho completo, retirado de [1], página 252, "It is natural to inquire about the situation if one does not make the  observation oneself but lets someone else carry it out. What is the wave  function if my friend looked at the place where the flash might show  at time t? The answer is that the information available about the object  cannot be described by a wave function. One could attribute a wave  function to the joint system: friend plus object, and this joint system  would have a wave function also after the interaction, that is, after my  friend has looked. I can then enter into interaction with this joint system by asking my friend whether he saw a flash. If his answer gives me the impression that he did, the joint wave function of friend + object  will change into one in which they even have separate wave functions (the total wave function is a ) and the wave function of the object is $f_1$. If he says no, the wave3w fu er enction of the object is $ f_2$ i.e., the object behaves from then on asa et2 if I had observed it and had seen no flash. However, even in this case, in which the observation was carried out by someone else, the typical change in the wave function occurred only when some information (the yes or no of my friend) entered my consciousness. It follows that the qu/antum description of objects is  influenced by impressions entering my consciousness."





[4] John Bell, Against Measurement37s , Physics World, Volume 3, Number 8 Citation John Bell 1990 Phys. 4a 3 (8) 33.

outubro 04, 2024

Violação da Terceira Lei de Newton ?

A  Terceira Lei de Newton, mais conhecida lei de ação e reação, é considerada extremamente importante na física. Movimento de foguetes, e o nosso caminhar são exemplos da aplicação da Terceira Lei de Newton. Violar a Terceira Lei de Newton, implica em violar a lei da conservação do momento linear, o que torna a sua violação um problema sério. 
No entanto, existem situações nas quais a Terceira Lei parece ser violada.  Como isto pode ocorrer? Teríamos que mudar as leis da física? A resposta é não, o que é necessário é entender o problema físico e verificar a aplicação correta da Terceira Lei.

Um exemplo interessante é o caso de duas cargas elétricas   em movimento, neste caso considerando as forças que atuam em cada partícula, aparentemente temos uma violação da Terceira Lei de Newton, pois as forças não estão na mesma direção! No entanto, quando consideramos o campo eletromagnético, e não apenas as cargas,  podemos verificar que não ocorre a violação da Terceira Lei de Newton [1] . 


Existem outras situações além do caso acima envolvendo dois ou mais corpos e sem a presença de um campo eletromagnético, nas quais aparentemente ocorrem a violação da Terceira Lei de Newton. São situação conhecidas como ações não-reciprocas, e surgem principalmente quando o meio que existe entre as partículas não estão em equilíbrio [2].   Mas é importante ressaltar que se considerarmos o sistema partículas-ambiente, não ocorre a violação da Terceira de Lei de Newton, de forma que a violação é aparente. 

Algumas situações de ações não-reciprocas estão em situação com meios que apresentam elasticidade anômala (odd elasticity). Um sistema elástico não anômalo armazena energia de forma reversível. Um exemplo é o sistema de massa-mola, na ausência de forças dissipativas. Assim, sistemas elásticos anômalos ocorrem quando existem forças não conservativas [3]. 

Recentemente um grupo de pesquisadores ampliaram o  conceito de elasticidade anômala nos denominados micronadadores (microswimmer) , apresentando o que denominaram de  elastohidrodinâmica anômala [4] , e estudaram a dinâmica de uma alga (Chlamydomonas) e do esperma humano. Ambos utilizam seus flagelos para se locomover em seu meio e o resultado do estudo, indicam que o movimento é mais rápido do que o esperado, violando a terceira Lei de Newton. Devido a elasticidade anômala, o movimento dos flagelos dissipa menos energia para o meio, o que permitiria o deslocamento mais rápido do que o esperado.

Do ponto de vista da física, estas situações  devem ser entendidas como resultado da opção de utilizarmos uma construção fenomenológica ou uma teoria efetiva, e não necessariamente devido a uma violação real da Terceira Lei de Newton. E para terminar vale a pena citar  o seguinte trecho do  artigo  indicado na nota [2],

(...) a simetria ação-reação para partículas pode ser quebrada quando sua interação é mediada por algum ambiente de não equilíbrio: tal quebra de simetria ocorre, por exemplo, quando o ambiente se move em relação às partículas, ou quando um sistema de partículas é composto de espécies diferentes e sua interação com o ambiente está fora de equilíbrio. (Claro, a terceira lei de Newton vale  para o sistema completo “partículas-mais-ambiente”.) [5]


Notas

[1] Isto porque o campo eletromagnético possui momento linear e angular, o que garante a validade da Terceira Lei de Newton ( e também evita a noção de ação a distância). Ver por exemplo o artigo  
Newton's Third Law and Electrodynamics , de J.M. Keller , Am. J. Phys. 10, 302–307 (1942).


[2]Apesar da situação de não reciprocidade descrever sistemas fora de equilíbrio, para sistemas de muitos corpos, no artigo Statistical Mechanics where Newton’s Third Law is Broken , os autores propõe utilizar um pseudo-hamiltoniano, o que permite utilizar uma descrição de mecânica estatísitca de sistemas em equilíbrio.


[3] Aqui é importante ressaltar que isto NÃO implica que a conservação da energia é violada. Ver por exemplo o artigo Odd Viscosity and Odd Elasticity Annu. Rev. Condens. Matter Phys. 2023. 14:471–510 " Hence, materials exhibiting odd elasticity are typically active or driven, in the sense that
they must contain or have access to energy sources. Elasticity can also be used to model systems
in which the stress σ is not physically a current of linear momentum, and 1W el is therefore not
an energy. In these cases, odd elastic moduli can arise without activity". O artigo (pre-print)  pode ser acessado livremente no repositório do Arxiv.


[4] No original os autores no artigo (acesso livre)   Odd Elastohydrodynamics: Non-Reciprocal Living Material in a Viscous Fluid , apresentam This theory, which we call odd  elastohydrodynamics, therefore provides a unified framework  for the study of nonlocal, non-reciprocal interactions of an elastic material in a viscous fluid.

[5] O trecho completo do artigo é 
However, the action-reaction symmetry for particles can be  broken when their interaction is mediated by some non-equilibrium environment: Such symmetry breaking occurs, for instance, when the environment moves with respect to  the particles, or when a system of particles is composed of different species and their interaction with the environment  is out of equilibrium. (Of course, Newton’s third law holds  for the complete “particles-plus-environment” system.)

setembro 17, 2024

Lentes Gravitacionais

     

Fonte 1: Registro do efeito das Lentes Gravitacionais, os arcos de luz são imagens distorcidas de galáxias distantes. Fonte: NASA 

    A chamada Lente Gravitacional tem origem no fenômeno da deflexão da luz [1] devido ao campo gravitacional de um corpo (a lente) com massa M. Esta deflexão da luz foi inicialmente prevista com a utilização da Gravitação Newtoniana, e foi calculado pela primeira vez por J. Soldner em 1801.  Isto pode ser uma surpresa para algumas pessoas, pois é comum associar este fenômeno com a Teoria da Relatividade Geral desenvolvida por Albert Einstein em 1917. A primeira observação da deflexão da luz pelo Sol foi realizada durante um eclipse solar em Sobral, no interior do Ceará em 1919, e as observações  confirmaram a existência da deflexão da luz pelo Sol e com um valor compatível com a previsão da Relatividade Geral, descartando o valor obtido com a utilização da Gravitação Newtoniana [2]. 

    Utilizando o efeito da deflexão da luz é possível demonstrar que um objeto massivo funcione como uma lente gravitacional [3]. Isto ocorre porque a presença de um corpo massivo curva o espaço tempo ao seu redor,  de forma que  o caminho que a luz percorre sofre um desvio da linha reta, que seria esperado na ausência da massa. Na figura 2 apresentamos uma representação esquemática de uma Lente Gravitacional, sendo a fonte e a lente pontuais (figura não está em escala).


Figura 2. Representação esquemática de uma lente gravitacional. Fonte Wikipedia

    Uma lente gravitacional pode ser resultado da ação de qualquer objeto com massa, e o ângulo de deflexão ( o ângulo $ \alpha $ na figura 2) aumenta com a massa ($ \alpha  \propto \sqrt{M} $) . E quanto mais próximo do objeto ( a distância b na figura 2), maior o ângulo de deflexão. E a massa não precisa ser pontual, permitindo  que galáxias e seus aglomerados possam atuar como uma lente gravitacional. As imagens formadas dependem da posição (incluindo as distâncias)  da fonte, da distribuição de massa do objeto que atua como uma Lente Gravitacional,  Na figura 3, apresentamos no lado esquerdo uma imagem em forma de anel quase completo (compare com a figura 1) e do lado direito quatro imagem de um mesmo objeto, formando uma cruz.


Figura 3. No lado esquerdo o Anel de Einstein e no lado direito a Cruz de Einstein, que são dois tipos de imagens que podem ser produzidas por lentes gravitacionais. Fonte ESO
    
      

    Este efeito não depende do comprimento de onda, de forma que uma lente gravitacional é acromática, que é diferente do caso de uma lente comum (digamos de vidro) na qual o ângulo de deflexão depende do comprimento de onda. Isto ocorre porque no caso do vidro (figura 4), o meio que é responsável pela deflexão é dispersivo, isto é o índice de refração (consequentemente o ângulo de deflexão) vai depender do comprimento de onda, logo as diferentes cores sofrem desvios diferentes. Mas no caso da lente gravitacional é a curvatura do espaço-tempo que causa a deflexão, e isto não depende do comprimento de onda da luz, que torna o processo acromático [4]. 


   

Figura 4. Aberração cromática em uma lente. Fonte By DrBob at the English-language Wikipedia, CC BY SA3.0, wikipedia 

    Devido ao fato da deflexão da luz não depender do seu comprimento de onda, podemos utilizar o espectro obtido para determinar a distância da fonte até o observador, usando a relação entre o chamado redshift cosmológico e a distância. As imagens produzidas por lentes gravitacionais nos permitem estudar a distribuição de massa (incluindo a matéria escura)  de objetos que atuam como uma Lente Gravitacional, detectar objetos que possuem baixa luminosidade. pois as Lentes Gravitacionais amplificam a luminosidade).  

    Efeitos de Lente Gravitacional com estrelas em nossa Galáxia dificilmente podem ser observadas - em particular nosso Sol não produz efeito de Lente Gravitacional que seja possível de ser detectado na Terra, de forma que o que podemos observar são os efeitos de Lente Gravitacional de objetos fora de nossa Galáxia. Este fato   nos permite utilizar estes efeitos também como uma ferramenta de estudo em Cosmologia; Os efeitos de múltiplas Lentes Gravitacionais, flutuações  no brilho de objetos distantes , observações  de galáxias de baixa luminosidade, distribuição de matéria escura, e outros estudos podem ser realizados com a utilização da Lentes Gravitacionais [5] e estes resultados são excelentes testes observacionais na área de Cosmologia. 

    Sendo acromática,  implica que no estudo de lentes gravitacionais ( excluindo o efeito do meio na qual a luz está propagando) podemos sempre utilizar a ótica geométrica? Isto é, desconsiderar as propriedades ondulatórias da luz? A rigor não podemos. Consideremos dois feixes de luz emitidos de regiões muito próximas da fonte. Este feixe sofre a ação de uma lente gravitacional, sendo posteriormente detectada. Dependendo da situação, estes dois feixes são coerentes, de forma que ao serem observados, a princípio é esperado a presença de difração, que é um efeito devido a característica ondulatória da luz. No entanto as condições necessárias para que estes efeitos  sejam observados são muito restritivos, de forma que na prática a aproximação de ótica geométrica no estudo de lentes gravitacionais é perfeitamente adequada, pois com os equipamentos  existentes estes efeitos difrativos não são atualmente possíveis de serem detectados.  



    

Notas

[1] A deflexão ocorre para todos os comprimentos de  onda, mas é comum utilizar o termo luz no sentido mais genérico de ondas eletromagnéticas, e neste texto vamos seguir este padrão. 

[2] Em relação ao valor previsto pela Gravitação Newtoniana é $  \alpha = 0,87  $ segundos de arco,  que é  a  metade do valor previsto pela Relatividade Geral.  Uma informação interessante é que Einstein em 1911 (portanto antes da elaboração da Relatividade Geral), apresentou uma estimativa para a delflexão da luz semelhante ao obtido com a Gravitação Newtoniana. Sobre a expedição em Sobral, ver  por exemplo   Do Eclipse Solar de 1919 ao Espetáculo das Lentes Gravitacionais  de JAS Lima e RC Santos. 

[3] No livro Gravitational Lenses (1992) , P Schneider, J. Ehlers, E.E. Falco,   os autores citam que a primeira utilização do termo "lente gravitacional" foi devido a O. Lodge em 1919, mas no sentido negativo, isto é de que não existiriam as lentes gravitacionais. Ressaltamos que não devemos simplesmente utilizar os conceitos de uma lente ótica para uma lente gravitacional, uma diferença importante sendo que na lente gravitacional, não existe um ponto focal, que é um dos argumentos utilizado por Lodge "it is not permissible to say that the solar gravitational field acts like a lens, for it has no focal lenght" (o artigo pode ser acessado aqui ). Na Lente Gravitacional ao invés de um ponto focal, possuímos uma linha focal.  


[4]  Isto implica que eventuais efeitos dispersivos que venham a ocorrer estão relacionados com o meio pela qual a luz percorre até atingir o observador, não sendo devido ao fenômeno da Lente Gravitacional.  No caso de fontes extensas como as galáxias, as diferentes regiões podem possuir espectros de emissão distintos, e devido ao fato de ser extenso, estas diferentes partes sofrem desvios distintos pela Lente Gravitacional, mas esta diferença é devido a diferença nos ângulos de incidência ( por exemplo os ângulo $ \theta $ na figura 2) e não devido ao comprimento de onda da radiação.


[5] Para um texto não técnico, ver por exemplo  Gravitational lensing: a unique probe of dark matter and dark energy , que é um texto não técnico de RS. Ellis, publicado em 2010..  

julho 31, 2024

O artigo de Werner Heisenberg de 1925

    Nos cursos de física, seja na licenciatura ou no bacharelado a mecânica quântica é normalmente abordada através da equação de Schroedinger, e dificilmente a abordagem de Heisenberg é apresentada. Mas o artigo de Heisenberg é a que marca o surgimento da atual mecânica quântica  pois foi  publicado  em 1925 e o artigo de Schroedinger um ano depois, em 1926.  Nas disciplinas da graduação no máximo é  apresentado algum comentário  de que Heisenberg utilizou uma abordagem de matricial, possivelmente Heisenberg é muito mais associado ao Princípio de Incerteza do que propriamente ao desenvolvimento de mecânica quântica. Qual seria a razão da preferência pela abordagem de Schroedinger?

     Hoje sabemos que as duas abordagens , a de Heisenberg e de Schoedinger são equivalentes. Esta equivalência foi inicialmente demonstrada por Shcroedinger e posteriormente por Von Neumann. 

    O interessante é que Heisenberg, apesar de ter seu nome associado a uma abordagem matricial da mecânica quântica, não sabia que estava trabalhando  com matrizes, pois na época não fazia parte da formação de um físico. Foi Max Born e Pascual Jordan que posteriormente demonstraram  que Heinseberg utilizou  matrizes em seu  artigo.

    Apesar de ser um artigo difícil para ser entendido por alunos de graduação em física e talvez mesmo para estudantes de pós-graduação em física , ler pelo menos algumas   partes do artigo é bastante instrutivo. No artigo "Understanding Heisenberg’s “magical” paper of July 1925: A new look at the calculational details"  (o artigo pode se acessado livremente aqui ) os autores comentam que os físicos teóricos em seus trabalhos mais influentes podem ser separados em dois grupos: os sábios e os mágicos. Os artigos sábios não são difíceis de se entender, e a dos mágicos difíceis de se entender. O artigo de Heisenberg seria " mágica pura". 

    Logo no início do artigo Heisenberg escreve [1]

    "É bem conhecido que as regras formais que são utilizadas na teoria quântica para calcular quantidades observáveis tais como a energia do átomo de hidrogênio  (...) contém como elementos básicos, relações entre quantidades que aparentemente não são a princípio observáveis, por exemplo, a posição e o período de revolução do elétron" e mais adiante  afirma que seria razoável "tentar estabelecer uma mecânica quântica teórica, análoga à mecânica clássica, mas na qual apenas  as relações entre quantidades observáveis ​​ocorrem.’’  Lembrando que em 1925, o modelo teórico utilizado para descrever o átomo era o de Bohr, que misturava um modelo de órbitas clássicas do modelo de Rhuterford com uma imposição de existência de órbitas estacionárias com a sua regra de quantização do momento angular.

Desta forma, Heisenberg apresenta a sua versão da mecânica quântica considerando certas relações que já se conhecia a respeito da frequência de emissão de sistemas atômicos. Outro guia importante seguido por Heisenberg foi o Princípio da Correspondência de Niels Bohr. Este princípio estabelece que para números quânticos grandes a mecânica quântica deve resultar na física clássica.

Heisenberg analisou um sistema em uma dimensão,  considerando uma equação genérica de movimento

$$\ddot x + f(x)= 0$$

 No entanto, como considera que a posição não é uma grandeza observável, reinterpreta a equação de posição de uma maneira " mágica", relacionando com a amplitude de emissão de radiação em uma dada transição ( lembrando que o Modelo.de Bohr já era conhecido).  No artigo Heisenberg escreve que classicamente  temos $$x(t) y(t) = y(t) x(t)$$ mas a mesma relação não seria válida na teoria quântica  lembrando que $$x(t), y(t)$$ não são posições na construção de Heisenberg, mas representam alguma grandeza física. E foi  nesta construção que Heisenberg obtém uma relação que mais tarde Born e Jordan associaria com matrizes. 

As o final do artigo Heisenberg comenta que somente investigações mais detalhadas  poderá decidir se o método apresentado superficialmente no artigo é satisfatório para a construção de uma  mecânica quântica teórica correta. O tempo mostraria que a proposta de Heisenberg estava correta. 

Mas como a abordagem de Schroedinger demostrou ser mas compreensível para os físicos ( seja pela abordagem, que utilizou técnicas mais familiares para os físicos, seja pela escrita menos "mágica"), não se tornou a principal abordagem da mecânica quântica, e sua maior facilidade também tornou a abordagem de Schroedinger mais adequada para o ensino. No entanto, com o advento da computação quântica a abordagem matricial pode se tornar a mais adequada, pois trabalhar com sistemas de dois estados com matrizes é muito mais simples do que a solução da equação de Schroedinger e quem sabe, a abordagem de Heisenberg se torne mais adequada para um curso inicial e portanto mais conhecida.


[1] Uma versão em.ingles do artigo de Heisenberg pode ser acessado neste link.Ou no livro Sources of Quantum Mechanics .

 





    



    

julho 22, 2024

Terapia Quântica Não Funciona

 Uma simples conta parac mostrar que a Terapia Quântica não funciona. 

Um dos grandes avanços da física é sem dúvida o desenvolvimento da física , que tem seu início com o trabalho de Max Planck em 1900. O seu impacto em nossa sociedade  muito além da física com aplicações nas mais diversas áreas desde a engenharia até a filosofia.



Esta presença em diversos setores na nossa sociedade, traz também algumas aplicações no mínimo duvidosas. Uma delas 4 as das chamadas terapias quântica.

É importante ressaltar que não existem experimentos ou observações que a justifiquem. Os defensores das terapias quânticas argumentam  que existem evidências ( que não existem) ou que as evidências são poucas  devido a estarem além dos limites dos experimentos ( o que não é verdade) ou que ainda não foram realizados os experimentos corretos ( mas não indicam quais seriam os experimentos corretos).
 
Mas existindo ou não os experimentos podemos utilizar como nosso suporte a construção teórica da física quântica, utilizando como nosso guia para indicar o que pode ser observado  para validar ou não a terapia quântica. Sem entrar em detalhes da física quântica, vamos considerar inicialmente o termo vibração ou frequência de vibração que é utilizado nas chamadas terapias quântica, e partindo da hipótese defendida pelos terapeutas quânticos de que física quântica justifica esta construção, vamos verificar se isto é razoável. Ou seja,  vamos utilizar o que a física quântica nos fornece para analisar o que é defendido pelas terapias quânticas é razoável ou não.

Nestas terapias é comum associar ao corpo humano uma frequência na faixa de algumas dezenas de hertz a algumas centenas de hertz, e que as energias associadas a estas vibrações são importantes indicadores da saúde de uma pessoa, de forma que as trocas de energias devido a estas vibrações seriam importantes para a saúde humana.

Já deixando claro que associar uma frequência natural de vibração ao corpo humano, não tem nenhum sentido. Mas vamos assumir que tenha algum sentido, para podermos realizar algumas comparações. Como nos textos sobre Terapias Quânticas nada é dito de forma explícita, precisamos fazer algumas considerações para podermos realizar as nossas comparações.

Quando relacionam a frequência com a energia, possivelmente estão fazendo referência para a seguinte equação

E=hf

da física quântica que relaciona a energia com a a frequência, sendo h a constante de Planck , f a frequência e E a energia. A constante de Planck é cerca de 6,62 x 10⁻³⁴ J.s, sendo J.s=joules por segundo, lembrando que a frequência (hertz) tem como unidade o inverso do segundo (s⁻¹). Substituindo as frequências associadas ao corpo humano , digamos de 100 Hz, obtemos para a energia o valor de

E= 6,62 x 10⁻³² J

De acordo com os pressupostos das terapias quânticas, esta seria a energia que as nossas "vibrações" transportam e esta troca de energia teria forte influência em nossa saúde. Para quem não estuda física, talvez não fique claro o significado desta energia. Assim, vamos comparar com alguma grandeza de energia que é mais próxima de uso cotidiano.

Podemos comparar esta energia com a energia com a quantidade de energia que é considerada ideal para ser ingerida na forma de alimentos, que é em torno de 2000 kcal ou cerca de 8,36 x 10⁶ J
Esta energia (o consumo ideal de energia diária) é cerca de 10³⁸ vezes (38 zeros após o número 1 ou de forma explícita 100000000000000000000000000000000000000 ) vezes maior que a "energia de vibração" de nosso corpo. O que isto significa? Que o valor da chamada "energia de vibração do nosso corpo" é muito menor que a energia necessária para mantermos nosso corpo  funcionando.

Ainda como comparação se ingerirmos um grama de arroz, a sua influência será ainda MUITO MAIOR que a suposta influência da energia de vibração do nosso corpo! Um grama de arroz tem cerca de 10⁴ J ou 10000 J de energia, isto é 10³⁵ vezes maior que a "energia de vibração" do nosso corpo. 

Então do ponto de vista das energia envolvidas, a suposta "energia de vibração" do nosso corpo é completamente desprezível. Comer um grão de arroz (que tem uma massa de cerca de 20 mg ) tem muito mais influência na variação de energia do nosso corpo do que a suposta energia de vibração.
Então as afirmações de que a Terapia Quântica é justificada pela física quântica, não são corretas.
Na verdade a física quântica mostra que a Terapia Quântica não funciona.









julho 18, 2024

Raio N

    Na história da ciência, geralmente, não contamos os caminhos que deram errados, e isto muitas vezes passa a impressão que o avanço é linear, com progressos e mais progressos. Mas isto está bem longe do que ocorre nas ciências.  Uma história  interessante e instrutiva é a descoberta do Raio N.O que é o Raio N? Nunca ouviu falar? Não é surpresa, pois ela não existe. Mas no início do século XX, quando foi anunciada a sua descoberta, foi um grande alvoroço! Para entender um pouco da situação, vamos relembrar o panorama do período, em especial na física.

    Em 1895, Roentgen anunciava a descoberta do raio-X , e nos próximos anos, trabalhos de Becquerel, dos Curie tornava o estudo da radioatividade uma área de intensas pesquisas. Foram descobertos, os raio gama, alfa, beta e uma série de elementos radioativos. Dentro deste cenário de descobertas de novos tipos de radiação, em 1903 um físico francês, reconhecido e respeitado, anuncia a descoberta de um novo tipo de radiação, o Raio N. A letra N é uma homenagem à cidade de Nancy, onde  René  Blondlot, o descobridor do raio N trabalhava. Blondlot não era um físico qualquer. Era respeitado e experiente, e extremamente cuidadoso. As descrições dos seus experimentos para a detecção do Raio N, mostram uma legítima preocupação em determinar as características desta nova radiação.

    Logo após o anúncio da sua descoberta, outros pesquisadores repetiram os experimentos, e conseguiram detectar o raio N. E o mais interessante, foram relatados emissão de raio N por diversos objetos, incluindo o Sol e mesmo por pessoas, que continuavam a emitir mesmo mortos.  O número de publicações sobre o assunto, em um período de um ano e meio após o anúncio da descoberta, aumentou de forma explosiva. Blondlot em 1904 recebeu um prêmio da Academia de Ciências da França pelos seus trabalhos com o raio N. O assunto era um sucesso!

    Mas, outros pesquisadores não conseguiram detectar o raio N. Pesquisadores como  Kelvin, Otto Lummer, William Crookes não conseguiram reproduzir os resultados. A alegação de Blondlot, era que como o efeito era muito sensível, era necessário uma acuidade visual muito boa.

    Em 1904 o físico americano Robert Wood, que também não conseguia  detectar os raios N,  resolveu visitar o laboratório de Blondlot na França, para tentar entender o que era necessário para reproduzir os resultados. Isto mostra como Blondlot era bem considerado. Na França, Blondlot realizou os experimentos na presença de Wood. Para a decepção de Wood, apesar de Blondlot e seu assistente alegarem que estavam observando o fenômeno, para Wood isto não era claro.

    Neste experimento o raio N , de acordo com Blondlot, atravessava um prisma de alumínio e produz um espectro, como no caso da luz ao atravessar um prisma. Este espectro, causaria um aumento no brilho em alguns pontos em uma tela fosforescente, que Blondlot mostrava para Wood, que não conseguia ver nenhum efeito! Ele resolveu fazer uma modificação no experimento, sem que Blondlot e seu assistente percebessem. O laboratório era bem escuro, assim com  cuidado, retirou o prisma do aparelho e pediu  que o experimento fosse novamente realizado. Para a surpresa de Wood  Blondlot e seu assistente continuavam a detectar a cintilação, mesmo sem a presença do prisma! Isto foi suficiente para Wood, ter a certeza de que o efeito não era real.  Wood enviou uma carta para a revista Nature, relatando a sua visita, e a não observação do fenômeno.

    Após a publicação da carta de Wood na Nature, os relatos de detecção do raio N simplesmente deixaram de existir.

    É importante deixar claro que Blondlot não era uma fraude. Mas este caso mostra que mesmo pesquisadores cuidadosos, podem cometer erros de interpretação dos resultados. E a importância da realização de experimentos por grupos independentes, para a verificação dos resultados.

Referências

APS, September 1904: Robert Wood debunks N-rays, 
https://www.aps.org/archives/publications/apsnews/200708/history.cfm

YAMASHITA, M . A lição do caso dos "raios N", Revista Questão de Ciências,  https://revistaquestaodeciencia.com.br/artigo/2023/05/22/licao-do-caso-dos-raios-n

MARTINS, Roberto de Andrade. Os "raios N" de René Blondlot: uma anomalia na história da física. Rio de Janeiro: Booklink; São Paulo, FAPESP; Campinas, GHTC, 2007. (Scientiarum Historia et Theoria, vol. 3)

julho 07, 2024

Princípio da Incerteza


    O  princípio da incerteza, é um  princípio fundamental da  moderna física quântica, tendo sido apresentado pela primeira vez por Werner Heisenberg em um artigo  1927 [1],   considerando o que ocorreria ao utilizar um microscópio hipotético utilizando raio gamma para observar um elétron. Sendo o raio gama uma radiação com  menor comprimento de onda do que a da luz, este hipotético  microscópio permitiria determinar com uma precisão  $\delta x $ muito menor a posição do elétron do que seria possível com um microscopio ótico. Utilizando o conceito de fóton, a radiação gamma  ao interagir com o elétron, causa um desvio no mesmo ( este efeito já havia sido estudado mas com raio x por  Arthur Compton) resultando em uma imprecisão no momento linear $\delta p $ devido a imprecisão inicial na posição  do elétron. No artigo Heisenberg demostra que estas imprecisões, utilizando a mecânica quântica resultam na desigualdade [2]

$$\delta x \delta p  \ge \hbar/2 .$$

E destaca que [1]

Assim, quanto maior a precisão na determinação da posição, menor será a precisão na determinação do momento.

Ou dito de forma mais usual, a medida da posição tem como consequência uma perturbação imprevisível e não controlável na medida do momento linear. Da forma apresentada por Heisenberg, temos uma relação entre pertubações devido a realização de medidas no sistema.

Esta é a maneira que o Princípio da Incerteza é apresentado em alguns livros textos muito utilizados  no Brasil, principalmente nas disciplinas iniciais. Por exemplo, a figura 1 é do livro de Física Quântica, de R. Eisberg e R. Resnick, que ilustra exatamente  a abordagem de Heisenberg.

Figura 1. Uma representação da incerteza segundo Heisenberg (Fonte: Fisica Quântica, Eisberg/Resnick)


    No entanto, a equação do Princípio da Incerteza é apresentado nos livros, utilizando uma versão desenvolvida por E.H. Kenard em 1927, generalizando o resultado de Heisenberg,

$$\Delta x \Delta p \ge \hbar/2 $$

Mas qual a diferença entre as duas? Seriam apenas de notação?  Existe uma diferença importante a primeira (a de Heisenberg) expressa as precisão das medidas (uma limitação nas medidas) e a segunda  expressa  o desvio padrão (decorrente das limitações na preparação do estado utilizado nas medidas) [3].  É possível obter a primeira equação a partir da segunda, mas a inversa não é possível.  A equação obtida por Kenard é rigorosamente alicerçada no formalismo da mecânica quântica, a de Heisenberg não é deduzida a partir do formalismo da mecânica quântica. A figura 2, retirado de [3], ilustra a diferença ente o desvio padrão (neste texto $ \Delta q $ é representado por $ \Delta x $) e incerteza na medida. O que denominamos Princípio da Incerteza , é a segunda equação , e não  a primeira. 


Figura 2. Diferença entre o desvio padrão e incerteza na medida. Fonte [3].

    Uma questão que pode surgir é como podemos ter uma incerteza menor que o desvio padrão,   não teríamos problemas com a violação do Princípio da Incerteza? Ou a interpretação  de "incerteza de medida" como desenvolvido por Heisenberg não seria correta?

    Em relação a esta questão,  M. Ozawa [4] apresentou uma dedução    da relação original 

$$\delta x \delta p  \ge \hbar/2 $$

de Heisenberg, mas com um procedimento mais rigoroso, obtendo [5]

$$\delta x \delta p +\Delta x \delta p +\Delta p \delta x     \ge \hbar/2 $$

Uma consequência interessante desta relação é que passa a ser possível realizar medidas precisas na posição, que viola a desigualdade proposta por Heisenberg. E dois artigos  publicados em 2012 [6], utilizando técnicas diferentes,   mostraram a violação da Princípio da Incerteza proposto por Heisenberg,  mas satisfazendo a generalização  proposta por Ozawa.  Estes resultados demonstram que é possível reduzir as incertezas nas medidas SEM violar o Princípio da Incerteza.

Para evitar confusões, o que os experimentos demonstram é a violação da relação [7] , 

$$\delta x \delta p  \ge \hbar/2 $$ 

e não da relação 

$$\Delta x \Delta p  \ge \hbar/2 $$

de forma que o Princípio da Incerteza, que relaciona os desvios padrões continuam válidas. O que os experimentos e o artigo de Ozawa mostram  é que a proposta de que o Princípio da Incerteza limita as precisões das medidas como costuma ser apresentado em alguns livros textos, não é correta. Algo que precisa ser corrigido!

Notas e referências

[1] O artigo  de Heisenberg traduzido para o inglês, está reproduzido no livro Quantum Theory and Measurement, John Archibald Wheeler (Editor), Wojciech Hubert Zurek (Editor), Princeton University Press, 

[2] A equação no artigo de Heisenberg é deduzido considerando um pacote de onda gaussiana, mas aqui estamos considerando um estado genérico. No caso de pacote gaussiano, a incerteza é minima.

[3] Veja por exemplo o artigo de Ballentine, Statistical Intepretations of Quantum Mechanics ou a referência [4].

[4] Ver M. Ozawa,  Universally valid reformulation of the Heisenberg uncertainty principle on noise and disturbance  in measurement 

[5] No artigo de Ozawa, a dedução é realizada para um par arbitrário de operadores .

[6] Os artigos publicado no PRL Violation of Heisenberg’s Measurement-Disturbance Relationship by Weak Measurements ou com acesso livre aqui e o artigo publicado na Nature  Experimental demonstration of a universally valid error–disturbance uncertainty relation in spin measurements com acesso livre aqui .

[7] Lembrando que as medidas não envolveram posição e momento, mas a ideia é semelhante para os pares de grandezas utilizadas em cada caso. Se você conhece sobre operadores e comutadores, a fórmula geral do Princípio da Incerteza para é dado por

$$ \Delta \hat A \Delta \hat B \ge \frac{1}{2}| \langle  [\hat A, \hat B] \rangle | $$

para dois operadores arbitrários. Note que para operadores que comutam, o limite inferior é zero.

junho 25, 2024

Gravidade sem massa!

    Gravidade sem massa. Esta é uma chamada que encontramos em alguns sites. Mas será possível? O artigo que tem sido citado é The binding of cosmological structures by massless topological defects de R. Lieu, publicado na revista Monthly Notices of Royal Astronomical Society.    

    Antes de responder se é possível ou não, vamos lembrar que é possível ter massa e mesmo assim a força gravitacional em outro corpo ser zero. Isto ocorre quando temos uma casca esférica de massa M, e neste caso na região interna a força de atração gravitacional será zero em qualquer ponto dentro da região esférica. Isto decorre devido  simetria esférica e o fato da força variar com o inverso do quadrado da distância. Então se é possível ter campo gravitacional igual a zero mesmo com massa, será que possível ocorrer  o inverso, isto é , existência de campo gravitacional sem massa? A resposta é NÃO se a massa for sempre positiva. No entanto SE existir massa negativa, é possível um sistema ter massa total NULA.  Mas tendo massa total nula, a força não deveria ser nula? A resposta é: depende da situação. Um exemplo fora da gravitação é o caso de um sistema elétrico com carga total nula. Mesmo nestes casos, podemos ter campo elétrico não nulo, sendo o exemplo usual um sistema de dipolo elétrico. Notemos que apesar da carga TOTAL ser nula, as cargas elétricas existem. No caso das massas, mesmo a massa total sendo nula (devido a existência de massa positiva e massa negativa), as massas ainda existem.

    O que artigo de Lieu propõe é justamente a existência de massa negativa  com   uma distribuição específica,  de forma que quando combinado com a massa positiva,   o campo gravitacional é nulo [1]. Esta distribuição é na forma de cascas esféricas (as conchas) com espessuras infinitesimais, sendo que uma componente descreve uma região de  massa positiva e outra de massa negativa, e PODERIAM ser formados em processos que ocorreram no Universo primordial.  São denominados DEFEITOS TOPOLÓGICOS, que eram um dos candidatos para explicar a formação de galáxias, mas por não serem compatíveis com os dados observacionais, foram desconsiderados, mas aparentemente tem retornado para serem aplicados  em outras situações.

    Mas retornando a questão inicial, SE existir massa negativa, é possível ter campo gravitacional mesmo que a massa TOTAL seja nula.  No entanto não é correto afirmar que não existe massa, seria o mesmo que dizer que no caso de um dipolo elétrico não existem cargas elétricas. Então, dizer que o artigo propõe a existência de campo gravitacional mesmo sem a presença de massa, é uma meia verdade: as massas existem (massa positiva e negativa).  

    A motivação de Lieu para estudar a existências de massas negativas (ou dos defeitos topológicos) é estudar as relações entre as teorias gravitacionais e suas relações com a matéria escura [2], e dentro deste contexto, ele propõe a existências destas conchas formadas com uma combinação de massa positiva e massa negativa, e analisa algumas das suas consequências, em especial aplicando na dinâmica de galáxias e seus aglomerados. Se massas negativas existem ? Não existem indicações sobre a sua existência. No entanto, em ciências as diferentes hipóteses devem ser analisadas, pois mesmo as que não sejam realistas, podem nos fornecer alguns indícios  dos caminhos a serem seguidos ou evitados.

    

 Notas

[1] Para quem possui familiaridade com a delta de Dirac, esta parte do cálculo de Lieu é relativamente simples de ser seguido. Basicamente ele propõe uma combinação de uma componente descrita pela delta de Dirac com uma componente que é proporcional a derivada da delta de Dirac. Esta segunda  componente descrever a parte com massa negativa. A utilização da delta de Dirac impõe que a massa esteja distribuída em cascas esféricas. Estas cascas esféricas resultam em uma força de atração (na concha) que varia com o inverso do raio, o que resulta em curvas de rotação plana, que são observados nas galáxias e para a sua explicação, são utilizadas a existência da matéria escura.

 [2] A escolha entre a existência da matéria escura ou de massa negativa ou qualquer outra alternativa, deve naturalmente estar baseado em dados observacionais e uma robustez teórica. Observacionalmente  ainda não existem dados que permitam abandonar a existência da matéria escura, mas  apesar das observações cosmológicas favorecerem a existência da matéria escura, é uma componente que ainda não foi detectada diretamente, o que justifica a procura  por outras possibilidades.

junho 24, 2024

Luz com massa?

    A luz tem massa? Esta é uma dúvida de muitas pessoas quando escutam que a luz é desviada pela gravidade. Afinal, aprendemos que  "massa atrai massa" de acordo com a gravitação universal. Se não tem massa , como pode ocorrer a atração? E um artigo recente   tem sido divulgado em alguns sites como tendo determinado que a luz tem massa. Seria então esta a explicação correta? A luz tendo massa é atraída pelo campo gravitacional?

    Vamos começar pelo artigo citado, e uma leitura atenta mostra que o artigo não afirma que a luz tem massa, mas estabelece um LIMITE SUPERIOR para a sua massa e não o valor da massa. Notemos que se o experimento tivesse determinado um LIMITE INFERIOR para a massa, seria  um indício que a luz tem massa. Muitos outros experimentos também estabeleceram  estes limites superiores, o que o artigo recente traz é a utilização de dados  obtidos com observação de pulsares (um tipo de estrela) e utilizando uma formulação na qual desde o início é considerado que a luz tem massa (em geral se inicia com massa zero e são acrescentados termos de pertubação).  E aqui é importante ressaltar que medir qualquer grandeza com precisão absoluta não é possível, e quando a própria grandeza tem valor nulo, a situação é mais complicada.  Isto considerando apenas questões de medidas de dados observacionais /experimentais. Se considerarmos o Princípio da Incerteza, é possível mostrar que o limite superior máximo é da ordem de 10⁻⁶⁶ g (ver por exemplo The mass of the photon), de forma que experimentalmente não temos condições de determinar se a massa é zero ou não, sempre existirá uma incerteza no seu valor.  Estimativas para a massa da luz tem sido calculadas por diversos autores, por exemplo, Louis de Broglie em 1940  estimou um limite superior para a massa do fóton em 10⁻⁴⁴ g e Scroedinger em 1945 estimou o valor de 10⁻⁴⁷ g  (citado em Must the Photon Mass be Zero? de Bass e Schroedinger, 1955), de forma que o assunto é estudado faz muitos anos.

    É importante ressaltar que o  artigo NÃO obteve  um valor para a massa da luz, mas estabeleceu um limite superior para o seu valor , caso tenha massa. 

    Mas se a luz não tem massa, como explicar que a força da gravidade atue na luz? Uma explicação muito comum é utilizar a relação da chamada equivalência entre massa e energia, a famosa equação E=mc².  No entanto, uma explicação mais adequada, e talvez mais fundamental é outra. Isto porque mesmo sem a utilização da relação entre massa e energia, podemos determinar a existência de deflexão da luz ao passar perto de um corpo massivo. 

    Consideremos o caso de um objeto com massa m perto de um corpo com massa M, e utilizando as leis de Newton, temos que

        Notemos que a massa m aparece nos dois lados da equação. A princípio o m do lado esquerdo é a massa inercial e o m do lado direito é a massa gravitacional. O fato das massas inercial e gravitacional serem iguais, a aceleração de qualquer objeto é a mesma, independente da sua massa, isto é, a sua massa não importa. Isto implica que mesmo objetos sem massa, são sensíveis ao campo gravitacional. A diferença - no caso da gravitação  newtoniana - é que sendo a massa zero, ela não produz campo gravitacional. Utilizando a equação acima, podemos calcular o desvio da luz na presença de um corpo com massa M (para quem tiver curiosidade, no livro  Curso de Física de Berkeley Volume 1 Mecânica, este cálculo é realizado detalhadamente ). A igualdade entre a massa inercial e a massa gravitacional (ver por exemplo  o texto  Gravitação: gráviton e fóton no CREF) é conhecido como o Princípio Fraco da Equivalência.  Mas voltando ao desvio da luz, o cálculo utilizando a gravitação newtoniana, quando o objeto central é o Sol, nos fornece um valor que é a metade do valor previsto pela Relatividade Geral. Mas o mais importante é que o desvio da luz (independente do seu valor) ocorre devido a igualdade entre a massa inercial e a massa gravitacional, e não devido a equivalência entre a massa e energia. (No caso da Relatividade Geral, a fonte da curvatura do espaço-tempo é uma grandeza que descreve o conteúdo de energia e  massa, de forma que a curvatura pode ser gerada pela presença de uma massa ou de energia, mesmo sem massa).

    E se a luz tiver massa? Quais seriam as consequências? Se luz tiver massa a lei de Coulomb não seria mais "inverso do quadrado da distância" , a polarização da luz seria diferente, seria necessário incluir uma componente longitudinal para a onda eletromagnética e outras consequências (ver por exemplo  este artigo ).

    E a luz tendo massa, possivelmente necessitaremos de uma ou mais novas teorias, mas estas novas teorias necessariamente devem descrever as mesmas observações que são descritas pelas teorias atuais, podendo é claro, prever novas consequências ainda não observadas. Em todo caso, as diferenças entre esta possível nova teoria e as atuais, pelo menos dentro das situações experimentais e observacionais que conhecemos, deverão ser muito pequenas! E com quase toda certeza, para muitas situações continuaremos a utilizar as teorias que atualmente utilizamos Um exemplo é a utilização da mecânica newtoniana mesmo após o advento da teoria da relatividade e da mecânica quântica. O que sabemos hoje é os limites da sua aplicação, e por ser relativamente mais simples em muitas situações, optamos por utilizar a mecânica newtoniana. Possivelmente o mesmo deve ocorrer caso seja detectado uma massa para o fóton. Mas no momento, os indícios são que a sua massa é zero.

 

abril 22, 2024

Câmera Pinhole




    
    Atualmente, com a profusão dos celulares, uma câmera fotográfica é um instrumento bastante comum. Talvez para a maioria dos seus usuários, a câmera de um celular pode parecer bem diferente das câmeras fotográficas mais elaboradas. O que torna estes dois equipamentos similares, é o fato de que as duas registram imagens em um sensor. Mas a câmera de um celular, parece ser muito mais simples do que uma câmera profissional.

    No entanto uma câmera mais simples, consiste de uma cavidade escura com um único buraco na entrada, e no lado oposto ao buraco dentro da cavidade é colocado um aparato na qual é formado uma imagem (invertida). O aparato pode ser um filme, um sensor eletrônico ou uma simples folha translúcida.


    E esta simples câmara possui praticamente todos os elementos de uma câmera mais moderna, sendo que o buraco funciona como a lente. Para entender o funcionamento dela como lente, para uma explicação inicial basta utilizamos a ótica geométrica (que considera os raios de luz como propagando em linha reta, sem considerar o seu comportamento ondulatório).

    Mas como seria uma câmera pinhole? Bem a forma mais simples é pegar uma lata, fazer um furo e pintar a parte interna com tinta preta fosca. Para fazer um buraco pequeno, o melhor é fazer um furo com a ponta de uma agulha em um pedaço de lata de alumínio. (As instruções para construir uma câmera de pinhole, serão postadas em um outro texto, mas é possível encontrar diversos sítios da internet que ensinam como fazer uma destas câmeras, por exemplo em manual do mundo )

    Um objeto ao ser iluminado (por exemplo pelo Sol), reflete essa luz para todas as direções, e alguns destes feixes de luz acabam chegando até a câmera pinhole, entrando pelo pequeno buraco, até atingir o fundo da câmera aonde está o filme (vamos usar o termo filme, mas pode ser qualquer coisa onde a imagem é formada), formando uma imagem invertida do objeto. A próxima figura, ilustra este processo (figura de domínio público, disponível em https://commons.wikimedia.org/wiki/File:Pinhole-camera.png ), onde está representado apenas dois raios de luz, uma saindo do topo da árvore e outro da sua base.

Figura 1. A camêra pinhole. Fonte wikipedia, licença Creative Commons



    Por que necessitamos de um buraco pequeno? Se pensarmos em uma janela de um quarto, não conseguimos perceber nenhuma imagem na parede oposta. A razão são duas: muita luz e o tamanho da janela. Mas mesmo que todo o quarto fosse escuro, não veríamos uma imagem projetada na parede. Uma possibilidade seria a de usar um quarto com persianas bem opaca, com um pequeno buraco (se for fazer isso em casa, não esqueça que está estragando a persiana). Neste caso, seria possível ver a imagem projetada na parede. Então o tamanho do buraco é importante para que possamos ver a imagem projetada.

    Na figura 2 a seguir, ilustramos a influência do buraco na formação da imagem. No caso de um buraco grande (imagem (a), na esquerda) , os raios de luz que saem da parte superior, atingem o fundo formando uma região grande, o que torna a imagem bem borrada. Ao reduzirmos o tamanho do buraco (ver a imagem (b), na direita ),  atingem o fundo formando uma região pequena. Então pela ótica geométrica, quanto menor o buraco, melhor seria o resultado da imagem obtida.

Figura 2. Efeito do tamanho do buraco na imagem projetada.



    Notemos que se afastarmos o plano onde a imagem é formada (figura 3, o plano B está mais afastado do que o plano A ) a imagem pode ficar novamente indistinguível. 

Figura 3. Efeito de deslocar o plano da imagem.

 A figura 3 nos ajuda a  entender o que significa "pequeno buraco". O diâmetro deve ser pequeno em relação à distância entre o furo e a superfície na qual a imagem será projetada.

 
    A figura 4,  do artigo  de Fernando Lang e Ronaldo Axt , que trata da formação de imagens em um espelho plano, é uma ilustração de como os raios provenientes de duas regiões distintas,  formam a imagem, que é invertida.

Figura 4. Formação da imagem que passa pelo furo. Fonte Fernando Lang e Ronaldo Axt


    Na hipótese de termos um buraco muito grande, as duas regiões ficariam superpostas, e não teríamos uma imagem bem definida.

    Com a construção  das figura 3 e 4,  podemos imaginar que de acordo com a ótica geométrica, quanto maior a distância entre o furo e o plano aonde é formado a imagem, menor deve ser o buraco. E portanto, reduzindo o seu tamanho obteríamos imagens melhores.

    No entanto isto não é correto. Ao diminuirmos o tamanho do buraco, existe um limite mínimo aceitável para a formação da imagem. A partir de um certo diâmetro do buraco, os efeitos de difração da luz (um efeito devido ao comportamento ondulatório da luz) passam a ser importante e precisamos considerar a luz utilizando a ótica física, não a ótica geométrica.

    Assim, do ponto de vista da ótica geométrica, quanto menor o buraco, melhor a imagem obtida, mas pelo ponto de vista da ótica física, quando menor o buraco , pior fica a imagem (De uma maneira simples, se o diâmetro do buraco for muito maior que o comprimento de onda da luz, os efeitos da difração ficam desprezíveis, apenas a partir de um certo diâmetro o efeito da difração passam a ser importante). Estes dois efeitos devem ser levados em consideração no desenho de uma câmera de pinhole. (O comportamento específico da cada um dos efeitos não são semelhantes, para maiores detalhes, ver o artigo M.Young 1989.)  

Figura 5. Retirado de M. Young, 1989

    A figura 5, retirado do artigo de Young,  mostra o raio da imagem formada em função do raio do buraco de agulha. A reta representa a condição da ótica geométrica e a hipérbole a condição da ótica física (considerando a luz como uma onda). A região ideal é na intersecção das duas curvas.

    Para um projeto completo de uma câmera pinhole, é necessário conhecer também o tamanho da imagem a ser produzida, a distância do furo até o plano da imagem , e naturalmente o diâmetro do furo. Com estas informações, podemos calcular o que chamamos de f-stop da pinhole. Normalmente o f-stop é bem elevado, sendo comum valores próximos de 200 ou maiores. Para quem não sabe o que é f-stop, em um texto futuro, vamos escrever com mais detalhes sobre o que é o f-stop e seus efeitos para a fotografia. Mas basicamente está relacionado com a quantidade de luz que atinge o sensor, quanto maior o número, menor a quantidade de luz. Em câmeras comuns, dependendo da lente utilizada este valor pode variar de 1.2 (ditas lentes claras ou lentes rápidas) até cerca de 22. No momento o que nos interessa é que com uma câmera pinhole, entra muita pouca luz comparativamente a uma câmera comum. Por outro lado, temos uma grande profundidade de foco. Isto significa que tudo que for fotografado com uma câmera pinhole, estará em foco. No entanto, a imagem de uma pinhole possui uma resolução muito menor que uma câmera comum com lente (tipicamente uma pinhole tem uma resolução de algumas linhas por mm, enquanto uma câmera comum tem uma resolução de algumas dezenas de linhas por mm, ver M. Young 1989), de forma que a imagem vai se assemelhar com as obtidas usando as lentes ditas "soft focus".

    E como fica uma imagem de uma câmera pinhole? A próxima imagem é um exemplo de imagem possível. A distorção ocorre devido ao formato curvo do local onde o filme foi colocado. A imagem original é em negativo, e a imagem da figura 6 já é invertida, isto é, transformada em imagem positiva.

Figura 6. Exemplo de imagem obtida com câmera pinhole.

    O efeito da superfície na qual o filme é colocado, pode ser percebido, comparando com uma imagem obtida com uma câmera com fundo plano, que apresentamos na figura 7.
Figura 7. Exemplo de imagem com o filme em uma superfície plana.


    
    Para quem tiver interesse em construir uma câmera pinhole, um sitio interessante para dar uma olhada no site  https://www.mrpinhole.com/calcpinh.php , onde é possível obter informações sobre o tamanho do buraco ideal para a sua câmera pinhole.

Referências




M. Young, The pinhole camera,Physics Teacher, 27: 648–655, 1989




abril 11, 2024

A Teoria das Ondas Piloto na Mecânica Quântica

Ondas Piloto e a Dupla Fenda Fonte

   

     A moderna mecânica quântica tem início em 1925, com a publicação do trabalho de W. Heisenberg e um ano depois, Erwin Schroedinger pública o artigo apresentando a equação  de onda. E neste mesmo ano ocorre o Congresso de Solvay, que começa a  estabelecer  o que denominamos a interpretação ortodoxa da Mecânica Quântica (que é tradicionalmente ensinado nos cursos de graduação em física).

     A dualidade onda-partícula, é um dos conceitos mais importantes dentro da abordagem  da mecânica quântica. Esta dualidade estabelece que um objeto dependendo da medida pode se comportar como onda OU como uma partícula, um exemplo tradicionalmente apresentado é o da fenda dupla, no qual observamos um padrão de interferência característico de ondas, mas se determinarmos por qual fenda ocorreu a passagem, o obtermos um resultado com características de partículas. 

    No entanto, alguns anos antes, Louis De Broglie publica uma série de artigos [1], e apresenta a chamada Teoria de Ondas Pilotos. Nestes trabalhos Louis De Broglie, defende a igualdade entre  Princípio de Maupertius e o Princípio de Fermat [2].  Nos trabalhos de Louis De Broglie, existem a onda a partícula. A onda funcionando como um guia ( onda guia) para a partícula. Foi a partir dos trabalhos de Louis De Broglie, que Schroedinger obteve a sua equação, mas retirou o conceito de partícula, mantendo apenas o conceito de onda.

    Após 1926 [3], a ideia da Teoria de Ondas Pilotos, praticamente foi esquecida. Somente seria retomada em 1952, com a publicação de um artigo por David Bom. Por este motivo, hoje falamos da Mecânica Bohmniana ou Teoria de Bohm [4].

    Mas o que é a Teoria das Ondas Pilotos?

    Na Teoria das Ondas Piloto, a função de onda  é descrita pela equação de Schroedinger, a mesma que é ensinada nos cursos de graduação. A diferença é que agora existe também a partícula, sendo que o movimento da partícula não é descrito pela Equação de Schrodinger, mas por uma outra equação. que relaciona a velocidade da partícula com a função de onda, que é  obtida com a solução da equação de Schroedinger, e servem como uma onda guia (onda piloto) para a partícula. Nesta formulação, as partículas possuem posição e momento linear (ou a velocidade) bem definidos, e são consideradas como as "variáveis escondidas " [3] da teoria (não aparecem na função de onda).

    De acordo com a teoria de ondas pilotos, as trajetórias das partículas são reais, mas devido as condições iniciais que são aleatórias, não é possível determinar com precisão qual a sua trajetória real. Com as teoria de ondas piloto, os resultados  obtidos com a mecânica quântica  ortodoxa, podem ser reproduzidos, com a grande vantagem de que não é necessário introduzir o colapso da função de onda, isto é, o chamado problema da medida, deixa de existir. 

    Uma questão interessante é que na Teoria de Ondas Pilotos, uma partícula livre NÃO segue uma trajetória retilínea, isto porque a dinâmica não é a Newtoniana, e de acordo com De Broglie (citado em [1] ): 

    "O quanta de luz [átomo de luz] ... não propaga sempre em uma linha reta ...parece necessário modificar o princípio da inércia"

    Em muitas situações nas quais classicamente (isto é, movimentos descritos pela física newtoniana) temos movimento, na Teoria de Ondas Pilotos, a partícula possui velocidade nula! De forma que fica claro que na proposta das ondas pilotos, estamos trabalhando com uma nova dinâmica (no congresso de Solvay de 1927, o título do trabalho apresentado por Dr Broglie foi "The New Dynamics of quanta" ), de forma que as concepções newtonianas deixam de ser válidas.

    A teoria de ondas piloto ou mecânica bohmniana, é uma das alternativas para a mecânica quântica tradicional. Mas dificilmente faz parte da formação dos profissionais de física. Para os defensores da mecânica bohmniana, existem muitos motivos que justificam a sua utilização, mas fora destes círculos é normalmente ignorada.  Talvez, na véspera de completarmos 100 anos da mecânica quântica,  uma introdução aos conceitos básicos da teoria de ondas pilotos seria uma boa atitude nos cursos de graduação em física. 


 Notas e referências

[1] Sobre os artigos de Louis de Broglie, ver por exemplo G. Bacciagalluppi e A. Valentini, Quantum Theory at Crossroads, com acesso livre nos arxiv. A tese de doutorado de L. De Broglie, traduzido para o inglês pode ser acessado neste link. 

[2] O Princípio de Maupertius, é utilizado para obter a trajetória partículas, e o Princípio de Fermat para obter a  trajetória da luz. De Broglie, faz esta identidade considerando a proposta de Einstein de considerar a luz como uma partícula (o efeito fotoelétrico).

[3] Em 1927, foi realizado o quinto Congresso de Solvay, quando começa a ser estabelecido o que denominamos Interpretação de Copenhaguem da Mecânica Quântica.   Ver [1], que faz um detalhamento do V Congresso Solvay.

[4] Ver por exemplo Rodrigo Siqueira-Batista , Mathias Viana Vicari, José Abdalla Helayël-Neto, David Bohm e a Mecânica Quântica: o Todo e o Indiviso, Revista Brasileira de Ensino de Física, vol. 44, e20220102 (2022), DOI: https://doi.org/10.1590/1806-9126-RBEF-2022-0102 (o acesso é livre)