setembro 17, 2024

Lentes Gravitacionais

     

Fonte 1: Registro do efeito das Lentes Gravitacionais, os arcos de luz são imagens distorcidas de galáxias distantes. Fonte: NASA 

    A chamada Lente Gravitacional tem origem no fenômeno da deflexão da luz [1] devido ao campo gravitacional de um corpo (a lente) com massa M. Esta deflexão da luz foi inicialmente prevista com a utilização da Gravitação Newtoniana, e foi calculado pela primeira vez por J. Soldner em 1801.  Isto pode ser uma surpresa para algumas pessoas, pois é comum associar este fenômeno com a Teoria da Relatividade Geral desenvolvida por Albert Einstein em 1917. A primeira observação da deflexão da luz pelo Sol foi realizada durante um eclipse solar em Sobral, no interior do Ceará em 1919, e as observações  confirmaram a existência da deflexão da luz pelo Sol e com um valor compatível com a previsão da Relatividade Geral, descartando o valor obtido com a utilização da Gravitação Newtoniana [2]. 

    Utilizando o efeito da deflexão da luz é possível demonstrar que um objeto massivo funcione como uma lente gravitacional [3]. Isto ocorre porque a presença de um corpo massivo curva o espaço tempo ao seu redor,  de forma que  o caminho que a luz percorre sofre um desvio da linha reta, que seria esperado na ausência da massa. Na figura 2 apresentamos uma representação esquemática de uma Lente Gravitacional, sendo a fonte e a lente pontuais (figura não está em escala).


Figura 2. Representação esquemática de uma lente gravitacional. Fonte Wikipedia

    Uma lente gravitacional pode ser resultado da ação de qualquer objeto com massa, e o ângulo de deflexão ( o ângulo $ \alpha $ na figura 2) aumenta com a massa ($ \alpha  \propto \sqrt{M} $) . E quanto mais próximo do objeto ( a distância b na figura 2), maior o ângulo de deflexão. E a massa não precisa ser pontual, permitindo  que galáxias e seus aglomerados possam atuar como uma lente gravitacional. As imagens formadas dependem da posição (incluindo as distâncias)  da fonte, da distribuição de massa do objeto que atua como uma Lente Gravitacional,  Na figura 3, apresentamos no lado esquerdo uma imagem em forma de anel quase completo (compare com a figura 1) e do lado direito quatro imagem de um mesmo objeto, formando uma cruz.


Figura 3. No lado esquerdo o Anel de Einstein e no lado direito a Cruz de Einstein, que são dois tipos de imagens que podem ser produzidas por lentes gravitacionais. Fonte ESO
    
      

    Este efeito não depende do comprimento de onda, de forma que uma lente gravitacional é acromática, que é diferente do caso de uma lente comum (digamos de vidro) na qual o ângulo de deflexão depende do comprimento de onda. Isto ocorre porque no caso do vidro (figura 4), o meio que é responsável pela deflexão é dispersivo, isto é o índice de refração (consequentemente o ângulo de deflexão) vai depender do comprimento de onda, logo as diferentes cores sofrem desvios diferentes. Mas no caso da lente gravitacional é a curvatura do espaço-tempo que causa a deflexão, e isto não depende do comprimento de onda da luz, que torna o processo acromático [4]. 


   

Figura 4. Aberração cromática em uma lente. Fonte By DrBob at the English-language Wikipedia, CC BY SA3.0, wikipedia 

    Devido ao fato da deflexão da luz não depender do seu comprimento de onda, podemos utilizar o espectro obtido para determinar a distância da fonte até o observador, usando a relação entre o chamado redshift cosmológico e a distância. As imagens produzidas por lentes gravitacionais nos permitem estudar a distribuição de massa (incluindo a matéria escura)  de objetos que atuam como uma Lente Gravitacional, detectar objetos que possuem baixa luminosidade. pois as Lentes Gravitacionais amplificam a luminosidade).  

    Efeitos de Lente Gravitacional com estrelas em nossa Galáxia dificilmente podem ser observadas - em particular nosso Sol não produz efeito de Lente Gravitacional que seja possível de ser detectado na Terra, de forma que o que podemos observar são os efeitos de Lente Gravitacional de objetos fora de nossa Galáxia. Este fato   nos permite utilizar estes efeitos também como uma ferramenta de estudo em Cosmologia; Os efeitos de múltiplas Lentes Gravitacionais, flutuações  no brilho de objetos distantes , observações  de galáxias de baixa luminosidade, distribuição de matéria escura, e outros estudos podem ser realizados com a utilização da Lentes Gravitacionais [5] e estes resultados são excelentes testes observacionais na área de Cosmologia. 

    Sendo acromática,  implica que no estudo de lentes gravitacionais ( excluindo o efeito do meio na qual a luz está propagando) podemos sempre utilizar a ótica geométrica? Isto é, desconsiderar as propriedades ondulatórias da luz? A rigor não podemos. Consideremos dois feixes de luz emitidos de regiões muito próximas da fonte. Este feixe sofre a ação de uma lente gravitacional, sendo posteriormente detectada. Dependendo da situação, estes dois feixes são coerentes, de forma que ao serem observados, a princípio é esperado a presença de difração, que é um efeito devido a característica ondulatória da luz. No entanto as condições necessárias para que estes efeitos  sejam observados são muito restritivos, de forma que na prática a aproximação de ótica geométrica no estudo de lentes gravitacionais é perfeitamente adequada, pois com os equipamentos  existentes estes efeitos difrativos não são atualmente possíveis de serem detectados.  



    

Notas

[1] A deflexão ocorre para todos os comprimentos de  onda, mas é comum utilizar o termo luz no sentido mais genérico de ondas eletromagnéticas, e neste texto vamos seguir este padrão. 

[2] Em relação ao valor previsto pela Gravitação Newtoniana é $  \alpha = 0,87  $ segundos de arco,  que é  a  metade do valor previsto pela Relatividade Geral.  Uma informação interessante é que Einstein em 1911 (portanto antes da elaboração da Relatividade Geral), apresentou uma estimativa para a delflexão da luz semelhante ao obtido com a Gravitação Newtoniana. Sobre a expedição em Sobral, ver  por exemplo   Do Eclipse Solar de 1919 ao Espetáculo das Lentes Gravitacionais  de JAS Lima e RC Santos. 

[3] No livro Gravitational Lenses (1992) , P Schneider, J. Ehlers, E.E. Falco,   os autores citam que a primeira utilização do termo "lente gravitacional" foi devido a O. Lodge em 1919, mas no sentido negativo, isto é de que não existiriam as lentes gravitacionais. Ressaltamos que não devemos simplesmente utilizar os conceitos de uma lente ótica para uma lente gravitacional, uma diferença importante sendo que na lente gravitacional, não existe um ponto focal, que é um dos argumentos utilizado por Lodge "it is not permissible to say that the solar gravitational field acts like a lens, for it has no focal lenght" (o artigo pode ser acessado aqui ). Na Lente Gravitacional ao invés de um ponto focal, possuímos uma linha focal.  


[4]  Isto implica que eventuais efeitos dispersivos que venham a ocorrer estão relacionados com o meio pela qual a luz percorre até atingir o observador, não sendo devido ao fenômeno da Lente Gravitacional.  No caso de fontes extensas como as galáxias, as diferentes regiões podem possuir espectros de emissão distintos, e devido ao fato de ser extenso, estas diferentes partes sofrem desvios distintos pela Lente Gravitacional, mas esta diferença é devido a diferença nos ângulos de incidência ( por exemplo os ângulo $ \theta $ na figura 2) e não devido ao comprimento de onda da radiação.


[5] Para um texto não técnico, ver por exemplo  Gravitational lensing: a unique probe of dark matter and dark energy , que é um texto não técnico de RS. Ellis, publicado em 2010..  

julho 31, 2024

O artigo de Werner Heisenberg de 1925

    Nos cursos de física, seja na licenciatura ou no bacharelado a mecânica quântica é normalmente abordada através da equação de Schroedinger, e dificilmente a abordagem de Heisenberg é apresentada. Mas o artigo de Heisenberg é a que marca o surgimento da atual mecânica quântica  pois foi  publicado  em 1925 e o artigo de Schroedinger um ano depois, em 1926.  Nas disciplinas da graduação no máximo é  apresentado algum comentário  de que Heisenberg utilizou uma abordagem de matricial, possivelmente Heisenberg é muito mais associado ao Princípio de Incerteza do que propriamente ao desenvolvimento de mecânica quântica. Qual seria a razão da preferência pela abordagem de Schroedinger?

     Hoje sabemos que as duas abordagens , a de Heisenberg e de Schoedinger são equivalentes. Esta equivalência foi inicialmente demonstrada por Shcroedinger e posteriormente por Von Neumann. 

    O interessante é que Heisenberg, apesar de ter seu nome associado a uma abordagem matricial da mecânica quântica, não sabia que estava trabalhando  com matrizes, pois na época não fazia parte da formação de um físico. Foi Max Born e Pascual Jordan que posteriormente demonstraram  que Heinseberg utilizou  matrizes em seu  artigo.

    Apesar de ser um artigo difícil para ser entendido por alunos de graduação em física e talvez mesmo para estudantes de pós-graduação em física , ler pelo menos algumas   partes do artigo é bastante instrutivo. No artigo "Understanding Heisenberg’s “magical” paper of July 1925: A new look at the calculational details"  (o artigo pode se acessado livremente aqui ) os autores comentam que os físicos teóricos em seus trabalhos mais influentes podem ser separados em dois grupos: os sábios e os mágicos. Os artigos sábios não são difíceis de se entender, e a dos mágicos difíceis de se entender. O artigo de Heisenberg seria " mágica pura". 

    Logo no início do artigo Heisenberg escreve [1]

    "É bem conhecido que as regras formais que são utilizadas na teoria quântica para calcular quantidades observáveis tais como a energia do átomo de hidrogênio  (...) contém como elementos básicos, relações entre quantidades que aparentemente não são a princípio observáveis, por exemplo, a posição e o período de revolução do elétron" e mais adiante  afirma que seria razoável "tentar estabelecer uma mecânica quântica teórica, análoga à mecânica clássica, mas na qual apenas  as relações entre quantidades observáveis ​​ocorrem.’’  Lembrando que em 1925, o modelo teórico utilizado para descrever o átomo era o de Bohr, que misturava um modelo de órbitas clássicas do modelo de Rhuterford com uma imposição de existência de órbitas estacionárias com a sua regra de quantização do momento angular.

Desta forma, Heisenberg apresenta a sua versão da mecânica quântica considerando certas relações que já se conhecia a respeito da frequência de emissão de sistemas atômicos. Outro guia importante seguido por Heisenberg foi o Princípio da Correspondência de Niels Bohr. Este princípio estabelece que para números quânticos grandes a mecânica quântica deve resultar na física clássica.

Heisenberg analisou um sistema em uma dimensão,  considerando uma equação genérica de movimento

$$\ddot x + f(x)= 0$$

 No entanto, como considera que a posição não é uma grandeza observável, reinterpreta a equação de posição de uma maneira " mágica", relacionando com a amplitude de emissão de radiação em uma dada transição ( lembrando que o Modelo.de Bohr já era conhecido).  No artigo Heisenberg escreve que classicamente  temos $$x(t) y(t) = y(t) x(t)$$ mas a mesma relação não seria válida na teoria quântica  lembrando que $$x(t), y(t)$$ não são posições na construção de Heisenberg, mas representam alguma grandeza física. E foi  nesta construção que Heisenberg obtém uma relação que mais tarde Born e Jordan associaria com matrizes. 

As o final do artigo Heisenberg comenta que somente investigações mais detalhadas  poderá decidir se o método apresentado superficialmente no artigo é satisfatório para a construção de uma  mecânica quântica teórica correta. O tempo mostraria que a proposta de Heisenberg estava correta. 

Mas como a abordagem de Schroedinger demostrou ser mas compreensível para os físicos ( seja pela abordagem, que utilizou técnicas mais familiares para os físicos, seja pela escrita menos "mágica"), não se tornou a principal abordagem da mecânica quântica, e sua maior facilidade também tornou a abordagem de Schroedinger mais adequada para o ensino. No entanto, com o advento da computação quântica a abordagem matricial pode se tornar a mais adequada, pois trabalhar com sistemas de dois estados com matrizes é muito mais simples do que a solução da equação de Schroedinger e quem sabe, a abordagem de Heisenberg se torne mais adequada para um curso inicial e portanto mais conhecida.


[1] Uma versão em.ingles do artigo de Heisenberg pode ser acessado neste link.Ou no livro Sources of Quantum Mechanics .

 





    



    

julho 22, 2024

Terapia Quântica Não Funciona

 Uma simples conta parac mostrar que a Terapia Quântica não funciona. 

Um dos grandes avanços da física é sem dúvida o desenvolvimento da física , que tem seu início com o trabalho de Max Planck em 1900. O seu impacto em nossa sociedade  muito além da física com aplicações nas mais diversas áreas desde a engenharia até a filosofia.



Esta presença em diversos setores na nossa sociedade, traz também algumas aplicações no mínimo duvidosas. Uma delas 4 as das chamadas terapias quântica.

É importante ressaltar que não existem experimentos ou observações que a justifiquem. Os defensores das terapias quânticas argumentam  que existem evidências ( que não existem) ou que as evidências são poucas  devido a estarem além dos limites dos experimentos ( o que não é verdade) ou que ainda não foram realizados os experimentos corretos ( mas não indicam quais seriam os experimentos corretos).
 
Mas existindo ou não os experimentos podemos utilizar como nosso suporte a construção teórica da física quântica, utilizando como nosso guia para indicar o que pode ser observado  para validar ou não a terapia quântica. Sem entrar em detalhes da física quântica, vamos considerar inicialmente o termo vibração ou frequência de vibração que é utilizado nas chamadas terapias quântica, e partindo da hipótese defendida pelos terapeutas quânticos de que física quântica justifica esta construção, vamos verificar se isto é razoável. Ou seja,  vamos utilizar o que a física quântica nos fornece para analisar o que é defendido pelas terapias quânticas é razoável ou não.

Nestas terapias é comum associar ao corpo humano uma frequência na faixa de algumas dezenas de hertz a algumas centenas de hertz, e que as energias associadas a estas vibrações são importantes indicadores da saúde de uma pessoa, de forma que as trocas de energias devido a estas vibrações seriam importantes para a saúde humana.

Já deixando claro que associar uma frequência natural de vibração ao corpo humano, não tem nenhum sentido. Mas vamos assumir que tenha algum sentido, para podermos realizar algumas comparações. Como nos textos sobre Terapias Quânticas nada é dito de forma explícita, precisamos fazer algumas considerações para podermos realizar as nossas comparações.

Quando relacionam a frequência com a energia, possivelmente estão fazendo referência para a seguinte equação

E=hf

da física quântica que relaciona a energia com a a frequência, sendo h a constante de Planck , f a frequência e E a energia. A constante de Planck é cerca de 6,62 x 10⁻³⁴ J.s, sendo J.s=joules por segundo, lembrando que a frequência (hertz) tem como unidade o inverso do segundo (s⁻¹). Substituindo as frequências associadas ao corpo humano , digamos de 100 Hz, obtemos para a energia o valor de

E= 6,62 x 10⁻³² J

De acordo com os pressupostos das terapias quânticas, esta seria a energia que as nossas "vibrações" transportam e esta troca de energia teria forte influência em nossa saúde. Para quem não estuda física, talvez não fique claro o significado desta energia. Assim, vamos comparar com alguma grandeza de energia que é mais próxima de uso cotidiano.

Podemos comparar esta energia com a energia com a quantidade de energia que é considerada ideal para ser ingerida na forma de alimentos, que é em torno de 2000 kcal ou cerca de 8,36 x 10⁶ J
Esta energia (o consumo ideal de energia diária) é cerca de 10³⁸ vezes (38 zeros após o número 1 ou de forma explícita 100000000000000000000000000000000000000 ) vezes maior que a "energia de vibração" de nosso corpo. O que isto significa? Que o valor da chamada "energia de vibração do nosso corpo" é muito menor que a energia necessária para mantermos nosso corpo  funcionando.

Ainda como comparação se ingerirmos um grama de arroz, a sua influência será ainda MUITO MAIOR que a suposta influência da energia de vibração do nosso corpo! Um grama de arroz tem cerca de 10⁴ J ou 10000 J de energia, isto é 10³⁵ vezes maior que a "energia de vibração" do nosso corpo. 

Então do ponto de vista das energia envolvidas, a suposta "energia de vibração" do nosso corpo é completamente desprezível. Comer um grão de arroz (que tem uma massa de cerca de 20 mg ) tem muito mais influência na variação de energia do nosso corpo do que a suposta energia de vibração.
Então as afirmações de que a Terapia Quântica é justificada pela física quântica, não são corretas.
Na verdade a física quântica mostra que a Terapia Quântica não funciona.









julho 18, 2024

Raio N

    Na história da ciência, geralmente, não contamos os caminhos que deram errados, e isto muitas vezes passa a impressão que o avanço é linear, com progressos e mais progressos. Mas isto está bem longe do que ocorre nas ciências.  Uma história  interessante e instrutiva é a descoberta do Raio N.O que é o Raio N? Nunca ouviu falar? Não é surpresa, pois ela não existe. Mas no início do século XX, quando foi anunciada a sua descoberta, foi um grande alvoroço! Para entender um pouco da situação, vamos relembrar o panorama do período, em especial na física.

    Em 1895, Roentgen anunciava a descoberta do raio-X , e nos próximos anos, trabalhos de Becquerel, dos Curie tornava o estudo da radioatividade uma área de intensas pesquisas. Foram descobertos, os raio gama, alfa, beta e uma série de elementos radioativos. Dentro deste cenário de descobertas de novos tipos de radiação, em 1903 um físico francês, reconhecido e respeitado, anuncia a descoberta de um novo tipo de radiação, o Raio N. A letra N é uma homenagem à cidade de Nancy, onde  René  Blondlot, o descobridor do raio N trabalhava. Blondlot não era um físico qualquer. Era respeitado e experiente, e extremamente cuidadoso. As descrições dos seus experimentos para a detecção do Raio N, mostram uma legítima preocupação em determinar as características desta nova radiação.

    Logo após o anúncio da sua descoberta, outros pesquisadores repetiram os experimentos, e conseguiram detectar o raio N. E o mais interessante, foram relatados emissão de raio N por diversos objetos, incluindo o Sol e mesmo por pessoas, que continuavam a emitir mesmo mortos.  O número de publicações sobre o assunto, em um período de um ano e meio após o anúncio da descoberta, aumentou de forma explosiva. Blondlot em 1904 recebeu um prêmio da Academia de Ciências da França pelos seus trabalhos com o raio N. O assunto era um sucesso!

    Mas, outros pesquisadores não conseguiram detectar o raio N. Pesquisadores como  Kelvin, Otto Lummer, William Crookes não conseguiram reproduzir os resultados. A alegação de Blondlot, era que como o efeito era muito sensível, era necessário uma acuidade visual muito boa.

    Em 1904 o físico americano Robert Wood, que também não conseguia  detectar os raios N,  resolveu visitar o laboratório de Blondlot na França, para tentar entender o que era necessário para reproduzir os resultados. Isto mostra como Blondlot era bem considerado. Na França, Blondlot realizou os experimentos na presença de Wood. Para a decepção de Wood, apesar de Blondlot e seu assistente alegarem que estavam observando o fenômeno, para Wood isto não era claro.

    Neste experimento o raio N , de acordo com Blondlot, atravessava um prisma de alumínio e produz um espectro, como no caso da luz ao atravessar um prisma. Este espectro, causaria um aumento no brilho em alguns pontos em uma tela fosforescente, que Blondlot mostrava para Wood, que não conseguia ver nenhum efeito! Ele resolveu fazer uma modificação no experimento, sem que Blondlot e seu assistente percebessem. O laboratório era bem escuro, assim com  cuidado, retirou o prisma do aparelho e pediu  que o experimento fosse novamente realizado. Para a surpresa de Wood  Blondlot e seu assistente continuavam a detectar a cintilação, mesmo sem a presença do prisma! Isto foi suficiente para Wood, ter a certeza de que o efeito não era real.  Wood enviou uma carta para a revista Nature, relatando a sua visita, e a não observação do fenômeno.

    Após a publicação da carta de Wood na Nature, os relatos de detecção do raio N simplesmente deixaram de existir.

    É importante deixar claro que Blondlot não era uma fraude. Mas este caso mostra que mesmo pesquisadores cuidadosos, podem cometer erros de interpretação dos resultados. E a importância da realização de experimentos por grupos independentes, para a verificação dos resultados.

Referências

APS, September 1904: Robert Wood debunks N-rays, 
https://www.aps.org/archives/publications/apsnews/200708/history.cfm

YAMASHITA, M . A lição do caso dos "raios N", Revista Questão de Ciências,  https://revistaquestaodeciencia.com.br/artigo/2023/05/22/licao-do-caso-dos-raios-n

MARTINS, Roberto de Andrade. Os "raios N" de René Blondlot: uma anomalia na história da física. Rio de Janeiro: Booklink; São Paulo, FAPESP; Campinas, GHTC, 2007. (Scientiarum Historia et Theoria, vol. 3)

julho 07, 2024

Princípio da Incerteza


    O  princípio da incerteza, é um  princípio fundamental da  moderna física quântica, tendo sido apresentado pela primeira vez por Werner Heisenberg em um artigo  1927 [1],   considerando o que ocorreria ao utilizar um microscópio hipotético utilizando raio gamma para observar um elétron. Sendo o raio gama uma radiação com  menor comprimento de onda do que a da luz, este hipotético  microscópio permitiria determinar com uma precisão  $\delta x $ muito menor a posição do elétron do que seria possível com um microscopio ótico. Utilizando o conceito de fóton, a radiação gamma  ao interagir com o elétron, causa um desvio no mesmo ( este efeito já havia sido estudado mas com raio x por  Arthur Compton) resultando em uma imprecisão no momento linear $\delta p $ devido a imprecisão inicial na posição  do elétron. No artigo Heisenberg demostra que estas imprecisões, utilizando a mecânica quântica resultam na desigualdade [2]

$$\delta x \delta p  \ge \hbar/2 .$$

E destaca que [1]

Assim, quanto maior a precisão na determinação da posição, menor será a precisão na determinação do momento.

Ou dito de forma mais usual, a medida da posição tem como consequência uma perturbação imprevisível e não controlável na medida do momento linear. Da forma apresentada por Heisenberg, temos uma relação entre pertubações devido a realização de medidas no sistema.

Esta é a maneira que o Princípio da Incerteza é apresentado em alguns livros textos muito utilizados  no Brasil, principalmente nas disciplinas iniciais. Por exemplo, a figura 1 é do livro de Física Quântica, de R. Eisberg e R. Resnick, que ilustra exatamente  a abordagem de Heisenberg.

Figura 1. Uma representação da incerteza segundo Heisenberg (Fonte: Fisica Quântica, Eisberg/Resnick)


    No entanto, a equação do Princípio da Incerteza é apresentado nos livros, utilizando uma versão desenvolvida por E.H. Kenard em 1927, generalizando o resultado de Heisenberg,

$$\Delta x \Delta p \ge \hbar/2 $$

Mas qual a diferença entre as duas? Seriam apenas de notação?  Existe uma diferença importante a primeira (a de Heisenberg) expressa as precisão das medidas (uma limitação nas medidas) e a segunda  expressa  o desvio padrão (decorrente das limitações na preparação do estado utilizado nas medidas) [3].  É possível obter a primeira equação a partir da segunda, mas a inversa não é possível.  A equação obtida por Kenard é rigorosamente alicerçada no formalismo da mecânica quântica, a de Heisenberg não é deduzida a partir do formalismo da mecânica quântica. A figura 2, retirado de [3], ilustra a diferença ente o desvio padrão (neste texto $ \Delta q $ é representado por $ \Delta x $) e incerteza na medida. O que denominamos Princípio da Incerteza , é a segunda equação , e não  a primeira. 


Figura 2. Diferença entre o desvio padrão e incerteza na medida. Fonte [3].

    Uma questão que pode surgir é como podemos ter uma incerteza menor que o desvio padrão,   não teríamos problemas com a violação do Princípio da Incerteza? Ou a interpretação  de "incerteza de medida" como desenvolvido por Heisenberg não seria correta?

    Em relação a esta questão,  M. Ozawa [4] apresentou uma dedução    da relação original 

$$\delta x \delta p  \ge \hbar/2 $$

de Heisenberg, mas com um procedimento mais rigoroso, obtendo [5]

$$\delta x \delta p +\Delta x \delta p +\Delta p \delta x     \ge \hbar/2 $$

Uma consequência interessante desta relação é que passa a ser possível realizar medidas precisas na posição, que viola a desigualdade proposta por Heisenberg. E dois artigos  publicados em 2012 [6], utilizando técnicas diferentes,   mostraram a violação da Princípio da Incerteza proposto por Heisenberg,  mas satisfazendo a generalização  proposta por Ozawa.  Estes resultados demonstram que é possível reduzir as incertezas nas medidas SEM violar o Princípio da Incerteza.

Para evitar confusões, o que os experimentos demonstram é a violação da relação [7] , 

$$\delta x \delta p  \ge \hbar/2 $$ 

e não da relação 

$$\Delta x \Delta p  \ge \hbar/2 $$

de forma que o Princípio da Incerteza, que relaciona os desvios padrões continuam válidas. O que os experimentos e o artigo de Ozawa mostram  é que a proposta de que o Princípio da Incerteza limita as precisões das medidas como costuma ser apresentado em alguns livros textos, não é correta. Algo que precisa ser corrigido!

Notas e referências

[1] O artigo  de Heisenberg traduzido para o inglês, está reproduzido no livro Quantum Theory and Measurement, John Archibald Wheeler (Editor), Wojciech Hubert Zurek (Editor), Princeton University Press, 

[2] A equação no artigo de Heisenberg é deduzido considerando um pacote de onda gaussiana, mas aqui estamos considerando um estado genérico. No caso de pacote gaussiano, a incerteza é minima.

[3] Veja por exemplo o artigo de Ballentine, Statistical Intepretations of Quantum Mechanics ou a referência [4].

[4] Ver M. Ozawa,  Universally valid reformulation of the Heisenberg uncertainty principle on noise and disturbance  in measurement 

[5] No artigo de Ozawa, a dedução é realizada para um par arbitrário de operadores .

[6] Os artigos publicado no PRL Violation of Heisenberg’s Measurement-Disturbance Relationship by Weak Measurements ou com acesso livre aqui e o artigo publicado na Nature  Experimental demonstration of a universally valid error–disturbance uncertainty relation in spin measurements com acesso livre aqui .

[7] Lembrando que as medidas não envolveram posição e momento, mas a ideia é semelhante para os pares de grandezas utilizadas em cada caso. Se você conhece sobre operadores e comutadores, a fórmula geral do Princípio da Incerteza para é dado por

$$ \Delta \hat A \Delta \hat B \ge \frac{1}{2}| \langle  [\hat A, \hat B] \rangle | $$

para dois operadores arbitrários. Note que para operadores que comutam, o limite inferior é zero.

junho 25, 2024

Gravidade sem massa!

    Gravidade sem massa. Esta é uma chamada que encontramos em alguns sites. Mas será possível? O artigo que tem sido citado é The binding of cosmological structures by massless topological defects de R. Lieu, publicado na revista Monthly Notices of Royal Astronomical Society.    

    Antes de responder se é possível ou não, vamos lembrar que é possível ter massa e mesmo assim a força gravitacional em outro corpo ser zero. Isto ocorre quando temos uma casca esférica de massa M, e neste caso na região interna a força de atração gravitacional será zero em qualquer ponto dentro da região esférica. Isto decorre devido  simetria esférica e o fato da força variar com o inverso do quadrado da distância. Então se é possível ter campo gravitacional igual a zero mesmo com massa, será que possível ocorrer  o inverso, isto é , existência de campo gravitacional sem massa? A resposta é NÃO se a massa for sempre positiva. No entanto SE existir massa negativa, é possível um sistema ter massa total NULA.  Mas tendo massa total nula, a força não deveria ser nula? A resposta é: depende da situação. Um exemplo fora da gravitação é o caso de um sistema elétrico com carga total nula. Mesmo nestes casos, podemos ter campo elétrico não nulo, sendo o exemplo usual um sistema de dipolo elétrico. Notemos que apesar da carga TOTAL ser nula, as cargas elétricas existem. No caso das massas, mesmo a massa total sendo nula (devido a existência de massa positiva e massa negativa), as massas ainda existem.

    O que artigo de Lieu propõe é justamente a existência de massa negativa  com   uma distribuição específica,  de forma que quando combinado com a massa positiva,   o campo gravitacional é nulo [1]. Esta distribuição é na forma de cascas esféricas (as conchas) com espessuras infinitesimais, sendo que uma componente descreve uma região de  massa positiva e outra de massa negativa, e PODERIAM ser formados em processos que ocorreram no Universo primordial.  São denominados DEFEITOS TOPOLÓGICOS, que eram um dos candidatos para explicar a formação de galáxias, mas por não serem compatíveis com os dados observacionais, foram desconsiderados, mas aparentemente tem retornado para serem aplicados  em outras situações.

    Mas retornando a questão inicial, SE existir massa negativa, é possível ter campo gravitacional mesmo que a massa TOTAL seja nula.  No entanto não é correto afirmar que não existe massa, seria o mesmo que dizer que no caso de um dipolo elétrico não existem cargas elétricas. Então, dizer que o artigo propõe a existência de campo gravitacional mesmo sem a presença de massa, é uma meia verdade: as massas existem (massa positiva e negativa).  

    A motivação de Lieu para estudar a existências de massas negativas (ou dos defeitos topológicos) é estudar as relações entre as teorias gravitacionais e suas relações com a matéria escura [2], e dentro deste contexto, ele propõe a existências destas conchas formadas com uma combinação de massa positiva e massa negativa, e analisa algumas das suas consequências, em especial aplicando na dinâmica de galáxias e seus aglomerados. Se massas negativas existem ? Não existem indicações sobre a sua existência. No entanto, em ciências as diferentes hipóteses devem ser analisadas, pois mesmo as que não sejam realistas, podem nos fornecer alguns indícios  dos caminhos a serem seguidos ou evitados.

    

 Notas

[1] Para quem possui familiaridade com a delta de Dirac, esta parte do cálculo de Lieu é relativamente simples de ser seguido. Basicamente ele propõe uma combinação de uma componente descrita pela delta de Dirac com uma componente que é proporcional a derivada da delta de Dirac. Esta segunda  componente descrever a parte com massa negativa. A utilização da delta de Dirac impõe que a massa esteja distribuída em cascas esféricas. Estas cascas esféricas resultam em uma força de atração (na concha) que varia com o inverso do raio, o que resulta em curvas de rotação plana, que são observados nas galáxias e para a sua explicação, são utilizadas a existência da matéria escura.

 [2] A escolha entre a existência da matéria escura ou de massa negativa ou qualquer outra alternativa, deve naturalmente estar baseado em dados observacionais e uma robustez teórica. Observacionalmente  ainda não existem dados que permitam abandonar a existência da matéria escura, mas  apesar das observações cosmológicas favorecerem a existência da matéria escura, é uma componente que ainda não foi detectada diretamente, o que justifica a procura  por outras possibilidades.

abril 22, 2024

Câmera Pinhole




    
    Atualmente, com a profusão dos celulares, uma câmera fotográfica é um instrumento bastante comum. Talvez para a maioria dos seus usuários, a câmera de um celular pode parecer bem diferente das câmeras fotográficas mais elaboradas. O que torna estes dois equipamentos similares, é o fato de que as duas registram imagens em um sensor. Mas a câmera de um celular, parece ser muito mais simples do que uma câmera profissional.

    No entanto uma câmera mais simples, consiste de uma cavidade escura com um único buraco na entrada, e no lado oposto ao buraco dentro da cavidade é colocado um aparato na qual é formado uma imagem (invertida). O aparato pode ser um filme, um sensor eletrônico ou uma simples folha translúcida.


    E esta simples câmara possui praticamente todos os elementos de uma câmera mais moderna, sendo que o buraco funciona como a lente. Para entender o funcionamento dela como lente, para uma explicação inicial basta utilizamos a ótica geométrica (que considera os raios de luz como propagando em linha reta, sem considerar o seu comportamento ondulatório).

    Mas como seria uma câmera pinhole? Bem a forma mais simples é pegar uma lata, fazer um furo e pintar a parte interna com tinta preta fosca. Para fazer um buraco pequeno, o melhor é fazer um furo com a ponta de uma agulha em um pedaço de lata de alumínio. (As instruções para construir uma câmera de pinhole, serão postadas em um outro texto, mas é possível encontrar diversos sítios da internet que ensinam como fazer uma destas câmeras, por exemplo em manual do mundo )

    Um objeto ao ser iluminado (por exemplo pelo Sol), reflete essa luz para todas as direções, e alguns destes feixes de luz acabam chegando até a câmera pinhole, entrando pelo pequeno buraco, até atingir o fundo da câmera aonde está o filme (vamos usar o termo filme, mas pode ser qualquer coisa onde a imagem é formada), formando uma imagem invertida do objeto. A próxima figura, ilustra este processo (figura de domínio público, disponível em https://commons.wikimedia.org/wiki/File:Pinhole-camera.png ), onde está representado apenas dois raios de luz, uma saindo do topo da árvore e outro da sua base.

Figura 1. A camêra pinhole. Fonte wikipedia, licença Creative Commons



    Por que necessitamos de um buraco pequeno? Se pensarmos em uma janela de um quarto, não conseguimos perceber nenhuma imagem na parede oposta. A razão são duas: muita luz e o tamanho da janela. Mas mesmo que todo o quarto fosse escuro, não veríamos uma imagem projetada na parede. Uma possibilidade seria a de usar um quarto com persianas bem opaca, com um pequeno buraco (se for fazer isso em casa, não esqueça que está estragando a persiana). Neste caso, seria possível ver a imagem projetada na parede. Então o tamanho do buraco é importante para que possamos ver a imagem projetada.

    Na figura 2 a seguir, ilustramos a influência do buraco na formação da imagem. No caso de um buraco grande (imagem (a), na esquerda) , os raios de luz que saem da parte superior, atingem o fundo formando uma região grande, o que torna a imagem bem borrada. Ao reduzirmos o tamanho do buraco (ver a imagem (b), na direita ),  atingem o fundo formando uma região pequena. Então pela ótica geométrica, quanto menor o buraco, melhor seria o resultado da imagem obtida.

Figura 2. Efeito do tamanho do buraco na imagem projetada.



    Notemos que se afastarmos o plano onde a imagem é formada (figura 3, o plano B está mais afastado do que o plano A ) a imagem pode ficar novamente indistinguível. 

Figura 3. Efeito de deslocar o plano da imagem.

 A figura 3 nos ajuda a  entender o que significa "pequeno buraco". O diâmetro deve ser pequeno em relação à distância entre o furo e a superfície na qual a imagem será projetada.

 
    A figura 4,  do artigo  de Fernando Lang e Ronaldo Axt , que trata da formação de imagens em um espelho plano, é uma ilustração de como os raios provenientes de duas regiões distintas,  formam a imagem, que é invertida.

Figura 4. Formação da imagem que passa pelo furo. Fonte Fernando Lang e Ronaldo Axt


    Na hipótese de termos um buraco muito grande, as duas regiões ficariam superpostas, e não teríamos uma imagem bem definida.

    Com a construção  das figura 3 e 4,  podemos imaginar que de acordo com a ótica geométrica, quanto maior a distância entre o furo e o plano aonde é formado a imagem, menor deve ser o buraco. E portanto, reduzindo o seu tamanho obteríamos imagens melhores.

    No entanto isto não é correto. Ao diminuirmos o tamanho do buraco, existe um limite mínimo aceitável para a formação da imagem. A partir de um certo diâmetro do buraco, os efeitos de difração da luz (um efeito devido ao comportamento ondulatório da luz) passam a ser importante e precisamos considerar a luz utilizando a ótica física, não a ótica geométrica.

    Assim, do ponto de vista da ótica geométrica, quanto menor o buraco, melhor a imagem obtida, mas pelo ponto de vista da ótica física, quando menor o buraco , pior fica a imagem (De uma maneira simples, se o diâmetro do buraco for muito maior que o comprimento de onda da luz, os efeitos da difração ficam desprezíveis, apenas a partir de um certo diâmetro o efeito da difração passam a ser importante). Estes dois efeitos devem ser levados em consideração no desenho de uma câmera de pinhole. (O comportamento específico da cada um dos efeitos não são semelhantes, para maiores detalhes, ver o artigo M.Young 1989.)  

Figura 5. Retirado de M. Young, 1989

    A figura 5, retirado do artigo de Young,  mostra o raio da imagem formada em função do raio do buraco de agulha. A reta representa a condição da ótica geométrica e a hipérbole a condição da ótica física (considerando a luz como uma onda). A região ideal é na intersecção das duas curvas.

    Para um projeto completo de uma câmera pinhole, é necessário conhecer também o tamanho da imagem a ser produzida, a distância do furo até o plano da imagem , e naturalmente o diâmetro do furo. Com estas informações, podemos calcular o que chamamos de f-stop da pinhole. Normalmente o f-stop é bem elevado, sendo comum valores próximos de 200 ou maiores. Para quem não sabe o que é f-stop, em um texto futuro, vamos escrever com mais detalhes sobre o que é o f-stop e seus efeitos para a fotografia. Mas basicamente está relacionado com a quantidade de luz que atinge o sensor, quanto maior o número, menor a quantidade de luz. Em câmeras comuns, dependendo da lente utilizada este valor pode variar de 1.2 (ditas lentes claras ou lentes rápidas) até cerca de 22. No momento o que nos interessa é que com uma câmera pinhole, entra muita pouca luz comparativamente a uma câmera comum. Por outro lado, temos uma grande profundidade de foco. Isto significa que tudo que for fotografado com uma câmera pinhole, estará em foco. No entanto, a imagem de uma pinhole possui uma resolução muito menor que uma câmera comum com lente (tipicamente uma pinhole tem uma resolução de algumas linhas por mm, enquanto uma câmera comum tem uma resolução de algumas dezenas de linhas por mm, ver M. Young 1989), de forma que a imagem vai se assemelhar com as obtidas usando as lentes ditas "soft focus".

    E como fica uma imagem de uma câmera pinhole? A próxima imagem é um exemplo de imagem possível. A distorção ocorre devido ao formato curvo do local onde o filme foi colocado. A imagem original é em negativo, e a imagem da figura 6 já é invertida, isto é, transformada em imagem positiva.

Figura 6. Exemplo de imagem obtida com câmera pinhole.

    O efeito da superfície na qual o filme é colocado, pode ser percebido, comparando com uma imagem obtida com uma câmera com fundo plano, que apresentamos na figura 7.
Figura 7. Exemplo de imagem com o filme em uma superfície plana.


    
    Para quem tiver interesse em construir uma câmera pinhole, um sitio interessante para dar uma olhada no site  https://www.mrpinhole.com/calcpinh.php , onde é possível obter informações sobre o tamanho do buraco ideal para a sua câmera pinhole.

Referências




M. Young, The pinhole camera,Physics Teacher, 27: 648–655, 1989