Teorema óptico
En física, el teorema óptico es una ley general de la teoría de la dispersión de ondas, que relaciona la amplitud de dispersión hacia delante con la sección eficaz de dispersión total. Normalmente se escribe en la forma
donde f(0) es la amplitud de dispersión con un ángulo 0, esto es, la amplitud de la onda dispersada en el centro de una pantalla lejana, y k es el vector de onda en la dirección incidente. Dado que el teorema óptico se demuestra usando solamente la conservación de la energía, o, en mecánica cuántica, la conservación de la probabilidad, el teorema óptico tiene un gran rango de aplicación, y en mecánica cuántica incluye tanto la dispersión elástica como la inelástica. Hay que notar que la forma anterior es válida únicamente cuando la onda incidente es una onda plana, Werner Heisenberg derivó una forma más general
Como consecuencia del teorema óptico, cualquier objeto que disperse luz debería tener una amplitud de dispersión no nula hacia delante. Sin embargo, el campo observado en esta dirección es una suma de las ondas incidente y dispersada, que puede sumar cero.
Historia
editarEl teorema óptico fue originalmente inventado de forma independiente por Wolfgang von Sellmeier y Lord Rayleigh en 1871. Lord Rayleigh reconoció la amplitud de dispersión hacia delante en términos del índice de refracción como
(donde N es la densidad de número de centros dispersores). Lord Rayleigh usó esta fórmula en un estudio sobre el color y la polarización del cielo.
Posteriormente la ecuación se aplicó a la teoría de la dispersión cuántica por varios científicos, y recibió el nombre de relación de Bohr–Peierls–Placzek tras una publicación de 1939. La primera referencia publicada del Teorema Óptico fue en 1955 por Hans Bethe y Frederic de Hoffmann, después de haber recibido el nombre del "conocido teorema de la óptica" durante algún tiempo.
Demostración
editarEl teorema se puede demostrar de manera bastante directa del tratamiento de una onda escalar. Si una onda plana incide en un objeto, la amplitud de la onda a una gran distancia del objeto es aproximadamente
Los términos superiores, al elevar al cuadrado, se anulan más rápidamente que , y son despreciables a grandes distancias. Para valores grandes de y ángulos pequeños, la expansión de Taylor para la distancia es
La intensidad es proporcional al cuadrado de la amplitud . Aproximando como , se tiene
Despreciando el término y empleando , se tiene
Supongamos ahora que integramos sobre una pantalla en el plano xy, a una distancia lo suficientemente pequeña para que se verifiquen las aproximaciones de ángulo pequeño, pero suficientemente grande para poder integrar la intensidad desde hasta con un error despreciable. En óptica, esto es equivalente a incluir muchas franjas del patrón de difracción. Para simplificar aún más el tratamiento, hacemos la aproximación . Obtenemos
donde A es el área de la superficie de integración. Las exponenciales se pueden tratar como gaussianas, con lo que
Esta es la probabilidad de alcanzar la pantalla si no hubiera dispersión menos la cantidad , que por lo tanto es la sección eficaz efectiva del centro dispersor.
Referencias
editar- R. G. Newton (1976). «Optical Theorem and Beyond». Am. J. Phys. 44 (7): 639-642. Bibcode:1976AmJPh..44..639N. doi:10.1119/1.10324.
- John David Jackson (1999). Classical Electrodynamics. Hamilton Printing Company. ISBN 0-471-30932-X.