Discurso de Apertura

Lección Magistral

Volver atrásVolver atrás

Algunos hitos de la Física Moderna

Julio León Alvarez
Catedrático de Física Aplicada de la Escuela Politécnica Superior

Descargar en PDF Descargar en formato PDF

Excelentísimo Señor Rector Magnífico
Excelentísimas Autoridades
Miembros de la Comunidad Universitaria
Señoras y Señores

La costumbre ha transformado en obligación protocolaria, en ocasión tan solemne como la que me trae ante ustedes, comenzar primero con los párrafos de agradecimiento. Todo ello dentro del proceso emocional de quien accede a este estrado – emociones hechas de satisfacción y responsabilidad -, que van desde la gratitud a la Escuela Politécnica Superior y al Consejo de Gobierno de la Universidad de Córdoba, hasta el reconocimiento de las propias limitaciones.

Al conocer la propuesta de impartir la Lección Inaugural del curso 2006 – 2007, me embargó un doble sentimiento de responsabilidad; en primer lugar el representar dignamente a la Escuela Politécnica Superior, por vez primera designada para tan simbólico acontecimiento, y en segundo lugar, el coincidir en esta ocasión con mi última actuación como miembro en activo de esta institución.

Ardua es la tarea de elegir un tema que pueda mantener el interés del auditorio y que procure huir de alarde de erudición que en ocasiones se prodiga en las Lecciones Inaugurales. Con estas consideraciones previas, he titulado mi disertación: Algunos hitos de la Física Moderna. Por todo lo expuesto no temo situarme a veces en contenidos que puedan parecer de no muy alto nivel, puesto que voy a atender más a la presentación que a la originalidad.

El siglo XIX: La Teoría Electromagnética.

El siglo XIX fue una centuria vital para la ciencia, la cual si bien ya había demostrado, por aquel entonces, su capacidad para estudiar el comportamiento de la naturaleza y sus leyes, y que ya contaba con un gran número de científicos, aún no se había convertido en una actividad profesionalizada. Esta profesionalización de la ciencia, entendiendo por tal que la práctica de la investigación científica se convirtiese en una actividad cada vez más abierta a personas sin medios económicos propios, que se ganarán la vida a través de la ciencia, atrayendo el interés de gobiernos e industrias, debido especialmente al desarrollo de dos disciplinas: la química y la física.

Ciñéndome al periodo en que voy a centrar mi disertación, y más concretamente en las últimas décadas del siglo XIX y primeras del XX, surge en esta época una figura indiscutible: JAMES CLERK MAXWELL (1831-1879). Para centrar los trabajos de este gran científico no debemos olvidar que sus estudios se basaron en otros realizados por antecesores suyos.

El punto de partida del electromagnetismo lo señala el danés HANS CHRISTIAN OERSTED (1777-1851), descubridor de los efectos magnéticos de la corriente eléctrica. En 1821, MICHAEL FARADAY (1791-1867), conocedor de los trabajos de Oersted, demostró que  una bobina de hilo recorrida por una corriente podía girar de manera continua alrededor de un imán, con lo que vio que era posible obtener efectos mecánicos de una corriente interaccionando con un imán. Faraday estaba más interesado en la naturaleza de las interacciones entre corrientes e imanes que en las aplicaciones prácticas inmediatas. En esa línea, y años mas tarde en 1831, descubrió la inducción magnética, es decir, la producción de corrientes eléctricas a partir de campos magnéticos móviles (variables), en cierto modo el fenómeno inverso al descubierto por Oersted.

Faraday realizó asimismo experimentos en los cuales se ponía de manifiesto el hecho de que el efecto magnético que atraviesa una bobina inducía una corriente en una segunda bobina. Para explicar todos estos resultados definió el concepto más amplio de flujo magnético a través de una superficie, muy similar al considerado en la Ley de Gauss de la electrostática. De este modo, concluyó que lo que realmente debe cambiar con el tiempo para que se “induzca” una corriente eléctrica es el flujo magnético originado a través de  la superficie que delimita el circuito, formulando la denominada Ley de Inducción de Faraday.

Mientras mayor sea el cambio de flujo, mayor es la corriente inducida en el circuito. Así es posible obtener valores muy altos de corriente eléctrica por medio de variaciones muy rápidas del flujo magnético. Según anota en sus elucubraciones sobre esas corrientes “inducidas”, todo depende de cómo corta el conductor las líneas magnéticas. Como se ve, Faraday establece el concepto de “campo magnético” como una nueva clase de campo de fuerzas, cuyas líneas de campo pudo materializar al espolvorear sobre un papel limaduras de hierro. Elaborar conceptualmente y formalizar matemáticamente esas líneas de fuerzas eléctricas y magnéticas, será el gran mérito de Maxwell.

Un intento fallido de Faraday  fue el de la unificación de las fuerzas de la naturaleza, basado en la hipótesis de que todas las fuerzas, hasta entonces conocidas, estaban interrelacionadas. Investigó, sin éxito, la relación entre electricidad y gravitación, a pesar de que era consciente de las grandes diferencias existentes entre ambas.

El magnetismo producía electricidad, lo que reforzaba la idea de que en lugar de considerar la electricidad y el magnetismo por separado, había que referirse a un cuerpo de doctrina más amplio: el electromagnetismo. La intuición natural y habilidad experimental de Faraday hicieron avanzar sustancialmente el estudio de los fenómenos electromagnéticos, pero para poder desarrollar la teoría electromagnética se necesitaba otro tipo de científico. No hubo que esperar mucho: el escocés James Clerk Maxwell fue el continuador de sus teorías. Este se encargó de clarificar la teoría de Faraday y de descubrir las leyes del campo. Aunque es cierto que la imponente teoría matemática se basaba en las ideas de Faraday, alteró alguno de los rasgos fundamentales de su concepción. La desviación fundamental de Maxwell respecto a Faraday era su concepto de materia y campo como entes totalmente diferentes.

En su primer trabajo, “On Faraday’s Lines of Force” (1855), Maxwell había ya desarrollado matemáticamente muchas de las ideas de Faraday. Hablaba del éter, fluido sometido a las leyes de la mecánica newtoniana. Las líneas de fuerza venían representadas mediante un modelo hidrodinámico. Más que líneas se trataba de tubos de corriente, los cuales aumentaban el flujo del campo al estrecharse y lo disminuían al ensancharse. Con este modelo explica el sentido de las fuerzas y el de la corriente, e introduce el concepto de intensidad como la mayor o menor velocidad del fluido.

En su segundo trabajo, “On Physical Lines of Force” (1861) se desborda la imaginación de Maxwell, para dar con un modelo de éter que incorpore la masa y la elasticidad necesarias para la velocidad finita de la inducción y que fuera coherente con los fenómenos eléctricos y magnéticos ya conocidos. La fuerza magnética viene representada, dado su carácter de vórtice, por unos rodillos que giran sobre su eje. El desplazamiento de las partículas eléctricas da lugar a una corriente. Este modelo mecánico del campo electromagnético de Maxwell es uno de los más  imaginativos pero menos verosímiles que se hayan inventado. Es el único modelo de éter que logró unificar la electricidad estática, la corriente eléctrica, la inducción y el magnetismo, y a partir de él Maxwell dedujo sus ecuaciones de campo electromagnético de una forma asombrosa y totalmente enrevesada.

En su tercer artículo “A Dynamical Theory of the Electromagnetic Field” (1865) formula las cuatro ecuaciones del campo electromagnético, prescindiendo totalmente de modelos mecánicos. La reelaboración del formalismo conceptual y la utilización de un formalismo matemático nuevo son problemas eternos en la historia de la física y de toda ciencia empírico-formal. Veamos como introduce Maxwell la concepción, hoy fundamental, de “campo electromagnético”, y como establece el cálculo vectorial necesario para formalizarlo matemáticamente.

Los conceptos físicos que definen en cada punto un campo electromagnético, y que se relacionan a través de las famosas ecuaciones de Maxwell, son los cuatro vectores  “campo eléctrico” , “inducción eléctrica” , “campo magnético” e “inducción magnética”. Introducidos mal que bien esos cuatro conceptos vectoriales, Maxwell necesita un formalismo matemático adecuado para relacionar esas magnitudes vectoriales con otros conceptos electromagnéticos clásicos, como densidad de carga, densidad de corriente y constantes materiales.

Las ecuaciones de Maxwell toman una forma muy simétrica y sencilla cuando describen un campo sin cargas ni corrientes en el vacío o en un medio dieléctrico. Esto explica que, aún en el vacío, una perturbación electromagnética producida en un punto se propaga a los puntos circundantes. Además, la velocidad de propagación es fácil de calcular, y resulta ser igual a una constante universal que relaciona magnitudes electromagnéticas. Esta velocidad calculada electromagnéticamente coincide con la velocidad de la luz. Este resultado constituye para Maxwell un argumento poderoso para aceptar el carácter electromagnético de la luz. Más aún, al suponer que esa velocidad de propagación es una propiedad del medio transmisor, Maxwell funda en esa coincidencia su convicción de la existencia de un medio subyacente a todas las substancias transparentes y aún al vacío interestelar, es decir, su creencia firme en la existencia del éter.

Pasemos a analizar las ecuaciones de Maxwell en su forma diferencial tal como se utilizan en la actualidad.

i)  Ley de Gauss de la electrostática:

La cual relaciona un campo eléctrico con las cargas que lo crean, y explica que las líneas del campo eléctrico se originan en las cargas positivas y acaban en las negativas o dándole otra interpretación, el flujo de campo eléctrico en una superficie cerrada es igual a la carga neta encerrada.

ii)  Ley de Gauss del magnetismo:

Esta ley explica el hecho de que las líneas del campo magnético sean cerradas, y la no existencia de manantiales ni sumideros de estas líneas de campo (no existen las cargas magnéticas aisladas).  

iii) Ley de Ampère-Maxwell:

Esta ecuación indica que un campo eléctrico variable en el tiempo producirá un campo magnético, aunque no exista un flujo de corriente libre.

El término adicional   llamado “corriente de desplazamiento” es necesario para que la ecuación sea consistente con el principio de conservación de la carga. Esta corriente, que puede producir un campo magnético variable con el tiempo (pero no uno estacionario) tal como puede hacerlo un flujo de cargas, permitió a Maxwell unificar las leyes separadas de la electricidad y el magnetismo en una teoría electromagnética.

            La nueva corriente es una variación temporal de un campo eléctrico, y cuánto más rápida sea esa variación, mayor será la corriente.

En el caso estático , la corriente desplazamiento se anula, y para bajas frecuencias es prácticamente despreciable frente a las densidades de corriente comunes en los conductores. Incluso para una frecuencia de 1 MHz, un campo eléctrico, relativamente intenso, de 104 V/m solamente, originaría una corriente de desplazamiento de densidad 5.5 x 10-5 A/cm2.

iiii) Ley de Faraday : 

Esta ley relaciona las fuentes vectoriales de un campo eléctrico con el campo magnético variable en el tiempo que crea aquel campo eléctrico. Define también esta ley una nueva fuente de campos eléctricos: los campos magnéticos variables con el tiempo.

Los polos magnéticos en la naturaleza siempre se presentan por pares iguales y de sentido contrario. Las fuerzas del campo magnético estacionario actúan sobre corrientes o cargas móviles. En vista de todo ello, puede deducirse que la carga eléctrica es la fuente primaria para los campos eléctrico y magnético. Aunque no se han hallado pruebas de la existencia de las cargas magnéticas, la simetría de las ecuaciones de Maxwell pudiera ser la llave del hallazgo de las cargas magnéticas (en alguna ocasión llamadas monopolos magnéticos). Estas hipotéticas cargas magnéticas en estado estacionario producirían campos magnéticos y campos eléctricos cuando estuvieran en movimiento. No se necesitaría reformar las ecuaciones de Maxwell, por ejemplo, bastaría igualar la segunda ley a la densidad de carga magnética , así como la adición de la densidad de corriente magnética . De este modo las ecuaciones de Maxwell serían simétricas.

Consecuencias de la teoría electromagnética.

Una vez publicados los trabajos de Maxwell, la comunidad científica lo recibió con frialdad. En primer lugar, la nueva teoría tenía una presentación matemática complicada que pocos pudieron asumir. En segundo lugar, la formulación de la teoría electromagnética en términos de campos representaba un cambio revolucionario con respecto a la noción de acción a distancia de Newton. Además, el concepto de corriente de desplazamiento resultó incomprensible para muchos. Finalmente, faltaba una confirmación experimental de la existencia de dicha corriente de desplazamiento y de las ondas electromagnéticas. Hubo que esperar ocho años después de la muerte de Maxwell para confirmar experimentalmente la existencia y propagación de las ondas electromagnéticas.

El establecimiento de la teoría electromagnética y sus aplicaciones tuvo consecuencias importantes y profundas para la sociedad en el tránsito de los siglos XIX al XX. Ya nada sería igual en el futuro. Comunicaciones, iluminación, transportes y procesos industriales de todo tipo, se verían radicalmente afectados y con ello la vida de individuos y naciones. Ciencia y Tecnología se aliaron en una increíblemente fecunda alianza, a partir de los avances de la Física.

Considerando la telegrafía como uno de los grandes avances en las comunicaciones basadas en los efectos de la electricidad y el magnetismo, el cambio más importante se produjo al materializarse una de las consecuencias de la teoría de Maxwell : las ondas electromagnéticas. Labor que fue, en gran medida, obra de HEINRICH HERTZ (1857-1894), profesor de la Escuela Politécnica de Karlsruhe, que se interesó en la teoría electromagnética de Maxwell. La refundió matemáticamente, logrando que las ecuaciones fueran más sencillas y simétricas. En 1884 , Hertz pensó en la manera de generar y detectar en el laboratorio las ondas que Maxwell había predicho.  Según Maxwell, una variación de la polarización de un material dieléctrico, tiene, al igual que una corriente de conducción, efectos magnéticos. Para ello, tenía que crear un campo eléctrico alterno que pudiera polarizar y despolarizar rápidamente un material dieléctrico.

Después de tres años de trabajos, construyó un dispositivo con el que relizar su experimento. Utilizó un carrete o bobina de Ruhmkorff , que es un transformador que produce un voltaje muy alto. Lo conectó a dos varillas de cobre cada una de las cuales, en sus extremos contenían una esfera pequeña y otra grande, cada esfera actuaría como condensador para almacenar energía eléctrica. Conseguido un voltaje alto se producía una chispa entre las esferas pequeñas. Hertz razonó que esas chispas producirían un campo eléctrico variable en las proximidades, que según Maxwell debería inducir un campo magnético, también variable. Estos campos constituyen una perturbación que se debe propagar, es decir, debería producirse una onda electromagnética

El siguiente paso fue construir un detector de ondas electromagnéticas, y para  este fin utilizó dos dispositivos: uno de ellos era simplemente un aparato similar al radiador y otro constituido por una espira metálica, en forma circular, que tenía en sus extremos dos esferas conductoras. El argumento de Hertz era sencillo: al llegar las ondas electromagnéticas al detector, se induciría en él un campo eléctrico (acompañado del magnético) y, por tanto, en las varillas conductoras o en la espira aparecería una corriente eléctrica. Eso hará que entre sus extremos se induzca un voltaje, que llega a tener un valor suficiente grande para que se produzca la chispa. Con su detector situado a treinta metros del radiador, observó que saltaba una chispa entre las esferas del detector, con lo que demostró que las ondas electromagnéticas se propagabana través del espacio.

La reacción ante todos estos experimentos no se hizo esperar. La teoría de Maxwell, que hasta entonces era tachada de dudosa y oscura, se convirtió de pronto en punto de partida de posteriores teorías sobre la electricidad, el espacio y la materia, así como de multitud de avances tecnológicos.

El siglo XX: la Teoría Cuántica y la Teoría de la Relatividad.

Hacia el final del siglo XIX, el éxito de la ciencia clásica es impresionante. Todos los fenómenos físicos conocidos, aparentemente, encuentran su explicación en una teoría general.  En aquellos casos para los que no se encuentra explicación, se puede razonablemente achacar a las dificultades matemáticas que conlleva la resolución del problema. Las diversas ramas de la física se integran en un edificio teórico coherente cuyas grandes líneas son el estudio de la materia y la radiación. La materia está constituida por partículas perfectamente localizables, sometidas a las Leyes de la Mecánica  Racional de Newton. La radiación está gobernada por las Leyes del Electromagnetismo de Maxwell, pero al contrario que en la materia, no es posible escindir la radiación en corpúsculos localizados en el espacio y que conserven su carácter localizable en su evolución en el transcurso del tiempo. En compensación, la radiación presenta un comportamiento ondulatorio que se manifiesta en particular en los fenómenos, bien conocidos, de interferencia y difracción.

Thomas Kuhn, en su libro “La estructura de las revoluciones científicas”, divide la historia de la Ciencia en períodos de ciencia normal y de ciencia extraordinaria. Durante los períodos de ciencia normal, habitualmente de más larga duración, la comunidad científica acepta sin discusión las  hipótesis y postulados en que se basa la tarea científica. En un período normal, la actividad científica consiste en ir aclarando los detalles y explicar los nuevos fenómenos dentro del esquema general. Los períodos de ciencia extraordinaria, que son de menor duración, comienzan cuando algún elemento nuevo, teórico o experimental, no “encaja” en las hipótesis y postulados reinantes. Comienza, entonces una etapa de nuevas hipótesis y paradigmas, provocándose una gran polémica en la comunidad científica y desarrollándose un fuerte deseo de cambio y revisión de los viejos postulados. Al final sólo unas pocas teorías resultan vencedoras, son  aceptadas por la comunidad y empieza un nuevo período de ciencia normal. Desde este punto de vista en el siglo XX se afianzan dos teorías: la Relatividad y la Física Cuántica. 

Durante este siglo se produce una auténtica explosión en la producción y el desarrollo científico. Entre el ochenta y el noventa por ciento de los científicos que han existido vivieron y trabajaron en el siglo XX. Semejante aumento, junto con la mayor especialización, condujeron, inevitablemente a que el libro (cuya escritura lleva pareja un mayor tiempo de preparación) dejase su lugar, como vehículo de comunicación científica, al artículo en revistas especializadas. Todo lo cual significa dificultades a la hora de componer una descripción detallada de alguna de las teorías que marcaron la época.

La aparición de la Física Cuántica.

Los primeros datos relativos a la estructura de la materia fueron obtenidos en el estudio de la descarga de gases enrarecidos, rayos catódicos y rayos canales. En particular el descubrimiento del electrón por WILLIAM THOMSON (1824-1907) en 1897, su comportamiento en presencia de un campo electromagnético y la teoría del electrón de Lorente, lograron que la existencia misma de átomos y moléculas se fuera admitiendo como una realidad.

Un gran impulso en el desarrollo de las teorías de la estructura de la materia se produce con el descubrimiento de la radioactividad en 1896 por HENRI BECQUEREL (1852-1908), primera manifestación de las propiedades de los núcleos atómicos. Este descubrimiento pone en manos de los físicos un potente medio de investigación de la estructura atómica. ERNEST RUTHERFORD (1871-1937) estudia en 1911 la dispersión de partículas alfa por los átomos, pudiendo así desarrollar la primera imagen del átomo. En el modelo de Rutherford la materia está constituida por átomos en los que la masa estaba concentrada sobre todo en el núcleo, alrededor del cual giraban los electrones. En sus últimas consecuencias, la materia era, por tanto, o parecía ser, discreta y no continua.

Las primeras dificultades aparecieron al estudiar la radiación del cuerpo negro. La distribución espectral de la intensidad de radiación deducida mediante el uso métodos de la Termodinámica Estadística, aplicados a las leyes generales de la interacción entre materia y radiación, depende únicamente de la temperatura de este cuerpo, con la exclusión de cualquier otra variable. La expresión deducida por la teoría clásica está en total desacuerdo con la experiencia. En 1900 MAX PLANK (1858-1947) presenta su hipótesis de que los intercambios de energía entre materia y radiación no se realizan de forma continua, sino por cantidades discretas e indivisibles o cuantos de energía. Demostró también que el cuanto de energía es proporcional a la frecuencia n de la radiación.

E = h n

Desde su publicación, la  hipótesis de Plank fue rechazada por muchos físicos, que la tachaban de un afortunado artificio matemático, que sería pronto desmontada en el marco de la doctrina clásica. Sin embargo, esta hipótesis sería confirmada y completada por toda una serie de hechos experimentales, que avalarían la discontinuidad de la energía, que constituye la base de la física cuántica. A partir del trabajo de Plank, se produjo un fuerte movimiento que llevó a aplicar el concepto de “saltos” energéticos a los fenómenos microscópicos de los átomos y la radiación. En 1905 ALBERT EINSTEIN (1879-1955) demandó consistencia al proponer que, si la energía de los osciladores atómicos al emitir o absorber radiación tomaba valores discretos, la propia radiación debía consistir en cuantos energéticos: los fotones. Con su existencia, Einstein fue capaz de explicar el efecto fotoeléctrico.

Se designa como efecto fotoeléctrico la emisión de electrones cuando se irradia, en el vacío, un metal alcalino con radiación ultravioleta. La intensidad de la corriente eléctrica producida es proporcional a la intensidad de radiación recibida por el metal. Por el contrario, la velocidad de los electrones no depende de la intensidad de la radiación, solamente de su frecuencia, cualquiera que sea la distancia a la que se encuentre la fuente luminosa. La explicación de Einstein es muy simple. Cualquiera que sea la distancia recorrida por la luz, ésta se presenta bajo la forma de corpúsculos de energía  hn. Cuando uno de estos fotones encuentra un electrón del metal, es enteramente absorbido y el electrón recibe la energía del fotón. Aquel abandona el metal con una energía cinética bien definida:

donde W es la energía de ligadura del electrón en el metal.

Las implicaciones de la hipótesis de Einstein fueron muy importante. Efectivamente, esta hipótesis significaba un compromiso entre las dos tradiciones que dominaban la física en ese momento: la mecánica, originada por Newton, y la electromagnética de Faraday, Maxwell y su concepto de campo. Le fue concedido el Premio Nobel tras la confirmación experimental de la hipótesis de Einstein por Millikan. El reconocimiento de la naturaleza corpuscular de la luz no hizo caer a Einstein en la tentación de intentar de nuevo reducir todo a términos mecanicistas.

En 1913 , NIELS BOHR (1885-1962), obtiene un esquema general de explicación de los espectros atómicos completando la hipótesis de los cuantos de luz con un nuevo postulado incompatible con las teorías clásicas, el de la cuantificación de los niveles de energía de los átomos. Según Bohr, el átomo no se comporta como un sistema clásico susceptible de intercambiar energía de forma continua. El átomo no puede existir más que en un cierto número de estados estacionarios, poseyendo cada uno una energía bien definida. Se dice que la energía del átomo está cuantizada. No puede variar más que por saltos sucesivos y cada salto corresponde a una transición de un estado a otro.

Este postulado permite precisar el mecanismo de absorción o emisión de luz por cuantos. En presencia de radiación luminosa, un átomo en estado de energía Ei puede efectuar una transición a un estado de energía superior Ej , absorbiendo un fotón hν , de tal modo que la energía total se conserve :

De modo análogo, se puede efectuar una transición a un estado de energía inferior Ek mediante la emisión de un fotón hν cuya frecuencia satisfaga la relación:

Así queda explicada la existencia de espectros de rayas características de cada átomo que satisfacen la regla de combinación de Rydberg-Ritz. Hay que considerar, por lo tanto, la cuantización de los niveles de energía de los átomos como hechos experimentales. Esta propiedad no es exclusiva de los átomos, los avances experimentales, particularmente en los dominios de la espectroscopia, han demostrado que también aparece en el caso de las moléculas y en sistemas de partículas más complejos. Nos encontramos ante una propiedad muy general de la materia, para la cual la teoría corpuscular clásica no tiene explicación.

Dedicaré un poco más de tiempo a explicar lo que algunos físicos llamaron Antigua Teoría de los Cuanta. Se da por admitido que esta teoría es “microscópicamente correcta”, es decir, que ella explica los fenómenos en el límite clásico en que las discontinuidades cuánticas pueden ser consideradas como infinitamente pequeñas. En todos estos casos límite, las previsiones de la teoría deben coincidir con las de la teoría clásica. Esto se expresa en ocasiones con la afirmación de que la teoría cuántica debe tender asintóticamente hacia la teoría clásica en el límite de los grandes números cuánticos.

La fundación de la Mecánica Cuántica se sitúa entre los años 1923 y 1927. Una de las  formulaciones equivalentes fue la Mecánica Ondulatoria de ERWIN SCHRÖDINGER (1887-1961), que tiene por origen los trabajos del francés LOUIS DE BROGLIE (1892-1987) sobre las ondas de materia, es decir, sobre la dualidad onda-corpúsculo como propiedad general de los objetos microscópicos, de tal manera que la materia presenta, como la luz, un doble aspecto ondulatorio y corpuscular. Este último autor pudo establecer una correspondencia entre las variables dinámicas de la partícula y las magnitudes características de la onda asociada. Estas presunciones de De Broglie fueron confirmadas años después por el descubrimiento de fenómenos de difracción para haces de partículas.

Schrödinger, generalizando el concepto de ondas de materia, formuló la ecuación de propagación de la función de onda que define un sistema cuántico dado y que se representa mediante ecuaciones diferenciales en derivadas parciales. El doble aspecto ondulatorio y corpuscular de la luz es una de las manifestaciones más llamativas de la aparición de los cuantos en física.

Importante fue la interpretación probabilística realizada en 1926 por MAX  BORN (1882-1970)  de la función de onda ψ, cuyo cuadrado consideraba como una medida de la densidad de probabilidad de que la partícula se encuentre en un punto concreto en un instante dado.  El problema central de la teoría es el siguiente: conociendo la función de onda en un instante inicial determinar la función en cualquier instante posterior. Para ser esto posible se debe conocer la ecuación de propagación de la onda. Como toda ecuación de la física matemática, debe ser postulada y su única justificación reside en el éxito de la confrontación de sus predicciones con los resultados experimentales. Además, las previsiones de la teoría deben coincidir con las de la Mecánica Clásica en el dominio de validez de esta última.

Aún quedaba algo peor por admitir para el mundo científico “clásico”, (mayoritario desde la publicación de los Principia en 1687 de Newton) : el Principio de incertidumbre o indeterminación. Este principio, desarrollado por WERNER HEISENBERG (1901-1976) en 1927, constata que es imposible medir, predecir o conocer simultáneamente la posición y el momento de una partícula con tanta precisión como se desee.  Nótese que el principio de Heisenberg se aplica a pares de cantidades específicamente relacionadas (la posición y el momento en una misma dirección predeterminada) . También se aplica a la energía de la partícula y al tiempo durante el cual posee dicha energía. En la mayoría de los casos, la incertidumbre requerida por el principio de Heisenberg es bastante pequeña y cae fuera de la sensibilidad de los instrumentos de medición disponibles, pero existen ciertas situaciones en las que juega un papel muy útil, como en el intento de medir la posición del electrón en un orbital atómico.

El principio de incertidumbre ha influido notablemente en las discusiones acerca de los conceptos fundamentales del conocimiento, eliminando la creencia de que el Universo está completamente determinado por su historia anterior. Dicha idea la había sugerido Laplace, casi doscientos años antes, como consecuencia del éxito de la mecánica newtoniana. Laplace creía que si se pudiera conocer, en un instante dado, la posición y velocidad de todas las partículas del Universo y se conocieran todas las fuerzas, podría calcularse la posición y velocidad de las mismas en cualquier instante del futuro. El futuro estaría predeterminado, ya que las leyes existen y en el pasado las partículas han tenido una posición y una velocidad dadas, pero el principio de indeterminación manifiesta que eso no puede ser. Es imposible, por principio, realizar las mediciones con suficiente precisión para calcular a partir de ellas las posiciones y velocidades futuras.  Podrá calcularse la probabilidad de que en el futuro ocurra algún suceso basándose en consideraciones estadísticas. Lo que no puede predecirse es lo que le ocurrirá a un electrón concreto.

No todos los físicos aceptaron el principio de incertidumbre y sus consecuencias. Einstein fue uno de ellos y discutiendo con Bohr y otros físicos, llegó a esgrimir muchos argumentos en contra del citado principio, intentando refutarlo o buscando ejemplos que lo contradijeran o lo hicieran caer en paradojas. Aunque acabó confesando finalmente que las predicciones basadas en él serían válidas, confió en que apareciera otro principio más satisfactorio que explicara los resultados de la Mecánica Cuántica y preservara la causalidad completamente. Una de sus razones de más peso era la intuición filosófica de que “Dios no juega a los dados con el Universo”.

La discusión Einstein-Bohr es una de las grandes polémicas de la historia de la  física. El instinto científico de Einstein le impedía aceptar la teoría cuántica. No la negaba pero pensaba que era simplemente una aproximación a una teoría más profunda, que intentó descubrir sin conseguirlo. Ni Bohr ni Einstein pudieron probar que ellos tenían razón y que el otro estaba equivocado. La mayoría de los físicos estaba del lado de Bohr. Sin embargo, la figura de Einstein está siendo muy revalorizada en estos últimos años y la polémica se está volviendo a suscitar.

Finalmente el inglés PAUL DIRAC (1902-1984), en 1930, publicó uno de los trabajos más decisivos de la historia de la física. Tras presentar una teoría cuántica y relativista para el electrón, basada en la ecuación que hoy lleva su nombre, muestra la necesidad de admitir que toda partícula debe tener su antipartícula. Esta conclusión era realmente sorprendente pues no existía, por entonces, ninguna confirmación experimental de este hecho. El electrón tiene una carga negativa y la única partícula conocida entonces era el protón, que no podía ser el antielectrón por ser mucho más pesado. Esta idea de Dirac fue recibida en principio con gran escepticismo, pero cuando en 1932 el estadounidense CARL DAVID ANDERSON (1905-1991) descubrió el positrón, aquellas reticencias fueron desapareciendo.

Introducción a la Relatividad.

A finales del siglo XIX el mundo estaba a punto de adentrarse en una era muy fructífera y revolucionaria para la ciencia, en cuyos fases iniciales muchos no entenderían nada y no habría nadie que lo comprendiera todo. Los científicos no tardarían en sentirse perdidos en un reino desconcertante de partículas y antipartículas, en el que las cosas afloraban a la existencia y desaparecían de ella en periodos de tiempo que hacían que los nanosegundos pareciesen lentos,  en que todo era extraño. La ciencia se desplazaba de un mundo de macrofísica, a otro de microfísica, en que los acontecimientos sucedían con increíble rapidez, en escalas de magnitud muy por debajo de los límites imaginables.

Hasta este momento se creía que todos los fenómenos naturales pertenecían a la mecánica o al electromagnetismo. A esta situación se había llegado tras un largo proceso simplificador. La teoría cinética de los gases había permitido reducir a términos mecánicos los fenómenos térmicos, mientras que la óptica se había podido incluir en el electromagnetismo gracias a Maxwell, considerando luz como una onda electromagnética más dentro del espectro. Sin embargo, estas ondas eran difíciles de entender para los físicos de finales del XIX. Por ello, debido a los grandes éxitos de la mecánica de GALILEO GALILEI (1564-1642) e ISAAC NEWTON (1643-1727), las imaginaron como una vibración mecánica, análoga al sonido. Supusieron que se trataba de vibraciones de un medio sutilísimo que impregna la materia y llena el vacío, el éter. Este modelo planteaba, a pesar de su sencillez, un problema serio. Para Newton las leyes de la física eran igualmente válidas para todos los observadores que se muevan entre sí con velocidad constante (sistemas de referencia inerciales). Sin embargo, si las ondas electromagnéticas son vibraciones del éter debe existir un sistema de referencia en el que las leyes de la física tomen su forma más simple: el sistema en el que el éter esté en reposo. Esto definiría un espacio absoluto de una manera más radical que la mecánica de Newton. Por entonces se empezó a pensar en la posibilidad de detectar mediante experimentos ópticos el movimiento de la tierra respecto al éter.

En la década de 1880 un físico llamado ALBERT MICHELSON (1852-1931) y un químico amigo del anterior, EDWARD MORLEY (1838-1923) intentaron medir lo que se llamó viento del éter, puesto que, al moverse la tierra en su seno, debería producirse un fenómeno análogo al que se da cuando un móvil se desplaza con el aire en calma. Además, una de las predicciones de la física newtoniana era que la velocidad de la luz, cuando surcaba el éter, tenía que variar respecto a un observador según que éste estuviese en movimiento hacia la fuente luminosa o alejándose de ella. Michelson pensó que si la Tierra viaja una mitad del año hacia el Sol y se aleja de él la otra mitad, midiendo  cuidadosamente en estaciones opuestas y comparando el tiempo de recorrido de la luz en las dos casos, se obtendría la solución.

Por métodos interferométricos  bastante sofisticados pudieron medir la velocidad de la luz con gran precisión, pero los resultados no fueron en modo alguno lo que los dos científicos habían esperado encontrar: “la velocidad de la luz resultó ser la misma en todas las direcciones y en todas las estaciones”. Era el primer indicio en doscientos años de que las leyes de Newton no eran de aplicación universal. El resultado de la experiencia de Michelson-Morley se convirtió, probablemente, en el resultado negativo más famoso de la historia de la física.

El físico irlandés G.F.FITZGERALD (1851-1901) y el holandés H.A.LORENTZ (1853-1928)  sugirieron en 1892, de forma independiente, una solución al dilema planteado por el experimento de Michelson-Morley. Afirmaron que la parte del interferómetro que conducía el tren de ondas luminosas en recorrido horizontal se acortaba justo lo suficiente para compensar el tiempo extra requerido por el desplazamiento de la luz en él. De esta forma la luz no tardaría más tiempo en viajar horizontalmente que en desplazarse perpendicularmente, explicándose, por consiguiente, el resultado nulo. El grado de contracción es muy pequeño, sin embargo, la técnica de Michelson-Morley era tan sensible que permitía detectar efectos así de pequeños.

Lorentz justificó en 1899 su postulado de “contracción” afirmando que, con objeto de hacer invariante la fuerza electromagnética, había buscado nuevas ecuaciones de transformación entre distintos sistemas de referencia inerciales. Una de las consecuencias de estas ecuaciones, conocidas por transformaciónes de Lorentz, consistía en que los objetos en movimiento se contraían una cierta cantidad según su velocidad.

Einstein  es para la mayoría de los ciudadanos el científico por antonomasia: pocos científicos han alcanzado una notoriedad tan popular. En cuanto a su contribución a la física, por la que debería ser recordado, hay que destacar sus grandes artículos de 1905 en la revista alemana Annalen der Physik. Por entonces era un joven oficinista suizo que no tenía vinculación universitaria alguna, sin acceso a un laboratorio y que no disfrutaba del uso de más biblioteca que la de la Oficina Nacional de Patentes de Berna, donde trabajaba como inspector técnico de tercera clase. El primero de sus trabajos se titulaba:”Sobre un punto de vista heurístico relativo a la producción y transformación de la luz”, y en él Einstein extendió a la radiación electromagnética la discontinuidad cuántica, que Plank había introducido en la física cinco años antes, para explicar el efecto fotoeléctrico, por lo que en 1922 la Academia Sueca de Ciencias le concedió el premio Nobel de Física.

El  artículo “Sobre la electrodinámica de los cuerpos en movimiento”, es uno de los más extraordinarios que se hayan publicado, tanto por la exposición como por su contenido. No poseía ni notas al pie, ni citas, casi no contenía formulaciones matemáticas, no mencionaba ninguna obra que lo hubiese precedido o influido y sólo reconocía la ayuda de un colega de la oficina de patentes. Su famosa ecuación,

E = m c2

no apareció en el artículo sino en un breve suplemento que le siguió unos meses más tarde. Esta ecuación  viene a decir, en términos sencillos,  que la masa y la energía son dos formas de la misma cosa: energía es materia liberada; materia es energía esperando actuar. Puesto que c2 (c, velocidad de la luz) es una magnitud enorme, esta ecuación  viene a decir que hay un cantidad enorme de energía encerrada en cualquier objeto material y permitió comprender inmediatamente la razón, aunque no la causa, que subyacía en el fenómeno de la aparentemente infinita energía producida en los procesos radiactivos descubiertos al final del siglo XIX.

Einstein definió dos principios de partida aplicables a todos los sistemas de referencia:

  • I. Las leyes físicas son invariantes en todos los sistemas de referencia inerciales.
  • II. Es una ley física que la velocidad de la luz en el vacío es la misma en todos los sistemas de referencia inerciales, con independencia de la velocidad de la fuente o el detector de la luz.

Esto significaba que el éter no se podía detectar por ningún medio experimental y que, por consiguiente, era un concepto inútil que había que descartar.

La teoría de la Relatividad, en la actualidad llamada especial, fue bastante bien recibida, pero el mismo Einstein hacia 1917 encontró la solución a algo que le faltaba a esa teoría: la solución del problema del campo gravitatorio. Lo que tenía de especial esta teoría era que los móviles se desplazaban en un estado libre de trabas. Pero ¿qué pasaba cuando algo en movimiento (la luz sobre todo) se encontraba con un obstáculo como la gravedad? Previamente, su amigo el matemático alemán HERMANN MINKOWSKI (1864-1909), propuso una nueva formulación de las ideas de Einstein. Mostró que si en vez de hablar del espacio y del tiempo como dos entidades separadas se considera su unión, o espaciotiempo, se simplificaba enormemente el estudio de la física relativista. Era necesario reconsiderar el significado del espacio y del tiempo, así como la forma de medirlos. Este espacio de cuatro dimensiones, llamado desde entonces de Minkowski, es el escenario natural de la realidad física.

En este escenario Einstein logra una nueva teoría de la Gravitación Universal que publicó en el artículo “Consideraciones cronológicas sobre la Teoría General de la Relatividad”. En esa teoría se prescinde totalmente del concepto de Fuerza, cuyo efecto se sustituye por el de la Geometría. Sus ecuaciones expresan el hecho de que la materia modifica la estructura geométrica del espacio-tiempo, lo que suele expresarse diciendo que lo curva.

Uno de los conceptos de la Teoría General de la Relatividad más desconcertante y que choca más con la intuición es la idea de que el tiempo es parte del espacio. El sentido de la realidad nos lleva a considerar el tiempo como inmutable, eterno y absoluto, a creer que nada puede perturbar su transcurrir firme y constante. Todo ello lleva a admitir que el espacio y el tiempo están íntimamente relacionados, además son cantidades relativas diferentes en distintos sistemas de referencia inerciales. Los sucesos simultáneos en un sistema de referencia no tienen por que serlo en otro.  Einstein llegó también a la conclusión de que la gravedad habría de ser una fuerza ficticia debida simplemente al movimiento acelerado de un sistema de referencia. Este movimiento acelerado sería un movimiento inercial a través del espacio “curvado”. La Teoría General constata que las grandes concentraciones de masa provocan en sus inmediaciones la curvatura del espacio. El movimiento de todos los cuerpos a través de este espacio curvado es necesariamente acelerado y sufrirán una “fuerza” simplemente debido a la curvatura del mismo.

Quizás la prueba experimental más convincente a favor de la curvatura  del espacio es la deflexión que sufren los rayos luminosos al pasar cerca del Sol. Para ello es necesario observar cuidadosamente los rayos luminosos procedentes de una estrella  distante al pasar cerca del Sol durante un eclipse. La predicción de la curvatura de la luz cerca del Sol fue confirmada por las medidas del equipo dirigido por el físico inglés ARTHUR EDDINGTON (1882-1944) durante un eclipse de Sol en 1919. En una isla de la costa occidental de África, donde el eclipse tendría una larga duración, tomó fotografías de un campo de estrellas de las inmediaciones del Sol. Al ser comparadas con las tomadas meses antes, del mismo campo estelar, observó una desviación de las estrellas más próximas al Sol y del orden de magnitud predicho por Einstein.

Este resultado sorprendió a muchos científicos que no admitían que la luz tuviera masa, ya que, entonces, según la ley de gravitación universal de Newton la luz no debía ser alterada en su trayectoria por la masa del Sol. Los efectos de la relatividad son pues reales y se han medido. El problema es que son demasiado pequeños para llegar a producir una diferencia mínima que podamos percibir.

El aceptar la Teoría General de la Relatividad y su predicción de la curvatura del espacio conduce a unas consecuencias importantes en relación a la naturaleza del mundo físico. Entre ellas están la curvatura general del espacio y la posibilidad de que existan “agujeros negros”. Si una gran concentración de masa produce la curvatura del espacio en sus inmediaciones, es posible que una masa suficientemente grande haga que el espacio se curve tanto que llegue a plegarse sobre sí mismo. Ello puede tener lugar para la totalidad del Universo o localmente en las proximidades de una masa concentrada. Si el Universo tuviera suficiente masa y el espacio en torno a él no fuera muy grande podría eventualmente plegarse sobre sí mismo. En tal situación un rayo luminoso enviado en cualquier dirección no iría alejándose en línea recta para siempre, sino que con el tiempo se replegaría debido a  la masa del Universo. Es la densidad de masa de éste la que determina el tamaño real  del espacio asociado a él. Si la densidad de masa total no fuera lo bastante grande, tampoco lo sería la curvatura del espacio para provocar su eventual plegamiento sobre sí mismo, originándose un universo infinito, esto es, sin limitación espacial.

Se sabe que el Universo se está expandiendo, presumiblemente debido a una gran explosión o “big bang” con la que comenzó a existir tal como lo conocemos ahora.  El problema de si el Universo continuará expandiéndose para siempre o si, con el tiempo, llegará  a plegarse sobre sí mismo, está relacionado con la naturaleza abierta o cerrada del mismo. Si la densidad de masa es lo suficientemente grande, el espacio del Universo es cerrado y la expansión se detendrá alguna vez produciéndose el plegamiento. Si la densidad de materia no es lo suficientemente alta, el Universo es abierto y su expansión continuará siempre. En la actualidad, esta última situación es la que cuenta con mayores adeptos.

Bibliografía

N. Bohr. La teoría atómica y la descripción de la naturaleza. Alianza Editorial. 1988.

B. Bryson. Una breve historia de casi todo. Círculo de Lectores. Barcelona. 2005.

P. Dirac. Principios de Mecánica Cuántica. Ariel. Barcelona. 1968.

A. Einstein y L. Infeld. La Física, aventura del pensamiento. Losada. Buenos Aires.1939.

Encyclopaedia Britannica. Vol II. The scientific papers of James Clerk Maxwell. 1980.

A. Fernández Rañada. Las revoluciones de la Física del siglo XX. Fundación Marcelino Botin. 1982

M. García Doncel. De la Física mecanicista a la teoría de campos. Universidad de Santander. 1982.

W. Heisenberg. Diálogos sobre la Física Atómica. Biblioteca de Autores Cristianos. Madrid. 1972.

T.Kuhn. La estructura de las revoluciones científicas. FCE. Mexico. 1971.

A. Messiah. Mecanique Quantique. Dunod. Paris.1962.

J. Palacios. Relatividad, una nueva teoría. Espasa Calpe. Madrid. 1960.

M. Plank. Autobiografía científica. Nívola. Madrid. 2000.

M. A. Plonus. Electromagnetismo aplicado. Reverté. Barcelona. 1992.

J. M. Sánchez Ron. El canon científico. Crítica. Barcelona. 2005.

N. Spielberg y B. D. Anderson. Siete ideas que modificaron el mundo. Pirámide. Madrid. 1990.

©  U n i v e r s i d a d  d e  C ó r d o b a