domingo, 24 de junio de 2012

Propiedades Ondulatorias de las Particulas



En el contexto de la física clásica, el modelo corpuscular de la luz (según el cual está constituida por fotones) y el modelo ondulatorio (según el cual consiste en la propagación del campo electromagnético) son incompatibles. Pero en el marco de la física cuántica, ambos comportamientos de la luz, que parecían contradictorios, se pudieron integrar en un modelo coherente.
Un avance fundamental que permitió esta integración e impulsó el desarrollo de la física cuántica fue una hipótesis, planteada por el físico francés de De Broglie (1892-1987) en su tesis doctoral de 1924. Dicha hipótesis atribuyó a toda partícula con impulso, p (para una partícula de masa, m, y velocidad, vp=m·v), una onda asociada, cuya longitud de onda es  l h/p (h es una constante universal, llamada constante de Planck) La física cuántica generalizó la hipótesis de De Broglie, para considerar que toda entidad física (las partículas y también los fotones) tiene una naturaleza dual, de tal forma que su comportamiento global presenta dos aspectos complementarios: ondulatorio y corpuscular. Dependiendo del experimento predomina uno de estos dos aspectos.
Así, el hecho de que un electrón, por ejemplo, tenga masa y cantidad de movimiento (propiedades corpusculares), pero también una longitud de onda (propiedad ondulatoria), supone que en una colisión con otro electrón, predomine el comportamiento corpuscular de ambos, pero también ocurre que un haz de electrones se difracta cuando pasa por un pequeño orificio circular de tamaño comparable a su longitud de onda. De hecho, si el haz de electrones se hace incidir en una pantalla situada detrás del orificio, dibuja una figura como a la mostrada a la derecha.

También dos haces de electrones pueden producir interferencias y así se comprueba en un experimento consistente en hacerlos pasar a través de una rendija doble o múltiple. Estas interferencias se producen aunque los electrones se lancen de uno en uno hacia las rendijas, de manera que el resultado observado en la pantalla no es fruto de un proceso estadístico producido por la incidencia de un número elevado de electrones, sino que realmente cada electrón interfiere consigo mismo.
Este mismo concepto de dualidad onda-partícula se aplica a los fotones, las entidades de masa nula que forman la luz. Un fotón tiene un comportamiento corpuscular, por ejemplo, cuando colisiona con otros fotón o, como ocurre en el efecto fotoeléctrico, con partículas (electrones, protones...), pero un haz luminoso (un haz de fotones) manifiesta un comportamiento ondulatorio (onda electromagnética) cuando, por ejemplo, se difracta, se polariza o produce interferencias luminosas.

Teoria del Big Bang



El Big Bang, literalmente gran estallido, constituye el momento en que de la "nada" emerge toda la materia, es decir, el origen del Universo. La materia, hasta ese momento, es un punto de densidad infinita, que en un momento dado "explota" generando la expansión de la materia en todas las direcciones y creando lo que conocemos como nuestro Universo.

Inmediatamente después del momento de la "explosión", cada partícula de materia comenzó a alejarse muy rápidamente una de otra, de la misma manera que al inflar un globo éste va ocupando más espacio expandiendo su superficie. Los físicos teóricos han logrado reconstruir esta cronología de los hechos a partir de un 1/100 de segundo después del Big Bang. La materia lanzada en todas las direcciones por la explosión primordial está constituida exclusivamente por partículas elementales: Electrones, Positrones, Mesones, Bariones, Neutrinos, Fotones y un largo etcétera hasta más de 89 partículas conocidas hoy en día.

En 1948 el físico ruso nacionalizado estadounidense George Gamow modificó la teoría de Lemaître del núcleo primordial. Gamow planteó que el Universo se creó en una explosión gigantesca y que los diversos elementos que hoy se observan se produjeron durante los primeros minutos después de la Gran Explosión o Big Bang, cuando la temperatura extremadamente alta y la densidad del Universo fusionaron partículas subatómicas en los elementos químicos.

Cálculos más recientes indican que el hidrógeno y el helio habrían sido los productos primarios del Big Bang, y los elementos más pesados se produjeron más tarde, dentro de las estrellas. Sin embargo, la teoría de Gamow proporciona una base para la comprensión de los primeros estadios del Universo y su posterior evolución. A causa de su elevadísima densidad, la materia existente en los primeros momentos del Universo se expandió con rapidez. Al expandirse, el helio y el hidrógeno se enfriaron y se condensaron en estrellas y en galaxias. Esto explica la expansión del Universo y la base física de la ley de Hubble.

Según se expandía el Universo, la radiación residual del Big Bang continuó enfriándose, hasta llegar a una temperatura de unos 3 K (-270 °C). Estos vestigios de radiación de fondo de microondas fueron detectados por los radioastrónomos en 1965, proporcionando así lo que la mayoría de los astrónomos consideran la confirmación de la teoría del Big Bang.

Uno de los problemas sin resolver en el modelo del Universo en expansión es si el Universo es abierto o cerrado (esto es, si se expandirá indefinidamente o se volverá a contraer).

Un intento de resolver este problema es determinar si la densidad media de la materia en el Universo es mayor que el valor crítico en el modelo de Friedmann. La masa de una galaxia se puede medir observando el movimiento de sus estrellas; multiplicando la masa de cada galaxia por el número de galaxias se ve que la densidad es sólo del 5 al 10% del valor crítico. La masa de un cúmulo de galaxias se puede determinar de forma análoga, midiendo el movimiento de las galaxias que contiene. Al multiplicar esta masa por el número de cúmulos de galaxias se obtiene una densidad mucho mayor, que se aproxima al límite crítico que indicaría que el Universo está cerrado.

La diferencia entre estos dos métodos sugiere la presencia de materia invisible, la llamada materia oscura, dentro de cada cúmulo pero fuera de las galaxias visibles. Hasta que se comprenda el fenómeno de la masa oculta, este método de determinar el destino del Universo será poco convincente.

Muchos de los trabajos habituales en cosmología teórica se centran en desarrollar una mejor comprensión de los procesos que deben haber dado lugar al Big Bang. La teoría inflacionaria, formulada en la década de 1980, resuelve dificultades importantes en el planteamiento original de Gamow al incorporar avances recientes en la física de las partículas elementales. Estas teorías también han conducido a especulaciones tan osadas como la posibilidad de una infinidad de universos producidos de acuerdo con el modelo inflacionario.

Sin embargo, la mayoría de los cosmólogos se preocupa más de localizar el paradero de la materia oscura, mientras que una minoría, encabezada por el sueco Hannes Alfvén, premio Nobel de Física, mantienen la idea de que no sólo la gravedad sino también los fenómenos del plasma, tienen la clave para comprender la estructura y la evolución del Universo.


http://www.astromia.com/astronomia/teoriabigbang.htm

Fisión nuclear

La fisión es la división de un nucleu atómico pesado (Uranio, plutonio, etc.)en dos o más fragmentos causado por el bombardeo de neutrones, con liberación de una enorme cantidad de energía y varios neutrones.
Cuando la fisión tiene lugar en un átomo de Uranio 235se obserba su triple fenómeno;
- Aparace una cantidad de energía, elevada en 200MeV que traduce la perdida de masa.
- Los produntos de ruptura (300 o´400)son radiactivos. Su presencia expleca los efectos de explosión de un artefacto nuclear.
- Cada nucleo fisionado emite 2 ó 3 neutrones que provocan el fenómeno de reacción en cadena y explican la noción de la masa crítica.
Se observa el mismo fenómeno de fusión en el plotinio 239 (artificial) y en el Uranio 233 (artificial). Ambos se fabrican a partir del Torio. Los nucleos se denominan nucleos flexibles.
Para que se produzca la fisión hace falta que el neutrón incidente reuna unas condiciones determinadas. Para actuar sobre el Uranio 235 y 233 y el Plutonio 239, el neutron ha de ser un neutron termicocuya energía es de la orden 1/40 eV, lo cual responde a una velocidad de 2 Km/s. El Uranio 238es igualmente fisible pero con neitrones rápidos cuya energía es 1MeV.

Fusión nuclear

La fusión de determinados núcleos de elementos ligeros es uno de los dos orígenes de energía nuclear, siendo la otra, la antes citada.
En la fusión intervienen los isótopos de hidrógeno (deuterio, tritio). Cuando se fusionan los nucleos de dichos isótopos se observa la aparición de energía que procede de la perdida de de masa, de acuerdo con la relación de Einstein E=m.c2.
La fusión de los átomos ligeros presenta dificultades especiales tanto desde el punto de vista teórico como del tecnológico. Esto ocurre por estar los nucleos cargados positivamente.

La fusión y la fisión nuclear


Encontrar recursos energéticos casi inagotables, baratos y no contaminantes ha sido un afán del hombre casi desde el primer momento.
El gran salto cuantivo lo dió el descubrimiento, hacia el año 1938-1939, es decir, la separación del nucleo de un átomos en otros elementos , liberaba gran cantidad de energía.
Desgraciadamente esta energía, a pesar de su rendimiento, es también altamente peligrosa- recerdese que uno de el militar en Hiroshima y Nagasaki, y el desastre de Chernobil-. La alternativa del futuro es la fusión nuclar. Las diferencias entre la fisión y la fusión nuclear son;
Por la fusión nuclear, un nucleo pesado como el Uranio 235, es dividido generalmente en dos nucleosmás ligeros debido a la colisión de un neutron (recordemos que un átomo se compone de electrones, neutrones y protones). Como el neutron no tiene carga electrica atraviesa facilmente el nucleo del Uranio. Al dividirse este, libera más neutrones que colisionan con otros átomos de Uranio creando la conocida reacción en cadena de gran poder radiactivo y energético. Esta reacción se produce a un ritmo muy acelerado en las bombas nucleares, pero es controlado para usos pacíficos.
Por contra, la fusión es la unión de dos nucleos ligeros en uno más pesado, obteniéndose del orden de cuatro veces más energía que en la fisión.
Mientras que la fisión nuclearse conoce y puede controlarse bastante bien, la fusión plantea el siguiente gran inconveniente, que hace que continue en fase de estudio, aunque entrando en el siglo XXI se espera resolver:
  • Para que la reacción de la fusión sea posible hay que vencer la repulsión electroestática entre dos nucleos igualmente cargados; esto es, al existir nucleos atómicos con igual carga, y en virtud del principio de que las cargas iguales se repelen, hay que aplicar una gran energía para conseguir la unión de las mismas.
  • Esto se logra gracias al calor aplicando temperaturas de millones de grados. El problema mencionado proviene de la dificultad de encontrar un reactor que aguante esa temperatura.
  • Con este calor se crea un nuevo estado de la materia, el plasma, en el que se dá un absoluto desorden de iones y electrones.
Hay formas de conseguir la energía nuclear de fusión que se están experimentando actualmente, el confinamiento magnético y el confinamiento lineal.
  • Con el magnético se crea y se mantiene la reacción gracias a grandes cargas magnéticas.
  • Con el linel, el calentamiento se consigue con laser y el confinamiento del plasmacon la propia inercia de la materia.
La investigación actual está inclinada más por el magnético, habiendose descubierto recientemente un nuevo método para mantener la reacción, cambiando el campo magnético de la forma cilíndrico a otra aproximadamente de forma de toro.
Podemos decir con orgullo que España se encuentra en los primeros puestos encuanto a la investigación de la energía de fusión, disponiendo de prestigios científicos dedicados a esta materia y con gran reconocimiento nacional.
La reacción de fusión se suele conseguir por la unión por la unión del tritio y el deuterio (isótopos de hidrógeno) para conseguir la partícula X (alfa) logrando el calor necesario. El deuterio se encuentra en un 0,15% en el hidrógeno, y el tritio se extra del litio, muy agundante en el agua, por lo que no hay problemas en cuanto a estas materias primas.
Comparativamente, la energia de fusión proporciona más energía que la fisión. Por ejemplo, medio kilo de hidrógeno (muy abundante en la naturaleza, ya que forma parte del agua)produciría unos 35 millones de kilovatios hora.Por otro lado la fusión no contamina, o al menos no tanto como la fisiónno existiendo peligro de radioactividad. La fisión por contra requiere de una materia prima de dificil y costosa extración.
También se a hablado de fusión en frio, para evitar los problemas que ya hemos citado con anterioridad.Este sistema lo propuso hace pocos años un importante científico, que supondría un gigantesco avance en este campo.
Desgraciadamente, y como la inversión en los otros dos sistemas ha sido grandísima y costaría mucho dinero cambiar los métodos de investigación a esta nueva vía, a parte de las presiones de los científicos que ahora investigan, que vieron peligrar sus subvenciones, al descubridor de la fusión en frío poco menos que se les lapidó, no volviendose a oir hablar de él ni de su sistema.Científicos más objetivos consideran que con ello se han perdido al menos cuarenta o cincuenta años en la investigación de la fusión.
En cuanto a la utilidad de la energía de fusión, que es la que se da en el Sol para generar el calor que nos permite vivir, podemos destacar primeramenteque sería una fuente casi inagotable de electricidad. Paulatinamente se deberían ir sustituyendo los reactores de fisión por los nuevos de fisión, evitandose así los problemas de radio actividad.
En un futuro no demasiado lejano incluso podrían instalarse estos reactores, como a hora ocurre en la fisión, en submarinos , en naves espaciales, y también en aereonaves y vehículos terrestres. Quizás se pueda llegar a tener en camiones, trenes, autobuses,… con motores de fusión (¿quién sabe?).
Aparte de esto, tecnicamente, llegará a ser factible, habrá que contar de nuevo con los intereses ecomómcos y políticos ( la industria del petroleo mueve anualmente billones de pesetas, y los estados gana muchísimo através de los impuestos). Recordemos, por ejemplo,el caso de aquel español que inventó un motor a base de agua hace algunos años; sorprendentemente la noticia desapareció de los medios de comunicación en cuestión de días (¿presiones económicas y políticas?).
Con todos estos acontecimientos cabe preguntarnos si de verdad podremos ver algún día estos avances y beneficiarnos.como ciudadanos de a pie, con ellos.
Recientemente se ha logrado en el reactor español de fusión TJ-II, del CIEMAT, confinar plasma a una temperatura similar a la del Sol. El objetivo de ese reactor no es conseguir la fusión y generar electricidad, sino comprovar durante los proximos quince años el comportamiento del plasma.
El TJ-II tiene un peso de sesenta toneladas y un diámetro de cinco metros, y funciona calentando hidrógeno inyectado en su interior, gracias a una potencia electrica de un millon de watios generados.
Hasta el momento se ha logrado en 120 ocasiones plasma, durando cada prueba aproximadamente un dsegundo.El exito de este experimento es un paso más en la consecución de la esperada energía de fusión.








La radiactividad

El fenómeno de la radiactividad fue descubierto casualmente por Henri Becquerel(a la izquierda) en 1896. Estudiaba los fenómenos de fluorescencia y fosforescencia, para lo cual colocaba un cristal de Pechblenda, mineral que contiene uranio, encima de una placa fotográfica envuelta en papel negro y las exponía al sol. Cuando desenvolvía la placa la encontraba velada, hecho que atribuía a la fosforecencia del cristal. Los días siguientes no hubo sol y dejó en un cajón la placa envuelta con papel negro y con la sal de Uranio encima. Cuando sacó la placa fotográfica estaba velada, y no podía deberse a la fosforescencia ya que no había sido expuesta al sol. La única explicación era que la sal de uranio emitía una radiación muy penetrante. Sin saberlo Becquerel había descubierto lo que Marie Curie llamaría más tarde radiactividad.

Mme. Curie junto a su esposo Pierre Curie, empezaron a estudiar el raro fenómeno que había descubierto Becquerel. Estudiaron diversos minerales y se dieron cuenta de que otra sustancia el torio, era "radiactiva", término de su invención. Demostraron que la radiactividad no era resultado de una reacción química, sino una propiedad elemental del átomo. El fenómeno de la radiactividad era característico de los núcleos de los átomos. En 1898 descubren dos nuevas sutancias radiactivas: el radio y el polonio, mucho más activas que el uranio. Pierre estudiaba las propiedades de la radiación, y Marie intentaba obtener de los minerales las sustancias radiactivas con el mayor grado de pureza posible. Pierre probó el radio sobre su piel, y el resultado fue una quemadura y una herida, pronto el radio serviría para tratar tumores malignos. Era el comienzo de las aplicaciones médicas queMme. Curie daría a la radiactividad. En 1903 recibieron el premio Nobel de física junto con Becquerel por el descubrimiento de la radiactividad natural.
Al poco tiempo murió Pierre Curie en un accidente debilitado como estaba por el radio. Mme. Curie siguió trabajando y fue la primera mujer que ocupó un puesto en la Universidad de la Sorbona en Paris. Siguió investigando junto a Ernest Rutherford, quien encontró que la radiación que emitían las sustancias radiactivas, tenía tres componentes que denominó:alfa, beta y gamma.
Mme. Curie siguió estudiando el fenómeno de la radiactividad durante toda su vida, prestando especial atención a las aplicaciones médicas de la radiactividad junto con los rayos X, recien descubiertos. Agotada, casi ciega, los dedos quemados y marcados por su querido radio, Mme Curie murió a los 60 años de leucemia en 1934. Su hija Irene continuó su trabajo con la misma pasión junto a su marido, con el que descubrió la radiactividad artificial y por lo que recibieron el premio Nobel.




La física nuclear

La física nuclear es una rama de la física moderna que estudia las propiedades y el comportamiento de los núcleos atómicos. La física nuclear es conocida mayoritariamente por la sociedad en su papel en la energía nuclear en centrales nucleares y en el desarrollo de armas nucleares, tanto de fisión como de fusión nuclear. En un contexto más amplio, se define la física nuclear y física de partículas como la rama de la física que estudia la estructura fundamental de la materia y las interacciones entre las partículas subatómicas.

Primeros experimentos

La radiactividad fue descubierta en las sales de uranio por el físico francés Henri Becquerel en 1896.
En 1898, los científicos Marie y Pierre Curie descubrieron dos elementos radiactivos existentes en la naturaleza, el polonio (84Po) y el radio (88Ra).
En 1913 Niels Bohr publica su modelo de átomo, consistente en un núcleo central compuesto por partículas que concentran la práctica mayoría de la masa del átomo (neutrones y protones), rodeado por varias capas de partículas cargadas casi sin masa (electrones). Mientras que el tamaño del átomo resulta ser del orden del angstrom (10-10 m), el núcleo puede medirse en fermis (10-15 m), o sea, el núcleo es 100.000 veces menor que el átomo.
Ernest Rutherford en el año 1918 definió la existencia de los núcleos de hidrógeno. Rutherford sugirió que el núcleo de hidrógeno, cuyo número atómico se sabía que era 1, debía ser una partícula fundamental. Se adoptó para esta nueva partícula el nombre de protón sugerido en 1886 por Goldstein para definir ciertas partículas que aparecían en los tubos catódicos.
Durante la década de 1930, Irène y Jean Frédéric Joliot-Curie obtuvieron los primeros nucleidos radiactivos artificiales bombardeando boro (5B) y aluminio (13Al) con partículas αpara formar isótopos radiactivos de nitrógeno (7N) y fósforo (15P). Algunos isótopos de estos elementos presentes en la naturaleza son estables. Los isótopos inestables se encuentran en proporciones muy bajas.
En 1932 James Chadwick realizó una serie de experimentos con una radiactividad especial que definió en términos de corpúsculos, o partículas que formaban esa radiación. Esta nueva radiación no tenía carga eléctrica y poseía una masa casi idéntica a la del protón. Inicialmente se postuló que fuera resultado de la unión de un protón y un electrón formando una especie de dipolo eléctrico. Posteriores experimentos descartaron esta idea llegando a la conclusión de que era una nueva partícula procedente del núcleo a la que se llamó neutrones.
Los científicos alemanes Otto Hahn y Fritz Strassmann descubrieron la fisión nuclear en 1938. Cuando se irradia uranio con neutrones, algunos núcleos se dividen en dos núcleos con números atómicos. La fisión libera una cantidad enorme de energía y se utiliza en armas y reactores de fisión nuclear.

Modelo atómico de Bohr
El modelo de Bohr es muy simple y recuerda al modelo planetario de Copérnico, los planetas describiendo órbitas circulares alrededor del Sol. El electrón de un átomo o ión hidrogenoide describe también órbitas circulares, pero los radios de estas órbitas no pueden tener cualquier valor.
Consideremos un átomo o ión con un solo electrón. El núcleo de carga Ze es suficientemente pesado para considerarlo inmóvil

Si el electrón describe una órbita circular de radio r, por la dinámica del movimiento circular uniforme



El electrón no puede situarse a cualquier distancia del núcleo, sino que debe ocupara niveles u órbitas predeterminadas. no valen posiciones intermedias entre órbitas
Mientras el electrón se mueve en su órbita no pierde energía. Si pasa de una órbita externa a otra más interna desprendeenergía, la misma que absorbe para la transición contraria.

 Rayos X









Los rayos x, son energía electromagnética invisible, la cual es utilizada, como una manera para obtener o sacar imágenes internas de los tejidos, huesos y órganos de nuestro cuerpo u organismo.
Es por medio de este proceso, que un especialista, determina si los huesos de un paciente están intactos o rotos, luego de un accidente. De la misma manera, uno se puede enterar de lesiones internas en los órganos. Además, los rayos x, son utilizados para descubrir si una persona posee o no, algún tumor cancerígeno
El descubridor de estos tipos de rayos tuvo también la idea del nombre. Los llamó "rayos incógnita", o lo que es lo mismo: "rayos X" porque no sabía que eran, ni cómo eran provocados. Rayos desconocidos, un nombre que les da un sentido histórico. De ahí que muchos años después, pese a los descubrimientos sobre la naturaleza del fenómeno, se decidió que conservaran ese nombre.
La noticia del descubrimiento de los rayos "X" se divulgó con mucha rapidez en el mundo. Röntgen fue objeto de múltiples reconocimientos, el emperador Guillermo II de Alemaniale concedió la Orden de la Corona, fue honrado con la medalla Rumford de la Real Sociedad de Londres en 1896, con la medalla Barnard de la Universidad de Columbia y con elpremio Nobel de Física en 1901.


El descubrimiento de los rayos "X" fue el producto de la investigación, experimentación y no por accidente como algunos autores afirman; W.C. Röntgen, hombre de ciencia, agudo observador, investigaba los detalles más mínimos, examinaba las consecuencias de un acto quizás casual, y por eso tuvo éxito donde los demás fracasaron. Este genio no quiso patentar su descubrimiento cuando Thomas Alva Edison se lo propuso, manifestando que lo legaba para beneficio de la humanidad. Así nace una rama de la Medicina: La Radiología.




Efecto fotoeléctrico.
 Se llama efecto fotoeléctrico la liberación (total o parcial) de los electrones de enlaces con átomos  y moléculas de la sustancia bajo acción de la luz (visible, infrarroja y ultravioleta).
Si los electrones  salen fuera de la sustancia  el efecto fotoeléctrico se denomina externo. El efecto fotoeléctrico se observa en los metales.
La  fig.1  muestra un recipiente  provisto de una ventanilla de cuarzo que es transparente para la radiación óptica. Dentro del recipiente  se encuentra una placa metálica  K (cátodo), conectada al polo negativo de la pila, y una placa A (ánodo), conectada al polo positivo de la pila. Al iluminarse la placa K, entre ésta y la placa A  se produce una corriente (corriente fotoeléctrica) que puede medirse con el galvanómetro G. Como en el recipiente existe un vacío, la corriente se produce exclusivamente por los electrones (fotoelectrones) que se desprenden de la placa iluminada.
   Hay tres  características  fundamentales  del efecto fotoeléctrico.    
1. La corriente fotoeléctrica de saturación ( o sea, el número máximo de electrones liberados por la  luz en 1 s) es directamente proporcional  al flujo luminoso incidente.        
  2.La velocidad de los fotoelectrones crece con el aumento de la frecuencia de la luz incidente y no depende de su intensidad.                 
 3.Independientemente de la intensidad de la luz el efecto fotoeléctrico  comienza sólo con frecuencia mínima determinada ( para el metal dado) de la luz que se denomina frecuencia de corte o umbral.                          
    La  fig.2 se muestra  la  gráfica  de la corriente fotoeléctrica en función de la diferencia de potencial  V entre las placas A y K.  La intensidad de la corriente fotoeléctrica, cuando la composición y la intensidad de la luz incidente sobre la placa K permanecen constantes, depende de la diferencia de potencial V que existe entre las placas A y K.  En esta gráfica se observa dos particularidades: 1) al aumentar la diferencia de potencial  V la corriente fotoeléctrica llega a la saturación y 2) existe un valor de la diferencia de potencial retardadora (potencial retardador) V0  llegando a la cual cesa la corriente  i.  
  La corriente fotoeléctrica alcanza un valor límite   is (la corriente de saturación)  para el cual  todos los fotoelectrones desprendidos del cátodo llegan hasta la placa A. La práctica demuestra que  con el aumento de la intensidad de la luz incidente aumenta también la corriente de saturación, pero solamente a causa de que son emitidos más electrones.  La  intensidad de la luz incidente para la curva 2 es mayor  que para la curva 1. Como la corriente i = en, donde n es el número de electrones arrancados  en la unidad de tiempo, se deduce que el número de electrones arrancados  en la unidad de tiempo aumenta con el aumento de la intensidad de la luz incidente.
  La parte ab de la curva  indica, que aunque se invierte la polaridad de la diferencia de potencial, la corriente fotoeléctrica no se reduce instantáneamente a cero, lo que hace deducir que los electrones emitidos por la placa K tienen una  determinada velocidad inicial. Estos electrones dejan de llegar a la placa A cuando el trabajo del campo eléctrico eV0, que frena a los electrones, se hace igual  a su energía cinética inicial (la energía cinética máxima) Ec,máx= (2)/2.


De la fig.2 se ve que para las ambas curvas,  que corresponden a diferentes intensidades de la luz incidente,  el potencial retardador es el mismo, o sea, el potencial retardador no depende de la intensidad de la radiación incidente, lo que implica que la energía cinética máxima es independiente de la  intensidad de la luz.
   La segunda y tercera ley del efecto fotoeléctrico estén en contradicción con la teoría ondulatoria de la luz. Según esta teoría  una onda electromagnética al incidir sobre el cuerpo que contenga electrones deberá provocar  en ellos vibraciones forzadas de amplitud proporcional a las amplitudes de las propias ondas luminosas. La intensidad de la luz es proporcional al cuadrado de la amplitud de la onda electromagnética, por lo tanto, la luz de cualquier frecuencia, pero de intensidad suficientemente grande, debería arrancar los electrones del metal, es decir, no debería existir la frecuencia umbral para el efecto fotoeléctrico.
Esta conclusión no  concuerda con la tercera ley del efecto fotoeléctrico. La amplitud de las ondas luminosas determina la potencia del flujo luminoso, la velocidad de los electrones desprendidos debería aumentar con el crecimiento de la intensidad de la luz incidente; en otras palabras, cuanto más intensa fuera la luz, tanto mayor energía cinética  debería recibir de ella el electrón. Pero en realidad esto no ocurre: al aumentar la potencia de la luz incidente lo que aumenta  es el número  de electrones que se desprenden; la velocidad de los electrones depende exclusivamente de la frecuencia de la luz.
  La fig.3 muestra  la gráfica, obtenida experimentalmente, del potencial
retardador en función de la frecuencia de la luz incidente. Cuanto más la
frecuencia de la luz, tanto mayor debe ser el potencial retardador. Además,
la gráfica pone de manifiesto que existe una frecuencia  de corte ν0,
 característica para cada metal. Para frecuencias menor que ésta desaparece el efecto fotoeléctrico, por intensa  que sea la iluminación.
    Las tres características mencionadas anteriormente se interpretan fácilmente, basándose en la teoría cuántica de la luz. Einstein demostró que todas las regularidades fundamentales del efecto fotoeléctrico se explican directamente si                     Fig.3.
se admite que la luz es absorbida en las mismas porciones (cuantos)  E =  en que, según Planck, es emitida. Cuando un fotón choca con un electrón  en la superficie  o en un punto interior infinitamente próximo  a la superficie  de un metal, puede transmitir su energía al electrón. Después del choque con  el electrón  el fotón desaparece. La energía adquirida por el electrón se gasta en el trabajo necesario para arrancar el electrón (E0) y en comunicarle  una energía cinética  (2)/2. De acuerdo con la ley de la conservación de la energía  tendremos que  

Esta es la fórmula de Einstein.  Expresando  la energía cinética del electrón  por medio del trabajo del campo eléctrico [la fórmula (1)], se puede escribir  la fórmula de Einstein de la forma:
hv=eVo + Eo

De esta última igualdad se deduce que
Esta fórmula es la expresión analítica de de la gráfica V0 = f(ν) [fig.3]. El hecho  de que la  energía cinética de los fotoelectrones es función lineal  de la frecuencia se deduce de la hipótesis según la cual la absorción de la luz se realiza en porciones (cuantos) de energía E = .
De la misma forma se explica la proporcionalidad que existe entre la corriente de saturación y la potencia de la luz que incide. Al aumentar la potencia del flujo luminoso aumenta también el número de porciones de energía (cuantos)  E =  y por consiguiente  el número n de electrones arrancados en la unidad de tiempo. Como is es proporcional a n, está claro que la corriente de saturación es también proporcional a la potencia de la luz.










El cuerpo negro
La superficie de un cuerpo negro es un caso límite, en el que toda la energía incidente desde el exterior es absorbida, y toda la energía incidente desde el interior es emitida.


No existe en la naturaleza un cuerpo negro, incluso el negro de humo refleja el 1% de la energía incidente.


Sin embargo, un cuerpo negro se puede sustituir con gran aproximación por una cavidad con una pequeña abertura. La energía radiante incidente a través de la abertura, es absorbida por las paredes en múltiples reflexiones y solamente una mínima proporción escapa (se refleja) a través de la abertura. Podemos por tanto decir, que toda la energía incidente es absorbida
Propiedades de la superficie de un cuerpo
Sobre la superficie de un cuerpo incide constantemente energía radiante, tanto desde el interior como desde el exterior, la que incide desde el exterior procede de los objetos que rodean al cuerpo. Cuando la energía radiante incide sobre la superficie una parte se refleja y la otra parte se transmite.


Consideremos la energía radiante que incide desde el exterior sobre la superficie del cuerpo. Si la superficie es lisa y pulimentada, como la de un espejo, la mayor parte de la energía incidente se refleja, el resto atraviesa la superficie del cuerpo y es absorbido por sus átomos o moléculas.
Si r es la proporción de energía radiante que se refleja, y a la proporción que se absorbe, se debe de cumplir que r+a=1.

La misma proporción r de la energía radiante que incide desde el interior se refleja hacia dentro, y se transmite la proporción a=1-r que se propaga hacia afuera y se denomina por tanto, energía radiante emitida por la superficie.
En la figura, se muestra el comportamiento de la superficie de un cuerpo que refleja una pequeña parte de la energía incidente. Las anchuras de las distintas bandas corresponden a cantidades relativas de energía radiante incidente, reflejada y transmitida a través de la superficie.

Comparando ambas figuras, vemos que un buen absorbedor de radiación es un buen emisor, y un mal absorbedor es un mal emisor. También podemos decir, que un buen reflector es un mal emisor, y un mal reflector es un buen emisor.
Una aplicación práctica está en los termos utilizados para mantener la temperatura de los líquidos como el café. Un termo tiene dobles paredes de vidrio, habiéndose vaciado de aire el espacio entre dichas paredes para evitar las pérdidas por conducción y convección. Para reducir las pérdidas por radiación, se cubren las paredes con una lámina de plata que es altamente reflectante y por tanto, mal emisor y mal absorbedor de radiación.
El término radiación se refiere a la emisión continua de energía desde la superficie de cualquier cuerpo, esta energía se denomina radiante y es transportada por las ondas electromagnéticas que viajan en el vacío a la velocidad de 3·108 m/s . Las ondas de radio, las radiaciones infrarrojas, la luz visible, la luz ultravioleta, los rayos X y los rayos gamma, constituyen las distintas regiones del espectro electromagnético.

La radiación del cuerpo negro
Consideremos una cavidad cuyas paredes están a una cierta temperatura. Los átomos que componen las paredes están emitiendo radiación electromagnética y al mismo tiempo absorben la radiación emitida por otros átomos de las paredes. Cuando la radiación encerrada dentro de la cavidad alcanza el equilibrio con los átomos de las paredes, la cantidad de energía que emiten los átomos en la unidad de tiempo es igual a la que absorben. En consecuencia, la densidad de energía del campo electromagnético existente en la cavidad es constante.
A cada frecuencia corresponde una densidad de energía que depende solamente de la temperatura de las paredes y es independiente del material del que están hechas.

Si se abre un pequeño agujero en el recipiente, parte de la radiación se escapa y se puede analizar. El agujero se ve muy brillante cuando el cuerpo está a alta temperatura, y se ve completamente negro a bajas temperaturas.
Históricamente, el nacimiento de la Mecánica Cuántica, se sitúa en el momento en el que Max Panck explica el mecanismo que hace que los átomos radiantes produzcan la distribución de energía observada. Max Planck sugirió en 1900 que
1.     La radiación dentro de la cavidad está en equilibrio con los átomos de las paredes que se comportan como osciladores armónicos de frecuencia dada f .
2.     Cada oscilador puede absorber o emitir energía de la radiación en una cantidad proporcional a f. Cuando un oscilador absorbe o emite radiación electromagnética, su energía aumenta o disminuye en una cantidad hf .






Origen de la Física Cuántica




Max Planck
Todo empezó en Diciembre de 1900, cuando un físico alemán, Max Planck, en pleno estudio del calor y las radiaciones, descubre que la energía, por ejemplo cuando una estufa le entrega calor a una olla donde se está calentando agua, no se transfiere en forma continua o suave desde la estufa hasta la olla y de ahí hasta el agua. La energía del fogón avanza en una especie de "saltitos", o de "paquetes" los cuales, si bien son muy pequeños, le indicaron a Planck que la propagación de la energía es un fenómeno discontinuo, un fenómeno "a brincos", y no un fenómeno suavemente continuo. Profundizó y agudizó su estudio sobre estos "paquetes" y descubrió que son del orden de 6,626 por 10 a la -34 vatios o unidades de potencia; unidades de energía o trabajo entregados cada segundo a la sexta. A estos "paquetes" los denominó "cuantos".
Planck le mandó inmediatamente un mensaje de texto a la eminencia científica del momento, Einstein, para comentarle sus descubrimientos. Einstein encontró correctos el descubrimiento y los razonamientos de Planck y los aplicó a sus propias investigaciones sobre la energía.
Planck y su idea loca, Einstein la acepta, los científicos por consiguiente la aceptan. Durante 33 años los cuantos empezaron a tomar un papel cada vez mas protagónico y bizarro en la ciencia en manos de científicos como Erwin Schrödinger, Luigi de Broglie, Werner Heisenberg, Niels Bohr.
Schrödinger
En 1933, Erwin Schrödinger desarrolló un par de ecuaciones cuánticas que denominó "ecuaciones de onda".
Éstas partículas no se comportaban de ningún modo con las leyes de Newton, y negaban todo lo que se sabía sobre la naturaleza y la conducta de la materia y la energía. Muy resumido, Schrödinger utilizó ecuaciones que antes solo habían sido empleadas para fenómenos ondulatorios, obteniendo resultados para los átomos. Así creó la teoría de la "Mecánica Ondulatoria". 
Schrödinger durante meses revisó sus estudios y decidió pedirle ayuda a Einstein.
Luego de estudiar las anotaciones de Schrödinger, le envió el siguiente mensaje/resultado:

Einstein dijo: "Profesor , su trabajo es excelente. Pero debe estar incompleto o equivocado. Lo que usted está diciendo, sencillamente, es espeluznante. Dios no puede jugar a los dados con el Universo".
Schrödinger invirtió muchos años tratando de encontrar cuál pudiera ser el error sugerido por Einstein. Nunca encontró tal error, ni nadie lo hizo. De hecho, Werner Heisenberg, llegó a las mismas conclusiones que Schrödinger usando el método matricial, y denominó a su método "Mecánica de Matrices".
De la fusión de ésta mecánica con la mecánica ondulatoria, surgió por primera vez el nombre de la "Mecánica Cuántica", propuesto por primera vez por el profesor Max Born.
Planck y los cuantos. Hasta 1933 quilombo por el descubrimiento de los cuantos, aparece Schrödinger y su mecánica ondulatoria, luego Heisenberg y su mecánica de matrices, y Born las fusiona y aparece la Cuántica. Otra vez quilombo durante 30 años entre Bohr y los cuánticos, y Einstein y los relativistas. Hasta que aparece John Bell. 
En 1964 John Bell se ideó un teorema para comprobar quién tenía la razón. El Teorema de Bell prueba la conexión-correlación entre sistemas no relacionados causalmente. Bell aduce que mientras la separación en el tiempo o en el espacio son "reales" en ciertos contextos, dicha separación es "irreal" o carece de importancia en la mecánica cuántica. Imagínate una fuente que emite dos corrientes de fotones (o rayos de luz, para entenderlo mejor), fotones que son interceptados por dos instrumentos: A y B. Estos instrumentos pueden estar todo lo lejos que se quiera entre sí, incluso hallarse emplazados en puntos opuestos del universo. Por simple aplicación de leyes aceptadas de la mecánica cuántica, Bell demuestra que cualquier propiedad de las partículas que se mida en el instrumento A, provocará, simultáneamente, una medición matemáticamente complementaria en el instrumento B. 


Eso significa que cada fotón sabe la medición a la que está siendo sometido el otro fotón, y lo sabe instantáneamente. 

Todo esto no fue probado hasta ya pasados los años 70 cuando Bell pudo probarlo en la práctica con máquinas preparadas específicamente para este teorema. De ésta forma,
 Einstein perdió esta larga pelea: El mundo es cuántico y posee en su misma médula todas esas "locuras" que dictaminan los nuevos descubrimientos. 


Luego de este suceso, la física comenzó a tomar un nuevo rumbo y casi todos los científicos relativistas comenzaron a abrirle las puertas a la física cuántica, ya aceptada de manera Universal.

Un fenómeno común en fisica llamada entrelazamiento cuántico
Unos de los mas grandes genios de todos los tiempo: Albert Einstein