Física

Clásica, relativista y cuántica

 

 

Capítulo IV.  

 

 

Introducción a la cuántica



A cien años de una revolución científica de la física relativista y cuántica, presentamos este documento, como una iniciativa para comprender el desarrollo histórico desde Newton, Planck, Walther Nernst, Niels Bohr, Millikan, Max Jammer, Albert Einstein, Wien, en el estudio de la radiación de un cuerpo negro, el papel de la constante de Planck h, la contribución de Ernest Rutherford a la física atómica. Johann Balmer con la espectroscopia de líneas de hidrógeno fue un signo de cuantización. Todo ello para explicar la energía de salto de electrones, en una nube electrónica con incertidumbre y comportamiento azaroso. Desde el movimiento browniano, Rutherford encuentra un mecanismo matemático que especifica la muerte atómica, pero sería un recurso estadístico de tasa de probabilidad, instalando dentro del átomo la naturaleza de probabilidad en su estructura. Se hace referencia a la aleatoriedad cuántica y de probabilidad cuando el astrónomo británico Arthur Eddington, en texto “La naturaleza del mundo físico”. Cada una de las contribuciones de Einstein a la física cuántica muestran que era el maestro principal del siglo XX de termodinámica y mecánica estadística, campos newtonianos de probabilidad, aleatoriedad y la teoría de la norma estadística. Es lógico entonces pensar que fue él quien nos introdujo en el núcleo la teoría cuántica y escribe la base de la naturaleza cuántica, a pesar de sus protestas reflejadas en su frase “Dios no juega a los dados”.


Propósito. La cultura popular emplea avances de la física relativista y cuántica en la cotidianidad de las tecnologías de comunicaciones, computacionales y de la información, consume fármacos de la era de la biología cuántica molecular, pero desconoce el origen, los elementos fundamentales sobre los que descansan estas teorías, además, de las implicaciones de la termodinámica para asegurar que vivimos en un mundo de sistemas irreversibles y con un profundo efecto de incertidumbre en el corazón de la naturaleza. 



Habilidades de aprendizaje


1. Revelará una línea de tiempo de modificación de conceptos físicos.

2. Aprenderá sobre los héroes de esta historia cuántica escrita en el siglo XX.

3. Implicará conceptos termodinámicos, espectrales, cuánticos y relativistas en un sistema de explicación que subraya una nueva noción de la realidad.

4. Concluirá sobre las implicaciones de la constante de Planck h en la revolución cuántica emprendida por Albert Einstein desde el movimiento browniano y el efecto foto eléctrico.


Palabras clave:


Newton, Planck, Walther Nernst, Niels Bohr, Millikan, Max Jammer, Albert Einstein, Wien, Ernest Rutherford, Johann Balmer, quantum, líneas espectrales, movimiento browniano, efecto foto eléctrico, Max Born, Maxwell, entropía, termodinámica, energía, Rudolph Clausius, temperatura, motor térmico, Lord Kelvin, Espacio termodinámico de estados, temperatura absoluta, Carnot, William Thomson, mecánica clásica, mecánica cuántica, spin, qubits, Dirac, espacios vectoriales, vectores kets. 




4.1 El nacimiento de la mecánica cuántica


El físico austríaco Erwin Schrödinger propuso su famosa imagen del gato (1935), como un comentario sobre el fracaso de sus homólogos que se negaron a pensar a través de la mecánica cuántica. Para comprender la física de la luz en emisión y absorción, primero debemos entender el marco científico en que apareció el quantum, proporcionado por el trabajo de Isaac Newton hace más de tres siglos, conocimiento que vino a modificar la cultura en todas sus formas.


Newton cuando hizo la observación modesta: “que él estaba parado sobre los hombros de gigantes”. Estos hombros eran los aportes de otros hombres de ciencia y avances tecnológicos de la época, el creciente conocimiento mecánico y un aprecio social por las aplicaciones matemáticas para el mayor desarrollo social. Newton un producto social resultado de un contexto histórico y cultural concreto, fue un agente social burgués a favor de la industrialización y el control de la naturaleza. Sin embargo, el mundo lo conocería por su obra Mathematical Principles of Natural Philosophy (1787), el trabajo científico más influyente jamás escrito, detalla por primera vez las leyes de movimiento y de la atracción gravitacional universal. El mundo representado por Newton, es la segunda naturaleza para nosotros, desde la perspectiva de nuestra intuición, pero no lo fue para muchos de sus contemporáneos. Muchos encontraron difícil la idea que gobierna los cielos y la tierra, cuestionando ¿Cómo podría el sol mover planetas a millones de kilómetros de distancia? Newton dijo que no iba a inventar hipótesis sobre tales cosas, que buscaría en las matemáticas un poco de ciencia. Fue requerido un largo proceso de asimilación cultural para que la conversión newtoniana de la realidad fuera aceptada. Dio luz a un siglo de mitos y religiones castrantes en un momento histórico que exigía nuevas posibilidades para el futuro.


En resumen, Newton con elegancia e inteligencia unió los cielos con la tierra, ya no eran lugares separados cuyo espacio, tiempo y las leyes de movimiento simple y uniforme, eran lo mismo a diferentes escalas. Este nuevo paradigma hablaba de un universo homogéneo que no es gobernado por duendes, fantasmas o dioses impredecibles; todo tiene una identidad y está situada por el empuje de fuerzas que tiran en el espacio. El espacio es continuo en todo lugar y todos los eventos en este espacio son causados. Para entender cómo y por qué cambian las cosas en el universo, es modelado como partes de una cosa en movimiento, las personas de esa época atestiguaron que el universo tiene una lógica que lo gobierna.


La época newtoniana, representó un ideal intelectual de conocimiento autosuficiente frente a la autoridad moral, religiosa o política para entender este mundo. Los seres humanos con imaginación podrían hacer Imag4 de la mecánica de la realidad material, empleando matemáticas para cualquier escala del universo. Las fuerzas de atracción gravitacional entre cuerpos y leyes de movimiento permiten imaginar y calcular el viaje del hombre a la luna o naves de investigación a otros mundos del sistema solar. El movimiento para Newton puede ser explicado únicamente por los términos de fuerza y masa. Las mediciones newtonianas despreciaban la perturbación del instrumento sobre el sistema a medir. Es decir, los científicos imaginan que pueden observar desde afuera las medidas de un sistema sin alterarlo. Además, el tiempo de Newton fue una época en la que los científicos podían estudiar las leyes de la mecánica y hacer matemáticas sin referencia a propósitos militares o industriales. La propia luz es una corriente elástica de partículas diminutas, Newton ve al mundo en términos de partículas.


El trabajo de Newton implicó un nuevo papel para Dios, siendo creyente, asumió que su universo requiere de un arquitecto supremo, donde sus descripciones de la unidad del mundo, el diseño y la racionalidad fomentarían una mayor creencia en Dios. Sin embargo, la influencia de Newton fue fuerte en casi todos los aspectos de la cultura, la literatura, así como en la música, la política, filosofía y teología. Por otro lado, los humanos no se ven a sí mismos como autómatas de mecanismos y hay grietas sobre la reversibilidad del universo matemático de Newton.


La época newtoniana duró aproximadamente doscientos cincuenta años. Luego en 1900, fue emboscado este paradigma, su debilidad quedo al descubierto. Mientras los científicos estudiaban un aparentemente remoto rincón de la óptica, físicos encontraron que podían explicar lo que estaba sucediendo, solamente introduciendo una nueva idea extraña, completamente nueva, se trato del quantum. La idea era engañosamente simple, pero suficiente para romper los cimientos del mundo newtoniano. El ataque tiene dos momentos, el de 1900 y el de 1925. Pero dentro del periodo 1925 a 1927, es en el que intentaron domesticar a la cuántica, reduciéndola a relatividad; vieron frustrados sus intentos por esta nueva teoría con bases fundamentalmente diferentes de la física clásica, y cuya piedra angular fue el principio de incertidumbre. La mecánica cuántica, explica fenómenos que la mecánica newtoniana no lo hizo y responde a otros asuntos como la brillantes del sol y la dinámica de átomos, de esta forma la cuántica referida como una física de lo microscópico. Las diferencias no solo fueron en el manejo de escalas del micromundo y macromundo. Otra fue la homogeneidad, es decir, algunas de las cosas tienen otro tipo de presencia en el mundo respecto a otras, la discontinuidad, es decir, los valores de la propiedad como espacio y tiempo no fluyen una a la otra suavemente como lo pensó Newton. Un cuarto aspecto es la incertidumbre; algunas propiedades del universo de Newton como la posición y el momento, no pueden simultáneamente ser inmovilizados para su determinación.


Con el descubrimiento del principio de incertidumbre en 1927, surgieron persistentes esperanzas de regresar a un mundo explicado por ecuaciones deterministas, es decir, un mundo newtoniano. Este principio de incertidumbre es una pieza fundamental de la mecánica cuántica, el principio implicaba que es imposible saber simultáneamente la posición y el momento de una partícula dentro de una nube electrónica. El principio de incertidumbre reedificó conceptos como causa, azar, aleatoriedad y probabilidad. Por más que se esforzó Einstein por restaurar el mundo determinista newtoniano, todo fue inútil, la cuántica fue aceptada por la cultura como una nueva vía para evolucionar en un paso más en la conquista de la realidad.


¿Qué quiere decir el mundo cuántico?, ¿es sobre una nueva religión o es un nuevo inexplorado?, es como hacer contacto con un nuevo mundo. Después de más de un siglo todavía en general la gente no es nativa del quantum, somos inmigrantes culturales intentando hacer de sus implicaciones un proyecto de vida. La mecánica cuántica resulta extraña para la mayoría, porque pone en jaque a la intuición del sujeto. Es comprensible, pues la evolución ha adaptado nuestro cerebro para pensar y actuar en un mundo cuyas dimensiones y escalas de tiempo son newtonianos y los efectos cuánticos no son directamente sensibles para nosotros. Se han adaptado los sentidos sensoriales a este mundo, como una especie biológica madurada en él, como individuos y expresiones amarradas en el cómo nuestra mente procesa la experiencia de la gravedad, el movimiento y las causas-efectos. En este punto de vista nuevo, es un abismo insalvable, separa los mundos clásico y cuántico, por lo que encontramos a este último exótico e incomprensible. Esto para el aprendizaje es una zona de desajuste entre lo que esperamos y lo que sucede en la realidad cuántica. Pero hay una alternativa, esforzarse por ver que la rareza se deriva no del mundo cuántico, sino de nosotros. Las cosas son raras solo en contraste con lo familiar. Si lo que pensábamos como familiar, resultara ser una fantasía y contenido falso, el mundo cuántico más objetivo en contraste, no parece tan monstruoso, sino un paso en la evolución del conocimiento humano. 


Newton es nuestro Colón, porque él nos llevó a un nuevo mundo, solo que fue una versión esquelética del propio ya vivido. Las únicas cosas son masas en movimiento, fuerzas de inicio y final. Sin embargo, Newton demostró que estos supuestos más elementales producen una visión del universo que es tan simple, elegante y completa que se le llamó el gran diseño. Newton nos mostró el gran diseño en su Principia 1687. Sus conceptos básicos son fuerza, masa y velocidad. Cada masa tiene una posición específica en un momento específico. Si se mueve, su tasa de cambio de posición con respecto al tiempo se llama velocidad. Si cambia su velocidad, la tasa de cambio respecto al tiempo es la aceleración. Cuando las masas se aceleran debido a las influencias de fuerzas, estas fuerzas surgen de la interacción entre cuerpos, ya sea por contacto o atracción/repulsión a distancia. Principia establece para el gran diseño tiene tres leyes del movimiento. 


Primera Ley: Una masa que no es actuada por una fuerza permanece en reposo o continua moviéndose en modo rectilíneo uniforme. Si una masa empieza a moverse, o cambia su movimiento uniforme y rectilíneo, es que está siendo actuada por una fuerza. 


Segunda Ley: La aceleración de una masa es proporcional a la fuerza que actúa sobre ella y en la misma dirección de esta fuerza. En la forma de ecuación F=ma. 


Tercera Ley: La interacción entre cuerpos, dice que cada fuerza tiene un contrapeso. Como dijo Newton “a cada acción hay siempre una reacción opuesta e igual: o las acciones mutuas de dos cuerpos cada uno con el otro son siempre iguales y dirigidas a partes contrarias”.


Para predecir el futuro movimiento de una masa, o deducir su posición pasada, implica la elaboración de la regla de cálculo en cualquier momento para la velocidad de la masa, la velocidad a la que está cambiando su posición, aplicando estas tres leyes. Dada esa velocidad, se puede calcular hasta qué punto el objeto se mueve en cualquier intervalo de tiempo. La distancia es simplemente la magnitud de intervalo de tiempo multiplicado por la velocidad media bajo acción de una fuerza. La fuerza promedio sobre un intervalo de tiempo, multiplicado por la duración del periodo de tiempo, da el cambio del momento durante el intervalo. Por lo tanto, para producir todos los movimientos, uno solo necesita saber las posiciones y velocidades de todos los objetos en un momento dado y saber las fuerzas que actúan entre los objetos (como función solamente de posiciones y velocidades) en todo momento.


Cuarta ley del movimiento de Newton, es la ley gravitacional que rige la física de fuerza atractiva de objetos. Esta fuerza está dada por una sola expresión que incluye una constante multiplicada por el producto de las masas de los dos cuerpos divididos por el cuadrado de la distancia entre ellos:

 

Imagen


Esta expresión es independiente de dónde y hasta qué punto están separados los cuerpos. En lo que se conoce como mecánica newtoniana o clásica, estos supuestos se elaboran en diferentes formas para aplicar a muchas situaciones diferentes, a las masas, sólidos, líquidos y gases; a cuerpos circulares, rotatorios y vibratorios; al movimiento de proyectiles, péndulos y ondas; para sistemas complejos de muchas masas. Se han aplicado a los átomos y galaxias. La mecánica newtoniana proporciona una manera de capturar matemáticamente los movimientos implicados, no importa lo simple o complejo del sistema. En su momento Newton hizo hincapié en la continuidad de la naturaleza, aunque ahora y después de unos pocos científicos renegados que propusieron la discontinuidad y el desorden, como algo que está en el corazón de la naturaleza. Además, Newton y su archirrival Leibniz crearon el cálculo, la principal herramienta matemática del mundo newtoniano, esa que compartió la noción de cantidades infinitesimales. 


Así el mundo newtoniano es un mundo abstracto, austero, carente de intereses de idiosincrasias. Es un mundo donde todos los columpios, trapecios y candelabros son péndulos; los deportes y la danza son F=ma; todas bolas elásticas y aviones se mueven no importa donde Usted este en el mundo; sean grandes o pequeños, las leyes siguen siendo las mismas para todos ellos. Si Usted quiere saber lo que tiene o va suceder en este mundo, mide las posiciones, velocidades, masas y fuerzas aplicando las leyes correspondientes.

Imagen


Por ejemplo, la manivela se basa en un tipo especial de herramienta que se llama ecuación diferencial, que es una forma sencilla para indicar las relaciones entre propiedades de variables continuas, tales como en el mundo de Newton son velocidad y posición, o fuerza y momento. De este modo, un pequeño cambio en la posición x, es simbolizado por el diferencial dx, y un pequeño cambio en tiempo t por el diferencial dt acercándose a cambios que tienden a cero. La afirmación de que la velocidad es la tasa de cambio de posición respecto al tiempo es dada por Imagen .  Del mismo modo la fuerza es  Imagendonde  Imagenes el momento.  Permite calcular sobre resortes, poleas, ondas y más aplicaciones empleando ecuaciones diferenciales y funciones trigonométricas.


En los siglos que han transcurrido desde el Principio, los científicos descubrieron muchos fenómenos que tenían que caber en el gran diseño. La electricidad era uno. El científico francés Charles Coulomb y otros estudiaron las fuerzas eléctricas de repulsión y atracción imitando la ley universal de la gravitación de Newton. Encontraron que la fuerza entre dos cargas eléctricas, es proporcional al producto de las cargas, y otra vez es inversamente al cuadrado de la distancia. Allí nace el concepto de campo, una cantidad que tiene el valor específico para cada localización en el espacio y tiempo, ampliando enormemente el poder newtoniano de su mecánica. Otros científicos fueron capaces de demostrar que la corriente de carga eléctrica la producen campos magnéticos cambiantes estableciendo un vínculo con los campos eléctricos, siendo Clerk Maxwell quien redondea la teoría de la electricidad y el magnetismo.


Sin embargo, conforme los avances teóricos y de aplicaciones se dieron, les fue pareciendo que el universo no era una relojería newtoniana. Los científicos se dan cuenta de que el mundo contenía conductas que advertían el azar en su naturaleza. Los científicos de la geología, con la termodinámica y el comportamiento de gases desarrollaron métodos para manejar acciones irreversibles y herramientas estadísticas para el cálculo de la incertidumbre. Fue lo que los filósofos llaman incertidumbre epistemológica, es decir, incertidumbre sobre lo que sabemos de las cosas en estudio, en lugar de incertidumbre ontológica o incertidumbre sobre la misma naturaleza. Cuando la cuántica apareció por primera vez en 1900, lo hizo en territorio newtoniano; solo se descubrió porque representó una desviación de las expectativas newtonianas en cuanto a cómo la luz se comportaba en circunstancias especiales. El mundo cuántico se encontró solo frente al newtoniano. Por un tiempo, los científicos esperaron completamente que estos hechos pudieran encajar en el gran diseño, tal como todos los fenómenos anteriores habían encajado hasta entonces.


Cuando los científicos miran el mundo subatómico fotograma a fotograma, por así decirlo, lo encuentran en discontinuidad extraño, y sus acontecimientos al azar. También sabían que la vida humana tenia este comportamiento azaroso. Nuestro mundo no siempre se siente suave y continuo y gobernado por leyes deterministas. El mundo de hoy no tiene la geometría del universo newtoniano, es más como la superficie del agua hirviendo, es así que el mundo newtoniano estable y convincente durante más de dos siglos, se perforó por sus lagunas, inconsistencias y por no explicar las burbujas de agua hirviente.


Para responder como fue esto, requerimos un breve paso a la vida de Max Planck  (1858-1947), quien introduce el concepto de cuántica en la ciencia. Temperamentalmente el más conservador de los científicos de su tiempo. Planck no tenía intención de ser un revolucionario. Aprendió a mantener un perfil bajo para sobrevivir tiempos tumultuosos de la guerra. Cuando tenía sesenta años de edad, observaba como conquistar a las tropas extranjeras, en contraste cuando tenía cincuenta años, viviendo en Berlín, Alemania perdió la primera guerra mundial y a los sesenta y cuatro estaba en Berlín cuando los nazis tomaron el poder. Sobrevivió a numerosas tragedias personales. Su hijo fue asesinado por los nazis en la segunda guerra y su casa fue destruida por el bombardeo aliado. El no era judío, pero el terror nazi lo trato como tal. Pero Planck logró sobrevivir en Alemania a través de la guerra por permanecer en perfil bajo, frente al conflicto[1]. 


Científicamente, Planck también era conservador. En su juventud estaba fuertemente atraído a la ciencia porque le permitió estudiar un mundo que era absoluto e independiente de las acciones humanas. La ciencia ofrece un maravilloso refugio ante las matanzas de las guerras en el mundo. Cuando él era un estudiante en Múnich, uno de sus profesores le desanima a esta sublime búsqueda, diciéndole, en física, “casi todo está ya descubierto y todo lo que queda es rellenar unos agujeros”. Él pensó que podría llenar esos agujeros y barrer esos rincones polvorientos de la física[2]. 


Cuan irónico es que este hombre, que pretende poner en orden los extremos sueltos de la física, sería al introducir una idea nueva, quien pone a temblar hasta sus cimientos más profundos el conocimiento newtoniano. Lo hizo mientras trabajaba en el primer laboratorio de pesas y medidas en el mundo. El gobierno alemán le encomendó calificar la bombilla de luz, ante la necesidad de analizar lo que sucede cuando materiales absorben toda la luz que reside en ellos y luego la vuelven a emitir en una distribución uniforme de colores. Materiales en esa condición, se perciben como los mejores amortiguadores de luz y que fueron bautizados como “cuerpos negros” por el maestro de Planck, Gustav Kirchhoff. Le fue encomendada la tarea de investigación de la radiación de un cuerpo negro para producir una fórmula que describa su espectro normal, en cuanto a su perfil, intensidades y frecuencias de variación por temperatura[3].


Planck, que en 1892 relevo a Kirchhoff como profesor en Berlín, le gustaba este problema. Por un lado, él quería responder al interés nacional de esta investigación. Por otra parte, él fue preparado, para el problema en sus estudios anteriores. Por último, el hecho de que el resplandor dependía solamente de la temperatura del material y no de su composición química, sugirió que la solución sería fundamental –similar a la forma en que la naturaleza fundamental de la fuerza gravitatoria depende exclusivamente de lo masivo del objeto-.  Ya que siempre Planck consideró la meta de lo absoluto, como la meta más alta de la actividad científica. 


Planck descubrió que podía producir una fórmula para los datos de Reichanstalt, el supone que los materiales absorben y emiten luz selectivamente, solo en números enteros múltiplos de una determinada cantidad de energía que llamo Imagen, donde Imagen es la constante que lleva el nombre de Planck , y  v es la frecuencia de la radiación. Si E es la energía, y n un número entero, la fórmula de radiación de Planck es Imagen. Planck dijo que hizo esta asunción por pura desesperación. No fue una explicación sino un truco matemático, se dio cuenta, y pensó que finalmente se podría desechar la idea. Pocos prestaron atención a la idea de Planck. Una excepción, tan solo cincuenta años más tarde, fue hecha por un empleado de oficina de patentes de 20 años de edad, conocido como Albert Einstein, al que le valió el premio Nobel por explicar el efecto fotoeléctrico. Einstein explica la fórmula de Planck por una sugerencia radical que considera a la energía de la luz en sí misma, que viene dada en múltiplos de h. Es decir, en quantums de energía de luz, se reconocería más tarde como fotón. En definitiva, el quantum era un truco matemático, como Planck lo hizo, pero con Einstein fue una realidad física. Esto era muy revolucionario. Pocos tomaron en serio la idea de Einstein. Pero para 1910, en el interés de los físicos en la cuántica se hacia una fisura. La razón fue que todos los intentos por eliminar la necesidad de hacerlo así y reconciliar todo con la física clásica, habían fallado. La cuántica fue surgiendo dentro de la teoría molecular de la conducción de calor en sólidos. Los científicos miran en el mundo subatómico, encontrando este invitado incomodo[4]: Imagen.


En 1911, un grupo de veintiún líderes científicos de Europa, se reunieron en Bruselas para una cumbre sobre la cuántica. Organizada por el químico y físico Walther Nernst. El propio Nernst había rechazado la idea cuántica y luego admitió que era indispensable como hombre serio de ciencia sujetarse a la investigación cuidadosa. Esta conferencia de Solvay Brúcelas de 1911 fue un punto de inflexión en la respetabilidad de la cuántica, se hace noticia en todo el mundo, Rutherford la llevo a Inglaterra, a Dinamarca lo hizo Niels Bohr, a Francia Henri Poincaré. 


Robert A. Millikan (1868-1953), de la universidad de Chicago, estaba decidido a ayudar a sus colegas estadounidenses a conciliar el sueño, intentaría matar la idea cuántica al modo de hacer experimentos de vanguardia y poner a prueba las predicciones que en papel en 1904 Einstein realizó. Millikan fue sorprendido por sus experimentos, confirmándole cada una de las predicciones de Einstein. Su asombro y consternación quedo exhibido en su artículo que anunció los resultados. Se vio obligado a admitir que la teoría cuántica de Einstein realmente representa muy exactamente el efecto fotoeléctrico[5]. 


Mientras tanto la cuántica surge con nuevas explicaciones de fenómenos subatómicos. En 1913-14, el joven físico Niels Bohr estaba interesado en esto, porque su doctorado demostró que la física clásica no podía explicar las propiedades electromagnéticas de los metales, aplicando a átomos de una gran variedad haciendo surgir con fuerza la física atómica. La teoría clásica predice que al moverse los electrones en órbita alrededor del núcleo irradian energía y colapsan en el núcleo. Bohr demostró que si se asume el momento angular para las órbitas de los electrones en múltiplos de una nueva unidad natural Imagen, entonces los electrones no tienen un número infinito de posibles órbitas alrededor del núcleo como planetas alrededor del sol, es decir, solamente una sección pequeña encaja, fue un resultado dramáticamente coherente con la evidencia experimental[6].


Otro fenómeno descubierto aproximadamente al mismo tiempo era el efecto Stark, o el hecho de que las líneas espectrales están divididas por un campo eléctrico. El efecto fue descubierto en 1913 y explicado por la teoría cuántica en un artículo de 1916. Si bien el experimento de Millikan sirvió como punto de inflexión en la recepción de la teoría cuántica, Max Jammer, historiador de ciencia escribió: la cuántica se convirtió en física real accesible directamente al experimentador y la conjetura de Einstein sobre el quantum, fue dotada de significado físico y un fundamento experimental a partir del efecto Stark[7].


Todas estas discusiones se llevaron a cabo dentro de la comunidad de la física, con poca participación de la opinión pública. El leguaje ordinario continuó utilizando el quantum en su significado de “cantidad”, que podría ser grande o pequeña y hasta insignificante. No en el sentido de Planck como una cantidad finita, de alguna magnitud suficiente para marcar una diferencia estructural importante. Las noticias fueron que Planck fue galardonado con el Premio Nobel en 1918 en reconocimiento por los servicios prestados al avance de la física por su descubrimiento de la energía cuántica. En 1919 Einstein se convirtió en renombrado científico al confirmarse las predicciones de su teoría de la relatividad general, y fue más aún a pesar de que recibió el Premio Nobel en 1912 por su descubrimiento de la ley del efecto fotoeléctrico, es decir, por su contribución a la teoría cuántica. Y en 1923 Millikan recibió el Nobel por su trabajo sobre la carga eléctrica elemental y sobre la experimentación del efecto fotoeléctrico. Ya para entonces, la prensa para las audiencias educadas mencionaría con más insistencia la idea de Planck: se ha descubierto un mundo que no era continuo en el sentido de lo expresado por el pensamiento de Newton. 



La ecuación de Planck, para 1930 se vuelve famosa por los libros de divulgación científica y artículos que inundan los medios, transformando la historia de la ciencia. La comunidad reconoce en Planck, un nuevo Colón que nos abrió un nuevo mundo científico y una nueva cultura en sí. Planck, por supuesto, nada de esto tenía en mente; reflexiones sobre las implicaciones de su concepción científica en el arte, cine y literatura se multiplicaron. En 1947, el último año de su vida, Planck fue invitado por la Royal Society de Londres a una celebración con motivo de Newton. El evento se llevó a cabo en una gran sala, y distinguidos invitados fueron honrados uno por uno, en una página se dio lectura a sus nombres y países de una lista en voz alta. Planck fue especialmente invitado y no estaba en la lista. El lector de la página, confundido, de repente tuvo que improvisar y tropezó: “profesor Max Planck, de ningún país”, los asistentes rieron y dieron a Planck una ovación de pie, Planck con sus noventa años de edad, con dificultad se levantó para aceptar el aplauso cálido. Avergonzada, la Royal Society ha añadido a Planck a la lista de citación para el segundo día, pero Planck insistió en que fuera nombrado “desde el mundo de la ciencia[8]”.


Con la electrificación del siglo XIX y en particular con la aparición de la bombilla eléctrica, se comenzó a preguntar sobre el principio detrás de estos cuerpos que emiten calor y luz en rangos visibles y más allá. Estas gamas de luz tiene un perfil particular. Cada material irradia el mismo espectro de colores a la misma temperatura; registros con madera y piezas de cerámica todos brillan al mismo color que una barra de hierro por ejemplo. Con lámparas eléctricas fabricadas a principios de siglo XX se intentó para su diseño, que optimizaran la producción de luz blanca y redujeran las otras frecuencias. Se demostró que la intensidad de la luz emitida aumenta con la temperatura, pero el aumento no se distribuye igual a través de todas las frecuencias y cambia o es desplazado hacia longitudes de ondas más cortas, esto se le conoce como la ley de desplazamiento Wien.


Planck observó un modelo de la manera en que los materiales absorben y emiten radiación en la forma tradicional de representar a los materiales, como un conjunto de osciladores, como resortes de Hooke de flexibilidad variable. Sus índices de oscilación dependían por así decirlo, de la rigidez de los muelles. Cuando el material absorbe energía, los resortes osciladores captan más energía; cuando ellos emiten energía sus oscilaciones son menores. Un material puede tratarse como un conjunto de tales resortes de diferente rigidez para absorber y emitir energía en distintas frecuencias. En 1899 Planck estaba encantado cuando encontró que podía usar este modelo para derivar la ley de desplazamiento Wien. Pero solo un año después Reichanstalt, experimentando con hornos mide longitudes de onda más largas (infrarrojo), estos resultados están en desacuerdo con la fórmula de Wien, con una función espectral más proporcional a la temperatura, más en consonancia con la fórmula clásica, conocida más tarde como fórmula de Rayleigh-Jeans. Sobre la propia fórmula de Planck a principios de 1900 existía una suposición empírica pero sin verdadero significado físico. Fue en noviembre de 1900 que empleando termodinámica para calcular la energía distribuida entre los modelos de los resonadores, con la esperanza de obtener alguna pista fundamental, esa luz llego, levantando de la oscuridad una mirada inesperada, apareció en sus actos de desesperación. Se encontró que tenía que asumir que la energía total E es distribuida entre los N resonadores consistentes con un conjunto de Imagen elementos de energía, cuyo valor estaba relacionado con una nueva constante fundamental de la naturaleza que llamo simplemente Imagen. Fue esta constante invocada para aplicar solamente el mecanismo de la interacción entre materia y la luz que irradia.


Las tres leyes propuestas para la radiación de un cuerpo negro radiante, radiación versus frecuencia como lo explica el siguiente gráfico. La ley Wien, que sigue la línea punteada debajo del ajuste a los datos experimentales de la radiación emitida a altas frecuencias, describiendo, a la derecha del gráfico, como picos en una frecuencia específica, que es mayor cuanto más caliente es la temperatura. La fórmula clásica, que sigue la línea punteada en la parte superior, no cupieron los datos, pero fue asumida para describir datos de frecuencia inferiores a la izquierda del gráfico. La fórmula de Planck, la línea de conexión, por lo tanto como ideal, ni demasiado grande o muy pequeña, fue justa con los datos experimentales. 


Imagen


Para frecuencias suficientemente altas, el termino 1 en el denominador es insignificante comparado con el enorme término exponencial. Dejando de lado el 1, el exponencial en el denominador se convierte en una exponencial con exponente negativo en el numerador, reproduciendo exactamente la fórmula de Wien. Para frecuencias pequeñas la exponencial en el denominador aproxima a 1 y solo la diferencia de dos términos es importante y la diferencia se puede aproximar como Imagen, por lo que Imagen es reducida a 1 y un factor Imagenen el numerador. Esto es precisamente lo que la teoría clásica no observo de los efectos cuánticos. Por lo menos en retrospectiva la fórmula de Planck interpola suavemente entre la física clásica en frecuencias bajas y la fórmula de Wien a altas frecuencias. Aunque es un truco matemático, resultó en uno de los más importantes logros históricos de la física. 


Considerando este punto esencial de todo cálculo de E, que se compone de un número bien definido de partes iguales y al utilizar la contante natural Imagenergio x segundo. Esta constante multiplicada por la común frecuencia de los resonadores nos da la energía de los elementos  Imagen en ergios, y divide aImagen  obteniendo el número P de elementos de energía que deben ser divididos sobre los N resonadores. 

Esta última frase dice en palabras lo que se conoce ahora como fórmula de energía de Planck  Imageno Imagen, donde n es algún número entero múltiplo de esta cantidad básica, una de las ecuaciones fundamentales que estructuran el mundo. Aunque Planck no se refiera a esta idea como un quantum. Él utiliza la palabra, sin embargo, la dice cuando explícitamente asume que los resonadores no pueden tener cualquier energía, como lo pensó la física clásica, las energías permitidas se separarían por múltiplos enteros, Planck consiguió algo fundamental, pero no lo que él esperaba, intentar salvar la teoría clásica, terminando por derribarla ante la contundencia de la evidencia experimental hasta 1900. Cinco años más tarde Albert Einstein volvió el truco matemático en un concepto físico. En 1905 publicó cuatro extraordinarios textos que rompieron con la física clásica. Uno fue el efecto fotoeléctrico, el hecho de que la luz se incide a un metal hace saltar electrones de su superficie. La teoría clásica predice que la energía de los electrones debería depender de la intensidad de la luz. No lo hizo así; en su lugar solo depende de la frecuencia de la luz, si brilla una luz más intensamente sobre una superficie, más electrones saltan pero con la misma energía. Aunque Planck había hecho con cautela la predicción de introducir Imagen, advirtió que los resonadores solo podrían absorber y emitir luz con energías en múltiplos de Imagen. Einstein dice que Imagen es una característica de la luz en sí misma. La luz es granulada, localizada en el espacio y con energías en múltiplos de Imagen, o quantums (cuantos) de luz, más tarde llamados fotones. Además, la energía durante la propagación de un rayo de luz, la describió, como algo no distribuido continuamente sobre el espacio, en constante aumento, pero consta de un número finito de cuantos de energía localizados en los puntos en el espacio, sin dividir y capaces de ser absorbidos o generados solo como cantidades discretas. Por lo tanto, la energía de los fotones que brilla en la superficie de un metal tiene que ser al menos tan grande como la suma de la energía final del electrón que salta de la superficie, además la energía necesaria para que un electrón deje el metal está en función del trabajo: Imagen. Es como la forma de la energía de una bala en el cañón de un rifle, es menos de lo que era cuando inicialmente exploto debido a la energía perdida viajando por el cañón. 


Por un tiempo Planck luchó con sus colegas para adaptar la idea de Imagen en el marco de la física convencional. Todo fue en vano, la evidencia experimental hace que no se puede ignorar a Imagen, cada vez que las frecuencias altas o bajas estaban implícitas, exigían la entrada de esta constante en el cálculo. Es durante la conferencia de 1911 en Bruselas que Planck señala otra implicación bizarra. Su constante no es una cantidad específica de energía, pero establece una proporcionalidad entre dos cantidades. La ecuación Imagen, por ejemplo relaciona energía con frecuencia; si una sube, la otra también lo hace. Los físicos llaman constantes de proporcionalidad entre energía y frecuencia o constantes de acción. Es sorprendente que Imagen es una cantidad de acción a través de la noción del espacio de fase, o la representación abstracta de todos los valores claves posibles que un sistema puede tener. En la física clásica, cada punto de la tabla es una posición posible para un objeto. Cuando un objeto cambia de posición y su impulso, se mueve de un punto a otro, traza una línea, y las leyes de Newton pueden utilizarse para predecir su trayectoria. Planck observó que en el mundo cuántico, tal objeto no tiene un número infinito de posiciones. La tabla está formada por pixeles, cada uno en la zona de Imagen, que representa un estado posible como una gama de valores de posición y momentos para el objeto. Sus posibilidades son ahora enormemente restringidas. No se puede mover continuamente de un punto a otro, pero se ha quedado atascado en una región por lo menos tan grande como un quantum. Cada pixel es un espacio de acción y movimiento del objeto, son discontinuos entre ellos. Con el beneficio de la retrospectiva, muchos de los principios de la teoría cuántica están incluidos en este comportamiento, tal como el de incertidumbre que predice este pixelado o cuantizado. La cuántica se definía entonces por poner entrelazamientos y burbujas en lugares del universo, abriendo una nueva era en la ciencia. 


La notación de salto cuántico se introduce en la física atómica desde la cuántica de Niels Bohr. Gracias a una beca de la cervecera Carlsberg, Bohr viajó al laboratorio Cavendish  en Cambridge Inglaterra, cuyo jefe era Thomson, quien había ayudado a descubrir el electrón. Pero Thomson no encontró interés en la investigación Bohr. A finales de 1911, en visita a Manchester, Bohr conoció a Ernest Rutherford experimentador del mundo de la radiactividad. Esto hace que Bohr deje Cavendish  y se una al laboratorio de Rutherford en marzo de 1912. Allí Bohr sentó las bases para una de las mayores revoluciones en la física mediante la incorporación de la cuántica a la estructura atómica. El trabajo de Thomson demostró que partículas de átomos llamadas electrones, están cargadas negativamente. La existencia de la partícula protón con carga positiva fue propuesta pero no aceptada inmediatamente. Rutherford adujo que toda carga positiva estaba alojada en el núcleo atómico central y propuso que los electrones giran como si fueran planetas alrededor del sol. Pero la idea trajo poca atención y no fue promovida porque los científicos tenían buenas razones para ser escépticos. 


Cargas eléctricas, no son planetas. Cuando estas cargas se arremolinan bajo la influencia de otra carga, irradian energía. Los electrones en los átomos de Rutherford rápidamente disminuyen sus órbitas y en espiral caen al núcleo. Según las leyes tradicionales del movimiento y la atracción, la idea de Rutherford no funcionaría. Bohr, sin embargo, presintió que el quantum jugaba un rol extraño en la fabricación de átomos estables. Desde luego que no fue el primero en pensar esto, Planck lo hizo primero. Pero Bohr estaba en una posición especial para encontrar el camino correcto para resolver el problema. Conocía el modelo de Rutherford a profundidad, y estaba armado con la información más reciente sobre el quantum. La solución vino a Bohr en varios pasos audaces en 1912. 


¿Por qué no podían los electrones orbitar el núcleo similar a los planetas?, por qué no irradian energía los planetas cuando orbitan. La respuesta la da Bohr, tiene que ver con la acción cuántica, con el hecho de que el espacio de fase se da en trozos. Esta acción se relaciona con energía multiplicada por tiempo. En el mundo newtoniano, acción es una variable continua, pero para la implicación atómica esto resultó bizarro. La intuición de Bohr, por contrario, se inclinó por ver a la acción de cuantización, para explicar la estabilidad del átomo. Para probarlo, él tendría que encontrar una conexión entre energía cinética de los electrones girando en el núcleo y su frecuencia. Estaba emocionado y perplejo ante un rayo pulsado con líneas espectrales. Esta luz que se desprende del movimiento de los electrones, que saltan entre orbitales hacia delante o hacia tras entre ellos, absorbiendo y emitiendo energía en forma de luz en frecuencias especificas en el proceso. Tales líneas se habían estudiado durante medio siglo, los científicos llamados espectroscopistas conocían estas líneas. En 1885 un maestro de escuela Johann Balmer hizo un hallazgo sorprendente: matemáticamente logro ajustar las frecuencias de la líneas espectrales de hidrógeno a una fórmula que predice otras líneas que él desconocía. En notación moderna, la fórmula de producción de series Imagen, donde R es una constante, llamada constante Rydberg, n1 es un entero mayor que cero, n2 es un entero mayor que n1. 


Tan pronto como Bohr advirtió la fórmula de Balmer dijo que todo fue claro para él. La fórmula demostró una cantidad clásica continua, la longitud de onda, tomando valores enteros múltiplos de una unidad básica. Pero eso fue un signo de cuantización. Bohr se dio cuenta, y la fórmula le dio una señal para la observación de la naturaleza cuántica de la estructura atómica. Cuando los electrones absorben energía de los fotones, almacenan energía moviéndose a una órbita más alta y la liberan en forma de fotones de una frecuencia específica al regresar a un nivel más bajo. Las matemáticas demuestran que la energía de enlace en la segunda órbita es un cuarto de la primera, la tercera una novena y luego un dieciseisavo y así sucesivamente. El salto de transición de una más alta a una órbita más baja de la energía se emite en forma de luz una frecuencia especifica: una línea espectral. La acción cuántica significó que hay solo determinadas órbitas atómicas permisibles. Era como si hubiera solo ciertas órbitas permitidas alrededor del sol y un planeta no pudiera hacer una transición de una a otra, pero en su lugar se materializaría en el lugar permitido. Bohr se dio cuenta de que la serie de Balmer le permitía conectar un conocimiento entre la acción cuántica y las líneas espectrales. Era una huella de la estructura cuántica del átomo.


Después de intenso trabajo en marzo de 1913 Bohr escribió un artículo llamado “La constitución de átomos y moléculas, parte I”. Si bien demostró que los electrones no tienen un infinito de posibilidad alrededor del núcleo, sino que están confinados en una pequeña sección de órbitas, se enfrentó con no poder explicar por qué los electrones no caen al núcleo, él simplemente declaró que el estado es estable, así para no contravenir todos los conocimientos sobre radiación ya revelados hasta ese momento. 


La explicación de Bohr funciona muy bien con el hidrogeno, pero no ocurrió así para otros elementos. Cuando un átomo tiene más de un electrón, la interacción entre los electrones sirve para detectar la carga positiva del núcleo que afecta firmemente el enlazado externo de los electrones, claro está que esto presenta complejidades que no se manejan fácilmente por el tratamiento de Bohr.  


Si bien Bohr no bautizó las palabras “salto” y ”saltar”  en sus primeros trabajos, pero sí habló de simples órbitas del electrón o estados estacionarios. Sin embargo, su modelo dijo que los electrones podrían tener solo valores de energía específicos, lo que significaba en el lenguaje de las órbitas y trayectorias entre órbitas,  era algo insatisfactorio. Los electrones no podrían pasar de transición sin problemas entre una ubicación atómica y otra – como un satélite cambia de órbita -  pero hizo la transición instantánea de alguna manera. Dentro de unos años, los textos científicos popularizarían en un lenguaje más preciso este hecho como saltos o tirones entre estados. Por tanto la energía es discontinua y atómica, se da en tirones, como Imag4 en movimiento, pero los tirones suceden tan rápido que vemos una continuidad. Esta comparación, con secuencias de Imag4 de cine, es justo una buena idea para extender el concepto de saltos cuánticos como una función de nuestro mundo.


La palabra cuántica, rápidamente se convirtió en una metáfora de la discontinuidad. Discontinuidades no son necesariamente azar o sin causa; los tirones aún estaban incluidos en las fuerzas continuas newtonianas. El quantum era ahora una idea de encendido y apagado, en lugar de grados de libertad. Así nació el término salto cuántico, referido como un aumento repentino, significativo o muy evidente o avance. Si consideramos un salto grande o pequeño depende de su escala. Un salto cuántico es un pequeño paso para un hombre pero un paso grande para conocer el átomo, como lo es para un universo discontinuo para un electrón.  


Es decir, las palabras simples o compuestas son metamorfosis, no tienen un significado fijo. Pueden explotar creativamente como nuevos conceptos. El cambio en el significado de “salto cuántico” no es el único caso. Varias palabras del lenguaje ordinario tales como momento, fuerza, gravedad…, han terminado como términos científicos, pero otras en sentido inverso su fluidez hacia la sociedad es limitada, por ejemplo, principio de incertidumbre, complementariedad, entropía y catalizador entre muchos otros términos que vienen a enriquecer la vida ordinaria del lenguaje. La ciencia es una forma de laboratorio en el que se intenta que las palabras sean utilizadas con un significado en correlación objetiva con la realidad ontológica. Solo un pequeño grupo de palabras tienden a pasar de conceptos científicos a una revolución social del imaginario ordinario, este es el caso de la relatividad y la cuántica. En la física, por ejemplo, una “onda”, significaba originalmente en lenguaje ordinario algo que tuvo lugar en un medio. Sin embargo, su extensión metafórica respecto de la luz, dice, que no requiere de un medio para propagarse, y luego en la cuántica implica a la probabilidad como cambio de significado. Una “onda” ahora es una nueva metáfora donde no hay medio de propagación, de este modo a nuestro lenguaje se le exige adecuar los términos que emplea para intervenir en la realidad científica, así salto cuántico representa parte de una nueva imagen mental de la realidad.


Cuando Bohr introduce el quantum a la estructura atómica, su idea era simple. Dentro de sus supuestos consideró que el electrón viajaba muy por debajo de la velocidad de la luz para no entrar en juego contra la relatividad. Él asumió que las órbitas eran circulares y que el electrón no irradiaba energía como sugerían las leyes clásicas de Maxwell. La descripción mecánica de las órbitas, en términos clásicos, era la fuerza centrípeta necesaria para mantener al electrón en su órbita circular Imagen, igualada a la fuerza eléctrica de atracción entre electrones y su núcleo Imagen. Es decir      Imagen


Esto da lugar a algo similar a las leyes de Kepler de los movimientos planetarios. En esta imagen atómica, la metáfora es, el núcleo, el sol y el electrón es un planeta. Si esto fuera totalmente cierto, el electrón podría orbitar el núcleo en un número finito de maneras posibles, pero al seguir perdiendo energía, se hundirá eventualmente en el núcleo atómico. Bohr entonces hizo otra hipótesis, solo algunas de estas órbitas son posibles, y usó la idea cuántica para escoger estas órbitas seleccionadas. Permite en su modelo órbitas, las cuales el momento angular del electrón, son enteros múltiplos de una constante formada por la constante de Planck:Imagen , llamada “hbar” y representada por h. Imagenveces el momento angular igual a nh, con n como número entero. El radio de las órbitas permitidas ahora es 

Imagen


Cuando los electrones saltaban o saltan desde una de estas órbitas a otra, la diferencia de sus energías es:


Imagen


Esto condujo directamente a través de la relación de Planck Imagen, a la siguiente fórmula de longitud de onda:


Imagen

Para Imagen, esto corresponde a la serie original de Balmer para el hidrogeno, con líneas en el espectro visible. Así el átomo de Bohr era un hibrido; tomó el modelo clásico e impuso una restricción cuántica. Se rompió casi inmediatamente esta idea, porque solo aplica al hidrogeno. Tuvo que esperar más conocimiento para dar un paso trascendental, sin embargo, demostró que la cuántica estaba inscrita en la estructura de la materia. La materia se mantiene unida debido a h. Sí, h es pequeña, si fuera cero los átomos colapsarían en fracciones de segundo. En los saltos cuánticos, h fuerza a los electrones a dar estabilidad al átomo dentro de la mecánica en este micromundo. ¿Por qué esto para todos los átomos de hidrogeno y cualquier otro átomo? La cuantización es la respuesta, porque todos tienen la misma estructura. Hay esencialmente una manera en la que podemos mantener juntos electrones y protones para hacer estable un átomo de hidrogeno. Y la misma vale para otros átomos. 


Un salto cuántico, dijimos, es un pequeño paso para un hombre, pero un gran paso para un electrón. ¿Qué tan grande es? Para darnos una idea, consideramos la energía y las distancias involucradas. ¿Sí pudiéramos saltar 10 metros en el aire, sería enorme la energía involucrada? Ahora vamos a ver si comparamos a este salto con la energía de un electrón que va desde el primer estado a un segundo dentro de un  átomo de hidrogeno. ¿Cuánto es para nosotros este salto quivalente?, sería hacer saltar un electrón fuera del campo gravitacional de la tierra, tendría que ser lanzado con la misma energía necesaria para romper la fuerza de gravedad. La respuesta es alrededor de 100 millones de kilómetros, lo que significa una distancia comparable a la distancia de la tierra al sol. La comparación muestra que el electrón hace un salto verdaderamente enorme.


La energía de salto de los electrones es muy pequeña en comparación, esencialmente con cualquier energía requerida para un objeto macroscópico del tamaño humano. La masa de un electrón es tan pequeña que esta energía tiene un efecto mayúsculo sobre la velocidad del electrón, que implica aceleraciones que aplastarían a un ser humano. La perspectiva de grandes o pequeños para el cambio de energía del electrón depende sobre lo que comparemos. 


La nube cuántica de electrones puede parecer un comportamiento azaroso. La aleatoriedad y la incertidumbre están en el centro del universo colocadas juntas para darnos una visión de la aleatoriedad cuántica, como un orden difuso del cosmos. En el mundo newtoniano clásico la respuesta a estas preguntas es ¡No!, la materia no baila en desorden; el comportamiento causal a gran escala debe seguir también el orden más pequeño de la materia según Newton. Laplace pensó que para cada estructura se puede predecir todos los eventos con la suma total de ellos en esa realidad.


Pero los seres humanos no estamos en esa feliz situación. Simplemente no sabemos cómo funciona la mayoría del universo. Para hacer frente a estas situaciones, los científicos crean teorías de probabilidad y error de medición. Algunas distinciones claves son que los eventos aleatorios carecen de fines, razones o causales específicas. Así la estadística es el análisis de la frecuencia de eventos que ya han sucedido y los patrones en ellos. Mientras la probabilidad es el uso de estadísticas para predecir los acontecimientos futuros. La incertidumbre es la cantidad de posibles desviaciones de un resultado presente en el mundo newtoniano, como formas de describir y abordar las situaciones de conocimiento incompleto. Estas herramientas eran necesarias en circunstancias cuando se deseara saber el modelo pero no la forma y el color de cada ladrillo de la realidad. 


Hoy azar, incertidumbre y la posibilidad de predecir (probabilidad) a menudo son asociados con el comportamiento cuántico y vistos como características permanentes de nuestro mundo. La transición de la física clásica a la cuántica fue gradual, al ritmo en que la estadística y la probabilidad fueron hechas suyas por la comunidad científica. Esto comenzó en el siglo XIX, cuando aparecieron varios fenómenos en el mundo newtoniano que parecían inofensivos, pero acabaron por ser subversivos y generaron una revolución. 


El primero llegó a través de la termodinámica. La palabra fue acuñada a mediados del siglo XIX para referirse a la ciencia del calor, concebida no como una sola sustancia, como lo había sido, sino como un fenómeno derivado de movimientos de numerosas partículas. De una disciplina a otra, la ciencia física tuvo que pedir herramientas de las ciencias sociales para explicar estos movimientos. Gracias al trabajo de Quetelet, la estadística se había convertido en un recurso bien desarrollado para analizar el nacimiento y las tasas de mortalidad, enfermedad, crimen y así sucesivamente donde cada elemento individual de seguimiento del comportamiento era posible. Los científicos que estudian la termodinámica y otras situaciones que implican muchos movimientos de partículas se dieron cuenta que la estadística podría ayudarles al estudio de nubes de partículas. Esta estadística, fue la herramienta para estudiar sistemas complejos como la sociedad humana. Así, los sociólogos investigan el comportamiento de la sociedad y los científicos naturales gases y otras nubes de partículas. La estadística revela el comportamiento global del sistema y no el de cada partícula en lo individual. 


El segundo fenómeno subversivo fue el movimiento browniano, referido al hecho misterioso presente bajo observaciones al microscopio, que hace que los granos de polen parezcan revolotear al azar. Este movimiento impredecible de los objetos inanimados no se podía explicar en el momento histórico en que fue identificado. Todavía un tercer fenómeno subversivo apareció, fue la radiación. El fenómeno de ciertas clases de átomos que los llevan a convertirse en otra clase de elemento, y cuyo proceso emite energía. En 1896 fue identificado este fenómeno en el uranio, como radiación en apariencia espontánea, sin causa particular. En 1900, estudiando la radiación de óxido de torio, Ernest Rutherford salió con una ley cuantitativa. La intensidad de la radicación, dijo, cayó con el tiempo (lo que ahora llamamos vida media) de una manera consistente con cada átomo en términos una probabilidad fija de transformación por unidad de tiempo. Este tipo de ley probó en todos los elementos radiactivos su consistencia.  Esta ley de Rutherford se parece a la de tasas de mortalidad, fue una tabla de tasas de mortalidad para los átomos. Más información proporciono esta técnica y ayudó a los científicos a encontrar un mecanismo que especifique una explicación causal para cada muerte atómica. 


Esta acumulación de evidencia les dió a los científicos una sensación incómoda sobre algo misterioso que se escondía en una escala de distancias muy pequeñas. A finales del siglo XIX el estadounidense Charles S. Pierce propuso que la aleatoriedad residía en el corazón de la naturaleza, esto se sentía, los científicos no llegaran a un final de leyes válidas para todas las escalas y disciplinas necesarias para explicar el universo. Los elementos subversivos parecerían obligar a los científicos a utilizar probabilidad y estadística como la mejor herramienta disponible para elementos de comprensión fuera de alcance, desde luego por su elevada complejidad. El personaje que transformó la estadística y la probabilidad en una herramienta conveniente, aunque cada vez más indispensable y en un elemento estructural del mundo fue Albert Einstein, en una serie de tres artículos sobre la teoría cuántica escritos entre 1916-17. 


Estas ideas relacionaron las propiedades ondulatorias de la luz, problemas de termodinámica, y la ley de la radiación cuantitativa de Rutherford, para instalar la probabilidad en el corazón del comportamiento atómico. A pesar que lamentó que esto fuera así. La concepción original de Planck sobre el quantum no implicó a la probabilidad. Ni Einstein lo explicó en 1905 al modelar el efecto fotoeléctrico, aunque estaba preocupado por otros asuntos, especialmente en el desarrollo de la relatividad general. Es hasta que Einstein queda impresionado por el trabajo de Bohr de 1913-1914, que describe los átomos como almacenamiento de energía absorbida de la radiación por electrones en movimiento, de estados inferiores a estados superiores, y luego soltando esa radiación moviendo a los electrones nuevamente hasta un estado más bajo; en el proceso se emite luz en frecuencias específicas correspondientes a la diferencia de energía de los dos estados. Esto es lo que crea el espectro de un elemento, la huella de su estructura cuántica. Pero Bohr aún no usó las distribuciones de probabilidad en la discusión sobre los saltos de los electrones entre estados. Solo a finales de 1915, cuando Einstein completó su teoría de la relatividad general, es que vuelve a examinar cómo los cuántos son emitidos y absorbidos por la materia. 


Inmediatamente en agosto de 1916, Einstein escribió a su amigo Michele Besso una idea brillante, una derivación de la fórmula de Planck, asombrosa y simple. Recuerde que Planck había estipulado que estos osciladores trabajan de esa manera particular, no proporcionando la correlación entre h y Imagen. Entonces Einstein adoptó la estrategia desarrollada para su física relativista especial y general, omitiendo la cuestión de qué tipo de materia emite y absorbe la luz para centrarse en una derivación general. Pero para ello requirió introducir un factor de probabilidad como una parte fundamental, así entre 1916-17 describió la naturaleza en términos de fundamentos de probabilidad como técnica. Todo esto cambiaría en 1925-27 con la revolución de la mecánica cuántica, con la función de onda de Schrödinger  y el principio de incertidumbre. Se hace referencia a la aleatoriedad cuántica y de probabilidad cuando el astrónomo británico Arthur Eddington, en un texto titulado “La naturaleza del mundo físico”, dibujo para la atención pública, que función aleatoria en general y en lo particular al principio de incertidumbre dentro de la teoría cuántica: “la mecánica cuántica es un determinismo de probabilidades, una fórmula de hierro, para un determinismo posible limitado”. El desfile de átomos, Eddington lo presentó como una filosofía aleatoria del universo. 


Cada una de las contribuciones de Einstein a la física cuántica muestra que era el maestro principal del siglo XX de termodinámica y mecánica estadística, campos newtonianos de probabilidad, aleatoriedad y la teoría de la norma estadística. Es lógico entonces pensar que fue el quien introduce en el núcleo atómico la teoría cuántica y escribe las bases de la naturaleza cuántica, a pesar de sus protestas reflejadas en su frase “Dios no juega a los dados”.


En sus documentos de 1916-17 Einstein trata a la luz como partícula –idea introducida en su artículo del efecto fotoeléctrico en 1905- y procedió preguntando: ¿Cuáles son las condiciones en la distribución de partículas de la luz para un sistema de moléculas y fotones para estar en equilibrio térmico a una determinada temperatura? Había ya principios bien aceptados para determinar la distribución de probabilidad de diversas excitaciones de energía de cada molécula. De esta y otras informaciones generales sobre cómo debe comportarse la luz, Einstein dedujo precisamente la distribución de energía de la luz, que obtuvo Planck en 1900 por medios cuestionables. 


Einstein imaginó un trozo de materia, lo llamó una molécula, aunque también podría haber sido un oscilador o átomo, bañado en radiación de luz. Se preguntó ¿Cómo debe absorber y emitir radicación? Supongamos que está en equilibrio, lo que significa que absorbe y libera energía al mismo ritmo. Su tasa de emisión en presencia de este baño de radiación es mayor en comparación con lo que sería sino hay otros fotones a su alrededor. Einstein utiliza las ideas de equilibrio termodinámico en la conclusión de que la tasa a la que un átomo sería capaz de emitir un fotón en presencia de un campo externo, es mayor que en el átomo en el espacio vacío. Calculó cómo esto funcionaría, como proceso de emisión y absorción, y predijo que están relacionados entre sí. Hay una parte espontánea relacionada solo entre átomo y electrón, y otra relacionada con los fotones. ¿Pero cuándo va emitir la luz el átomo y de qué manera va a suceder, cuando ambas cosas son impredecibles?, propuso que las probabilidades se tendrían que considerar fundamentales, básicas, físicas de sistemas atómicos. Esto permitió una derivación de la ley de Planck de una manera asombrosamente simple y general. 


Pero es en este momento histórico, que Einstein tuvo su primer arrepentimiento. Pensó que estos resultados eran una debilidad de la teoría, que deja tiempo y dirección de los procesos elementales al azar. No había manera de saber cuándo y en qué dirección el fotón saldría, sin embargo,  concluyó, “tengo plena confianza en la ruta que se ha tomado”.     


Einstein escribió a Max Born que no podía creer que Dios juega a los dados. Pero el propio Einstein fue el primero en dar a entender que esto era de hecho cómo funciona la Deidad, en su simple derivación de la fórmula de Planck. Hacia el final de su vida, cuando hablando con un grupo de cirujanos de Cleveland en 1950, Einstein expuso uno de sus ejemplos más simples de aleatoriedad en la física cuántica. "Suponga que tiene una ola llegando a un límite entre dos medios refractivos. La teoría de Maxwell garantiza que habrá una onda transmitida y una onda reflejada. Haciendo esta onda tan débil que solo una vez al mes llega un fotón: qué pasara ¿se reflejara o se transmitirá?. No hay manera de saber, puede darse la probabilidad de ambas, pero no sabremos qué pasará".  



4.2 Entropía 


Entropía es un término importante por muchas razones, su función principal en la termodinámica es cuantificar la irreversibilidad de un proceso termodinámico, sobre objetos microscópicos compuestos de muchas partes del mismo tamaño que forman un sistema complejo que tiende al equilibrio de sus variables termodinámicas como presión, volumen, temperatura, número de masa molar o mol, energía interna y por supuesto, entropía. Algunas de estas variables están relacionadas a través de ecuaciones de estado.


Un sistema termodinámico experimenta un proceso cuando las variables que lo describen cambian desde un conjunto de valores a otro distinto, es decir, cambian de estado termodinámico. Cuando se exhibe una energía igual o isoentrópico, es decir, constante, como ocurre en un sistema completamente aislado, se dice que es adibático porque no intercambia energía. Las leyes de la termodinámica limitan las maneras en que un sistema puede proceder de un estado a otro. La primera ley termodinámica es la ley de conservación de la energía aplicada a la energía interna de un sistema termodinámico. La energía interna no incluye la energía de la posición o movimiento del sistema como un todo. Según la primera ley hay solo dos maneras de cambiar la energía interna de un sistema dado. La primera por calefacción o sistema de enfriamiento, y dos, trabajando en el sistema o arreglo para que el sistema trabaje en su entorno. Matemáticamente esta primera manera le corresponde la ecuación:

 Imagen Ec. 1.1


Donde  Imagenes el incremento de energía interna E de un sistema termodinámico, dado por transiciones de un estado inicial  Imagen a otro final Imagen. La cantidad Q es al energía absorbida por el sistema cuando se calienta, y W es el trabajo realizado en el sistema durante la transición. Estas son cantidades asignadas así que cuando Q < 0, el sistema se enfría en vez de calentar y cuando W > 0, se trabaja sobre el sistema. Cuando estos cambios son infinitesimales la expresión se hace:


Imagen Ec. 1.2

Aquí hay diferentes notaciones, Imagen versus Imagen, para destacar que mientras que E es una variable que describe el estado de un sistema, Q y W no lo son, dado que indican la cantidad de energía infinitesimal transferida hacia o desde un sistema. Así, ¿un sistema termodinámico contiene energía?, de hecho no, contiene calor o trabajo, como sugiere la Figura 4.1. 


Imagen

Fig. 4.1 La energía interna E de un sistema termodinámico puede cambiarse de dos maneras: 1) por calefacción y refrigeración, y 2) por trabajo. 


Todas las interacciones entre partículas fundamentales son reversibles. La interacción más simple es una colisión entre dos partículas fundamentales. Una partícula se aproxima a otra; interactúan mediante fuerzas gravitacionales, electromagnéticas o nucleares; entonces ellas se alejan unas de otras. Podríamos pensar la colisión como dos canicas dentro de un frasco de canicas de igual característica, donde una está inicialmente en reposo, decimos que las interacciones entre partículas fundamentales son en el tiempo reversibles.


No puede decirse lo mismo de los procesos de un sistema termodinámico compuesto, como es de muchas partes diferentes, son normalmente irreversibles. Sin embargo, hay un sentido especial en el que un proceso termodinámico significativo se puede invertir. Si se hace un pequeño cambio infinitesimal en el sistema o en su ambiente y luego se invierte la dirección del cambio del proceso, uno pensaría que el proceso es termodinámicamente reversible. Sadi Carnot (1796-1832) creó el concepto de reversibilidad termodinámico para expresar y demostrar lo que ahora se llama Teorema de Carnot: el motor térmico más eficiente es aquel que opera reversiblemente[9]. 


Un proceso termodinámico reversible debe ser cuasiestático, es decir, infinitesimal lento y sin fricción o disipación (fricción interna). Consideremos, por ejemplo, el pistón comprime el fluido que ilustra Figura 4.2a. El pistón cuasiestático y fricción casi despreciable, se comprime el fluido cuando fuerza del pistón se ejerce sobre el fluido, Imagen, es una cantidad indefinidamente pequeña más grande que la fuerza PA a la que el fluido de presión P que se ejerce sobre la cabeza del pistón de área A. Cuando en cambio, la fuerza ejercida por el émbolo sobre el líquido es infinitamente menos que PA, es decir, Imagen, el fluido se expande cuasiestático. Así, estos son cambios termodinámicamente reversibles porque su dirección puede invertirse para un cambio infinitesimal en el sistema o en su ambiente. De manera similar, el calentamiento o enfriamiento de un sistema por parte de otro sistema, es reversible cuando se mantiene una diferencia de temperatura infinitesimal entre los dos como se muestra en la Figura 4.2b. Claramente, la reversibilidad termodinámica es un ideal que puede ser abordado, pero nunca en la realidad plenamente. Todos los procesos termodinámicos reales son irreversibles.


Imagen

Fig. 4.2 (a) Un pistón sin fricción reversible comprime un fluido. (b) Dos sistemas con una temperatura infinitesimal de diferencia de calor al enfriarse en contacto mutuo entre sí se vuelven reversibles. 


En síntesis, todos los procesos fundamentales o idealizados son reversibles porque uno no puede imaginar invertir su dirección del cambio sin violar las leyes de la física. Por otro lado, todos los procesos termodinámicos no idealizados son irreversibles. Los procesos termodinámicos, en la práctica, proceden siempre en una dirección. 


¿Por qué no todos los procesos son reversibles? Se sugiere que las leyes que gobiernan las interacciones de partículas fundamentales no forman una imagen completa de la naturaleza y necesitan ser complementadas con la física adicional equivalente a la segunda ley de la termodinámica. 


Hay un número de versiones lógicamente equivalentes de la segunda ley. Rudolph Clausius (1822-1888) fue el primero en 1850, identificó una versión de la segunda ley de la termodinámica. Para este propósito Clausius elevó las observaciones sobre calefacción y refrigeración para el estado de una ley general: un objeto frío nunca calienta un objeto más caliente. Por ahora basta con entender por temperatura como un valor pico promedio en alguna escala de medición y una fuente de energía será un reservorio de calor.


Un reservorio de calor mantiene la misma temperatura independientemente de cómo interactúan refrigerante o calefacción. Así un reservorio de calor tiene la capacidad infinita de calor como si estuviera indefinidamente creándolo. En el lenguaje, reservorio de calor, Clausius enuncio la segunda ley.


En 1851, William Thomson, más tarde conocido como Lord Kelvin formuló una versión distinta de la segunda ley, se refiere a la operación de un motor térmico, es decir, un dispositivo que utiliza una diferencia de temperatura para producir trabajo. Según la segunda ley de Kelvin: un motor de calor cuyo único resultado es causar un reservorio de calor, solo pierde energía Q a través de refrigeración y es imposible que realice la misa cantidad de trabajoImagen . 


Teniendo en cuenta la primera ley, la versión de Kelvin de la segunda ley es lógicamente equivalente a la Clausius. Pero la de Kelvin parece la más indicada desde el punto de vista del lenguaje tecnológico. 


La segunda ley de la termodinámica puede ser también expresada en términos del lenguaje de procesos irreversibles. Hay que recordar que establecimos que un proceso real es irreversible, es decir, no se puede revertir completamente. Por lo tanto, otra forma de decir esto es que un determinado proceso es prohibido, es decir que el proceso es el resultado de la inversión de un proceso termodinámico irreversible.


Imagine un sistema termodinámico que puede existir en diversos Estados termodinámicos. Representamos cada uno de estos Estados por un punto en un espacio multidimensional de estados termodinámicos. Las variables que definen el espacio de estado, por supuesto, dependerán de la naturaleza del sistema. Por ejemplo, dos variables son las que determinan el estado de un fluido simple, es el estado de un fluido cuyos puntos están definidos por la ubicación de los valores en dos ejes, uno etiquetado como energía E y otro como volumen V. Ahora, elegimos dos puntos cualquiera que representen dos Estados diferentes en nuestro espacio de estado termodinámico y un camino a través del espacio de estado que conecte a estos dos puntos. Cada punto en este camino necesariamente representa un estado termodinámico y la ruta de acceso completa, representa necesariamente un proceso cuasiestático que conecta los dos Estados extremos.  


Imagen

Fig. 4.3 Espacio termodinámico de estados, dos estados, denotados como Imagen y Imagen, y un camino conecta a los dos estados. 


Por supuesto que un cambio no cuasiestático, por ejemplo una turbulencia o explosiones de reacción rápida, pueden también transformar un sistema de estado termodinámico en otro. Pero procesos no cuasiestáticos no están compuestos de una secuencia continua de estados termodinámicos y no pueden ser representados por un camino en el espacio de estado termodinámico. Por lo tanto, un camino en el espacio de estado termodinámico representa necesariamente un proceso cuasiestático. Y los procesos cuasiestáticos vienen en dos tipos: procesos reversibles que se producen sin fricción o disipación, y los procesos reversibles que su proceder es con fricción y disipación. Recordar que un proceso totalmente reversible es también uno para el que un sistema y su ambiente puede con ajustes infinitesimales retornar, evolucionan a lo largo de un camino en el espacio de estado en cualquier dirección; y un proceso irreversible es el que un sistema y su ambiente requieren ajustes finitos para proceder a lo largo de un camino en cualquier dirección. Cada segmento de un trozo en el espacio de estado representa un proceso cuasiestático que, a su vez, representa ser reversible o un proceso irreversible. 


Si necesitamos una medida cuantitativa de la irreversibilidad del proceso cuasiestático Clausius, construye una variable de estado para un sistema aislado que monótonamente cambia a lo largo de un camino que representa un proceso irreversible y que sigue siendo el mismo a lo largo de un camino que representaría un proceso reversible. Por lo tanto, dos estados de un sistema aislado, conectados por un camino reversible tienen el mismo valor de esta variable de estado, y dos estados de un sistema aislado conectados por un camino irreversible tienen diferentes valores de la variable de estado. Y es Clausius quien acuña la palabra entropía para referirse a esta variable de estado como un significado paralelo a la palabra energía, esta palabra entropía fue denotada con el símbolo S. La palabra entropía significa literalmente “a su vez” o “entregar” desde su raíz griega Turn. Pero Clausius la interpretó como metáfora de transformación de contenido. 


La entropía de un solo Estado, es como la energía absoluta de un solo Estado. Si bien las leyes I y II de la termodinámica no refieren a energía en lo absoluto, si asignan significado a las diferencias de energía y entropía. La tercera ley de la termodinámica, en efecto no permite asignar un significado al concepto de entropía absoluta. Pero antes de adentrarnos en la tercera ley, es necesario estudiar cómo la diferencia entre dos estados de un sistema aislado cuantifica la irreversibilidad de un proceso de conexión de esos dos estados. 


La clave para cuantificar la irreversibilidad de la evolución de un sistema aislado, exige que el incremento de entropía Imagen de un sistema compuesto aditivo se distribuya sobre sus partes. Simbólicamente se expresa así:


Imagen

Donde Imagen es la entropía final del sistema j partes,Imagen es la entropía inicial del sistema j partes, Imagen y  Imagen es la entropía incremental del sistema j partes. De esta manera, el incremento de un sistema compuesto Imagen es la suma de los incrementos de entropía de sus partes. 

Imagen


Ahora apliquemos estas ideas a un proceso en particular. Establezcamos un reservorio de calor que se calienta con la temperatura T al absorber energía Q. Si, por otra parte, el depósito de calor se enfría, entonces Q<0. Por lo tanto, si el depósito de calor incrementa su entropía puede ser una función solamente de dos cantidades: la temperatura T del reservorio y el calor Q donde el signo de Q indica la energía que es absorbida a través de calefacción o rechazada a través de refrigeración. El calor sustantivo es aquí la energía absorbida o rechazada por calefacción o refrigeración. La ecuación de relaciones de estado. 


  Imagen


Tenga en cuenta que no nos hemos impuesto ninguna restricción especial en el proceso del sistema de este calentamiento o enfriamiento. En particular la calefacción o refrigeración se describe en la ecuación anterior  la cual puede ser reversible o irreversible. 


La propiedad de adición restringe severamente la forma de la función. Por ejemplo, si dividimos un reservorio de calor de temperatura T que absorbe calor Q en dos partes idénticas, cada una conserva la temperatura T y cada una absorbe la mitad del calor Q/2. Puesto que el incremento de entropía del sistema compuesto es la suma de los incrementos de entropía de sus partes


Imagen

O equivale

Imagen

Si en lugar de incrementos de entropía de calor en dos piezas idénticas, lo dividimos en n:


Imagen   Ec. 1.5


Allí solo hay una solución no trivial: 


 Imagen Ec. 1.6


Donde g es una función de la temperatura T aún indeterminada. Podemos derivar Ec. 1.6 tomando la derivada parcial de Ec. 1.5 con respecto de n, y resolviendo la ecuación en derivadas parciales resultantes. Por consiguiente la entropía del depósito de calor con cambios de temperatura T es


 Imagen Ec. 1.7


Cuando el reservorio absorbe o rechaza energía Q, respectivamente, de refrigeración o calefacción a otro objeto. 


El problema de la generación de entropía de un sistema de dos reservorios. A continuación aplicamos estas ideas a un sistema compuesto por dos reservorios que experimentan el siguiente proceso irreversible: un depósito más caliente directamente transfiere energía Q a un reservorio más frío como lo ilustra la Figura 4.4. Puesto que el deposito absorbe la energía Q y el depósito más caliente rechaza energía Q, sus incrementos de entropía son, respectivamente 


Imagen

y

   Imagen para Q>0


De acuerdo con estas expresiones y la propiedad aditiva, el incremento de entropía de este sistema compuesto de dos reservorios 

 Imagen    Ec. 1.8


Si los depósitos de calor de dos reservorios que forman un sistema aislado compuesto tienen la misma temperatura Imagen, entonces  Imagen. Y si sus temperaturas Imagen y Imagen  son diferentes, entonces el calor fluye irreversiblemente desde el depósito más caliente al más frío y  es diferente de cero. De esta manera el incremento de entropía Imagen cuantifica la irreversibilidad de un proceso termodinámico de un sistema aislado. En resumen, cuando el proceso es reversible Imagen y cuando es irreversible Imagen. 

Imagen

Fig. 4.4 Depósitos y transferencia de energía. 


Clausius adopto la convención que la entropía de un sistema aislado aumenta cuando el sistema evoluciona irreversiblemente en la dirección permitida por la segunda ley de la termodinámica. Así, según lo convenido por Clausius, Imagen en Imagen. Este convenio significa que  Imagen y por lo tanto Imagen debe ser una función no negativa, decreciente de la temperatura T. 


Reversible entre calefactor y refrigeración. Fácilmente podemos superar la restricción de  Imagen de calor limitado por Q a una indefinida cantidad pequeña Imagen. La transferencia de una cantidad de calor Imagen, debe ser reversible, puesto que el sentido de la transferencia puede invertirse por un pequeño cambio en el sistema o su ambiente. En este caso  Imagen  reduce la expresión

 

Imagen  Ec. 1.9


Se aplica a cualquier sistema termodinámico con temperatura T que absorbe Imagen o rechaza una pequeña cantidad indefinida de energía Imagen mediante calefacción o refrigeración. Después de todo cualquier sistema finito actúa como un reservorio de calor en relación a una cantidad indefinidamente pequeña de calefacción o refrigeración. Una vez más observe la distinción en Ec. 1.9 entre diferencial de un ds variable de estado y el Imagen como incremento indefinidamente pequeño. 


La eficiencia de Carnot y el teorema de Carnot. Una consecuencia de la versión entrópica de la segunda ley, la entropía de un sistema aislado no puede disminuir. El teorema de Carnot: el motor térmico más eficiente es aquel que opera reversiblemente. Para ver esta observación, el motor de calor más simple de Carnot es uno que extrae energía Imagen por enfriamiento de un depósito más caliente, produce trabajo W, y rechaza el desperdicio Imagen calentando a un reservorio frío como se ilustra en Figura 4.5. Se puede, hacer parte de un sistema aislado de energía, digamos, usando el trabajo W para elevar un peso. La entropía del sistema aislado es 


Imagen Ec. 1.10

 

donde Imagen y Imagen y W son relacionadas, según la primera ley, por 


 Imagen Ec. 1.11


Imagen

Fig. 4.5  El motor de calor más simple posible es el que produce trabajo operando entre un solo reservorio frío y otro caliente.


La eficiencia de este motor es, por definición, como beneficio del motor en el trabajo W que produce, dividido por el calor que consume Imagen, es decir, 

  Imagen   Ec. 1.12

Donde, dada por Ec. 1.11 y 1.12 vemos que Imagen. Empleando Ec. 1.11 y 1.12 para eliminar  Imagen y Imagen de la entropía incremental de Ec.10,  produce  


  Imagen   Ec.    1.13


Por lo tanto, cuanto mayor sea la eficienciaImagen, más pequeño es el incremento de entropía Imagen. Puesto que no puede disminuir la entropía de un sistema aislado, que es Imagen, la mayor eficiencia posible Imagen cuando Imagen, es decir, cuando el motor opera reversiblemente. Esta eficiencia máxima del motor de calor entre dos reservorios de calor,


 Imagen Ec. 1.14


se llama eficiencia de Carnot y la versión del motor de calor más simple posible, es reversible, llamado motor de Carnot.


La temperatura absoluta o termodinámica. Ni la entropía incremental Imagen,  ni la eficiencia de Carnot Imagen se cuantifican plenamente porque no son función negativa, decreciente, Imagen aún no está completamente especificada. William Thomson advirtió la falta de especificidad en 1848, veinticuatro años después de que Carnot probó el Teorema en 1824, y dos años antes que Rudolph Clausius había armonizado las primera y segunda ley de la termodinámica en 1850. 


Temperatura. Pero primero ¿qué es la temperatura? Un termómetro mide la temperatura, pero ¿qué es un termómetro? Un termómetro asocia el tamaño de una variable termométrica conveniente, con el volumen, resistencia, color o alguna otra variable termodinámica de un sistema, con un número único denominado según una escala de temperatura, si por ejemplo, grados Fahrenheit o Celsius. Consideremos, por ejemplo, el termómetro de vidrio de mercurio ilustrado en la Figura 4.6. La longitud de la columna de mercurio en el tubo de vidrio de calibre pequeño es la variable termodinámica y la forma dispuesta de los números que están en el lado del tubo de vidrio definen la escala de la temperatura. 


Imagen


Fig. 4.6 Termómetro de mercurio con escala de temperatura arbitraria.


William Thomson trato de utilizar el motor de Carnot, es decir, un motor térmico reversible operando entre dos depósitos de calor, como un termómetro y su eficiencia Imagen como variable termométrica. Por supuesto, el motor de Carnot es una idealización que puede  ser abordada pero él nunca se dio cuenta. Después de todo, un motor térmico reversible funcionaria infinitesimalmente y sin fricción o disipación, de tal manera que el más mínimo cambio en el sistema o su ambiente fuera a revertir su funcionamiento. No importa que no se pueda construir un perfecto motor térmico reversible y sus reservorios de calor idealizados. Simplemente la mejor aproximación de construcción posible exigirá extrapolar los resultados. 


La idea es simple, aunque su ejecución es difícil. En primer lugar, asignar una temperatura Imagen a algunas prácticas y estándares universales de estado accesibles, un estándar. Tal estado de agregación es el punto triple del agua, es decir, el estado en que las tres fases del agua están en equilibrio. En segundo lugar, medir la eficiencia de un motor térmico reversible Imagen operando entre  dos depósitos de calor, uno en equilibrio con el estado estándar y otro en equilibrio  con el sistema cuya temperatura Imagen debe ser determinada. Tercero, si Imagen


  Imagen Ec. 1.15a


y si         Imagen


  Imagen Ec. 1.15b


Las temperaturas Imagen asignadas de esta manera se llaman temperatura absoluta o termodinámica, mientras que temperaturas T determinadas por otras clases de termómetros se llaman temperaturas empíricas.  


Este algoritmo permite asignar la temperatura absoluta o termodinámica a cualquier sistema, en particular a los reservorios fríos y calientes entre ellos los que se operan como un motor térmico reversible (reservorio y depósito son empleados como términos iguales). En cuanto a las temperaturas termodinámicas asignadas según Ec. 1.15, la eficiencia de Carnot de un motor térmico reversible operado entre dos depósitos de calor dados por


Imagen Ec. 1.16


donde Imagen y Imagen son absolutas o temperaturas termodinámicas.



Escalas absolutas de temperatura. La característica esencial de la temperatura absoluta  o termodinámica es que la relación entre cualquier par de temperaturas, es decir Imagen, Imagen o Imagenes independiente de la escala que utiliza para denominar las temperaturas individuales. Por ejemplo, en el SI o Sistema Internacional asigna a una temperatura estándar absoluta  Imagen = 273.16K para el punto triple del agua. De esta manera hay, 100 grados Kelvin entre el punto normal de congelación del agua, 273.15 K , y el punto normal de ebullición del agua, 373.15 K. La unidad IS de temperatura absoluta, el Kelvin y su símbolo K, por supuesto, el nombre es en honor a Lord Kelvin (William Thomson). Algunas ocasiones los ingenieros utilizan la escala de grados Rankine Imagen, que se simboliza Ra dada en el punto triple del agua. De esta manera el tamaño de grado Rankine es idéntico al tamaño de un grado Fahrenheit. 


En el sistema Internacional todas las otras clases de temperaturas se definen como funciones lineales de las temperaturas Kelvin. La traducción de un tipo de temperatura a otra es sencilla.  Por ejemplo, para convertir 23 grados centígrados a Kelvin simplemente añadimos 273 a los 23 grados, es decir 296 K. Y convertir 68 grados Fahrenheit a Celsius, nosotros substraemos 32 a 68 y multiplicamos el resultado por 5/9 esto produce 20 grados Celsius.


 

 

 

 


4.3 Lógica cuántica


La mecánica clásica es reconocible desde el plano de la intuición, por lo aparente de lo predecible del movimiento de las cosas en el orden de la vida humana. Mientras la mecánica cuántica describe existenciales tan pequeños que están lejos del alcance de los sentidos humanos. El mundo cuántico no es para nada accesible por intuición, la manera que se hace es aprender a encadenar ideas matemáticas abstractas, afortunadamente ahora es más accesible dado el estado de conocimiento teórico y experimental más consolidado de nuestro tiempo. La mecánica cuántica proporciona una descripción exacta de cada sistema físico, pero algunas cosas son suficientemente masivas para que se puedan aproximar confiablemente desde la mecánica clásica, es decir, la mecánica clásica solo es una aproximación. Desde un punto de vista lógico primero deberíamos aprender mecánica cuántica.


El sistema clásico más simple, es el sistema de dos estados, llamado en la informática bit. Puede representar cualquier cosa que tenga solo dos estados, por ejemplo, una moneda águila o sol, un interruptor que pasa de activado a apagado. Sugerimos  comenzar con la versión cuántica de un sistema de dos estados, para ello, debemos pensar muy diferente a la forma que estamos acostumbrados por influencia de la intuición.

Es difícil ocultar que nos meteremos en aprietos matemáticos para comprender la mecánica cuántica, sin embargo, su sistema conceptual permite tratar con el comportamiento de objetos tan pequeños que para nosotros no es posible visualizarlos a simple vista. Los átomos individuales están cerca del extremo superior de esta escala en términos de tamaño. Los electrones son empleados con frecuencia como objetos de estudio. Nuestros órganos sensoriales no pueden percibir el movimiento de los electrones individuales. Lo mejor que podemos hacer es intentar comprender el movimiento con abstracciones matemáticas a modo de experimentos mentales. La mecánica cuántica es diferente de la clásica porque sus abstracciones son muy diferentes, por ejemplo, la idea de estado en la mecánica cuántica es conceptualmente distinta a la de la mecánica clásica. Los estados están representados por diversos objetos matemáticos y tienen una estructura lógica distinta. En el mundo clásico la relación entre estados y mediciones es muy sencilla. De hecho, es trivial. Las etiquetas que describen un estado, por ejemplo, son posición y momento de una partícula, y las etiquetas para medición son las mismas. Por ponerlo de otra manera, uno puede realizar un experimento para determinar el estado de un sistema. En el mundo cuántico, esto no es cierto. Los estados y las mediciones son dos cosas diferentes, y la relación entre ellos son sutiles y no intuitivas. 


Para seguir en este orden de ideas, tengamos presente que la idea de spin se deriva de la física de partículas. Las partículas tienen además de propiedades de ubicación en el espacio otras como carga eléctrica o masa. Un electrón no es lo mismo que un quark o un neutrino. Pero incluso un tipo específico de partícula como el electrón, no especifica completamente su ubicación. El electrón tiene un grado de libertad extra llamado spin. Ingenuamente el spin puede ser representado como una pequeña flecha que apunta en alguna dirección, pero el ingenio es por el hecho de quererlo representar así para una situación real. El spin de un electrón en el ámbito de la mecánica cuántica puede ser representado como un sistema. Nosotros podemos abstraer la idea de spin y olvidar que es una propiedad unida a un electrón. El spin cuántico es un sistema que puede ser estudiado como algo aislado de la corriente eléctrica del espacio, es el más simple de los sistemas cuánticos. 


El spin cuántico aislado es un ejemplo de la clase general de sistemas simples que es llamado qubits o bits cuánticos, que juegan el mismo papel en el mundo cuántico como la lógica de diferentes estados para un sistema. Para comprenderlo partiremos del sistema determinista más simple, una moneda que puede mostrar los estados H o T. Podemos llamarlo sistema de dos estados o más formalmente grados de libertad que pueden tomar dos valores +1 y -1. 


El estado H dado por 

Imagen

El estado T dado por 

Imagen


En un sentido clásico podríamos llamarlo espacio de estados. El sistema se encuentra en estado  Imagen o Imagen y no hay nada entre ellos. En la mecánica cuántica, lo pensamos como un sistema qubits. La evolución simple de un sistema discreto que actualiza sus estados instante a instante en todas sus posibilidades, la evolución es dada por


Imagen


Donde n es cada instante discreto y n+1 cada siguiente paso. Es decir, un experimento consiste en algo más que un sistema de estudio, también se trata de un aparato para hacer mediciones y registrar los resultados de estas. En el caso de un sistema de dos estados, el aparato va a interactuar con el sistema y registra el valor Imagen. Pensemos en el aparato como una caja negra, con una ventana que muestra las mediciones. También hay una flecha sobre el aparato, up. La flecha es importante porque muestra cómo el aparato se orienta en el espacio y su dirección afectará los resultados de nuestras mediciones. Comencemos señalando a lo largo del eje z. Inicialmente, no tenemos conocimiento de Imagen, nuestro propósito es hacer un experimento para averiguar el valor de Imagen.

Imagen

Imagen



Imagen


Fig. 4.7 (A) Spin y cualquier “gato” o aparato de medición. (B) Spin y aparato al realizar una medición, dando por resultado Imagen. Si el spin no es perturbado y el aparato mantiene la misma orientación, todas las mediciones posteriores darán el mismo resultado. El eje de coordenadas muestra nuestro convenio para etiquetar las direcciones en el espacio.

 

Ahora que hemos medido Imagen, vamos a reiniciar el aparato en posición neutral y, sin perturbar al spin, mediremos  Imagen otra vez. Suponiendo la ley de simple evolución, deberíamos obtener la misma respuesta como lo hicimos la primera vez. El  Imagende resultado  Imagen será seguido porImagen . Asimismo para Imagen. Lo mismo será para cualquier número de repeticiones. Esto es muy importante porque nos permite confirmar el resultado de un experimento. También podemos decir esto de la siguiente manera: la primera interacción con el aparato prepara el sistema en uno de los dos estados. Experimentos posteriores confirman ese estado. Hasta ahora, no hay diferencia entre  la física clásica  y cuántica.


Imagen

Fig. 4.8 El aparato se voltea sin perturbar al spin previamente medido. Un nuevo resultado de medición aparaceImagen.


Ahora vamos a hacer algo nuevo. Después de preparar el spin medido con el aparato, nosotros volteamos el aparato que originalmente midió Imagen, pero ahora indicara Imagen (ver Figura 4.8). Del mismo modo, si originalmente Imagen, al revés el aparato registrara Imagen. En otras palabras, invirtiendo el aparato se logra Imagen y Imagen. De estos resultados podemos concluir que Imagen es un grado de libertad que está asociado con un sentido de dirección en el espacio. Por ejemplo si Imagen fuera un vector de algún tipo, entonces sería natural esperar que al voltear el aparato fueran revertidas las lecturas. Una explicación simple es que el aparato mide el componente del vector a lo largo de un eje integrado en el aparato ¿esta explicación es correcta para todas configuraciiones Imagen?


Si estamos convencidos de que el spin es un vector, nosotros naturalmente describiremos sus componentes como: Imagen. Cuando el aparato esté en posición a lo largo del eje z, está posición mediráImagen. 


Imagen

Fig. 4.9. El aparato es rotado 90º. Como Resultado da una nueva medición  Imagen con 50 por ciento de probabilidad.


Hasta el momento, todavía no hay diferencias entre la física clásica y la cuántica. La diferencia solo se hace evidente cuando gira el aparato a través de un ángulo arbitrario dado en radianesImagen . El aparato comienza en la posición vertical (con la flecha hacia arriba a lo largo del eje z). Un spin es preparado con Imagen. A continuación, es girado de modo que la flecha up apunta al eje x (Figura 4.10) y luego se realiza una medición de lo que presumiblemente es el componente  Imagen del spin. 


Sí, de hecho Imagen representa realmente el componente de un vector a lo largo de la flecha up, uno esperaría cero. ¿Por qué? Inicialmente se confirmó que Imagen era dirigido a lo largo del eje z, lo que sugiere que su componente a lo largo de x debe ser cero. Pero sorpresa cuando medimos Imagen. El aparato A es verificado y no importa que camino se oriente, se niega a dar cualquier respuesta que no sea Imagen. Si el giro es realmente un vector, es una versión muy peculiar de hecho. 


Sin embargo, nos encontramos con algo interesante. Supongamos que repetimos el experimento varias veces, cada vez seguido  del mismo procedimiento, es decir:



 El experimento repetido muestra una serie de aleatoriedad más y menos. El determinismo se ha roto, pero de una manera peculiar. Si hacemos muchas repeticiones, nosotros encontramos los números de Imagen son eventos estadísticamente iguales. En otras palabras, el valor promedio de Imagen es cero. En lugar de lo clásico, es decir, que el componente de Imagen en el eje x es cero, encontramos que el promedio de estas mediciones  repetidas es cero.   


Ahora vamos hacer todo de nuevo, pero esta vez Ase gira no sobre el eje x, se gira a una dirección arbitraria a lo largo del vector Imagen. Clásicamente, si Imagen fuere un vector, se esperaría el resultado del experimento es la componente. Si se encuentra en un ángulo Imagen con respecto a z, la respuesta clásica sería Imagen. Pero como se puede adivinar, cada vez que hacemos el experimento obtenemos Imagen. Sin embargo, el resultado estadístico es parcial por lo que el valor medio es Imagen. 


La situación es por supuesto más general. No nos orientaremos sobre z, escogeremos cualquier dirección Imagen e iniciaremos con la fecha up apuntando a lo largo de Imagen. Preparamos un spin para el aparato que lee +1. Entonces, sin molestar al spin, giramos el aparato a la dirección Imagen, como lo muestra la Figura 4.10.  Un nuevo experimento en el mismo  giro se dan resultados aleatorios Imagen, pero con un valor promedio igual al coseno del ángulo entre Imagen yImagen. En otras palabras, será la media Imagen.



Imagen



La notación en mecánica cuántica para la media estadística de la cantidad Q es dada en notación bracket de Dirac Imagen. Podemos resumir los resultados de nuestra investigación experimental como sigue: Si empezamos con A orientaciones a lo largo de Imagen y confirma que Imagen, entonces mediciones subsiguientes de A orientadas a lo largo  Imagen da el resultado estadístico 


Lo que estamos aprendiendo es que el sistema mecánico cuántico no es determinista: los resultados de los experimentos pueden ser estadísticamente aleatorios, pero si repetimos un experimento muchas veces, las cantidades promedio pueden seguir las expectativas de la física clásica, al menos hasta cierto punto. 


Imagen

Fig. 4.10 El aparato rotado en un ángulo arbitrario dentro del plano x-z. Es el resultado de la medición promedio. 


Cada experimento consiste en un sistema exterior –un aparato- que debe interactuar con el sistema para registrar el resultado. En ese sentido, cada experimento es invasivo. Esto es cierto en ambos clásico y cuántico, pero solo en la física cuántica hace gran efecto fuera de él. ¿por qué es así? En el clásico, un aparato de medición ideal tiene un pequeño efecto sobre el sistema que está midiendo. Experimentos clásicos pueden ser arbitrariamente suaves y sus registros precisos y reproducibles experimentalmente. Por ejemplo, la dirección de una flecha puede determinarse reflejándose la luz de la flecha y enfocándola para formar una imagen.  Si bien es cierto que la luz debe tener una longitud de onda lo suficientemente pequeña como para formar una imagen, no hay nada en la física clásica que impida que la imagen esté hecha con luz arbitraria. En otras palabras, la luz puede tener un contenido pequeño de energía arbitrario.


En la mecánica cuántica, la situación es fundamentalmente diferente. Cualquier interacción que es lo suficientemente fuerte para medir algún aspecto de un sistema, necesariamente es suficiente para alterar en algún aspecto del mismo sistema. Así que no se puede aprender nada sobre un sistema cuántico sin cambiar algo más sobre él. Esto resulta evidente en los ejemplos envueltos para A y Imagen. Supongamos que comenzamos de nuevo con Imagen a lo largo del eje z. Si medimos Imagen de nuevo con orientaciones a lo largo del eje z, confirmaremos el valor anterior. Podemos hacer esto una y otra vez sin cambiar el resultado. Pero considere esta posibilidad: entre mediciones sucesivas a lo largo del eje z, gire 90º, haga una medición intermedia y vuelva a su dirección original. ¿Confirmará una medición posterior a lo largo del eje z, es decir la media original? La respuesta es no. En la media intermedia en el eje x saldrá el spin en una configuración completamente al azar en cuanto a la próxima medición. No hay manera para tomar la determinación intermedia de la vuelta de un componente spin sin interrumpir totalmente la medición final. Se podría decir que un componente medido del spin destruye la información sobre otro componente. De hecho, uno simplemente no puede conocer al mismo tiempo los componentes spin a lo largo de dos ejes diferentes, no de una manera reproducible en cualquier caso. Hay algo fundamentalmente diferente sobre el estado de un sistema cuántico y el estado de un sistema clásico. 


El espacio de estados de un sistema clásico es un conjunto matemático. Si el sistema es una moneda, el espacio de estado es un conjunto de dos elementos H y T. Utilizando la notación de sistema, debería escribir Imagen. Si el sistema es un dado de seis caras, el espacio de estados tiene seis elementos con las caras Imagen. La lógica de la teoría de conjuntos se llama lógica booleana. La lógica booleana es una versión formal de la lógica clásica familiar de proposiciones.   


Una idea fundamental en la lógica booleana es la noción de falso y verdadero. Es decir, una proposición es falsa o verdadera, nada en medio es permitido. El concepto relacionado con la teoría de conjuntos es un subconjunto. Por ejemplo, si el conjunto representa los estados posibles de un dado, se puede considerar la respuesta de:


a) La matriz muestra una cara impar.

El subconjunto correspondiente contiene los tres elementos  Imagen

Otros estados de la proposición:

b) El dado muestra un número inferior a 4.

El subconjunto correspondiente contiene los tres elementos  Imagen

Cada proposición tiene su opuesto (llamada negación), por ejemplo

Not a): El dado no muestra un cara impar.

El subconjunto de esta proposición negada es   Imagen


Dentro de las reglas para combinar proposiciones para mayor complejidad, los operadores lógicos más empleados son and, or, not. Las intercepciones formadas por los operadores exigen que las proposiciones sean verdaderas, esto aplica a los operadores or y and. En el discurso cotidiano la palabra or es usada generalmente en el sentido exclusivo (la versión exclusiva, es verdadera si una o la otra proposición son verdaderas, pero no ambas. Sin embargo, la lógica booleana usa la versión exclusiva de or, es verdadera si cualquiera de las proposiciones o ambas son verdaderas. 


Por ejemplo:


Octavio Paz fue mexicano o Cervantes escribió el Quijote.


Es cierto. Por lo tanto 

Octavio Paz fue mexicano o Cervantes escribió El laberinto de la Soledad.


La inclusión or es incorrecta, solo si ambas proposiciones son falsas. Por ejemplo


Octavio Paz fue chileno o Cervantes escribió El laberinto de la Soledad.


La inclusión or tiene un sistema de interpretación teórica como la unión de dos conjuntos: denota el subconjunto que contiene todo en uno o en ambos de los subconjuntos contiene a los componentes implicados. En el ejemplo A or B denota el subconjunto Imagen y el sombreado oscuro denota la proposición A and B. Los números blancos son elementos de la unión  A con B, que representan la proposición A or B.

Imagen

Regresando a nuestro sistema cuántico simple que consiste en un solo spin, y para las diferentes propuestas se emplea un aparato  A de la verdad. Considere las siguientes dos proposiciones:

A: La componente z del spin es +1.

B: La componente x del spin es +1.


Cada uno de estos casos es significativo y puede ser probado por la orientación en el eje apropiado. La negación de cada uno también es significativa. Por ejemplo, para la primera proposición:


not A: El componente z  del spin es -1.

 

Consideremos ahora las siguientes proposiciones compuestas


(A or B): El componente z del spin es +1 or el componente x del spin es +1. 


(A and B): El componente z del spin es +1 and el componente x del spin es +1.


Si el spin se comporta como la idea clásica:



Existe un procedimiento alternativo, que consiste en intercalar el orden de las dos medidas. Para enfatizar esta versión de orden, llamaremos al nuevo procedimiento B or A: 



En física clásica, los dos órdenes de funcionamiento dan la misma respuesta. La razón de esto es que las mediciones pueden ser arbitrarias y suaves  (suaves significa que no afectan los resultados mediciones sucesivas). Por lo tanto, la proposición A or B  tiene el mismo significado que la proposición B or A.


En el terreno cuántico, imaginemos una situación en que alguien o algo desconocido nos ha preparado secretamente un estado spin esImagen=+1. Nuestro trabajo es preparar el aparato A para determinar si la proposición A or B es verdadera o falsa. Vamos a hacerlo utilizando los procedimientos mencionados anteriormente.


Comenzamos midiendo. Desde el agente desconocido ha creado un up, descubrimos que Imagen=+1. No es necesario seguir a: A or B es verdadera. Sin embargo, hemos decidido probar para ver qué pasa. La respuesta es impredecible. Al azar, encontramos que Imagen=+1 o Imagen=-1. Pero ninguno de estos resultados afecta la verdad de la proposición A or B. 


Pero ahora vamos a invertir el orden de medición. Como antes, el procedimiento inverso es B or A, y este orden mediremos primero Imagen. Porque el agente desconocido establece estado del spin Imagen=+1 a lo largo del eje z, la medición de Imagen es aleatoria. Si resulta que Imagen=+1, hemos terminado: B or A es verdadera. Pero supongamos que nos encontramos con el resultado contrario  Imagen=-1. El spin es orientado a lo largo del eje x. Vamos a hacer una pausa aquí brevemente, para asegurarnos que se entendió lo que acaba de suceder. Como resultado de nuestra primera medición, el spin ya no está en su anterior estado  Imagen=+1. Él nuevo estado, que es cualquier Imagen=+1 o Imagen=-1 . Por favor tome un momento para dejar esta idea clara. No podemos exagerar su importancia.


Ahora estamos listos para probar la otra mitad de la proposición B or A. Gira el aparato A para el eje z y se mide Imagen.  Según la mecánica cuántica, el resultado será aleatoriamente Imagen.  Esto significa que hay una probabilidad de 25 por ciento que el experimento produce Imagen=-1 y Imagen=-1. En otras palabras, con una probabilidad de Imagen , encontramos que B or A es falsa. Esto ocurre a pesar de que el agente oculto había originalmente asegurado que Imagen=+1.


Evidentemente, en este ejemplo, el inclusivo or no es simétrico. La verdad de A or B puede depender de la orden en el que confirmamos las dos proposiciones. Esto no es una cosa pequeña: significa no solo que las leyes de la física cuántica son diferentes de sus contrapartes  clásicas, sino que los fundamentos de la lógica son distintos en la física cuántica también. 


¿por qué (A and B)? Supongamos que nuestra primera medición produce Imagen=+1 y la segunda Imagen=+1 . Esto es por supuesto un resultado posible. Nos sentiremos inclinados a decir que A and B es verdadera. Pero en la ciencia, especialmente en la física, la verdad de una proposición implica que la proposición puede ser verificada por una observación posterior. En física clásica, la suavidad de las observaciones implica que experimentos posteriores se ven afectados y confirman con un experimento posterior su objetividad. Una moneda que gira no se voltea de cara o sol por el hecho de observarla, por lo menos no en lo clásico. El quantum mecánico en la segunda medición Imagen=+1, se arruina la posibilidad de verificar la primera. Una vez Imagen que ha sido preparado a lo largo del eje x, otra medición de Imagen dará una respuesta al azar. Por lo tanto A and B, no son confirmables: el segundo paso de medición del experimento interfiere con la posibilidad de confirmar el primer paso del experimento.


Este callejón no es otra cosa en la mecánica cuántica que el principio de incertidumbre. El principio de incertidumbre no solo se aplica  a la posición y al momento o velocidad; se aplica a muchos pares de cantidades mensurables. En el caso del spin, se aplica a las proposiciones que implican dos componentes diferentes de Imagen. En el caso de la posición y el impulso, las dos proposiciones que podríamos considerar son:



De estas dos proposiciones podemos formar las proposiciones compuestas:



En la física clásica, la primera proposición compuesta es totalmente sin sentido, y la segunda significa algo muy diferente de lo que usted podría pensar. Todo viene a una diferencia profunda en la lógica entre los conceptos de sistemas de estados clásicos y cuánticos. Explicar el concepto de estado cuántico requiere algunas abstracciones matemáticas, así que vamos a hacer una pausa para un breve paso por los espacios vectoriales y además para explicar esto deberemos conocer  rol  del empleo de número complejos para justificar la representación matemática de estados del spin. 


Para un sistema clásico, el espacio de Estados es un conjunto de los posibles estados, y la lógica de la física clásica es booleana, que parece evidente y difícil de imaginar otra posibilidad. Sin embargo el mundo real funciona de manera totalmente diferente, por lo menos cada vez que la mecánica cuántica es significativa. El espacio de un sistema de estados cuánticos no es un conjunto matemático, es un espacio vectorial diferente al que existe entre los elementos de un conjunto, y la lógica de proposiciones es diferente.


Antes de definir espacio vectorial es necesario aclarar el término vector. Como usted recordara de sus cursos básicos indica un objeto de espacio común que tiene magnitud y dirección. Estos vectores tienen tres componentes, correspondientes a tres dimensiones del espacio. Una forma alternativa y más profunda es referirse a un algo con magnitud y dirección en el espacio ordinario, explícitamente un 3-vector. Un espacio vectorial matemático es una construcción abstracta que puede o no tener nada que ver con el espacio común. Porque puede tener el espacio vectorial cualquier número de dimensiones desde 1 hasta infinito, y pueden tener componentes que son números enteros, números reales o cosas más generales. 


Los espacios vectoriales utilizados para definir Estados mecánicos cuánticos se denotan como espacios Hilbert. Es un espacio que puede tener un finito o infinito número de dimensiones. En mecánica cuántica está compuesto por elementos Imagen llamados vectores ket. Estos son los axiomas que se utilizan para definir el espacio vectorial de un sistema cuántico (donde z y w son números complejos):


1. La suma de cualquier dos vectores ket es también un vector ket:

Imagen

2. La adición de vectores ket es conmutativa:

Imagen

3. La adición de vectores ket es asociativa:

Imagen

4. Elemento neutro bajo la suma:

Imagen

5. Dado cualquier ket Imagen, solo hay un ket  Imagenque:

Imagen

6. Dado cualquier ket Imagen y un número complejo z, se pueden multiplicar para obtener un nuevo ket. También, multiplicado por un escalar es lineal:

 Imagen

7. Propiedad distributiva:

Imagen


Los axiomas del 6 y 7 en conjunto se llaman axiomas de linealidad. 3-vectores ordinarios podrían satisfacer estos axiomas excepto por una cosa: el axioma 6 permite un vector ser multiplicado por cualquier número complejo. Los 3-vectores ordinarios pueden multiplicarse por números reales positivos, negativos y el cero, pero no se define la multiplicación por números complejos. Se puede pensar en 3-vectores que forman un espacio real y kets que forman un espacio vectorial complejo. 
















4.4 Fenómenos cuánticos

 Qué quantum fue el que me enamoro de ti


Un cristal, ella se refleja en él

la luz regresa creando su imagen,

pero, parte de su luz se trasmite

dentro de otra realidad,

ver la propia imagen sorprende, 

ese viaje a nuestro ojo 

es el más significativo 

para la belleza poética 

de nuestro mundo.

Paquetes electromagnéticos

muy pequeños de nuestro ser,

fragmentos que conducen la 

información de la imagen,

es aleatorio cuales se reflejan 

y cuales se trasmiten a través

del cristal que no conoce el futuro.


Carpintero de letras


Hemos ya mencionado que en la física clásica conocer un estado de un sistema, solo se considera todo lo necesario para predecir el futuro de ese sistema. Los sistemas cuánticos no son totalmente predecibles, un estado cuántico refiere a cuánto puede ser conocido acerca de cómo se dispuso el sistema. En las líneas anteriores se hablo de cómo un aparato A dispuso el estado de un spin. De hecho, asumimos implícitamente que había detalles finos sobre el estado del spin.  Al preguntarse lo obvio, ¿la imprevisibilidad es debida a un incompleto estado cuántico? Si pensamos que la respuesta es afirmativa, es como asegurar que hay variables ocultas, que impiden completar el estado cuántico, ya sea por no estar experimentalmente disponibles o por ser una restricción de la mecánica cuántica. La respuesta es, la mecánica cuántica es inevitablemente impredecible, se trata de un cálculo de probabilidades de lo posible. Lo complicado es aprender a emplear este cálculo en física. 


La física cuántica es muy difícil de interpretar, por eso algunos prefieren pensar que no aporta nada a la descripción del mundo físico, la razón para ello es que socava la intuición clásica que tenemos del mundo. Pero son los fenómenos cuánticos, tales que no pueden ser acomodados dentro del mundo clásico. Aquí es un hecho que estamos embarcados en un aprendizaje de un mundo nuevo, que modificara nuestra visión del la realidad. Lo notable de la mecánica cuántica es que se maneja con estructuras matemáticas básicas para apoyar la teoría. De esta manera matemática de la mecánica cuántica explica los fenómenos cuánticos detrás del mundo empírico. La primero de ellos es el fenómeno de interferencia.



4.4.1 Interferencia 


El fenómeno de interferencia se conoció estudiando las ondas de luz, mucho antes que la mecánica cuántica. Supongamos que brilla una luz en una pantalla con dos ranuras en ella y el resultado se proyecta en una pantalla adicional, tal como se muestra en la siguiente figura. Cuando ambas rendijas están abiertas, la iluminación en la pantalla no es la suma de ésas ondas, por el contrario, se presenta una suma de patrones de bandas claras y oscuras que se muestran en la imagen enseguida. 


ImagenImagen


En la pantalla queda de manifiesto una superposición, interferencia; es decir, las ondas de las dos ranuras se suman en algunas direcciones y cancelan hacia afuera en otras. Las líneas sólidas iluminadas representan las ondas que se suman en fase, y cuando la fase de las ondas no coinciden, es decir, cuando están en contra fase se cancelan dando como resultado una franja oscura. El resultado es patrón de interferencia de luz. Si ahora el experimento se realiza con un haz de electrones, también aparece un patrón de interferencia. Este proceso lo realizaron con cotidianidad los televisores antiguos, la pantalla es reemplazada por una fluorescente, en ella se crean las Imag4 del televisor. De nuevo cuando pasa el haz por dos rendijas produce en la pantalla un patrón de bandas claras y oscuras. Este comportamiento para partículas con masa es inexplicable en la física clásica. El electrón que pasa a través de la abertura izquierda no puede hacer ninguna interacción a la trayectoria del electrón de la rendija derecha abierta, por lo que el patrón cuando ambas rendijas están abiertas debe ser simplemente la suma de los patrones de una sola ranura. Así que quizás nos equivocamos acerca de la naturaleza de los electrones, tal vez en realidad son ondas, no partículas.  



Esto es lo que Louis de Broglie (1924) propone, que cada partícula llamada puede tratarse como una onda con longitud de onda Imagen, donde m es la masa de la partícula, v es la velocidad y h la constante fundamental llamada de Planck. Estas longitudes de onda son muy pequeñas; para un electrón con velocidades típicas de laboratorio, la longitud de onda de Broglie es alrededor de un nanómetro (una millonésima parte de metro), en comparación con varios cientos de nanómetros para la luz visible. Esto significa que para poder observar los efectos de interferencia de los electrones, necesitamos utilizar un espaciado de rendijas de dimensiones atómicas; normalmente el enrejado de átomos es un cristal. Hasta ahora la explicación de la interferencia con electrones no requiere fundamentalmente de nuevas visiones físicas: el electrón se reclasificarse como onda en lugar de partícula, pero la ontología de partícula y onda se mantiene intacta. De hecho, sin embargo, la situación para explicar a fondo esto queda sin respuesta contundente. Supongamos que reducimos la tasa de disparos de electrones para que pasen a través de las rendijas de uno a uno. Cada electrón produce un destello en un punto preciso en la pantalla fluorescente, pero si nos fijamos en la distribución de los destellos en el tiempo, vemos que se forma un patrón de interferencia. 

Imagen


Considere que el patrón de interferencia está presente aún cuando los electrones pasan a través de los aparatos por separado; cada electrón interfiere consigo mismo, no con otros electrones. Pero más problemático resulta explicar esto, más allá de onda y partícula. La explicación del patrón de interferencia al parecer requiere que cada electrón se comporte como una onda, pasando a través de ambas ranuras. Pero la explicación de los destellos discretos al parecer requiere que cada electrón se comporte como una partícula, así un partícula pasa por una o por otra ranura. 


De hecho cuando el rayo de luz es un rayo de fotones (partículas de masa cero), resulta el mismo fenómeno que con electrones individuales. Por lo que incluso lo que tomamos por un fenómeno clásico de interferencia, resulta un fenómeno cuántico de profundo misterio. Cada fotón se comporta como una partícula que produce un destello en un punto en la pantalla, pero como una ola pasando por ambas ranuras en el patrón de destellos exhibe efectos de interferencia. Pero el aspecto discreto de lo observado, contrasta con la continuidad de una onda extendida. 



4.4.2 Entrelazamiento 


Un segundo fenómeno cuántico es el entrelazamiento. La forma más directa de presentar este fenómeno de entrelazamiento es en términos de una propiedad de las partículas llamada spin. Algunas partículas se comportan como si tuvieran ímpetu angular, como presente en las bolas de billar que la masa de un punto es calculada por la velocidad angular por la masa de manera continua. Algunas partículas cargadas se comportan como sí tuvieran un campo magnético girando en la bola. Uno probablemente no debería literalmente imaginar bolas girando; por un lado hemos establecido lo que entendemos por una partícula cuántica. Así que por el momento debemos ignorar las implicaciones. 


Un aspecto central de los fenómenos cuánticos es que muchas de sus propiedades físicas son cuantizadas discretas más que continuas. Según la mecánica clásica, las propiedades de energía y momento pueden tomar un rango continuo de valores. Sin embargo, descubrimientos a principios del siglo XX sugieren de hecho estas cantidades discretas son restricciones naturales en estos fenómenos. Esto motivo a que se desarrollara la mecánica cuántica, así como el nombre de la teoría. Pero cuantización como tal, solo es ligeramente una idea revolucionaria. Si la lección de la mecánica cuántica es solo que la energía viene en trozos discretos, el interés sería menor. Interferencia y entrelazamiento sugieren algo mucho más profundo. 


El spin no es una excepción de cuantización. El spin de una partícula  solo puede tomar ciertos valores discretos. Para una partícula cargada como un electrón, puesto que su spin se asocia a un campo magnético, estos valores se pueden medir pasando los electrones a través de otro campo magnético y observando la desviación causada por la interacción de los campos. Lo que los laboratorios encuentran es que el electrón exhibe una o dos desviaciones. El electrón es desviado hacia arriba por una cierta cantidad (con relación a la dirección del campo magnético externo), o se desvía hacia abajo por la misma cantidad. Es decir, el síntoma valores spin-up y spin-down. Las partículas de este tipo  que pueden tomar solo dos valores de giro, se llaman partículas spin 1/2. 


Mas sorprendente resulta que el spin del electrón puede solo tomar dos valores con relación a cualquier dirección del campo externo. Supongamos que el campo externo es inicialmente alienado verticalmente y dado un electrón se desvía hacia arriba en relación con este campo. Desde el pensamiento clásico, uno podría pensar que el campo magnético del electrón debe estar alineado verticalmente y por lo tanto, que debe estar girando alrededor de un eje que está alienado verticalmente. Este tipo de pensamiento implica que si uno pasa el electrón a través de un campo externo alienado horizontalmente, debe ser el retorno al caso opuesto del campo implicado perpendicularmente. Pero en realidad el electrón se desvía exactamente la misma cantidad que antes, ya sea hacia arriba o hacia abajo como en el primer caso, solo que con un nuevo campo magnético. Es decir, el electrón es acelerado o desacelerado con relación a cualquier dirección que uno pueda elegir. Esto proporciona otra razón para no pensar en el spin cuántico en términos de partículas girando literalmente. 


Así que la cuantización spin es misteriosa en sí misma desde un punto de vista clásico. Pero el fenómeno de entrelazamiento es aún más. La idea básica es bastante simple. Porque el spin es una cantidad conservada, si una giro decae en dos partículas de spin 1/2, los spin de las partículas resultantes deben ser iguales y opuestos. Esto puede ser verificado experimentalmente. Para los pares de partículas de spin 1/2 producidas por decaimiento del giro, si uno mide sus spin en la misma dirección, encontramos que una de ellas es el spin-up y la otra el spin-down. Dichos pares de partículas se les llama entrelazadas; sus spin se corresponden en lugar de ser independientes. 


Ahora no hay nada de misterio en la correlación en sí. Es perfectamente explicable en términos del origen del par de partículas. Lo misterioso es cómo se crean instancias de estas correlaciones en las propiedades de las partículas individuales.  Esto se hace evidente si medimos los spin de las partículas en la misma dirección, los resultados no están siempre de acuerdo, y de la misma manera, si medimos los spin en direcciones opuestas los resultados siempre están de acuerdo. Pero qué pasa con la direcciones intermedias. Para ángulos intermedios el resultado algunas veces está desacuerdo y otras no. Más precisamente, si el ángulo entre los dos dispositivos de medición (los campos externos) es la probabilidad que otorga Imagen. Cuando dos dispositivos de medición están alineados aparte a 120º, por ejemplo, para los spin de las dos partículas es de acuerdo a Imagen en el tiempo. 


Sin  embargo no parece muy difícil de explicar, al menos a primera vista. Después de que las dos partículas han sido a su manera separadas, probablemente tienen sus propiedades de spin individual, y estas propiedades están correlacionadas. Lo que necesitamos para una explicación completa de los resultados experimentales es algún modo para asignar marcas a las partículas con el fin de reproducir la distribución de probabilidad observada en los resultados de medición. Supongamos que la primer partícula su spin esta en el eje vertical; entonces la distribución observada requiere que la segunda partícula se desaseare en el eje vertical y que también su probabilidad sea de 3/4 par ser spin-up a lo largo de una dirección vertical. Pero en 1964, John S. Bell demostró que, conforme a alguna asunción plausible física, el modo de marcado no existe; es imposible constantemente asignar propiedades de spin a las partículas individuales que reproducen la distribución observada en los resultados de medición. El teorema de Bell y sus consecuencias, no se ha encontrado manera de rechazar su hipótesis, tenemos que negar que las correlaciones que se manifiestan por el par de partículas entrelazadas pueden explicarse en términos de las propiedades de las partículas individuales. Porque no tenemos manera de explicar una correlación  apelando a las propiedades individuales de las partículas, el entrelazamiento representa otro misterio cuántico, dado que parece que la comunicación entre las partículas pares es más rápido que la luz, este intercambio de información resulta misterioso.


Debemos aclarar una pequeña ambigüedad, los físicos usan la palabra “estado” para referirse tanto  estado físico de un sistema y a la matemática que lo representa. Para evitar confusiones cuando nos referimos a estado físico hacemos referencia al mundo físico. Cuando hablamos de estado cuántico nos referimos a una abstracción matemática de la teoría. 


La teoría de la mecánica cuántica tiene tres elementos esenciales: el estado cuántico que representa el sistema físico que nos interesa, la ley dinámica por lo que el estado cuántico cambia con el tiempo y el postulado de la medida conque el estado cuántico se relaciona con los resultados de las mediciones. 


 


4.5 Configuración electrónica de elementos químicos


La configuración electrónica nos indica la distribución de los electrones en cada orbital de un elemento químico.  Para poder realizar estas configuraciones es necesario conocer el diagrama de Moeller, el cual nos indicará qué orden seguirán los electrones al irse posicionando en cada uno de los orbitales del elemento químico de nuestro interés.

Imagen

Los orbitales mostrados en el diagrama anterior son s, p, d, y f, sin embargo, existen más orbitales no presentes en este diagrama, pero para alcanzar esos orbitales se requiere de una cantidad muy grande de electrones, lo cual es una cualidad muy poco común de los elementos presentes en la tabla periódica. 


La configuración electrónica va de la mano junto con los números cuánticos, pues estos podrán ser determinados si tenemos una configuración electrónica completa; a continuación, vamos a analizar un ejemplo:

Si escogemos al oxígeno (O), el primer paso es ver con cuántos electrones contamos (suponiendo un estado natural y neutralidad del átomo), entonces tendremos un número de protones = número de electrones, esto se representa con la letra z, por lo tanto para O tendremos z=8, ahora debemos tener en cuenta la capacidad de cada orbital para almacenar electrones, la cual es la siguiente:

Imagen 

Los exponentes en la configuración electrónica simbolizan la cantidad de electrones presentes en cada orbital. Por lo tanto, sumando exponentes y siguiendo el diagrama de Moeller vamos a tener la siguiente configuración electrónica: 

Imagen 

Pero los exponentes suman 2+2+6=10 y nosotros necesitamos que sumen 8, esto quiere decir que la última capa no se encuentra totalmente llena y en realidad la configuración real seráImagen

,entonces como primer regla básica de la configuración electrónica: solo podemos cambiar el número de electrones presentes en el último orbital. Esta es válida como configuración electrónica, sin embargo, no es la más desarrollada y no nos permite obtener los 4 números cuánticos pues nos faltan datos, motivo por el cual vamos a representar de otra forma la configuración electrónica del oxígeno. En las configuraciones electrónicas los electrones se acomodan en pares sobre cada orbital, en el caso de que el orbital soporte más de un par de electrones, como es común, se separará ese mismo orbital en las partes que se requieran. 

Por ejemplo, un orbital 

Imagen 

tiene capacidad para 3 pares de electrones, entonces se separan en  

Imagen


Donde xyz hacen referencia a los ejes geométricos en que se encuentran los electrones, no es necesario escribir xyz, simplemente se usa para diferenciar las posiciones de los electrones en el orbital p, cuando se va adquiriendo experiencia pueden ser omitidas esas literales. Los pares de electrones se representan con flechas hacia arriba y hacia abajo, siempre empezando con la que apunta hacia arriba, por ejemplo, en un orbital s los electrones se representan:

 Imagen 

esto se debe al principio de exclusión de Pauli que en pocas palabras nos dice que un electrón no puede tener los mismos números cuánticos que otro, esto se explicará más adelante. Cuando se trata de un orbital p siempre se empieza rellenando con flechas hacia arriba 

Imagen 

debido a la regla de Hund, la cual indica que los electrones se distribuyen siempre que sea posible lo más separados que puedan y una vez que se agote esta posibilidad empezará a rellenarse con flechas hacia abajo. Entonces regresando al ejemplo del oxígeno:

1er paso:

Representar los orbitales necesarios para la configuración en su forma separada por pares de electrones y vacía

Imagen

2do paso:

Empezar a rellenando los orbitales que podemos completar

Imagen

3er paso:

Rellenar con flechas individuales hacia arriba el último orbital 

Imagen

4to paso:

Rellenar con los electrones faltantes los espacios para flechas hacia abajo.

 Imagen

  La configuración electrónica del oxígeno se encuentra ahora completa y de esta forma ahora somos capaces de determinar los números cuánticos del ultimo electrón.


Números cuánticos

En química los números cuánticos son 4; indican y se clasifican de la siguiente manera: 

Imagen  


n: numero cuántico principal

Nos indica el nivel energético principal donde está ubicado el electrón y también una idea del volumen del orbital pues a mayor nivel mayor volumen. Por ejemplo, para el último electrón del oxígeno; n está dado por: 

Imagen

l: numero cuántico secundario

Nos indica la energía del subnivel (orbital: s,p,d,f…) en la que se encuentra el electrón donde

Imagen

Por ejemplo, para el último electrón del oxígeno; l está dado por

Imagen

m: número cuántico magnético

Representa la probable orientación de los subniveles en el campo magnético del átomo

Imagen


Entonces dependiendo de la posición del electrón dentro del orbital donde se encuentre se le asignara el número cuántico magnético. Por ejemplo, para el último electrón del oxígeno; m está dado por: 

ImagenImagen

s: número cuántico de spin

Nos indica el sentido de giro del electrón con respecto al átomo; toma valores de, 

Imagen, 

si la flecha indica arriba entonces será positivo, por el contrario, será negativo. Por ejemplo, para el último electrón del oxígeno; s está dado por

Imagen   

aquí se puede ver claramente el por qué no puede haber dos flechas en el mismo par que apunten a la misma dirección, pues esto implicaría que todos sus números cuánticos son iguales y si se cambia la dirección de la flecha el electrón comparte todos los números cuánticos excepto el de spin, que tendría un cambio de signo y de esta forma se cumple el principio de exclusión de Pauli.

Con estos números cuánticos es posible determinar los elementos, pues el último electrón del último orbital de un elemento tiene números cuánticos diferentes a cualquier último electrón del último orbital de otro elemento.

Gases nobles 

Los gases nobles tienen propiedades muy similares entre sí, por ejemplo a temperatura ambiente son gases, incoloros e inodoros y presentan una reactividad muy baja, de ahí surge su nombre, esto se debe a que todos excepto el helio presentan el octeto de electrones en su última capa de valencia y ya no requieren más electrones para ser estables. Los siete gases nobles son helio (He), neón (Ne), argón (Ar), kriptón (Kr), xenón (Xe), el radiactivo radón (Rn) y el sintético oganesón (Og). 

Son muy útiles para la configuración electrónica pues todos ellos exceptuando al helio terminan su configuración en un subnivel p:

Imagen

Entonces cuando se trata de configurar elementos con grandes cantidades de electrones se puede recurrir a las notaciones de Kernell, esto consiste en usar el gas noble con número de electrones inmediato inferior al elemento que se va a representar de la siguiente forma: tomando como ejemplo al potasio (K)

Imagen

 de esta forma ahorramos mucho tiempo y tinta en las configuraciones electrónicas. 

Ejercicio:

Determine qué elemento químico tiene como números cuánticos en su último electrón:  

Imagen

Solución:

1er paso

Con ayuda de los números n y l sabemos que el último electrón está en 3s y gracias al spin en este caso m siempre es 0 para los orbitales s y gracias al spin sabemos que la flecha apunta hacia arriba entonces tendremos que nuestro electrón es  

Imagen

2do paso:

Consultar el diagrama de Moeller y ver dónde está 3s 

Imagen

Por la posición en la que está quiere decir que este elemento tiene lleno

Imagen. 

Entonces agregando el ultimo electrón tenemos que la configuración electrónica será

Imagen

 o en notación de Kernell  

Imagen


3er paso:

Finalmente determinaremos z que recordando significa el número de electrones presentes en el átomo, entonces 10+1=11 y buscamos en la tabla periódica que elemento tiene como número atómico 11; este resulta ser el sodio (Na) 

Y solo queda anotar el elemento junto con su configuración electrónica 

Imagen


Ejercicio 1:

Determine qué elemento químico tiene como números cuánticos en su último electrón:  

Imagen

Solución: 

1er paso

Con ayuda de n y l sabemos que el último orbital del que hablamos será 5d y como m=1 y el spin es negativo, podemos decir que este último orbital tendrá la distribución siguiente: 

Imagen

Nota: el último electrón aparentemente tiene spin positivo, pero se debe tener en cuenta la regla de Hund, por lo que realmente el último electrón será el marcado en rojo. 


2do paso


Consultar el diagrama de Moeller y ver dónde está 5d

Imagen

Por su posición podemos saber que 

Imagen

 se encuentran llenos, por lo tanto, la configuración electrónica completa será:

Imagen


Observar que el último orbital no cuenta con los electrones suficientes para llenar el orbital, además, como se puede observar es una configuración electrónica bastante extensa, motivo por el cual es conveniente usar la notación de Kernell:  

 Imagen

Si revisamos las notas el gas noble que más nos conviene usar es el xenón ya que al usar cualquier otro tendríamos que ampliar la notación o se rebasaría la cantidad de electrones que necesitamos.

3er paso

Finalmente determinaremos z que recordando significa el número de electrones presentes en el átomo, realizando la suma tendremos que: 54+2+14+9=79 y buscamos en la tabla periódica qué elemento tiene como número atómico 79; este resulta ser el oro (Au); Y solo queda anotar el elemento junto con su configuración electrónica 

 Imagen

Autoevaluación:

 Determine qué elemento químico tiene como números cuánticos en su último electrón:  

a)  Imagen                       R=Carbono

b)    Imagen                      R=Nitrógeno

Obtenga los números cuánticos:

  1. a) Platino (Pt)              R=   Imagen
  2. b) Estaño (Sn)           R= Imagen



Referencias 



[1] Max-Planck- Gesellschaft. http://www.mpg.de/history_mpg

[2] Hegel Kragh (2000). Max Planck: the reluctant revolutionary. Physics Word p.p. 31-35. Recuperado de http://www.math.lsa.umich.edu/~krasny/math156_article_planck.pdf

[3] Boya Luis J. (2004). The termal radiation formula of Planck 1900. Zaragoza University. Recuperado de http://arxiv.org/abs/physics/0402064v1

[4] J.R. Person (2013). Evolution of quasi-history in a physics textbook. Physics Education. Recuperado de  http://arxiv.org/abs/1308.1550

[5] L.A. Du Bridge & Paul A. Epstein (1959). Robert Andrews Millikan. Washington: National Academy of Sciences. Recuperado de http://www.nasonline.org/publications/biographical-memoirs/memoir-pdfs/millikan-robert.pdf

[6] Niels Bohr (1913). On the constitution of Atoms and Molecules. Philosophical Magazine 6, vol. 26: 1-25. Recuperado de http://hermes.ffn.ub.es/luisnavarro/nuevo_maletin/Bohr_1913.pdf

[7] Yatendra S. Jain et al. (2011). On the origin of Stark effect of rotons in He-II and the existence of p = 0 condensate. Current Sciense 101. Recuperado de http://arxiv.org/abs/1111.2665

[8] Paul Hartman (1994). A Memoir on The Physical Review: A History of the First Hundred Years. NY: AIP Press.

[9] Forero Díaz, S. M. (2013). Sadi Carnot, el ciclo ideal. Lat. Am. J. Phys. Educ. 7(3): 473-477.