Física atómica

 

I) Distribución de Boltzmann


La física estadística tiene como objetivo determinar las leyes macroscópicas de un sistema compuesto por un gran número de partículas, partiendo de las leyes microscópicas que rigen las interacciones entre dichas partículas. Demuestra las propiedades macroscópicas del sistema a partir de la estadística sobre las propiedades microscópicas. Actualmente constituye la base teórica de la termodinámica y puede aplicarse a muchos otros campos.

El objetivo principal de la termodinámica es el estudio de las transformaciones del calor en trabajo mecánico y viceversa. Sus métodos de razonamiento y su enfoque intuitivo global pueden emplearse en numerosos otros ámbitos. Históricamente, ha constituido una ciencia independiente con sus propias leyes fundamentales (postulados derivados de la evidencia experimental). Hoy en día, la termodinámica se ha unificado con la mecánica gracias a una de sus ramas llamada mecánica estadística, que fue desarrollada principalmente por Maxwell, Boltzmann, Gibbs y Fermi. Sus leyes fundamentales ahora son las de la mecánica estadística y cuántica.

La estadística de Maxwell-Boltzmann es una ley de probabilidad o distribución que determina la repartición de partículas entre diferentes estados de energía cuando se alcanza el equilibrio estadístico. Este estado corresponde a un nivel máximo de desorden, es decir, cuando la entropía es máxima. Esta distribución es la base de la teoría cinética de los gases.

El concepto de partícula aquí debe tomarse en un sentido amplio: se trata de sistemas microscópicos. Así, se considera el caso de un sistema macroscópico compuesto por un gran número de sistemas microscópicos.

1) Sistema compuesto por `N` partículas con `n` estados de energía iguales

Comenzamos exponiendo el caso trivial en el que todos los estados tienen la misma energía. Consideremos un sistema compuesto por `N` partículas, donde cada partícula está caracterizada por un estado perteneciente a `A "=" {1, 2, 3, ..., n}` y cada estado tiene la misma energía interna. Así, una partícula en el estado `1` posee la misma energía que una en el estado `2`, la misma que una en el estado `3`, etc., y la misma que una en el estado `n`.

Se supone que las partículas cambian de estado de forma aleatoria con el tiempo, como en una cadena de Markov, pero con una probabilidad de cambio igual para todos los cambios posibles. Esto significa que, tras una unidad de tiempo, la probabilidad de que el estado de una partícula esté en el estado `i` es siempre la misma, cualquiera que sea `i"∈"A`, es decir, `1"/"n`.

Existe un estado de equilibrio estadístico que se alcanza cuando el nivel de desorden es máximo, es decir, cuando la entropía es máxima. En nuestro caso sencillo, el equilibrio se alcanza en el primer lapso de tiempo, y este equilibrio corresponde a la equiprobabilidad de los estados de las partículas. Formularemos el cálculo con el fin de aplicarlo más adelante a casos más complejos. Por ello, detallaremos el cálculo en varias etapas generales que, evidentemente, son superfluas para el caso simple presente.

Es importante definir con precisión el lenguaje de las ecuaciones, un lenguaje matemático que constituye un medio eficaz para resumir la teoría en una expresión concisa y formalizar un entorno intuitivo. Este lenguaje es un vector de transmisión del conocimiento.

1.1) Estado microscópico

El estado microscópico del sistema consiste en describir el estado de cada partícula. De este modo, el sistema queda completamente descrito por su estado microscópico. Las `N` partículas son todas identificables de manera individual, como si todas fueran distinguibles. Se hablará de un conjunto de partículas distinguibles. Dado que hay `n` estados posibles para cada una de las `N` partículas, el número de configuraciones microscópicas es `n^N`.

1.2) Estado macroscópico

Se elige para caracterizar un primer nivel de estado macroscópico la distribución `(N_1, N_2, N_3, ..., N_n)` de las partículas en los n estados, que a veces se denota como `(N_i)_{i ∈ A}`, donde `N_i` es el número de partículas que tienen el estado `i`. Dado que los estados `A "=" {1, 2, 3, ..., n}` son exclusivos y exhaustivos, se cumple:

`∑_{i ∈ A} N_i = N`

La variable `i` designa un estado y se utiliza como índice en la suma. Para simplificar la notación, se declara previamente el dominio de recorrido de i, lo cual se escribe como sigue:

`i"∈"A`
`∑_i N_i = N`

El estado macroscópico descrito por la distribución `(N_1, N_2, ..., N_n)` agrupa numerosos estados microscópicos que se obtienen al permutar las partículas que comparten el mismo estado. La distribución `(N_1, N_2, ..., N_n)` es un parámetro extensivo, lo que significa que si se combinan dos sistemas idénticos, se obtiene un sistema donde se duplica `N` y se duplica cada término de la distribución. Para convertir esta distribución en un parámetro intensivo, se normaliza dividiendo cada término por `N`:

Proporción de partículas en el estado `1` :        `p_1 = N_1 / N`
Proporción de partículas en el estado `2` :   `p_2 = N_2 / N`
...    
Proporción de partículas en el estado `n` :   `p_n = N_n / N`

La distribución `(p_1, p_2, ..., p_n)` está entonces normalizada, es decir:

`∑_i p_i = 1`

La distribución `(p_1, p_2, ..., p_n)` es la ley de proporción de los estados de las partículas. En otras palabras, `p_i` es la proporción de partículas que tienen el estado `i`. Constituye una variable de estado macroscópica intensiva. En nuestro caso sencillo, en el estado de equilibrio estadístico, todas son iguales a `1/n ± 1/N`. (Dado que la división de `N/n` generalmente no es exacta, en el equilibrio puede existir una desviación de `1/N` entre las proporciones).

1.3) La cantidad de información

Denotamos como `bbbM` el número de estados microscópicos posibles del sistema:

`bbbM = n^N`

Enumeramos todos los estados microscópicos posibles del sistema del `1` al `bbbM`. El sistema queda completamente determinado por el número de su estado microscópico.

La cantidad de información contenida en el sistema es el número de bits necesarios y suficientes para memorizar el número de su estado microscópico, un número comprendido entre `1` y `bbbM`. Se denota como `bbbQ` y corresponde al logaritmo del número de estados microscópicos posibles. Se expresa en bits si el logaritmo está en base `2`:

`bbbQ = log(bbbM)`

Por ejemplo, en el caso de que el sistema tenga solo dos estados microscópicos posibles, la cantidad de información contenida en el sistema es exactamente `1` bit. Si el sistema tiene `256` estados microscópicos posibles, entonces la cantidad de información contenida en el sistema es exactamente `8` bits.

Los parámetros globales `bbbQ` y `bbbM` se representan con letras destacadas para indicar que constituyen parámetros del marco del sistema, es decir, parámetros que no dependen de su estado microscópico.

1.3.1) Producto de dos sistemas

Si combinamos dos sistemas idénticos, considerando siempre que las partículas son identificables individualmente, es decir, distinguibles, entonces el número total de partículas será `2N`, y el número total de estados posibles será igual al producto del número de estados posibles del primer sistema por el número de estados posibles del segundo sistema, es decir, `bbbM^2`. Por lo tanto, la cantidad total de información contenida en el sistema será `2bbbQ`.

Podemos concebir otra forma de combinación, llamada conmutación indistinguible, donde el sistema resultante no es un par de sistemas bien diferenciados, sino un conjunto de sistemas en el que no se puede distinguir entre el primero y el segundo, o dicho de otro modo, donde se pueden permutar los dos sistemas sin cambiar el estado microscópico del sistema resultante. Estudiaremos este tipo de combinación más adelante.

El parámetro `bbbQ` es extensivo al igual que `N`, lo que significa que si combinamos dos sistemas idénticos, el sistema resultante tendrá el doble de `N`, el número de estados posibles será el cuadrado de `bbbM`, y la cantidad de información total será `2bbbQ`.

En el capítulo anterior vimos que la cantidad de información contenida en el sistema es el número de bits necesarios y suficientes para memorizar un número comprendido entre `1` y `bbbM`, por lo que es igual a `bbbQ "=" log(bbbM)`.

Ahora bien, si conocemos el estado macroscópico `(N_1, N_2, ..., N_n)`, entonces el sistema así restringido contiene un número de estados microscópicos menor, que se denota como una función `M(N_1, N_2, ..., N_n)`, y, por lo tanto, contiene una cantidad de información menor, denotada como:

`Q(N_1, N_2, ..., N_n) = log(M(N_1, N_2, ..., N_n))`

Definimos `Q` y `M` como variables de estado, que dependen totalmente de las variables de estado `N_1, N_2, ..., N_n`. Esto se expresa formalmente como:

`Q ← (N_1, N_2, ..., N_n)`
`M ← (N_1, N_2, ..., N_n)`

Esto significa que:

`Q = Q(N_1, N_2, ..., N_n)`
`M = M(N_1, N_2, ..., N_n)`

Por lo tanto, se cumple:

`Q = log(M)`

Si combinamos dos sistemas idénticos y distinguibles en un solo sistema, el número total de partículas será `2N`, la distribución será `(2N_1, 2N_2, ..., 2N_n)`, el número total de estados posibles será igual al producto de los estados posibles del primer sistema por los del segundo, es decir, `M^2`, y la cantidad total de información contenida en el sistema será `2Q`. Por consiguiente, los parámetros `N_1, N_2, ..., N_n`, `Q` y `N` son extensivos.

1.4) La entropía `S`

La entropía, denotada por `S`, se obtiene dividiendo la cantidad de información `Q` por `N`. Este parámetro `S` es intensivo, lo que significa que si combinamos dos sistemas idénticos y distinguibles en un solo sistema, entonces `N` se duplica, pero la entropía `S` permanece inalterada.

`S ← (N_1, N_2, ..., N_n)`

`S = S(N_1, N_2, ..., N_n) = S(2N_1, 2N_2, ..., 2N_n) = S(p_1, p_2, ..., p_n)`

`S = Q/N = log(M)/N`

El número de estados microscópicos posibles en el estado macroscópico `(N_1, N_2, ..., N_n)` está dado por la siguiente cantidad de combinaciones:

`M = (N!)/(N_1!N_2!N_3!...N_n!) = (N!)/(∏_i N_i!)`

Con la convención de que `0! = 1`. Cuanto mayor sea este número de combinaciones, mayor será el nivel de desorden asociado al estado macroscópico, es decir, mayor será la entropía. Este número es máximo para el estado macroscópico `(N/n, N/n, ..., N/n)`, con una posible variación de `±1` en cada componente. Es decir, cuando los estados de las partículas son equiprobables:

`N_1 = N_2 = N_3 = ... = N_n = N/n ± 1`

El estado de equilibrio estadístico corresponde al máximo desorden, y por lo tanto, a esta distribución equiprobable de los estados microscópicos de las partículas. Ahora calculamos la cantidad de información `Q` del sistema restringido en el estado macroscópico `(N_1, N_2, ..., N_n)`:

`Q = ln((N!)/(∏_i N_i!))`

`Q = ln(N!) - ∑_i ln(N_i!)`

Desarrollamos `Q` cuando `N` tiende a infinito, usando los dos primeros términos de la fórmula de Stirling:

`ln(N!) = Nln(N) - N + O(ln(N))`

Donde `O(ln(N))` representa términos del orden de `ln(N)` cuando `N "→" ∞`. Para aplicar completamente la fórmula de Stirling a la expresión de `Q`, se requiere que `N` y cada término de la distribución `N_i` tiendan a `+∞`. Así, se obtiene:

`Q = Nln(N) - N + o(ln(N)) - ∑_i (N_i ln(N_i) - N_i + O(ln(N_i)))`

`Q = Nln(N) - N - ∑_i N_i ln(N_i) + ∑_i N_i + O(ln(N) + ∑_i ln(N_i))`

`Q = Nln(N) - ∑_i N_i ln(N_i) + O(ln(N) + ∑_i ln(N_i))`

Definimos un término de corrección `θ` que tiende a cero:

`θ = ln(N)/N + (1/N) ∑_i ln(N_i)`

Reescribiendo `Q`:

`Q = Nln(N) - ∑_i N_i ln(N_i) + O(Nθ)`

Ahora desarrollamos la expresión de la entropía `S = Q/N`, introduciendo la probabilidad `p_i = N_i/N`:

`S = ln(N) - ∑_i (N_i/N) ln(N_i) + O(θ)`

`S = ln(N) - ∑_i p_i ln(Np_i) + O(θ)`

`S = ln(N) - ∑_i (p_i ln(N) + p_i ln(p_i)) + O(θ)`

`S = ln(N) - ln(N) ∑_i p_i - ∑_i p_i ln(p_i) + O(θ)`

`S = ln(N) - ln(N) - ∑_i p_i ln(p_i) + O(θ)`

`S = - ∑_i p_i ln(p_i) + O(θ)`

La entropía, siendo un parámetro intensivo, depende únicamente de la distribución de las proporciones de los distintos estados `(p_1, p_2, ..., p_n)`, que también es un parámetro intensivo, con un error del orden de `θ`. Por esta razón, se prefiere expresar la entropía en el siguiente orden de `θ`:

`S = S(p_1, p_2, ..., p_n) = S(N_1, N_2, ..., N_n)`

La cantidad de información, que por definición es igual a la entropía multiplicada por `N`, es un parámetro extensivo con una corrección del orden de `Nθ`.

En el equilibrio estadístico, los estados de las partículas están distribuidos equitativamente con una proporción de `1/n`. Por lo tanto, la entropía `S` es:

`S_max = - ∑_i (1/n) ln(1/n) + O(θ)`

`S_max = (1/n) ∑_i ln(n) + O(θ)`

`S_max = ln(n) + O(θ)`

`S_max = ln(n) + O(θ)`

2) Sistema compuesto por `N` partículas con `n` estados de energía

El problema se complica al introducir una energía propia para cada estado de las partículas.

Dado un sistema compuesto por `N` partículas y que posee una energía `E`, cada partícula se caracteriza por un estado `i` perteneciente a `A = {1, 2, 3, ..., n}` y por una energía `ε_i`, que es la energía almacenada por la partícula en el estado `i`. La energía total `E` es la suma de las energías de todas las partículas.

El estado macroscópico se define, como antes, mediante un parámetro extensivo, la distribución `(N_1, N_2, ..., N_n)`, donde `N_i` es el número de partículas en el estado `i`. También se puede definir por un parámetro intensivo, la ley de probabilidad `(p_1, p_2, ..., p_n)`, donde `p_i = (N_i)/N` representa la probabilidad de que una partícula seleccionada al azar, o en un instante aleatorio, se encuentre en el estado `i`.

La energía total `E` es la suma de las energías de todas las partículas, y es un parámetro extensivo:

`E = ∑_(i ∈ A) N_i ε_i`

Dividiendo por `N`, obtenemos la energía media por partícula, que denotamos por `ε`. Representa la energía promedio de las partículas y es un parámetro intensivo:

`ε = ∑_(i ∈ A) p_i ε_i`

Por razones prácticas en termodinámica, esta energía por partícula a veces se multiplica por el número de Avogadro para obtener una energía por mol, aunque no se utilice comúnmente. Luego, por razones prácticas en la vida cotidiana, esta energía por mol se multiplica por un factor empírico `0.080181586... "KJ"^-1"mol"` para obtener una temperatura en kelvin. Este factor se define de modo que la diferencia de temperatura entre el cambio de fase sólido-líquido del agua y el cambio de fase líquido-gas a una presión de una atmósfera sea exactamente `100 "kelvin"`.

Se asume que las partículas cambian de estado de manera aleatoria en el tiempo, con una probabilidad de cambio no discriminatoria entre los estados de `A`, pero con una única restricción: la conservación global de la energía `E` a largo plazo. Bajo esta condición, existe un estado de equilibrio estadístico que corresponde al nivel máximo de desorden, es decir, cuando la entropía es máxima. Este equilibrio corresponde a la distribución de Maxwell-Boltzmann.

El estado microscópico del sistema es un `N`-upla de elementos de `A`, que representa el estado de cada partícula, pero con la restricción de que la energía total debe ser igual a `E`. Las partículas están identificadas por un número y se consideran distinguibles. Se hablará de un conjunto de partículas discernibles.

La cantidad de información `Q(N_1, N_2, ..., N_n)` se define como antes:

`Q = N ln(N) - ∑_i N_i ln(N_i) + O(Nθ)`

Donde

`θ = ln(N)/N + (1/N) ∑_i ln(N_i)`

La entropía `S(p_1, p_2, ..., p_n)` también se define de la misma forma que antes:

`S = - ∑_(i ∈ A) p_i ln(p_i) + O(Nθ)`

La distribución de Maxwell-Boltzmann, aquí limitada a `n` estados de energía `(ε_1, ε_2, ε_3, ..., ε_n)`, es el estado macroscópico `(p_1, p_2, ..., p_n)` de entropía máxima bajo la siguiente restricción:

`ε = ∑_(i ∈ A) p_i ε_i`

`1 = ∑_(i ∈ A) p_i`

La solución se obtiene buscando el máximo de `S` en función de un conjunto de variables `p_1, p_2, ..., p_(n-1)`, sujetas a una ecuación lineal. Aunque aún no hemos introducido las herramientas matemáticas necesarias para resolver este sistema de ecuaciones, presentamos directamente la solución descubierta por Boltzmann:

`p_i = e^(-ε_i/ε) / Z`

donde `Z` es el factor de normalización, de manera que `∑_(i ∈ A) p_i = 1`:

`Z = ∑_(i ∈ A) e^(-ε_i/ε)`

Y donde `ε` es la energía promedio de las partículas, cumpliendo la ecuación:

`∑_(i ∈ A) p_i ε_i = ε`

La entropía máxima correspondiente es entonces:

`S(p_1, p_2, ..., p_n) = - ∑_(i ∈ A) p_i ln(p_i) + o(θ)`

Desarrollando la expresión:

`S = - ∑_(i ∈ A) e^(-ε_i/ε) / Z ln(e^(-ε_i/ε) / Z) + o(θ)`

`S = - (1/Z) ∑_(i ∈ A) e^(-ε_i/ε) (ln(e^(-ε_i/ε)) - ln(Z)) + o(θ)`

`S = - (1/Z) ∑_(i ∈ A) e^(-ε_i/ε) (-ε_i/ε - ln(Z)) + o(θ)`

`S = (1/Z) ∑_(i ∈ A) (ε_i/ε) e^(-ε_i/ε) + ln(Z) ∑_(i ∈ A) e^(-ε_i/ε) + o(θ)`

`S = (1/Z) ∑_(i ∈ A) (ε_i/ε) Z p_i + Z ln(Z) + o(θ)`

`S = (1/ε) ∑_(i ∈ A) ε_i p_i + Z ln(Z) + o(θ)`

`S = 1 + Z ln(Z) + o(θ)`

Esta es la expresión de la entropía máxima en equilibrio estadístico para un sistema con `N` partículas y `n` estados de energía, según la distribución de Maxwell-Boltzmann.

3) Sistema compuesto por `N` partículas con estados de energía continuos

El problema se generaliza introduciendo un estado particular continuo `x`, definido sobre un dominio `x "∈" X`, y que corresponde a una energía `f(x)` asociada a la partícula. La función `f` debe ser continua, y la energía total `E` es la suma de las energías de todas las partículas.

Un ejemplo de estado particular continuo x está dado por la velocidad de una partícula en un universo unidimensional, la cual se asocia a la energía cinética de la partícula. En el caso clásico, la función `f` será `f(x) = (1"/"2)mx^2`, donde `m` es la masa de la partícula.

Repetimos el mismo razonamiento que antes, pero considerando como estados particulares la sucesión de intervalos diferenciales del estado `"]"x, x "+" dx"["`. El producto `p_x dx` representa la proporción de partículas que tienen un estado perteneciente al intervaloe `"]"x, x "+" dx"["`. Se trata de una proporción diferencial, es decir, infinitesimal. Cada partícula con ese estado tiene una energía igual a `f(x)`. Así, `N p_x dx` representa el número de partículas con un estado en `"]"x, x "+" dx"["`, también infinitesimal.

La función `{x "↦" p_x "/" x "∈" X}` se llama distribución de la variable de estado `x`, y constituye una distribución normalizada:

`int_(x "∈" X) p_x dx = 1`

La energía total `E` es la suma de las energías de todas las partículas. Es un parámetro extensivo:

`int_(x "∈" X) N p_x f(x) dx = E`

Dividiendo por `N`, se obtiene la energía media de las partículas, que es un parámetro intensivo:

`int_(x "∈" X) p_x f(x) dx = ε`

Se supone que el estado de las partículas cambia de manera aleatoria con el tiempo, sin favorecer valores particulares de estado, pero con una única restricción: la conservación global de la energía a largo plazo. Bajo esta condición, existe un estado de equilibrio estadístico que se alcanza cuando el nivel de desorden es máximo, es decir, cuando la entropía es máxima. Este equilibrio corresponde a la distribución de Maxwell-Boltzmann.

Y la distribución de la variable de estado x es entonces:

`p_x = e^(-f(x)/ε) / Z`

donde `Z` es el factor de normalización, tal que:

`int_(x ∈ X) p_x dx = 1`

Es decir:

`Z = int_(x ∈ X) e^(-f(x)/ε) dx`

4) Sistema compuesto por `N` partículas con múltiples estados de energía continuos y discretos

El problema se generaliza introduciendo varios estados particulares continuos `x, y`, definidos sobre los dominios `x "∈" X` y `y "∈" Y`, y varios estados particulares discretos `a, b` definidos sobre los dominios `a "∈" A` y `b "∈" B`, correspondiendo a una energía `f(x, y, a, b)` para cada partícula. La función `f` debe ser continua con respecto a las variables de estado particulares continuas `x` y `y`, y la energía total `E` es la suma de las energías de todas las partículas.

Se transcribe el resultado anterior tomando como conjunto de estados particulares el producto directo de los diferentes conjuntos de estados: `X "×" Y "×" A "×" B`. Un estado particular tendrá la forma `("]"x, x "+" dx"[", "]"y, y "+" dy"[", a, b)`, será representado por `(x, y, a, b)`, y corresponderá a una energía `f(x, y, a, b)` para una partícula.

Se denota por `p_{(x,y,a,b)} dx dy` la proporción de partículas cuyo estado está en el intervalo diferencial `("]"x, x "+" dx"[", "]"y, y "+" dy"[", a, b)`. Cada partícula con ese estado posee una energía igual a `f(x, y, a, b)`. Así, `N p_{(x,y,a,b)} dx dy` representa el número de partículas con ese estado (una cantidad infinitesimal). Consideremos la siguiente función:

`{(x, y, a, b) "↦" p_{(x, y, a, b)} "/" (x, y, a, b) "∈" X "×" Y "×" A "×" B}`

Esta función se llama la distribución de los estados particulares, y constituye una distribución normalizada:

`sum_{a,b} int_{x,y} p_{(x, y, a, b)} dx dy = 1`

La energía media de las partículas es:

`sum_{a,b} int_{x,y} f(x, y, a, b) p_{(x, y, a, b)} dx dy = ε`

Y la distribución de los estados microscópicos es:

`p_{(x, y, a, b)} = (1/Z) e^{-f(x, y, a, b)/ε}`

donde `Z` es el factor de normalización, tal que:

`sum_{a,b} int_{x,y} p_{(x, y, a, b)} dx dy = 1`

es decir:

`Z = sum_{a,b} int_{x,y} e^{-f(x, y, a, b)/ε} dx dy`

---- 6 de abril de 2025 ----

 

 

 

Dominique Mabboux-Stromberg
Versión en francés