La thermodynamique est maintenant réunifiée avec la mécanique statistique et quantique, principalement développée par Maxwell, Boltzmann, Gibbs et Fermi. Ses lois fondamentales sont maintenant celle de la mécanique statistique et quantique. On revisite les premières étapes de cette fusion. Le modèle théorique le plus didactique est celui du gaz parfait, qui permet d'aborder la mécanique quantique par une autre voie. Voir Théorie cinétique des gaz.
L'introduction de la mécanique quantique va provoquer un saut majeur dans une nouvelle compréhension du gaz parfait. La voie d'entrée dans ce nouveau paradigme est la définition théorique de l'entropie.
L'entropie est une variable d'état proportionnelle au logarithme du nombre d'états microscopiques possibles équiprobables du système pour le même état macroscopique présent. C'est une variable d'état extensive, c-a-d que l'entropie de plusieurs systèmes, disposés comme un `n`-uplet de systèmes, est la somme des entropies des systèmes.
Pour définir formellement l'entropie, il faut définir des critères macroscopiques qui définissent les états macroscopiques, et des critères microscopiques qui définissent les états microscopiques qui devront dans le cas simple être tous équiprobables pour un même état macroscopique.
L'entropie correspond à la quantité d'information nécessaire pour caractériser un état microscopique dans l'état macroscopique présent. Lorqu'il y a `N` états microscopiques équiprobables, l'entropie exprimée en bits se note à l'aide de la lettre `Q` car elle désigne alors une quantité d'information plutôt qu'une entropie au sens thermodynamique du terme :
`Q=logN`
Le logarithme est en base `2` pour que l'entropie soit exprimée en nombre de bits. À partir du nombre d'états microscopiques équiprobables `N`, on déduit la probabilité d'un état microscopique `p=1"/"N`. Et donc l'entropie exprimée en bits s'écrit :
`Q = -logp`
En thermodynamique, l'entropie est exprimée en joule par kelvin et se note à l'aide de la lettre `S`.
`S = -k_B logp`
où `k_B` est la constante de Boltzmann. C'est une constante exacte fixée par convention comme l'est le nombre d'Avogadro `N_A`, (voir SI 2019). Et elle permet de définir la température `T` d'un gaz parfait avec la relation `PV=Nk_BT`. Elle comprend 7 chiffres, c'est beaucoup, pour que le point triple de l’eau soit toujours égale à sa valeur historique `273.16` Kelvin. La constante universelle des gaz parfaits `R = N_Ak_B` est donc également une constante fixée par convention.
Pour étudier la thermodynamique, on préfère altérer un chouilla la définition du kelvin (l'unité de température) et choisir des constantes plus simples :
On utilisera les constantes exactes du Système International (SI) qu'à la fin des travaux de recherche.
Lorsque les états microscopiques ne sont plus équiprobables, la définition de l'entropie se perfectionne. On se réfère alors à la définition générale (Gibbs–Shannon) de l'entropie :
Soit un système ayant des états microscopiques `i`, chacun se réalisant avec une probabilité `p_i` : `p_i≥0` et `sum_i p_i=1`
L’entropie est définie par :
`S=−k_B sum_i p_i lnp_i`
où `k_B` est la constante de Boltzmann. Elle est exprimée en joules par kelvin.
`k_B ≃ 1.4"×"10^-23 sf"JK"^-1`
Il est alors intéréssant de prolonger l'analogie et voir à quoi ressemble les états microscopiques du gaz qui sont ainsi utilisés dans la formule de l'entropie. Posons la question à ChatGPT :
| Dans un gaz parfait, l'entropie `S=k_B lnN` où `k_B` est la constante de Boltzmann, et où `N` est le nombre d'états microscopiques équiprobables. Lorsque les états microscopiques ne sont pas équiprobables, l'entropie `S = - k_B sum_i p_i lnp_i`, où l'état microscopique `i` à la probabilité `p_i`. Comment définissons-nous précisément ce qu'est un état microscopique d'un gaz parfait pour pouvoir être utilisé dans l'une ou l'autre définition de l'entropie ? |
|||||
| Très bonne question — elle touche exactement au point conceptuel clé entre mécanique statistique, physique et information.
Je vais répondre de façon progressive et rigoureuse, en distinguant clairement ce qui est défini et ce qui est choisi par convention physique. 1. Définition formelle d’un état microscopique (micro-état)Pour un gaz parfait classique de `N` particules ponctuelles, un état microscopique est défini comme : Un point de l’espace des phases à `6N` dimensions
où :
Autrement dit :
C’est la définition fondamentale, indépendante de l’entropie. 2. Pourquoi le nombre d’états microscopiques est a priori infiniProblème immédiat :
On ne peut pas compter directement les micro-états. 3. Discrétisation physique de l’espace des phases3.1 Cellules élémentaires de volume `h^(3N)`
|
| Un état microscopique = une cellule élémentaire de volume `h^(3N)` |
où :
Cette discrétisation n’est pas arbitraire :
Un macro-état est défini par des contraintes macroscopiques :
L’ensemble des micro-états compatibles est :
`Ω(E,V,N)`
Chaque micro-état `Γ` tel que :
`H(Γ)∈[E,E"+"δE]`
est accessible.
Si le système est isolé et à l’équilibre :
`pi=1/Ω`
Alors :
`S=kBlnΩ`
Ici :
On conserve exactement la même définition des micro-états.
Ce qui change :
`S=-k_B int p(Γ) lnp(Γ)dΓ`
ou, après discrétisation :
`S = -k_B sum_i p_i lnp_i`
Exemple de distribution canonique :
`p_i ∝ e^(-betaE_i)`
Pour un gaz parfait :
Les particules sont indiscernables
Deux configurations qui ne diffèrent que par une permutation sont le même micro-état
Correction de Gibbs :
`Ω→Ω/(N!)`
Sans cela, l’entropie ne serait pas extensive.
Micro-état
= cellule élémentaire de l’espace des phases `h^(3N)`
compatible avec les contraintes macroscopiques
L’entropie n’est pas une propriété intrinsèque d’un point de l’espace des phases,
mais une propriété de l’ensemble des micro-états compatibles avec l’information macroscopique disponible.
Si vous le souhaitez, je peux :
Je vais clarifier point par point, en montrant pourquoi il n’y a pas contradiction.
Vous dites :
« la distribution des impulsions semble induire une distribution non-équiprobable des états microscopiques »
C’est vrai dans l’ensemble canonique,
c’est faux dans l’ensemble microcanonique,
et la clé est la distinction “micro-état vs observable”.
Hypothèses :
énergie totale `E` fixée,
volume `V`,
nombre de particules `N`.
Postulat fondamental :
Tous les micro-états compatibles avec `(E,V,N)` sont équiprobables
Cela signifie :
Considérons un micro-état :
`Γ=(q_1,…,q_N,p_1,…,p_N)`
Tous ces `Γ` sont équiprobables.
Mais maintenant, vous regardez une seule particule, disons `p_1`
Vous faites alors une projection de l’espace des phases :
`Γ ⟶ p_1`
Or, une projection ne conserve pas l’équiprobabilité.
Imaginez :
C’est exactement la même chose ici.
Tous les micro-états satisfont :
`sum_(i=1)^N p_i^2/(2m) = E`
C’est une sphère de dimension `3N` dans l’espace des impulsions.
On calcule la probabilité que `x` soit dans `[p,p"+"dp]` en comptant le volume restant accessible aux autres particules.
Résultat (théorique, exact à la limite thermodynamique) :
`f(x)∝e^(−(x^2)/(2mk_BT))`
Distribution de Maxwell, obtenue :
Les micro-états sont équiprobables,
mais les valeurs des observables ne le sont pas.
Pourquoi ?
Prenons un cas simple dans un univers unidimensionel où le gaz ne comprend qu'une seul particule. On aborde alors la mécanique quantique avec un outils supplémentaire venant de la thérmodinamique qu'est l'entropie.