La physique statistique a pour but de déterminer les lois macroscopiques d'un système composé d'un grand nombre de particules, à partir des lois microscopiques régissants les interactions entre ces particules. Elle démontre les propriétés macroscopiques du système à partir de la statistique sur les propriétés microscopiques. Elle constitue maintenant la base théorique de la thermodynamique, et peut s'appliquer à beaucoup d'autres domaines.
L'objet principal de la thermodynamique est l'étude des transformations de la chaleur en travail mécanique et inversement. Ses méthodes de raisonnement et son approche intuitive globale peuvent être employés dans de nombreux autres domaines. Historiquement, elle constitue une science à part avec ses propres lois fondamentales (postulats tirés de l'évidence expérimentale). Aujourd'hui la thermodynamique est réunifiée avec la mécanique grâce à une de ses branches appelées mécanique statistique qui a été principalement développée par Maxwell, Boltzmann, Gibbs et Fermi. Ses lois fondamentales sont maintenant celle de la mécanique statistique et quantique.
La statistique de Maxwell-Boltzmann est une loi de probabilité ou une distribution, qui détermine la répartition des particules entre différents états d'énergie quand l'équilibre statistique est atteint et qui correspond à un niveau de désordre maximum, autrement dit, lorsque l'entropie est maximum. Cette distribution est à la base de la théorie cinétique des gaz.
La notion de particule est ici à prendre au sens large, ce sont des systèmes microscopique. Ainsi, est considéré le cas d'un système composé d'un grand nombre de systèmes microscopiques.
On commence par exposer le cas trivial où tous les états ont même énergie. Etant donné un système composé de `N` particules, où chaque particule est caractérisée par un état appartenant à `A"="{1,2,3,...,n}` ayant tous la même énergie interne. Ainsi, une particule dans l'état `1` possède la même énergie qu'une particule dans l'état `2` et possède la même énergie qu'une particule dans l'état `3`, etc., et possède la même énergie qu'une particule dans l'état `n`.
On suppose que les particules changent d'état de façon aléatoire au cours du temps, comme dans une chaîne de Markov, mais avec une probabilité de changement égale pour tous les changement possibles. Cela signifie qu'au bout d'une unité de temps, la probabilité que l'état d'une particule se retrouve en l'état `i`, est égale quelque soit `i in A`, c'est à dire, vaut `1"/"n`.
Il existe un état d'équilibre statistique qui est atteint lorsque le niveau de désordre devient maximum, c'est à dire lorsque l'entropie est maximum. Dans notre cas simple, l'équilibre est atteint dès le premier laps de temps et cet équilibre correspond à l'équiprobabilité des états des particules. Nous allons formuler le calcul en vue de l'appliquer plus-tard à des cas plus compliqués. C'est pourquoi on détaille le calcul en plusieurs étapes générales, qui sont évidement superflux pour le cas simple présent.
On prendra soin à définir le langage des équations avec précision, un langage mathématique qui constitue un moyen efficace de résumer la théorie en une expression concise tout en formalisant un environnement intuitif. Ce langage constitue un vecteur de transmission du savoir.
L'état microscopique du système consiste à décrire l'état de chaque particule. Ainsi le système est complètement décrit par son état microscopique. Les `N` particules sont toutes individuellement identifiables, comme si elles étaient toutes distinguées. On parlera d'ensemble de particules distinguables. Elle peuvent donc être numérotées selon un ordre arbitraire. L'état microscopique du système peut être décrit dans l'un de ces ordres arbitraires, et consiste alors en un `N`-uplet d'éléments de `A`.
On choisit pour caractériser un premier niveau d'état macroscopique, la distribution `(N_1,N_2,N_3,...,N_n)` des particules dans les `n` états, et que l'on note parfois `(N_i)_(i in A)`, où `N_i` est le nombre de particules ayant l'état `i`. Les états `A` étant exclusifs et exshautifs, nous avons :
`sum_(i in A) N_i=N`
La variable `i` désigne un état et est utilisé comme index dans la somme. On allège l'écriture en déclarant préalablement le domaine de parcourt de `i` comme suit :
`i in A`
`sum_i N_i=N`
L'état macroscopique décrit par une distribution `(N_1,N_2,...,N_n)`, regroupe de nombreux états microscopiques qui sont obtenus en permuttant les particules de même état. La distribution `(N_1,N_2,...,N_n)` est un paramètre extensif c'est à dire que si on regroupe deux tels systèmes identiques ensemble, alors on obtient un système où on a doublé `N` et où on a doublé chaque terme de la distribution. On norme cette distribution pour en faire un paramètre intensif en divisant chaque terme par `N` :
`p_1 = N_1/N` Proportion de particules dans l'état `1`. `p_2 = N_2/N` Proportion de particules dans l'état `2`. `...` `p_n = N_n/N` Proportion de particules dans l'état `n`.
La distribution `(p_1,p_2,...,p_n)` est donc normée, c'est à dire :
`sum_i p_i=1`
La distribution `(p_1,p_2,...,p_n)` est la loi de proportion des états des particules. Autrement dit, `p_i` est la proportion des particules ayant l'état `i`. Elle constitue une variable d'état macroscopique intensive. Et dans notre cas simple, à l'état d'équilibre statistique, elles sont toutes égales à `1"/"n +- 1"/"N`.
On note, `bbbM`, le nombre d'états microscopiques possibles du système :
`bbbM = n^N`
On numérote tous les états microscopiques possibles de `1` à `bbbM`. Le système est alors complètement déterminé par le numéro de son états microscopique.
La quantité d'information contenu dans le système est le nombre de bits nécessaires et suffisants pour pouvoir mémoriser le numéro de son états microscopique, un numéro compris de `1` à `bbbM`. Elle se note `bbbQ` et vaut le logarithme du nombre d'états microscopiques possibles. Elle s'exprime en nombre de bits si le logarithme est en base `2`.
`bbbQ=log(bbbM)`
Par exemples, dans le cas où le système n'a que deux états microscopiques possibles, la quantité d'information contenu dans le système vaut exactement `1` bit. Si le système possède `256` états microscopiques possibles, alors la quantité d'information contenu dans le système vaut exactement `8` bits.
Les paramètres globaux `bbbQ, bbbM` sont notés sous forme de lettre avec enjambage pour indiquer qu'ils constituent des paramètres du système ne dépendant pas de son état microscopique.
Si on regroupe deux tels systèmes identiques, toujours en considérant les particules comme étant toutes individuellement identifiables c'est à dire distinguables. Autrement dit, si on regroupe deux tels systèmes identique et de façon distinguable. Alors le nombre totale de particules est `2N`, et le nombre total d'états possibles est égal au produit du nombre d'états possibles du premier système par le nombre d'états possibles du second système, c'est à dire `bbbM^2`, et donc la quantité d'information totale contenu par le système est `2bbbQ`.
On peut concevoir une autre forme de produit, dit non-distinguable, dans lequel les particules d'un système ne sont pas distinguable des particules de l'autre système et vis-versa. Dans ce cas, deux états microscopiques sont égaux et ne compte que pour un, si on peut passer de l'un à l'autre en permutant une particule d'un système avec une particule de l'autre système. Nous étudierons le produit non-distinguable plus-tard.
Le paramètre `bbbQ` est extensifs comme l'est `N`, c'est à dire que si on regroupe deux tels systèmes identiques en un produit distinguable, alors on obtient un système où on a doublé `N`, où on a élevé au carré `bbbM`, et où on a doublé `bbbQ`.
On a vu au chapitre précédent que la quantité d'information contenue dans le système est le nombre de bits nécessaires et suffisants pour mémoriser un numéro compris entre `1` et `bbbM`, et est donc égale à `bbbQ=log(bbbM)`.
Maintenant, si on connait l'état macroscopique `(N_1,N_2,...,N_n)` alors le système ainsi contraint contient un nombre d'états microscopiques plus petit qui se note `M(N_1,N_2,...,N_n)` et donc contient une quantité d'information plus petite qui se note `Q(N_1,N_2,...,N_n)` `=` `log(M(N_1,N_2,...,N_n))`.
On définit `Q, M` comme des variables d'état, dépendant totalement des variables d'état `N_1,N_2,...,N_n`. Cela s'écrit formellement par le neurone suivant :
`Q, M ← N_1,N_2,...,N_n`
Et cela signifie que :
`Q = Q(N_1,N_2,...,N_n)`
`M = M(N_1,N_2,...,N_n)`
On a donc :
`Q = log(M)`
Si on regroupe deux tels systèmes identiques et de façon distinguable en un seul système. Alors le nombre totale de particules est `2N`, la distribution est `(2N_1,2N_2,...,2N_n)`, le nombre total d'états possibles est égal au produit du nombre d'états possibles du premier système par le nombre d'états possibles du second système, c'est à dire `M^2`, et donc la quantité d'information totale contenu par le système est `2Q`. Donc les paramètres `N_1`, `N_2`, ..., `N_n`, `Q`, `N` sont extensifs.
L'entropie, notée `S`, s'obtient en divisant la quantité d'information `Q` par `N`. Ce paramètre `S` est donc intensif, c'est à dire que si on regroupe deux tels systèmes identiques et de façon distinguable en un seul système, alors on double `N` mais parcontre l'entropie `S` reste inchangée.
`S ← N_1,N_2,...,N_n`
`S = S(N_1,N_2,...,N_n) = S(2N_1,2N_2,...,2N_n) = S(p_1,p_2,...,p_n)`
`S = Q/N = log(M)/N`
Le nombre d'états microscopiques possibles dans l'état macroscopique `(N_1,N_2,...,N_n)` est le nombre de combinaisons suivant :
`M = (N!)/(N_1!N_2!N_3!...N_n!) = (N!)/(prod_i N_i!)`
Avec comme convention `0! =1`. Plus ce nombre de combinaisons est grand, plus l'état macroscopique correspondant est associé à un niveau de désordre grand c'est à dire à une entropie grande. Ce nombre est maximum pour l'état macroscopique `(N"/"n,N"/"n,...,N"/"n)` plus ou moins un pour chaque composante. C'est à dire lorsque les états des particules sont équiprobables :
`N_1=N_2=N_3=...=N_n="N/n +- 1`
L'état d'équilibre statistique correspond au désordre maximum et donc à cette répartition équiprobable des états microscopiques des particules. Calculons maintenant la quantité d'information `Q` du système contraint dans l'état macroscopique `(N_1,N_2,...,N_n)`:
`Q = ln((N!)/(prod_i N_i!))`
`Q = ln(N!) - sum_i ln(N_i!)`
On développe `Q` lorsque `N` tend vers l'infini, en utilisant les deux premier termes de la formule de Stirling :
Formule de Stirling : `ln(N!) = Nln(N) - N + O(ln(N))`
`O(ln(N))` désigne l'ensemble des variables fonctions de `N` de l'ordre de `ln(N)` lorsque `N` tend vers `+oo`. Pour pouvoir appliquer pleinement la formule de Stirling à l'expression de `Q`, il faut que `N` ainsi que chaque terme de la distribution `N_i` tende vers `+oo`. Délors :
`Q = Nln(N) -N + o(ln(N)) - sum_i( N_i ln(N_i) - N_i + O(ln(N_i)) )`
`Q = Nln(N) -N- sum_i N_i ln(N_i) + sum_iN_i + O(ln(N) + sum_iln(N_i))`
`Q = Nln(N) - sum_i N_i ln(N_i) + O(ln(N) + sum_iln(N_i))`
On note l'écart divisé par `N` qui doit tendre vers zéro, par :
`theta = ln(N)/N+1/N sum_iln(N_i) `
`Q = Nln(N) - sum_iN_i ln(N_i) + O(N theta)`
On développe l'expression de l'entropie `S=Q"/"N` en faisant apparaître la loi de probabilité `p_i=N_i"/"N` :
`S = ln(N) - sum_iN_i/N ln(N_i) + O(theta)`
`S = ln(N) - sum_i p_i ln(Np_i) + O(theta)`
`S = ln(N) - sum_i (p_i ln(N)+p_iln(p_i)) + O(theta)`
`S = ln(N) - ln(N) sum_i p_i - sum_i p_i ln(p_i) + O(theta)`
`S = ln(N) - ln(N) - sum_ip_i ln(p_i) + O(theta)`
`S = - sum_i p_i ln(p_i) + O(theta)`
L'entropie qui est un paramètre intensif, s'exprime donc en fonction uniquement de la distribution des proportions des différents états `(p_1,p_2,...,p_n)` qui est également un paramètre intensif, et ceci à l'ordre de `theta` près. C'est pourquoi on privilègie l'expression de l'entropie à l'ordre de `theta` suivante :
`S=S(p_1,p_2,...,p_n)=S(N_1,N_2,...,N_n)`
La quantité d'information, qui par définition est égale à l'entropie multipliée par `N`, est donc un paramètre extensif à l'ordre de `Ntheta` près.
A l'équilibre statistique, les états des particules sont équirépartis et donc de proprtion égale à `1"/"n`. Donc l'entropie `S` est égale à :
`S_"max" = - sum_i 1/n ln(1/n) + O(theta)`
`S_"max" = 1/n sum_i ln(n) + O(theta)`
`S_"max" = ln(n) + O(theta)`
`S_"max" = ln(n) + O(theta)`
Le problème se complique en introduisant une énergie propre à chacun des états particulaires.
Etant donné un système composé de `N` particules et possédant une énergie `E`. Chaque particule est caractérisée par un état `i` appartenant à `A={1,2,3,...,n}` et par une énergie `epsilon_i` qui est emmagasinée par la particule ayant cet état `i`. L'énergie `E` est la sommes des énergies de toutes les particules.
L'état macroscopique est défini comme précédement, par un paramètre extensif, la répartition `(N_1,N_2,...,N_n)`, où `N_i` est le nombre de particules dans l'état `i`, ou soit par un paramètre intensif, la loi de probabilité `(p_1,p_2,...,p_n)`, où `p_i=N_i"/"N` est la probabilité qu'une particule choisie au hasard, ou bien à un instant choisi au hasard, soit dans l'état `i`.
L'énergie totale `E` est la somme des énergies de toutes les particules. C'est un paramètre extensif :
`E=sum_(i inA)N_i epsilon_i`
Divisé par `N`, elle définit l'énergie moyenne par particule que l'on note `epsilon`. C'est l'énergie moyenne des particules. C'est un paramètre intensif.
`epsilon = sum_(i inA) p_iepsilon_i`
Pour des raisons pratiques propres à la thérmodynamique, on multiplie parfois cette énergie par particule, par le nombre d'Avogadro pour obtenir ainsi une énergie par mole tout autant non-utilisée. Puis, pour des raisons pratiques propre à la vie courante, on multiplie cette énergie par mole, par un facteur empirique `0.080181586...` `"KJ"^-1"mol"` pour obtenir une température en kelvin, c'est à dire, telle que l'écart de température entre celle du changement de phase de l'eau solide-liquide et celle du changement de phase liquide-gaz sous une pression d'une atmosphère soit d'une valeur égale à `100` `"kelvin"`.
On suppose que les particules changent d'états de façon aléatoire au cours du temps avec une probabilité de changement non discriminante vis-à-vis des autres états `A` mais néanmoins avec une contrainte, une seule contrainte, la conservation globale de l'énergie `E` sur le long terme. Délors, il existe un état d'équilibre statistique qui correspond au niveau de désordre maximum, c'est à dire lorsque l'entropie est maximum. Cet équilibre correspond à la distribution de Maxwell-Boltzmann.
L'état microscopique du système est un `N`-uplet d'éléments de `A` représentant l'état de chaque particule mais telle que l'énergie totale soit égale à `E`. Les particules sont ainsi identifiés par un numéro. Elles sont identifiables, comme si elles étaient toutes distinctes. On parlera d'ensemble de particules discernables.
La quantité d'information `Q(N_1,N_2,...,N_n)` se définie comme précédement :
`Q = Nln(N) - sum_iN_i ln(N_i) + O(N theta)`
`theta = ln(N)/N+1/N sum_iln(N_i) `
L'entropie `S(p_1,p_2,...,p_n)` se définie comme précédement :
`S = - sum_(i in A) p_i ln(p_i) + O(N theta)`
La distribution de Maxwell-Boltzmann, ici limitée à `n` états d'énergie `(epsilon_1,epsilon_2,epsilon_3,...,epsilon_n)`, est l'état macroscopique `(p_1,p_2,...,p_n)` d'entropie maximum avec la contrainte suivante :
`epsilon = sum_(i in A) p_iepsilon_i`
`1 = sum_(i in A) p_i`
La résolution consiste en la recherche du maximum de `S` dépendant d'un ensemble de variables `p_1,p_2,p_3,...p_(n"-"1)` liées par une équation linéaire. Nous n'avons pas encore présenter les outils mathématiques permettant de résoudre ce système d'équations, et nous présentons seulement la solution découverte par Boltzmann :
`p_i = e^(-epsilon_i/epsilon) /Z`
où `Z` est le facteur de normalisation, afin que `sum_(i in A) p_i = 1`.
`Z = sum_(i in A) e^(-epsilon_i/epsilon)`
Et où `epsilon` est l'énergie moyenne des particules `sum_(i in A) p_i epsilon_i = epsilon`.
L'entropie maximum correspondante est alors :
`S(p_1,p_2,...,p_n) = - sum_(i in A) p_i ln(p_i) + o(theta)`
`S = -sum_(i in A) e^(-epsilon_i/epsilon) /Z ln(e^(-epsilon_i/epsilon) /Z)+ o(theta)`
`S = -1/Zsum_(i in A) e^(-epsilon_i/epsilon) (ln(e^(-epsilon_i/epsilon))-ln(Z))+ o(theta)`
`S = -1/Zsum_(i in A) e^(-epsilon_i/epsilon) (-epsilon_i/epsilon -ln(Z))+ o(theta)`
`S = 1/Zsum_(i in A) epsilon_i/epsilon e^(-epsilon_i/epsilon) + ln(Z)sum_(i in A) e^(-epsilon_i/epsilon)+ o(theta)`
`S = 1/Zsum_(i in A) epsilon_i/epsilon e^(-epsilon_i/epsilon) + Zln(Z)+ o(theta)`
`S = 1/Zsum_(i in A) epsilon_i/epsilon Zp_i +Zln(Z)+ o(theta)`
`S = 1/epsilon sum_(i in A) epsilon_i p_i + Zln(Z)+ o(theta)`
`S = 1 + Zln(Z)`
`S = 1 + Zln(Z) + o(theta)`
Le problème se généralise en introduisant un état particulaire continue `x` de domaine `x"∈"X`, et correspondant à une énergie `f(x)` de la particule. La fonction `f` doit être continue, et l'énergie totale `E` est la somme des énergies de toutes les particules.
Un exemple d'état particulaire continue `x` est donné par la vitesse d'une particule dans un univers unidimensionnel, et qui est associée à l'énergie cinétique de la particule, et la fonction `f` dans le cas classique sera `f(x) = (1"/"2)mx^2` où `m` est la masse de la particule.
On refait le même raisonnement que précédement mais en prenant comme états particulaires la succession des intervalles différentiels d'état particulaire `]x, x"+"dx[`. Le produit `p_xdx` représente la proportion des particules qui ont un état appartenant à `]x, x"+"dx[` (il s'agit d'une proportion différentielle donc infiniment petite). Chaque particule ayant cet état possèdera une énergie égale à `f(x)`. Ainsi `Np_xd_x` représente le nombre de particules ayant un état appartenant à `]x, x"+"dx[` (il s'agit d'un nombre différentiel donc infiniment petit). La fonction `{x|->p_x "/" x "∈" X}` s'appelle la distribution de la variable d'état `x`, et constitue une distribution normée :
`int_(x in X) p_xdx = 1`
L'énergie totale `E` est la somme des énergies de toutes les particules. C'est un paramètre extensif :
`int_(x in X) Np_xf(x)dx = E`
Divisé par `N`, cela définit l'énergie moyenne des particules, et c'est un paramètre intensif :
`int_(x in X) p_xf(x)dx = epsilon`
On suppose que l'état des particules changent de façon aléatoire au cours du temps sans privilégier de valeurs d'état particulières, mais néanmoins avec une contrainte, une seule contrainte, la conservation globale de l'énergie sur le long terme. Délors, il existe un état d'équilibre statistique qui est atteint lorsque le niveau de désordre devient maximum, c'est à dire lorsque l'entropie est maximum. Et cet équilibre correspond à la distribution de Maxwell-Boltzmann.
Et la distribution de la variable d'état `x` est alors :
`p_x = e^(-f(x)/epsilon) /Z`
où `Z` est le facteur de normalisation, afin que `int_(x in X) p_xdx = 1`.
`Z = int_(x in A) e^(-f(x)/epsilon) dx`
Le problème se généralise en introduisant plusieurs états particulaires continus `x,y` de domaine `x"∈"X`, `y"∈"Y`, et de plusieurs états particulairs discrets `a,b` de domaine `a"∈"A` et `b"∈"B`, et correspondant à une énergie `f(x,y,a,b)` de la particule. La fonction `f` doit être continue selon les variables d'état particulaire continu `x,y`, et l'énergie totale `E` est la somme des énergies de toutes les particules.
On transcrit le résultat précédent en prenant comme ensemble des états particulairs, le produit directe des différents ensembles d'états particulairs `X"×"Y"×"A"×"B`. Un état particulair aura la forme `(]x, x"+"dx[,]y, y"+"dy[,a,b)` et sera désigné par `(x,y,a,b)` et correspondra à une énergie `f(x,y,a,b)` pour une particule.
On note, `p_("("x,y,a,b")") dxdy`, la proportion des particules qui ont comme état `(]x, x "+"dx[,]y, y "+"dy[,a,b)`. Chaque particule ayant cet état possèdera une énergie égale à `f(x,y,a,b)`. Ainsi `Np_("("x,y,a,b")") dxdy` est le nombre de particule ayant un état `(]x, x "+"dx[,]y, y "+"dy[,a,b)` (il s'agit d'un nombre différentiel donc infiniment petit). Consiérons la fonction suivante :
`{(x,y,a,b)|->p_("("x,y,a,b")") "/" (x,y,a,b) "∈" X"×"Y"×"A"×"B}`
Cette fonction s'appelle la distribution des états particulaires, et constitue une distribution normée :
`sum_(a,b) int_(x,y) p_("("x,y,a,b")") dxdy = 1`
L'énergie moyenne des particules est :
`sum_(a,b) int_(x,y) f(x,y,a,b) p_("("x,y,a,b")") dxdy = epsilon`
Et la distribution des états microscopiques est :
`p_("("x,y,a,b")") =1/Z e^(-(f(x,y,a,b))/epsilon) `
où `Z` est le facteur de normalisation, afin que `sum_(a,b) int_(x,y) p_("("x,y,a,b")") dxdy = 1`
`Z =sum_(a,b) int_(x,y) e^(-(f(x,y,a,b))/epsilon)dx`
---- 10 décembre 2022 ----