ebook img

Physique statistique hors d'equilibre: Equation de Boltzmann, reponse lineaire PDF

343 Pages·2000·2.641 MB·French
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview Physique statistique hors d'equilibre: Equation de Boltzmann, reponse lineaire

Notes de cours – : chapitre 1 1 1. Variables al´eatoires. Th´eor`eme de la limite centrale 1. D´efinition Une variable al´eatoire1 est un nombre X(ζ) associ´e `a chaque r´esultat ζ d’une exp´erience : en ce sens, c’est une fonction dont le domaine de d´efinition est l’ensemble des r´esultats de l’exp´erience. Pour d´efinir une variable al´eatoire, il faut sp´ecifier, d’une part, l’ensemble des valeurs possibles, appel´e domaine des ´etats ou ensemble des´etats, et, d’autre part, la distribution de probabilit´e sur cet ensemble. L’ensemble des valeurs possibles peut ˆetre soit discret, soit continu sur un intervalle donn´e. Il peut ´egalement ˆetre, pour partie discret, pour partie continu. Parailleurs,l’ensembledes´etatspeutˆetremultidimensionnel.Lavariableal´eatoire est alors ´ecrite vectoriellement X. Dans le cas r´eel unidimensionnel, la distribution de probabilit´e d’une variable al´eatoire X est donn´ee par une fonction p(x) non n´egative2, p(x) 0, (1.1) ≥ et normalis´ee, c’est-`a-dire telle que ∞ p(x)dx = 1. (1.2) Z −∞ La probabilit´e pour que la variable al´eatoire X prenne une valeur comprise entre x et x+dx est ´egale `a p(x)dx. La fonction p(x) caract´erisant la distribution de pro- babilit´eestg´en´eralementappel´eedensit´edeprobabilit´e3.Ilconvientdenoterqu’en physique une densit´e de probabilit´e est en g´en´eral une quantit´e dimensionn´ee : ses dimensions sont inverses de celles de la grandeur X. Le cas d’une variable pouvant prendre des valeurs discr`etes peut se traiter de la mˆeme mani`ere en introduisant des fonctions delta dans la densit´e de probabilit´e. 1 On dit ´egalement variable stochastique : les deux mots sont synonymes. 2 Une r´ealisation, ou valeur possible, de X est d´esign´ee ici par x. La lettre majuscule d´esigne donc la variable al´eatoire, la lettre minuscule l’une de ses r´ealisations. Lorsqu’il n’y aura pas de confusion possible entre ces deux notions, nous emploierons une notation unique. 3 Nous la noterons parfois pour plus de clart´e pX(x). 2 Variables ale´atoires. The´ore`me de la limite centrale Par exemple, si une variable al´eatoire prend les valeurs discr`etes x ,x ,... avec 1 2 les probabilit´es p ,p ,..., on peut formellement la d´ecrire comme une variable 1 2 al´eatoire continue avec la densit´e de probabilit´e p(x) = p δ(x x ), p 0, p = 1. (1.3) i i i i − ≥ Xi Xi ` A une dimension, on utilise parfois une autre description de la distribution de probabilit´e. Au lieu de la densit´e de probabilit´e p(x), on introduit la fonction de distributionP(x),d´efiniecommelaprobabilit´etotalepourquelavariableal´eatoire X prenneunevaleurinf´erieureou´egale`ax.Lafonctiondedistributions’´ecritdonc comme l’int´egrale x P(x) = p(x′)dx′. (1.4) Z −∞ 2. Moments et fonction caract´eristique 2.1. Moments La moyenne – ou esp´erance math´ematique – d’une fonction quelconque f(X) d´efinie sur l’espace d’´etats consid´er´e est d´efinie par ∞ f(X) = f(x)p(x)dx, (2.1) h i Z −∞ `a condition que l’int´egrale existe. Enparticulier, Xm = µ estlemoment d’ordremdeX.Lepremiermoment m h i µ = X est la moyenne de X. La quantit´e 1 h i σ2 = (X X )2 = µ µ2 (2.2) h −h i i 2 − 1 est appel´ee la variance ou dispersion de X. C’est le carr´e de la d´eviation stan- dard ou ´ecart quadratique moyen ∆X = σ, qui a les mˆemes dimensions que la moyenne X . L’´ecart quadratique moyen σ d´etermine la largeur effective de la h i distribution p(x). La variance σ2 est non n´egative; elle ne s’annule que si la vari- able X est certaine. Les deux premiers moments sont les caract´eristiques les plus importantes d’une distribution de probabilit´e. Si p(x) ne d´ecroˆıt pas suffisamment vite lorsque x tend vers l’infini, certains des moments peuvent ne pas ˆetre d´efinis. Un cas extrˆeme en est fourni par la densit´e de probabilit´e de Cauchy ou loi lorentzienne, a 1 p(x) = , a > 0, < x < , (2.3) π (x x )2 +a2 −∞ ∞ 0 − dont tous les moments divergent. On peut toutefois d´efinir µ par sym´etrie en 1 posant µ = x . Les autres moments de la loi de Cauchy, et donc en particulier sa 1 0 variance, sont tous infinis. Notes de cours – : chapitre 1 3 2.2. Fonction caract´eristique La fonction caract´eristique d’une variable al´eatoire X est d´efinie par ∞ G(k) = eikX = eikxp(x)dx. (2.4) h i Z −∞ Elle existe pour tout k r´eel et poss`ede les propri´et´es : G(k = 0) = 1, G(k) 1. (2.5) | | ≤ La d´efinition (2.4) montre que G(k) est la transform´ee de Fourier de p(x). Par suite, inversement, on a 1 ∞ p(x) = e−ikxG(k)dk. (2.6) 2π Z −∞ La fonction caract´eristique est aussi la fonction g´en´eratrice des moments, en ce sens que les coefficients de son d´eveloppement en s´erie de Taylor de k sont les moments µ : m ∞ (ik)m G(k) = µ . (2.7) m m! mX=0 Les d´eriv´ees de G(k) en k = 0 existent donc jusqu’au mˆeme ordre que les moments. La fonction caract´eristique G(k) existe mˆeme lorsque les moments ne sont pas d´efinis. Par exemple, la loi de Cauchy cit´ee plus haut n’a pas de moments, mais sa fonction caract´eristique est a ∞ eikx G(k) = dx = e−a|k|+ikx0. (2.8) π Z (x x )2 +a2 −∞ 0 − L’expression de droite n’est pas diff´erentiable en k pour k = 0, ce qui correspond au fait que les moments n’existent pas. 3. Distributions `a plusieurs variables 3.1. Distribution conjointe, distributions marginales, distributions conditionnelles Lorsque plusieurs variables al´eatoires entrent en jeu – ce qui est par exem- ple le cas lorsque l’on consid`ere une variable al´eatoire multidimensionnelle, il est n´ecessaire d’introduire plusieurs types de distributions de probabilit´e. Soit donc X une variable al´eatoire `a n dimensions. Elle poss`ede n com- • posantes X ,X ,...,X . Sa densit´e de probabilit´e p (x ,x ,...,x ) est appel´ee 1 2 n n 1 2 n densit´e de probabilit´e conjointe des n variables X ,X ,...,X . 1 2 n 4 Variables ale´atoires. The´ore`me de la limite centrale Consid´eronsunsous-ensembledes < nvariablespertinentesX ,X ,...,X . 1 2 s • La densit´e de probabilit´e de ces s variables, ind´ependamment des valeurs prises par les variables non pertinentes X ,...,X , est obtenue en int´egrant sur ces s+1 n derni`eres : p (x ,...,x ) = p (x ,...,x ,x ,...,x )dx ...dx . (3.1) s 1 s n 1 s s+1 n s+1 n Z Cette distribution est appel´ee distribution marginale des s variables pertinentes. Attribuons maintenant des valeurs fix´ees aux n s variables X ,...,X s+1 n • − et consid´erons la distribution de probabilit´e conjointe des s variables restantes X ,...,X . Cette distribution est appel´ee distribution de probabilit´e condition- 1 s nelle de X ,...,X , `a la condition que X ,...,X aient les valeurs prescrites 1 s s+1 n x ,...,x . On la d´esigne par p (x ,...,x x ,...,x ). s+1 n s|n−s 1 s s+1 n | Clairement, la distribution de probabilit´e conjointe totale p est ´egale au n produit de la distribution de probabilit´e marginale pour que X ,...,X aient s+1 n les valeurs x ,...,x par la distribution de probabilit´e conditionnelle pour que, s+1 n ceci ´etant r´ealis´e, les autres variables aient les valeurs x ,...,x : 1 s p (x ,...,x ) = p (x ,...,x )p (x ,...,x x ,...,x ). (3.2) n 1 n n−s s+1 n s|n−s 1 s s+1 n | C’est la r`egle de Bayes. Si les n variables peuvent ˆetre divis´ees en deux sous-ensembles (X ,...,X ) 1 s et (X ,...,X ) de telle sorte que p se factorise, s+1 n n p (x ,...,x ) = p (x ,...,x )p (x ,...,x ), (3.3) n 1 n s 1 s n−s s+1 n ces deux sous-ensembles sont dits statistiquement ind´ependants l’un de l’autre. 3.2. Moments et fonction caract´eristique d’une distribution `a plu- sieurs variables Les moments d’une distribution `a plusieurs variables sont d´efinis par Xm1Xm2 ...Xmn = p(x ,x ,...,x )xm1xm2 ...xmn dx dx ...dx . (3.4) h 1 2 n i Z 1 2 n 1 2 n 1 2 n La fonction caract´eristique est une fonction de n variables d´efinie par G (k ,k ,...,k ) = ei(k1X1+k2X2+···+knXn) . (3.5) n 1 2 n h i Son d´eveloppement de Taylor par rapport aux variables k (i = 1,...,n) engendre i les moments : ∞ (ik )m1(ik )m2 ...(ik )mn G (k ,k ,...,k ) = 1 2 n Xm1Xm2 ...Xmn . n 1 2 n m !m !...m ! h 1 2 n i m1,m2X,...,mn=0 1 2 n (3.6) Notes de cours – : chapitre 1 5 Si les deux sous-ensembles (X ,...,X ) et (X ,...,X ) sont statistique- 1 s s+1 n ment ind´ependants l’un de l’autre, la fonction caract´eristique se factorise, autre- ment dit G (k ,...,k ,k ,...,k ) = G (k ,...,k )G (k ,...,k ), (3.7) n 1 s s+1 n s 1 s n−s s+1 n et, de mˆeme, tous les moments se factorisent : Xm1Xm2 ...Xmn = Xm1 ...Xms Xms+1 ...Xmn . (3.8) h 1 2 n i h 1 s ih s+1 n i 3.3. Moments d’ordre deux : variances et covariances Les moments d’ordre deux sont particuli`erement importants en physique, ou` ils suffisent dans la plupart des applications. Ils forment une matrice X X de i j h i dimensions n n. On d´efinit ´egalement la matrice des covariances, de dimensions × n n et d’´el´ements × ν = (X X )(X X ) = X X X X . (3.9) ij i i j j i j i j h −h i −h i i h i−h ih i Les ´el´ements diagonaux de la matrice des covariances sont les variances d´efinies pr´ec´edemment – et sont donc positifs –, tandis que les´el´ements non diagonaux, ap- pel´escovariances,sontdesignequelconque.Onpeutmontrerenutilisantl’in´egalit´e de Schwarz que ν 2 σ2σ2, (3.10) | ij| ≤ i j ou` σ et σ sont les ´ecarts quadratiques moyens de X et de X . i j i j Les quantit´es normalis´ees ν X X X X ij i j i j ρ = = h i−h ih i, (3.11) ij σ σ σ σ i j i j comprises entre 1 et +1, sont appel´ees coefficients de corr´elation. − Deux variables X et X sont dites non corr´el´ees lorsque leur covariance est i j nulle, aucune hypoth`ese n’´etant faite sur les moments d’ordre plus ´elev´e. La non- corr´elation est naturellement une propri´et´e plus faible que l’ind´ependance statis- tique. 4. Variables al´eatoires complexes Unevariableal´eatoirecomplexe Z = X+iY estunensemblededeuxvariables al´eatoires r´eelles X,Y . La densit´e de probabilit´e p (z) est simplement la densit´e Z { } de probabilit´e conjointe de X et Y, et la condition de normalisation s’´ecrit p (z)d2z = 1, d2z = dxdy. (4.1) Z Z La d´efinition des moments s’´etend aux variables al´eatoires complexes. Si Z ,Z ,...,Z sont des variables al´eatoires complexes, leur matrice des covariances 1 2 n est d´efinie par ν = (Z Z )(Z∗ Z∗ ) = Z Z∗ Z Z∗ . (4.2) ij h i −h ii j −h ji i h i ji−h iih ji Les variances σ2 = Z Z 2 sont positives et les coefficients de corr´elation ρ i h| i−h ii| i ij sont complexes et born´es en module par 1. 6 Variables ale´atoires. The´ore`me de la limite centrale 5. Addition de variables al´eatoires 5.1. Densit´e de probabilit´e Soient X et X deux variables al´eatoires ayant la distribution conjointe 1 2 p (x ,x ). La probabilit´e pour que la variable Y = X +X ait une valeur com- X 1 2 1 2 prise entre y et y +dy est p (y)dy = p (x ,x )dx dx . (5.1) Y X 1 2 1 2 ZZ y<x1+x2<y+dy On d´eduit de l’´equation ci-dessus l’expression de p (y) : Y p (y) = δ(x +x y)p (x ,x )dx dx = p (x ,y x )dx . (5.2) Y 1 2 X 1 2 1 2 X 1 1 1 ZZ − Z − Si les variables X et X sont ind´ependantes, la densit´e de probabilit´e 1 2 p (x ,y x ) se factorise, et l’´equation (5.2) devient X 1 1 − p (y) = p (x )p (y x )dx . (5.3) Y Z X1 1 X2 − 1 1 La densit´e de probabilit´e de la somme de deux variables al´eatoires ind´ependantes est donc le produit de convolution de leurs densit´es de probabilit´e individuelles. Onauraitpu´egalementarriver`acer´esultatenremarquantque,silesvariables X et X sont ind´ependantes, la fonction caract´eristique de Y se factorise, 1 2 G (k) = eik(X1+X2) = eikX1 eikX2 = G (k)G (k), (5.4) Y h i h ih i X1 X2 formule d’ou` d´ecoule, par transformation de Fourier inverse, le r´esultat (5.3). 5.2. Moments On a toujours : Y = X + X . (5.5) 1 2 h i h i h i La moyenne d’une somme est donc la somme des moyennes, que les variables X 1 et X soient corr´el´ees ou non. 2 Si X et X ne sont pas corr´el´ees, la variance de leur somme est ´egale `a la 1 2 somme de leurs variances : σ2 = σ2 +σ2 . (5.6) Y X1 X2 Notes de cours – : chapitre 1 7 6. Distributions gaussiennes 6.1. Distribution gaussienne `a une variable La forme g´en´erale de la distribution de Gauss `a une variable est p(x) = Ce−21Ax2−Bx, < x < . (6.1) −∞ ∞ Cette distribution est appel´ee´egalement distribution normale. Le param`etre A est une constante positive d´eterminant la largeur de la gaussienne et le param`etre B d´etermine la position du pic. La constante de normalisation C s’exprime `a l’aide de A et de B : A C = 1/2e−B2/2A. (6.2) 2π ¡ ¢ Il est souvent pr´ef´erable en pratique d’exprimer les param`etres A et B en fonction de la moyenne µ = B/A et de la variance σ2 = 1/A, et d’´ecrire la 1 − distribution de Gauss sous la forme 1 (x µ )2 1 p(x) = exp − . (6.3) σ√2π ·− 2σ2 ¸ La fonction caract´eristique de la distribution gaussienne (6.3) s’´ecrit G(k) = eiµ1k−21σ2k2. (6.4) Tous les moments µ sont finis, ce qui correspond au fait que la fonction G(k) est m ind´efiniment diff´erentiable en k = 0. Ils s’expriment tous `a l’aide des deux premiers moments µ et µ , ou de la moyenne µ et de la variance σ2. 1 2 1 Lorsque X ,X ,...,X sont des variables gaussiennes ind´ependantes, leur 1 2 n sommeY = X +X + +X estelleaussiunevariablegaussienne.Sadistribution 1 2 n ··· est compl`etement d´etermin´ee par la moyenne et la variance de Y, qui sont respec- tivement les sommes des moyennes et des variances des variables X (i = 1,...,n). i 6.2. Distribution gaussienne `a n variables La forme la plus g´en´erale de la distribution gaussienne `a n variables est n n 1 p(x ,x ,...,x ) = C exp A x x B x , (6.5) 1 2 n ij i j i i −2 − iX,j=1 Xi=1   ou` la matrice A d’´el´ements A est une matrice sym´etrique de dimensions n n ij × d´efinie positive. En notation vectorielle, on ´ecrit : 1 p(x) = C exp x.A.x B.x . (6.6) −2 − ¡ ¢ 8 Variables ale´atoires. The´ore`me de la limite centrale On peut obtenir la constante de normalisation C en passant aux variables dans lesquelles la matrice A est diagonale. On obtient ainsi 1 C = (2π)−n/2 D´et.A 1/2exp B.M.B , (6.7) −2 ¡ ¢ ¡ ¢ ou` M = A−1 est la matrice inverse de la matrice A. La fonction caract´eristique correspondante est 1 G(k) = exp k.M.k ik.M.B . (6.8) −2 − ¡ ¢ En d´eveloppant cette expression en puissances de k, on obtient X = M B (6.9) i ij j h i − Xj et ν = (X X )(X X ) = M . (6.10) ij i i j j ij h −h i −h i i La matrice des covariances de la distribution gaussienne (6.5) est M = A−1. Unedistributiongaussienne`aplusieursvariablesestdonccompl`etementd´eter- min´ee par les moyennes des variables et par leur matrice de covariance. Si les variables ne sont pas corr´el´ees, les matrices A et M = A−1 sont diagonales et les variables sont ind´ependantes. Ainsi, dans le cas ou` la distribution de proba- bilit´e conjointe de plusieurs variables al´eatoires est gaussienne, non-corr´elation et ind´ependance statistique sont des notions ´equivalentes. 6.3. Cas particulier : distribution gaussienne `a deux variables Dans le cas de deux variables al´eatoires, la matrice des covariances s’´ecrit : σ2 ρ σ σ M = 1 12 1 2 . (6.11) µρ σ σ σ2 ¶ 12 1 2 2 Son inverse est la matrice 1 1/σ2 ρ /σ σ A = 1 − 12 1 2 . (6.12) 1 ρ2 µ ρ /σ σ 1/σ2 ¶ − 12 − 12 1 2 2 On a : 1 D´et.A = . (6.13) σ2σ2(1 ρ2 ) 1 2 − 12 La distribution gaussienne `a deux variables (centr´ees) s’´ecrit donc : 1 1 x2 2ρ x x x2 p(x ,x ) = exp 1 12 1 2 + 2 . 1 2 2πσ σ (1 ρ2 )1/2 ·−2(1 ρ2 ) µσ2 − σ σ σ2¶¸ 1 2 − 12 − 12 1 1 2 2 (6.14) Notes de cours – : chapitre 1 9 Il apparaˆıt clairement sur cette expression que, lorsque deux variables gaussi- ennes ne sont pas corr´el´ees (ρ = 0), leur distribution de probabilit´e conjointe se 12 factorise en produit des deux densit´es de probabilit´e individuelles de chacune des variables. On v´erifie donc bien dans ce cas particulier que des variables gaussiennes non corr´el´ees sont statistiquement ind´ependantes. 6.4. Propri´et´e des corr´elations Une propri´et´e importante des variables al´eatoires gaussiennes est que toutes les corr´elations d’ordre sup´erieur peuvent s’exprimer `a l’aide des corr´elations du second ordre entre paires de variables. On peut v´erifier que les moments d’ordre pair d’une distribution gaussienne `a plusieurs variables centr´ees (B = 0) poss`edent la propri´et´e X X X ... = X X X X .... (6.15) i j k p q u v h i h ih i X ou` la sommation s’´etend `a toutes les subdivisions possibles en paires des indices i,j,k,.... Quant aux moments d’ordre impair, ils sont nuls. 7. Th´eor`eme de la limite centrale 7.1. E´nonc´e et justification du th´eor`eme Consid´erons tout d’abord un ensemble de N variables al´eatoires ind´epen- dantes X ,X ,...,X , chacune ayant la mˆeme densit´e de probabilit´e gaussienne 1 2 N p (x) = (2πσ2)−1/2 exp( x2/2σ2), de moyenne nulle4 et de variance σ2. Quel que X − soit N, la variable al´eatoire Y d´efinie par X +X + +X 1 2 N Y = ··· (7.1) √N est elle aussi une variable al´eatoire gaussienne de moyenne nulle et de variance Y2 = 1 N X2 = σ2. La distribution de probabilit´e de Y ´etant la mˆeme h i N i=1h ii que celle dePs variables de d´epart, la loi gaussienne est dite stable par rapport `a l’addition des variables al´eatoires5. Le th´eor`eme de la limite centrale, ´etabli par P.S. de Laplace en 1812, stipule que, mˆeme lorsque p (x) n’est pas une loi gaussienne, mais une autre distribution X demoyennenulleetdevariancefinieσ2,ladistributiondeY estencorelaloigaussi- enne de moyenne nulle et de variance σ2 dans la limite N . Cette propri´et´e → ∞ remarquable de convergence vers le “bassin d’attraction” gaussien est `a l’origine du rˆole dominant de la distribution gaussienne dans de nombreux domaines de la physique statistique. En effet, dans beaucoup de situations ou` intervient une 4 Les variables Xi sont donc prises ici centr´ees, la g´en´eralisation au cas de variables non centr´ees ´etant imm´ediate. 5 Il faut noter que Y n’est pas exactement ´egale a` la somme des variables de d´epart, mais a` celle-ci multipli´ee par un facteur d’´echelle convenable, en l’occurrence 1/√N. 10 Variables ale´atoires. The´ore`me de la limite centrale variable al´eatoire fluctuante Y, les fluctuations sont une somme de contributions provenant d’un grand nombre de causes ind´ependantes6. Pour comprendre l’origine de cette propri´et´e, consid´erons la fonction caract´eristique correspondant `a une distributionp arbitraire (de moyenne nulle) : X ∞ G (k) = eikxp (x)dx. (7.2) X X Z −∞ Les variables individuelles ´etant ind´ependantes, la fonction caract´eristique de Y est : N k G (k) = G ( ) . (7.3) Y X · √N ¸ On a donc : k logG (k) = N logG ( ). (7.4) Y X √N On peut ´ecrire, en d´eveloppant7 en puissances de k/√N, k 1 k2 k3 logG ( ) σ2 +O( ), (7.5) X √N ≃ −2 N N3/2 d’ou` l’on d´eduit 1 k3 logG (k) = σ2k2 +O( ). (7.6) Y −2 N1/2 Lorsque N , le dernier terme tend vers z´ero `a cause du facteur N1/2 au d´enominateu→r; ∞par suite, GY(k) tend vers e−21σ2k2, fonction caract´eristique de la distribution gaussienne de moyenne nulle et de variance σ2. 7.2. Discussion Mˆeme en continuant `a consid´erer seulement le cas ou` les variables X sont i distribu´ees de mani`ere identique, le th´eor`eme de la limite centrale est en r´ealit´e valable sous des hypoth`eses plus g´en´erales que celles que nous avons faites (vari- ables al´eatoires individuelles ind´ependantes ayant une distribution de variance finie). Tout d’abord, la condition d’ind´ependance statistique des variables al´eatoires individuelles est suffisante, mais non n´ecessaire. Certes, pour que le th´eor`eme soit applicable, ces variables ne doivent pas pr´esenter de corr´elations `a longue port´ee8. 6 En fait, le th´eor`eme de la limite centrale s’applique mˆeme lorsque les lois individuelles ne sont pas identiques. Cependant, la discussion en est plus simple lorsque toutes les variables Xi ont la mˆeme distribution, ce que nous supposons ici. 7 Il est pr´ef´erable de d´evelopper les logarithmes, qui varient plus lentement que les fonctions elles-mˆemes. 8 C’esttouta`faitapparentsil’onpenseparexempleaucasou`lesN variablessontidentiques.

See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.