Algèbre 3 Semestred’hiver2012/2013 UniversitéduLuxembourg GaborWiese [email protected] Versiondu19décembre2012 Préface L’objetprincipalducoursseral’étudedesextensionsalgébriquesdescorpscommutatifs.Enpar- ticulier,lathéoriedeGaloisseradéveloppéeetappliquée.Ellepermetentreautresdedémontrerque l’équation générale de degré au moins 5 ne peut pas être résolue en radicaux et de résoudre (parfois demanièrenégative)plusieursproblèmesclassiques(provenantdesanciensGrecs)deconstructionà larègleetaucompascommelatrisectiond’unangleetlaquadratureducercle. Au début du cours nous allons finir le traitement de la réduction de Jordan d’une matrice com- mencéavantl’été. Littérature VoiciquelquesréférencessurlathéoriedeGaloisenfrançais: – Jean-PierreEscoffier:ThéoriedeGalois – Jean-ClaudeCarrega:Théoriedescorps,larègleetlecompas – AntoineChambert-Loir:Algèbrecorporelle – YvanGozard:ThéoriedeGalois – PatriceTauvel:CorpscommutatifsetthéoriedeGalois – JosetteCalais:Extensiondecorps,théoriedeGalois – EvaristeGalois:letexteoriginal! Voiciquelquesd’autresréférences: – Siegfried Bosch : Algebra (en allemand), Springer-Verlag. Ce livre est très complet et bien lisible. – IanStewart:GaloisTheory.Celivreestbienlisible.LetraitementdelathéoriedeGaloisdans le cours sera un peu plus général puisque Stewart se restreint dans les premiers chapîtres aux sous-corpsdesnombrescomplexes. – Serge Lang : Algebra (en anglais), Springer-Verlag. C’est comme une encyclopédie de l’al- gèbre;onytrouvebeaucoupdesujetsrassemblés,écritsdefaçonconcise. 1 1 RÉDUCTIONDEJORDAN 2 1 Réduction de Jordan NouscommençonscecoursparlaréductiondeJordanquenousavonsbienpréparéelesemestre précédent, mais, pas encore finie. Rappelons d’abord les définitions et résultats principaux déjà mis enplaceavantl’été.Danstoutecettesection,soitK uncorpscommutatif. Lethéorèmesuivantestsouventappelléthéorèmefondamentalsurlesmatrices,cequimontreson rôle fondamental : il dit que – après un choix de bases (pas oublier!!) – chaque application linéaire peut être décrite de façon unique par une matrice, et que, réciproquement, chaque matrice – encore pourunchoixdebasesfixé–définituneapplicationlinéaire. Unmotsurlesnotations:contrairementàl’usageausemestreprécédent,jenoterailesbasesmain- tenant avec des parenthèses, S = (v ,...,v ), et non avec des accolades car la forme des matrices 1 n dépenddel’ordredesvecteur.Mais,maintenantilfautseméfierdenepasconfondreSavecunvecteur (quiestaussinotéavecdesparenthèses).Sinousavonsdeuxsous-espaceW etW d’unespacevec- 1 2 torielV avecdesbasesS = (v ,...,v )etS = (w ,...,w ),onnotera(v ,...,v ,w ,...,w ) 1 1 n 2 1 m 1 n 1 m quand-mêmeparS S . 1 2 ∪ Théorème 1.1. Soient V,W deux K-espaces vectoriels de dimensions finies n et m. Rappellons que nous notons Hom (V,W) l’ensemble de toutes les applications ϕ : V W qui sont K- K → linéaires. Soient S = (v ,...,v ) une K-base de V et T = (w ,...,w ) une K-base de W. Pour 1 n 1 m ϕ Hom (V,W)et1 i n,levecteurϕ(v )appartientàW,alors,onpeutl’exprimerentant K i ∈ ≤ ≤ quecombinaisonK-linéairedesvecteursdanslabaseT ainsi: m ϕ(v ) = a w . i j,i j j=1 X Nous«rassemblons»lescoefficientsa dansunematrice: j,i a a a 1,1 1,2 1,n ··· a a a 2,1 2,2 2,n MT,S(ϕ) := ... ... ·.·.·. ... ∈ Matm×n(K). am,1 am,2 am,n ··· L’utilitédecettematriceestlasuivante:Soitv V unvecteurquis’écritencoordonnéespour ∈ b 1 b 2 labaseS commev = . .Alors,leproduitmatriciel . . bn a a a b 1,1 1,2 1,n 1 ··· a a a b 2,1 2,2 2,n 2 ··· ... ... ... ... ... am,1 am,2 am,nbn ··· estégaleauvecteurϕ(v)écritencoordonnéespourlabaseT.C’estàdirequenousavonsexprimé l’imageϕ(v)encoordonnées.Alors,lamatriceM (ϕ)décritl’applicationlinéaireϕencoordon- T,S nées. 1 RÉDUCTIONDEJORDAN 3 L’assertionprincipaleduthéorèmec’est:L’application Hom (V,W) Mat (K), ϕ M (ϕ) K m×n T,S → 7→ estunebijection.ElleestmêmeunisomorphismedeK-algèbres. Démonstration. Lapreuven’estqu’uncalculassezsimpleetaétédonnéeavantl’été.Ellefaitpartie decellesquechaqu’un(e)devraitpouvoirreproduire.Alors,c’estlecas? Dans le reste de cette section nous nous intéressons au cas spécial W = V. Une application K-linéaireϕ : V V estaussiappelléeendomorphismeetnousécrivons → End (V) := Hom (V,V). K K Apartird’ici,fixonsunK-espacevectorielV dedimensionfinien. Définition1.2. Soitϕ End (V). K ∈ – a K est appellé valeur propre de ϕ s’il existe 0 = v V t.q. ϕ(v) = av (ou équivalent : ∈ 6 ∈ ker(ϕ a id ) = 0). V − · 6 – OnposeE (a) := ker(ϕ a id ).Siaestunevaleurpropredeϕ,onappelleE (a)l’espace ϕ V ϕ − · proprepoura. – Chaque0 = v E (a)estappellévecteurproprepourlavaleurproprea. ϕ 6 ∈ – OnposeSpec(ϕ) = a K aestvaleurpropredeϕ . { ∈ | } – OnappelleϕdiagonalisablesiV = E (a). a∈Spec(ϕ) ϕ Vousavezdéjàvubeaucoupd’exemplesL,enalgèbrelinéaireetenalgèbre2avantl’été.Rappellons quand-mêmeuneformulationéquivalentedeladiagonalisabilité(quiexpliquelenom). Proposition 1.3. Soit ϕ End (V) et Spec(ϕ) = a ,...,a . Les assertions suivantes sont K 1 r ∈ { } équivalentes: (i) ϕestdiagonalisable. (ii) IlexisteunebaseS deV t.q. a1 0 0 0 0 0 0 0 0 0 ... 0 0 0 0 0 0 0 0 0 0 0 0 a1 0 0 0 0 0 0 0 0 0 0 0 a2 0 0 0 0 0 0 0 ... 0 0 0 0 0 0 0 0 0 0 M (ϕ) = 0 0 0 0 0 a2 0 0 0 0 0 . S,S ... 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ... 0 0 0 0 0 0 0 0 0 0 0 ar 0 0 ... 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ar Pour1 i r,lavaleura apparaîtdim E (a )foissurladiagonale. i K ϕ i ≤ ≤ 1 RÉDUCTIONDEJORDAN 4 Démonstration. «(i) (ii)»:Pourchaque1 i rnouschoisissons(parexemple,enlacalculant) ⇒ ≤ ≤ unebaseS deE (a )etposonsS = S S S .Puisqueϕestdiagonalisable,V estlasomme i ϕ i 1 2 r ∪ ∪···∪ directedesE (a );cecineditriend’autrequeS estunebasedeV.Laformediagonaledelamatrice ϕ i provientimmédiatementduthéorèmefondamentalsurlesmatrices1.1. «(ii) (i)» : Ecrivons S = (v ,...,v ) et e pour le nombre de fois que a apparaît sur la 1 n i i ⇒ diagonale.Alors,E (a )estlesous-espacedeV engendréparlespremierse vecteursdeS;ensuite, ϕ 1 1 E (a )estlesous-espacedeV engendréparlesprochainse vecteursdeS,etc.CecimontrequeV ϕ 2 2 estbienlasommedirectedesE (a )pour1 i r. ϕ i ≤ ≤ Définition1.4. – Soit M Mat (K) une matrice. Le polynôme caractéristique de M est n×n ∈ définicomme car (X) := det X id M K[X]. M n · − ∈ – Soitϕ End (V).Lepolynômecaractéris(cid:0)tiquedeϕest(cid:1)définicomme K ∈ car (X) := car (X). φ MS,S(ϕ) Avantl’éténousnoussommesconvaincuesquecar nedépendpasduchoixdelabaseS.Nous ϕ avonsaussivuplusieursexemplesquenousn’allonspasrépeterici. Proposition1.5. Spec(ϕ) = a K car (a) = 0 = a K (X a) car (X) . ϕ ϕ { ∈ | } { ∈ | − | } Démonstration. C’estfacile,n’est-cepas? A part le polynôme caractéristique nous avons également introduit le polynôme minimal dont on rappelle aussi la définition. On se souvient qu’on a démontré que K[X] est un anneau euclidien (pourladivisioneuclidiennedepolynômes,c’estàdire«avecreste»),alors,commeonl’adémontré également,K[X]estunanneauprincipal:chaqueidéalestprincipal,c’estàdire,peutêtreengendré parunseulélément.Nousallonsutilisercefaitmaintenant. Définition-Lemme1.6. (a) Soit M Mat (K) une matrice. Si f(X) = d a Xi K[X] ∈ n×n i=0 i ∈ est un polynôme, alors nous posons f(M) := d a Mi, ce qui est encore une matrice dans i=0 i P Mat (K). n×n P (b) L’application«evaluation» ev : K[X] Mat (K), f(X) f(M) M n×n → 7→ estunhomomorphismed’anneaux(mêmedeK-algèbres). (c) Le noyau ker(ev ) est un idéal principal non-nul de l’anneau principal K[X], alors, il existe M ununiquepolynômenormalisém (X) K[X]quiengendreker(ev ).Onappellem (X)le M M M ∈ polynômeminimaldeM. (d) m (X)estlepolynômenormalisédedegréminimalquiannuleM (c’estàdire:m (M) = 0 M M n où0 estlamatricezérodansMat (K)(qu’ondenotéraaussi0poursimplicité)). n n×n (e) Soitϕ End (V).Nousposons K ∈ m (X) := m (X) ϕ MS,S(ϕ) etl’appellonspolynômeminimaldeϕ.CepolynômenedépendpasduchoixdelabaseS. 1 RÉDUCTIONDEJORDAN 5 Démonstration. (a)estclair. (b)C’estuncalculfacile. (c) Remarquons que K[X] est de dimension infinie alors que la dimension de Mat (K) est n×n finie,cequimontrequeev nepeutpasêtreinjective.Alors,sonnoyauestnon-nuletengendrépar M unpolynômequiestuniqueàmultiplicationparK× près,cequinouspermetdelenormaliser. (d)estclair. (e) L’indépendence du choix de la base provient du fait que la conjugaison avec la matrice de changementdebasedécritunisomorphismedeMat (K). n×n Lepolynômecaracteristiquecar (X)etlepolynômeminimalm (X)sontliésparlethéorème M M deCayley-Hamilton. Théorème1.7(Cayley-Hamilton). SoitM Mat (K).Alors, n×n ∈ car (M) = 0 Mat (K). M n n×n ∈ Enparticulier,m (X)estundiviseurdecar (X). M M Démonstration. L’astuceestd’utiliserlesmatricesadjointes.Nousavons (X id M)adj (X id M) = det(X id M) id d=éf car (X) id . (1.1) n n n n M n · − · · − · − · · Notez que la matrice X id M est à coefficients dans l’anneau des polynômes K[X]. Mais, il n · − est facile de vérifier que la propriété principale des matrices adjointes que nous venons d’utiliser est valablepourchaqueanneaucommutativeetpasseulementpourR,lecaspourlequelvousavezvula preuveenalgèbrelinéaire. LadéfinitiondelamatriceadjointemontrequelaplusgrandepuissancedeX quipeutapparaître dansuncoefficientdelamatrice(X id M)adj estn 1.Nouspouvonsalorsécrirecettematrice n · − − entantquepolynômededegrén 1àcoefficientsdansMat (K): n×n − n−1 (X id M)adj = B Xi avec B Mat (K). n i i n×n · − ∈ i=0 X Nousécrivonscar (X) = n a Xi etreprenonsl’équation(1.1): M i=0 i P n n−1 car (X) id = a id Xi = B Xi (X id M) M n i n i n · · · · − i=0 i=0 X (cid:0)X (cid:1) n−1 n−1 = (B Xi+1 B MXi) = B M + (B B M)Xi+B Xn. i i 0 i−1 i n−1 − − − i=0 i=1 X X Nouscomparonslescoefficients(encoredesmatrices!)pourobtenir a id = B M, a id = B B M pour1 i n 1 et B = 0. 0 n 0 i n i−1 i n−1 · − · − ≤ ≤ − 1 RÉDUCTIONDEJORDAN 6 Onpeutmaintenantconclurelapreuvedecar (M) = 0 paruncalculsimple: M n n n−1 car (M) id = a Mi = B M + (B B M)Mi M n i 0 i−1 i · · − − i=0 i=1 X X = B M+B M B M2+B M2 B M3+B M3 B Mn−1+B Mn−1 = 0 . 0 0 1 1 2 2 n−2 n−2 n − − − −···− Lapropriétécar (M) = 0 montrequecar (X)estdanslenoyaudeev de1.6,alorsm (X) M n M M M divisecar (X),carm (X)estungénérateurdel’idéalprincipalker(ev ). M M M Le théorème de Cayley-Hamilton reste évidemment vrai si l’on remplace la matrice M par un endomorphismeϕ End (V). K ∈ Exemple1.8. Surlafeuilled’exerciceno.1voustrouvezunefaçondecalculerlespolynômesmini- mauxengénéral,etsurtoutunefaçonpoursouventéviterbeaucoupdecalcul.Lethéorème1.10etla proposition1.13semontreronttrèsutiles. Voici des exemples clés pour comprendre la différence entre polynôme minimal et polynôme ca- ractéristique: – Lestroismatricessuivantesontlemêmepolynômecaractéristique,(X 1)2 : − M := (1 0), M := (1 1), M := (1 691). 1 0 1 2 0 1 3 0 1 LepolynômeminimaldeM estX 1.PuisqueM 1 id = (0 1) = 0 etM 1id = 1 − 2 − · 2 0 0 6 2 3 − 2 (0 691) = 0 ,lepolynômeminimalest(X 1)2danscesdeuxcas.Notezquenousavonsutilisé 0 0 6 2 − le fait que les seuls diviseurs normalisés non-constants de (X 1)2 sont X 1 et (X 1)2, − − − alors,lepolynômeminimaldoitêtreunparmicesdeux. – Les mêmes arguments donnent les polynômes minimaux des matrices suivantes (mais, notez qu’ilyaunepossibilitédeplus): 1 0 0 1 1 0 1 1 0 M := 0 1 0 ,M := 0 1 0 ,M := 0 1 1 . 4 5 6 0 0 1 0 0 1 0 0 1 LelemmesuivantestnotrepremierpasversladécompositionspectraleetlaformedeJordan. Lemme1.9. Soitϕ End (V). K ∈ (a) Soit f K[X] et W := ker(f(ϕ)). Alors, W est un sous-espace de V stable par ϕ, c’est à ∈ dire : pour tout w W on a ϕ(w) W. Ceci nous permet de restreindre ϕ à W ; on notéra ∈ ∈ l’applicationrestreinteparϕ : W W. W | → (b) Soient f,g K[X] deux polynômes premiers entre eux, c’est à dire : pgcd(f(X),g(X)) = 1. ∈ Alors, ker(f(ϕ) g(ϕ)) = ker(f(ϕ)) ker(g(ϕ)). · ⊕ =:W =:W1 =:W2 Avantlapreuve,unpetitm|otsurl{aznotatio}n:f|(ϕ){zestu}nea|ppl{iczatio}nK-linéaireV V,alors → on peut l’appliquer à un vecteur v V. Notre notation pour ceci c’est : f(ϕ)(v) ou bien f(ϕ)v. ∈ Notezlesrôlesdistinctsdesdeuxpairesdeparanthèsesdanslapremièreexpression.Onpourraitaussi l’écrire(f(ϕ))(v),mais,jetrouvecetteécritureunpeulourde. 1 RÉDUCTIONDEJORDAN 7 Démonstration. (a) Nous savons que le noyau de chaque application K-linéaire est un sous-espace. Ecrivonsf(X) = d a Xi.Soitalorsw W,i.e.f(ϕ)w = d a ϕi(w) = 0.Nouscalculons i=0 i ∈ i=0 i P d d Pd f(ϕ)(ϕ(w)) = a ϕi(ϕ(w)) = a ϕi+1(w) = ϕ a ϕi(w) = ϕ(0) = 0. i i i i=0 i=0 i=0 X X (cid:0)X (cid:1) (b)IlestclairqueW W etW W,alorsW +W W.Nousdevonsdémontrer 1 2 1 2 ⊆ ⊆ ⊆ – W W = 0(leK-espacevectorielzéro)et 1 2 ∩ – W +W = W. 1 2 PuisqueK[X]estunanneaueuclidien,nouspouvonsutiliserl’algorithmed’Euclide(deBézout)pour obtenir deux autres polynômes a,b K[X] tels que 1 = a(X)f(X) + b(X)g(X). Soit d’abord ∈ w W W .Alors 1 2 ∈ ∩ w = id (w) = a(ϕ)f(ϕ)w+b(ϕ)g(ϕ)w = 0+0 = 0, V cequimontrelepremierpoint.Pourledeuxièmesoitw W.L’équationqu’onvientd’utilisers’écrit ∈ comme w = w +w avecw := a(ϕ)f(ϕ)w etw := b(ϕ)g(ϕ)w. 2 1 2 1 Mais,ona f(ϕ)(w ) = b(ϕ)f(ϕ)g(ϕ)w = b(ϕ)0 = 0 w W 1 1 1 ⇒ ∈ et g(ϕ)(w ) = a(ϕ)f(ϕ)g(ϕ)w = a(ϕ)0 = 0 w W , 2 2 2 ⇒ ∈ achevantladémonstration. Théorème 1.10 (Décomposition spectrale). Soit ϕ End (V) avec polynôme minimal m (X) = K ϕ ∈ fe1(X) fe2(X) ... fer(X)oùlespolynômesf (X)sontirréductibles(cesontalorsdeséléments 1 · 2 · · r i premiers dans l’anneau principal K[X]) et premiers entre eux, c’est à dire pgcd(f ,f ) = 1 pour i j tout1 i < j n(sil’onnormaliselesf ,alorslaconditionnerevientqu’àdirequelespolynômes i ≤ ≤ sontdistincts).PosonsW := ker(f (ϕ)).Alors,lesassertionssuivantessontvraies. i i (a) V = r W . i=1 i (b) Sil’onchoisitunebaseS dusous-espaceW pour1 i r,alorsS = S S S est L i i 1 2 r ≤ ≤ ∪ ∪···∪ unebasedeW pourlaquelleona: M 0 0 ... 0 1 0 M2 0 ... 0 MS,S(ϕ) = ... ... ... ... 0 ... 0 M 0 r−1 0 ... 0 0 Mr avecM := M (ϕ )pour1 i r. i Si,Si |Wi ≤ ≤ Démonstration. (a)suitdulemma1.9(b)parrécurrence. (b) est clair : Ecrivez la matrice selon les règles et vous allez obtenir cette forme. Notez que les blocsendehorsdeladiagonalesontzérosparcequeϕ(W ) W . i i ⊆ 1 RÉDUCTIONDEJORDAN 8 Le cas le plus important pour nous est celui où f (X) = X a avec a = a pour i = j (ce i i i j − 6 6 quiimpliquequelesf sontirréductiblesetdistincts).Ladécompositionspectralen’estenfaitqu’un i pas(décisif!)verslaréductiondeJordan.Nousvoyonsdanslaprochainepropostionaussisonutilité pour la diagonalisation. Pour l’instant nous illustrons l’effet de la décomposition spectrale à l’aide d’un exemple. Avant cela, il peut être utile de se rappeller comment appliquer les résultats pour les applicationslinéaireϕauxmatrices. Remarque 1.11. Soit M Mat (K). On peut appliquer la décomposition spectrale à la ma- n×n ∈ 1 0 0 0 1 0 0 0 0 trice M comme suit. Pour la base canonique B := (.,.,...,.) la matrice M décrit .. .. .. 0 0 0 0 0 1 uneapplicationK-linéaireϕetl’onaM = M (ϕ)(voirlethéorème1.1). B,B La décomposition spectrale nous donne une base S. Soit C := M (id) la matrice de change- B,S mentdebasesentrelabaseS etlabasecanonique.Alors,nousavons M (ϕ) = C−1MC S,S (comme nous l’avons vu avant l’été). Pour être encore un peu plus concret, rappellons comment écrire la matrice C. Si S = (v ,...,v ) et les vecteurs v sont donnés en coordonnées pour la base 1 n i standarde,alorslai-ièmecolonnedeC estjustelevecteurv . i Alors, la décomposition spectrale peut être utilisée pour calculer une matrice semblable (par définition, deux matrices A,B sont semblables si l’une est une conjugée de l’autre : il existe une matriceinversibleC tellequeB = C−1AC)àM delajolieformeduthéorème. 1 2 3 Exemple1.12. SoitM := 0 1 4 àcoefficientsdansQ.Lepolynômecaractéristiqueest(X − 0 0 5 1)2(X 5). Il est clair queker(M 5 id ) est de dimension 1; c’est à dire que 5 est une valeur 3 − − · propredemultiplicité1(pardéfinition:sonespacepropreestdedimension1).Sanscalculilestclair quedimker((M id )2) = 3 1 = 2. 3 − − Lethéorème1.10impliquel’existenced’unematriceC telleque 1 x 0 C−1 M C = 0 1 0 · · 0 0 5 pourunx Qquiresteàêtredéterminé. ∈ Enfait,onvoitfacilementquex = 0,cardanscecaslepolynômeminimalserait(X 1)(X 5) 6 − − cequiestfaux(voiraussilaProposition1.13).LethéorèmesurlaréductiondeJordan1.17nousdira quenouspouvonschoisirC tellequemêmex = 1. Le polynôme minimal nous permet de donner encore une autre caractérisation de la diagonalisa- bilité: 1 RÉDUCTIONDEJORDAN 9 Proposition1.13. (a) Spec(ϕ) = a K (X a) m (X) = a K m (a) = 0 . ϕ ϕ { ∈ | − | } { ∈ | } (b) Soitϕ End (V).Alors,lesassertionssuivantessontéquivalentes: K ∈ (i) ϕestdiagonalisable. (ii) m (X) = (X a). ϕ a∈Spec(ϕ) − Démonstration. (a)LQadeuxièmeégalitéestclaire:enutilisantladivisioneuclidienneonvoitqu’un a K est un zéro d’un polynôme f K[X] si et seulement si X a divise f(X). Pour voir ∈ ∈ − la première égalité supposons d’abord (X a) ∤ m (X). De cela nous déduisons que (X a) et ϕ − − m (X) sont premiers entre eux, ce qui nous permet (par l’algorithme d’Euclide/Bézout) de trouver ϕ b,c K[X]telsque1 = b(X)(X a)+c(X)m (X).Soitmaintenantv V t.q.ϕ(v) = av.Nous ϕ ∈ − ∈ avons v = id v = b(ϕ)(ϕ(v) av)+c(ϕ)m (ϕ)v = 0+0 = 0, V ϕ − alorsa Spec(ϕ). 6∈ Supposons maintenant (X a) m (X) ce qui nous permet d’écrire m (X) = (X a)g(X) ϕ ϕ − | − pourung K[X].Puisqueledegrédegeststrictementpluspetitqueceluidem (X),ildoityavoir ϕ ∈ un v V tel que w := g(ϕ)v = 0 (sinon, le polynôme minimal m (X) serait un diviseur de g(X) ϕ ∈ 6 cequiestabsurde).Nousavonsalors (ϕ a)w = m (ϕ)v = 0, ϕ − alorsa Spec(ϕ). ∈ (b)OnécritSpec(ϕ) = a ,...,a . 1 r { } «(i) (ii)» : On choisit une base S telle que M := M (ϕ) est diagonale (voir la pro- S,S ⇒ position 1.3). Un calcul très simple montre que r (M a ) = 0 . Alors, m (X) est un di- i=1 − i n ϕ viseur de r (X a ). Mais, (a) montre que pour chaque i on a (X a ) m (X). Donc, i=1 − i Q − i | ϕ m (X) = r (X a )(lesdeuxpolynômessontnormalisés). ϕ Qi=1 − i «(ii) (i)»:Onappliqueladécompositionspecrale1.10etilsuffitdenoterquelesmatricesM ⇒Q i sontdiagonalescarW = E (a )estl’espaceproprepourlavaleurproprea . i ϕ i i Ilestutilederemarquerquelespropositions1.5et1.13(a)disentquecar (X)etm (X)ontles ϕ ϕ mêmesfacteursdedegré1. 1 0 2 Exemple 1.14. Considérons la matrice M := 0 1 3 à coefficients dans Q. Son polynôme 0 0 4 minimalest(X 1)(X 4),alors,elleestdiagonalisable. − − (Pourobtenirlepolynômeminimalilsuffitdevoirquel’espaceproprepourlavaleurpropre1est dedimension2.) Nousavonsvudanslaproposition1.3quelesmatricesdiagonalisablessontsemblablesàdesma- trices diagonales. L’utilité d’une matrice diagonale pour des calculs est évidente. Malheureusement, les matrices ne sont pas toutes diagonalisables. Notre but maintenant est de choisir une base S de V defaçonqueM (ϕ)aituneforme«simple,jolieetélégante»etleplusprochepossibledelaforme S,S diagonale. 1 RÉDUCTIONDEJORDAN 10 Nous avons aussi vu que la décomposition spectrale 1.10 nous donne une forme diagonale «en blocs».NotrebutpourlaréductiondeJordanseraderendrelesmatricesdanslesblocsleplussimple possible. NousprésentonslaréductiondeJordan(laformenormaledeJordan)d’unpointdevuealgorith- mique.Lespreuvespeuventêtreabrégéesunpeusiontravaillesanscoordonnées,mais,danscecas, lecalculdelaréductionn’estpasclair. Lemme1.15. Soienta K,e N etv V telsque >0 ∈ ∈ ∈ (ϕ a id)e(v) = 0 et (ϕ a id)e−1(v) = 0. − · − · 6 Nousposons: v := v, e v := (ϕ a id)(v), e−1 − · ... v := (ϕ a id)e−2(v), 2 − · v := (ϕ a id)e−1(v). 1 − · et v := v ,...,v ,lesous-espacedeV engendréparlesv ,...,v . ϕ 1 e 1 e h i h i (a) Lesv ,...,v sontK-linéairementindépendantset,enconséquence,formentunebaseSde v . 1 e ϕ h i (b) Nousavons: ϕ(v ) = av , 1 1 ϕ(v ) = v +av , 2 1 2 ϕ(v ) = v +av , 3 2 3 ..., ϕ(v ) = v +av . e e−1 e (c) ϕ( v ) v . ϕ ϕ h i ⊆ h i a 1 0 0 ... 0 0 a 1 0 ... 0 0 0 ... ... ... ... (d) M (ϕ ) = . S,S |hviϕ ... ... ... ... 1 0 0 0 ... 0 a 1 0 0 ... 0 0 a Démonstration. (a)Notezquelaplusgrandepuissancedeϕquiapparaîtdansladéfinitiond’undes v estégaleàe 1.Unecombinaisonlinéairenon-trivialedelaforme0 = e α v seréécritalors i − i=1 i i souslaformeg(ϕ)(v) = 0avecunpolynôme0 = g(X) K[X]dedegréaupluse 1.Commele 6 ∈ P − polynômeminimaldeϕestdedegrée,nousobtenonsunecontradiction.