ebook img

Exercices : Algèbre 3 - Université du Luxembourg PDF

83 Pages·2012·0.78 MB·French
by  
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview Exercices : Algèbre 3 - Université du Luxembourg

Algèbre 3 Semestred’hiver2012/2013 UniversitéduLuxembourg GaborWiese [email protected] Versiondu19décembre2012 Préface L’objetprincipalducoursseral’étudedesextensionsalgébriquesdescorpscommutatifs.Enpar- ticulier,lathéoriedeGaloisseradéveloppéeetappliquée.Ellepermetentreautresdedémontrerque l’équation générale de degré au moins 5 ne peut pas être résolue en radicaux et de résoudre (parfois demanièrenégative)plusieursproblèmesclassiques(provenantdesanciensGrecs)deconstructionà larègleetaucompascommelatrisectiond’unangleetlaquadratureducercle. Au début du cours nous allons finir le traitement de la réduction de Jordan d’une matrice com- mencéavantl’été. Littérature VoiciquelquesréférencessurlathéoriedeGaloisenfrançais: – Jean-PierreEscoffier:ThéoriedeGalois – Jean-ClaudeCarrega:Théoriedescorps,larègleetlecompas – AntoineChambert-Loir:Algèbrecorporelle – YvanGozard:ThéoriedeGalois – PatriceTauvel:CorpscommutatifsetthéoriedeGalois – JosetteCalais:Extensiondecorps,théoriedeGalois – EvaristeGalois:letexteoriginal! Voiciquelquesd’autresréférences: – Siegfried Bosch : Algebra (en allemand), Springer-Verlag. Ce livre est très complet et bien lisible. – IanStewart:GaloisTheory.Celivreestbienlisible.LetraitementdelathéoriedeGaloisdans le cours sera un peu plus général puisque Stewart se restreint dans les premiers chapîtres aux sous-corpsdesnombrescomplexes. – Serge Lang : Algebra (en anglais), Springer-Verlag. C’est comme une encyclopédie de l’al- gèbre;onytrouvebeaucoupdesujetsrassemblés,écritsdefaçonconcise. 1 1 RÉDUCTIONDEJORDAN 2 1 Réduction de Jordan NouscommençonscecoursparlaréductiondeJordanquenousavonsbienpréparéelesemestre précédent, mais, pas encore finie. Rappelons d’abord les définitions et résultats principaux déjà mis enplaceavantl’été.Danstoutecettesection,soitK uncorpscommutatif. Lethéorèmesuivantestsouventappelléthéorèmefondamentalsurlesmatrices,cequimontreson rôle fondamental : il dit que – après un choix de bases (pas oublier!!) – chaque application linéaire peut être décrite de façon unique par une matrice, et que, réciproquement, chaque matrice – encore pourunchoixdebasesfixé–définituneapplicationlinéaire. Unmotsurlesnotations:contrairementàl’usageausemestreprécédent,jenoterailesbasesmain- tenant avec des parenthèses, S = (v ,...,v ), et non avec des accolades car la forme des matrices 1 n dépenddel’ordredesvecteur.Mais,maintenantilfautseméfierdenepasconfondreSavecunvecteur (quiestaussinotéavecdesparenthèses).Sinousavonsdeuxsous-espaceW etW d’unespacevec- 1 2 torielV avecdesbasesS = (v ,...,v )etS = (w ,...,w ),onnotera(v ,...,v ,w ,...,w ) 1 1 n 2 1 m 1 n 1 m quand-mêmeparS S . 1 2 ∪ Théorème 1.1. Soient V,W deux K-espaces vectoriels de dimensions finies n et m. Rappellons que nous notons Hom (V,W) l’ensemble de toutes les applications ϕ : V W qui sont K- K → linéaires. Soient S = (v ,...,v ) une K-base de V et T = (w ,...,w ) une K-base de W. Pour 1 n 1 m ϕ Hom (V,W)et1 i n,levecteurϕ(v )appartientàW,alors,onpeutl’exprimerentant K i ∈ ≤ ≤ quecombinaisonK-linéairedesvecteursdanslabaseT ainsi: m ϕ(v ) = a w . i j,i j j=1 X Nous«rassemblons»lescoefficientsa dansunematrice: j,i a a a 1,1 1,2 1,n ··· a a a  2,1 2,2 2,n MT,S(ϕ) := ... ... ·.·.·. ... ∈ Matm×n(K).     am,1 am,2 am,n  ···    L’utilitédecettematriceestlasuivante:Soitv V unvecteurquis’écritencoordonnéespour ∈ b 1 b  2 labaseS commev = . .Alors,leproduitmatriciel . .     bn     a a a b 1,1 1,2 1,n 1 ··· a a a b  2,1 2,2 2,n 2 ··· ... ... ... ... ...       am,1 am,2 am,nbn  ···      estégaleauvecteurϕ(v)écritencoordonnéespourlabaseT.C’estàdirequenousavonsexprimé l’imageϕ(v)encoordonnées.Alors,lamatriceM (ϕ)décritl’applicationlinéaireϕencoordon- T,S nées. 1 RÉDUCTIONDEJORDAN 3 L’assertionprincipaleduthéorèmec’est:L’application Hom (V,W) Mat (K), ϕ M (ϕ) K m×n T,S → 7→ estunebijection.ElleestmêmeunisomorphismedeK-algèbres. Démonstration. Lapreuven’estqu’uncalculassezsimpleetaétédonnéeavantl’été.Ellefaitpartie decellesquechaqu’un(e)devraitpouvoirreproduire.Alors,c’estlecas? Dans le reste de cette section nous nous intéressons au cas spécial W = V. Une application K-linéaireϕ : V V estaussiappelléeendomorphismeetnousécrivons → End (V) := Hom (V,V). K K Apartird’ici,fixonsunK-espacevectorielV dedimensionfinien. Définition1.2. Soitϕ End (V). K ∈ – a K est appellé valeur propre de ϕ s’il existe 0 = v V t.q. ϕ(v) = av (ou équivalent : ∈ 6 ∈ ker(ϕ a id ) = 0). V − · 6 – OnposeE (a) := ker(ϕ a id ).Siaestunevaleurpropredeϕ,onappelleE (a)l’espace ϕ V ϕ − · proprepoura. – Chaque0 = v E (a)estappellévecteurproprepourlavaleurproprea. ϕ 6 ∈ – OnposeSpec(ϕ) = a K aestvaleurpropredeϕ . { ∈ | } – OnappelleϕdiagonalisablesiV = E (a). a∈Spec(ϕ) ϕ Vousavezdéjàvubeaucoupd’exemplesL,enalgèbrelinéaireetenalgèbre2avantl’été.Rappellons quand-mêmeuneformulationéquivalentedeladiagonalisabilité(quiexpliquelenom). Proposition 1.3. Soit ϕ End (V) et Spec(ϕ) = a ,...,a . Les assertions suivantes sont K 1 r ∈ { } équivalentes: (i) ϕestdiagonalisable. (ii) IlexisteunebaseS deV t.q. a1 0 0 0 0 0 0 0 0 0 ... 0 0 0 0 0 0 0 0 0 0  0 0 a1 0 0 0 0 0 0 0 0  0 0 0 a2 0 0 0 0 0 0 0  ...   0 0 0 0 0 0 0 0 0 0  M (ϕ) =  0 0 0 0 0 a2 0 0 0 0 0 . S,S  ...   0 0 0 0 0 0 0 0 0 0   0 0 0 0 0 0 0 ... 0 0 0   0 0 0 0 0 0 0 0 ar 0 0   ...   0 0 0 0 0 0 0 0 0 0   0 0 0 0 0 0 0 0 0 0 ar   Pour1 i r,lavaleura apparaîtdim E (a )foissurladiagonale. i K ϕ i ≤ ≤ 1 RÉDUCTIONDEJORDAN 4 Démonstration. «(i) (ii)»:Pourchaque1 i rnouschoisissons(parexemple,enlacalculant) ⇒ ≤ ≤ unebaseS deE (a )etposonsS = S S S .Puisqueϕestdiagonalisable,V estlasomme i ϕ i 1 2 r ∪ ∪···∪ directedesE (a );cecineditriend’autrequeS estunebasedeV.Laformediagonaledelamatrice ϕ i provientimmédiatementduthéorèmefondamentalsurlesmatrices1.1. «(ii) (i)» : Ecrivons S = (v ,...,v ) et e pour le nombre de fois que a apparaît sur la 1 n i i ⇒ diagonale.Alors,E (a )estlesous-espacedeV engendréparlespremierse vecteursdeS;ensuite, ϕ 1 1 E (a )estlesous-espacedeV engendréparlesprochainse vecteursdeS,etc.CecimontrequeV ϕ 2 2 estbienlasommedirectedesE (a )pour1 i r. ϕ i ≤ ≤ Définition1.4. – Soit M Mat (K) une matrice. Le polynôme caractéristique de M est n×n ∈ définicomme car (X) := det X id M K[X]. M n · − ∈ – Soitϕ End (V).Lepolynômecaractéris(cid:0)tiquedeϕest(cid:1)définicomme K ∈ car (X) := car (X). φ MS,S(ϕ) Avantl’éténousnoussommesconvaincuesquecar nedépendpasduchoixdelabaseS.Nous ϕ avonsaussivuplusieursexemplesquenousn’allonspasrépeterici. Proposition1.5. Spec(ϕ) = a K car (a) = 0 = a K (X a) car (X) . ϕ ϕ { ∈ | } { ∈ | − | } Démonstration. C’estfacile,n’est-cepas? A part le polynôme caractéristique nous avons également introduit le polynôme minimal dont on rappelle aussi la définition. On se souvient qu’on a démontré que K[X] est un anneau euclidien (pourladivisioneuclidiennedepolynômes,c’estàdire«avecreste»),alors,commeonl’adémontré également,K[X]estunanneauprincipal:chaqueidéalestprincipal,c’estàdire,peutêtreengendré parunseulélément.Nousallonsutilisercefaitmaintenant. Définition-Lemme1.6. (a) Soit M Mat (K) une matrice. Si f(X) = d a Xi K[X] ∈ n×n i=0 i ∈ est un polynôme, alors nous posons f(M) := d a Mi, ce qui est encore une matrice dans i=0 i P Mat (K). n×n P (b) L’application«evaluation» ev : K[X] Mat (K), f(X) f(M) M n×n → 7→ estunhomomorphismed’anneaux(mêmedeK-algèbres). (c) Le noyau ker(ev ) est un idéal principal non-nul de l’anneau principal K[X], alors, il existe M ununiquepolynômenormalisém (X) K[X]quiengendreker(ev ).Onappellem (X)le M M M ∈ polynômeminimaldeM. (d) m (X)estlepolynômenormalisédedegréminimalquiannuleM (c’estàdire:m (M) = 0 M M n où0 estlamatricezérodansMat (K)(qu’ondenotéraaussi0poursimplicité)). n n×n (e) Soitϕ End (V).Nousposons K ∈ m (X) := m (X) ϕ MS,S(ϕ) etl’appellonspolynômeminimaldeϕ.CepolynômenedépendpasduchoixdelabaseS. 1 RÉDUCTIONDEJORDAN 5 Démonstration. (a)estclair. (b)C’estuncalculfacile. (c) Remarquons que K[X] est de dimension infinie alors que la dimension de Mat (K) est n×n finie,cequimontrequeev nepeutpasêtreinjective.Alors,sonnoyauestnon-nuletengendrépar M unpolynômequiestuniqueàmultiplicationparK× près,cequinouspermetdelenormaliser. (d)estclair. (e) L’indépendence du choix de la base provient du fait que la conjugaison avec la matrice de changementdebasedécritunisomorphismedeMat (K). n×n Lepolynômecaracteristiquecar (X)etlepolynômeminimalm (X)sontliésparlethéorème M M deCayley-Hamilton. Théorème1.7(Cayley-Hamilton). SoitM Mat (K).Alors, n×n ∈ car (M) = 0 Mat (K). M n n×n ∈ Enparticulier,m (X)estundiviseurdecar (X). M M Démonstration. L’astuceestd’utiliserlesmatricesadjointes.Nousavons (X id M)adj (X id M) = det(X id M) id d=éf car (X) id . (1.1) n n n n M n · − · · − · − · · Notez que la matrice X id M est à coefficients dans l’anneau des polynômes K[X]. Mais, il n · − est facile de vérifier que la propriété principale des matrices adjointes que nous venons d’utiliser est valablepourchaqueanneaucommutativeetpasseulementpourR,lecaspourlequelvousavezvula preuveenalgèbrelinéaire. LadéfinitiondelamatriceadjointemontrequelaplusgrandepuissancedeX quipeutapparaître dansuncoefficientdelamatrice(X id M)adj estn 1.Nouspouvonsalorsécrirecettematrice n · − − entantquepolynômededegrén 1àcoefficientsdansMat (K): n×n − n−1 (X id M)adj = B Xi avec B Mat (K). n i i n×n · − ∈ i=0 X Nousécrivonscar (X) = n a Xi etreprenonsl’équation(1.1): M i=0 i P n n−1 car (X) id = a id Xi = B Xi (X id M) M n i n i n · · · · − i=0 i=0 X (cid:0)X (cid:1) n−1 n−1 = (B Xi+1 B MXi) = B M + (B B M)Xi+B Xn. i i 0 i−1 i n−1 − − − i=0 i=1 X X Nouscomparonslescoefficients(encoredesmatrices!)pourobtenir a id = B M, a id = B B M pour1 i n 1 et B = 0. 0 n 0 i n i−1 i n−1 · − · − ≤ ≤ − 1 RÉDUCTIONDEJORDAN 6 Onpeutmaintenantconclurelapreuvedecar (M) = 0 paruncalculsimple: M n n n−1 car (M) id = a Mi = B M + (B B M)Mi M n i 0 i−1 i · · − − i=0 i=1 X X = B M+B M B M2+B M2 B M3+B M3 B Mn−1+B Mn−1 = 0 . 0 0 1 1 2 2 n−2 n−2 n − − − −···− Lapropriétécar (M) = 0 montrequecar (X)estdanslenoyaudeev de1.6,alorsm (X) M n M M M divisecar (X),carm (X)estungénérateurdel’idéalprincipalker(ev ). M M M Le théorème de Cayley-Hamilton reste évidemment vrai si l’on remplace la matrice M par un endomorphismeϕ End (V). K ∈ Exemple1.8. Surlafeuilled’exerciceno.1voustrouvezunefaçondecalculerlespolynômesmini- mauxengénéral,etsurtoutunefaçonpoursouventéviterbeaucoupdecalcul.Lethéorème1.10etla proposition1.13semontreronttrèsutiles. Voici des exemples clés pour comprendre la différence entre polynôme minimal et polynôme ca- ractéristique: – Lestroismatricessuivantesontlemêmepolynômecaractéristique,(X 1)2 : − M := (1 0), M := (1 1), M := (1 691). 1 0 1 2 0 1 3 0 1 LepolynômeminimaldeM estX 1.PuisqueM 1 id = (0 1) = 0 etM 1id = 1 − 2 − · 2 0 0 6 2 3 − 2 (0 691) = 0 ,lepolynômeminimalest(X 1)2danscesdeuxcas.Notezquenousavonsutilisé 0 0 6 2 − le fait que les seuls diviseurs normalisés non-constants de (X 1)2 sont X 1 et (X 1)2, − − − alors,lepolynômeminimaldoitêtreunparmicesdeux. – Les mêmes arguments donnent les polynômes minimaux des matrices suivantes (mais, notez qu’ilyaunepossibilitédeplus): 1 0 0 1 1 0 1 1 0 M := 0 1 0 ,M := 0 1 0 ,M := 0 1 1 . 4   5   6   0 0 1 0 0 1 0 0 1             LelemmesuivantestnotrepremierpasversladécompositionspectraleetlaformedeJordan. Lemme1.9. Soitϕ End (V). K ∈ (a) Soit f K[X] et W := ker(f(ϕ)). Alors, W est un sous-espace de V stable par ϕ, c’est à ∈ dire : pour tout w W on a ϕ(w) W. Ceci nous permet de restreindre ϕ à W ; on notéra ∈ ∈ l’applicationrestreinteparϕ : W W. W | → (b) Soient f,g K[X] deux polynômes premiers entre eux, c’est à dire : pgcd(f(X),g(X)) = 1. ∈ Alors, ker(f(ϕ) g(ϕ)) = ker(f(ϕ)) ker(g(ϕ)). · ⊕ =:W =:W1 =:W2 Avantlapreuve,unpetitm|otsurl{aznotatio}n:f|(ϕ){zestu}nea|ppl{iczatio}nK-linéaireV V,alors → on peut l’appliquer à un vecteur v V. Notre notation pour ceci c’est : f(ϕ)(v) ou bien f(ϕ)v. ∈ Notezlesrôlesdistinctsdesdeuxpairesdeparanthèsesdanslapremièreexpression.Onpourraitaussi l’écrire(f(ϕ))(v),mais,jetrouvecetteécritureunpeulourde. 1 RÉDUCTIONDEJORDAN 7 Démonstration. (a) Nous savons que le noyau de chaque application K-linéaire est un sous-espace. Ecrivonsf(X) = d a Xi.Soitalorsw W,i.e.f(ϕ)w = d a ϕi(w) = 0.Nouscalculons i=0 i ∈ i=0 i P d d Pd f(ϕ)(ϕ(w)) = a ϕi(ϕ(w)) = a ϕi+1(w) = ϕ a ϕi(w) = ϕ(0) = 0. i i i i=0 i=0 i=0 X X (cid:0)X (cid:1) (b)IlestclairqueW W etW W,alorsW +W W.Nousdevonsdémontrer 1 2 1 2 ⊆ ⊆ ⊆ – W W = 0(leK-espacevectorielzéro)et 1 2 ∩ – W +W = W. 1 2 PuisqueK[X]estunanneaueuclidien,nouspouvonsutiliserl’algorithmed’Euclide(deBézout)pour obtenir deux autres polynômes a,b K[X] tels que 1 = a(X)f(X) + b(X)g(X). Soit d’abord ∈ w W W .Alors 1 2 ∈ ∩ w = id (w) = a(ϕ)f(ϕ)w+b(ϕ)g(ϕ)w = 0+0 = 0, V cequimontrelepremierpoint.Pourledeuxièmesoitw W.L’équationqu’onvientd’utilisers’écrit ∈ comme w = w +w avecw := a(ϕ)f(ϕ)w etw := b(ϕ)g(ϕ)w. 2 1 2 1 Mais,ona f(ϕ)(w ) = b(ϕ)f(ϕ)g(ϕ)w = b(ϕ)0 = 0 w W 1 1 1 ⇒ ∈ et g(ϕ)(w ) = a(ϕ)f(ϕ)g(ϕ)w = a(ϕ)0 = 0 w W , 2 2 2 ⇒ ∈ achevantladémonstration. Théorème 1.10 (Décomposition spectrale). Soit ϕ End (V) avec polynôme minimal m (X) = K ϕ ∈ fe1(X) fe2(X) ... fer(X)oùlespolynômesf (X)sontirréductibles(cesontalorsdeséléments 1 · 2 · · r i premiers dans l’anneau principal K[X]) et premiers entre eux, c’est à dire pgcd(f ,f ) = 1 pour i j tout1 i < j n(sil’onnormaliselesf ,alorslaconditionnerevientqu’àdirequelespolynômes i ≤ ≤ sontdistincts).PosonsW := ker(f (ϕ)).Alors,lesassertionssuivantessontvraies. i i (a) V = r W . i=1 i (b) Sil’onchoisitunebaseS dusous-espaceW pour1 i r,alorsS = S S S est L i i 1 2 r ≤ ≤ ∪ ∪···∪ unebasedeW pourlaquelleona: M 0 0 ... 0 1  0 M2 0 ... 0  MS,S(ϕ) =  ... ... ... ...     0 ... 0 M 0   r−1     0 ... 0 0 Mr      avecM := M (ϕ )pour1 i r. i Si,Si |Wi ≤ ≤ Démonstration. (a)suitdulemma1.9(b)parrécurrence. (b) est clair : Ecrivez la matrice selon les règles et vous allez obtenir cette forme. Notez que les blocsendehorsdeladiagonalesontzérosparcequeϕ(W ) W . i i ⊆ 1 RÉDUCTIONDEJORDAN 8 Le cas le plus important pour nous est celui où f (X) = X a avec a = a pour i = j (ce i i i j − 6 6 quiimpliquequelesf sontirréductiblesetdistincts).Ladécompositionspectralen’estenfaitqu’un i pas(décisif!)verslaréductiondeJordan.Nousvoyonsdanslaprochainepropostionaussisonutilité pour la diagonalisation. Pour l’instant nous illustrons l’effet de la décomposition spectrale à l’aide d’un exemple. Avant cela, il peut être utile de se rappeller comment appliquer les résultats pour les applicationslinéaireϕauxmatrices. Remarque 1.11. Soit M Mat (K). On peut appliquer la décomposition spectrale à la ma- n×n ∈ 1 0 0 0 1 0       0 0 0 trice M comme suit. Pour la base canonique B := (.,.,...,.) la matrice M décrit .. .. ..             0 0 0       0 0 1       uneapplicationK-linéaireϕetl’onaM = M (ϕ)(voirlethéorème1.1). B,B La décomposition spectrale nous donne une base S. Soit C := M (id) la matrice de change- B,S mentdebasesentrelabaseS etlabasecanonique.Alors,nousavons M (ϕ) = C−1MC S,S (comme nous l’avons vu avant l’été). Pour être encore un peu plus concret, rappellons comment écrire la matrice C. Si S = (v ,...,v ) et les vecteurs v sont donnés en coordonnées pour la base 1 n i standarde,alorslai-ièmecolonnedeC estjustelevecteurv . i Alors, la décomposition spectrale peut être utilisée pour calculer une matrice semblable (par définition, deux matrices A,B sont semblables si l’une est une conjugée de l’autre : il existe une matriceinversibleC tellequeB = C−1AC)àM delajolieformeduthéorème. 1 2 3 Exemple1.12. SoitM := 0 1 4 àcoefficientsdansQ.Lepolynômecaractéristiqueest(X   − 0 0 5   1)2(X 5). Il est clair queker(M 5 id ) est de dimension 1; c’est à dire que 5 est une valeur 3 − − · propredemultiplicité1(pardéfinition:sonespacepropreestdedimension1).Sanscalculilestclair quedimker((M id )2) = 3 1 = 2. 3 − − Lethéorème1.10impliquel’existenced’unematriceC telleque 1 x 0 C−1 M C = 0 1 0   · · 0 0 5     pourunx Qquiresteàêtredéterminé. ∈ Enfait,onvoitfacilementquex = 0,cardanscecaslepolynômeminimalserait(X 1)(X 5) 6 − − cequiestfaux(voiraussilaProposition1.13).LethéorèmesurlaréductiondeJordan1.17nousdira quenouspouvonschoisirC tellequemêmex = 1. Le polynôme minimal nous permet de donner encore une autre caractérisation de la diagonalisa- bilité: 1 RÉDUCTIONDEJORDAN 9 Proposition1.13. (a) Spec(ϕ) = a K (X a) m (X) = a K m (a) = 0 . ϕ ϕ { ∈ | − | } { ∈ | } (b) Soitϕ End (V).Alors,lesassertionssuivantessontéquivalentes: K ∈ (i) ϕestdiagonalisable. (ii) m (X) = (X a). ϕ a∈Spec(ϕ) − Démonstration. (a)LQadeuxièmeégalitéestclaire:enutilisantladivisioneuclidienneonvoitqu’un a K est un zéro d’un polynôme f K[X] si et seulement si X a divise f(X). Pour voir ∈ ∈ − la première égalité supposons d’abord (X a) ∤ m (X). De cela nous déduisons que (X a) et ϕ − − m (X) sont premiers entre eux, ce qui nous permet (par l’algorithme d’Euclide/Bézout) de trouver ϕ b,c K[X]telsque1 = b(X)(X a)+c(X)m (X).Soitmaintenantv V t.q.ϕ(v) = av.Nous ϕ ∈ − ∈ avons v = id v = b(ϕ)(ϕ(v) av)+c(ϕ)m (ϕ)v = 0+0 = 0, V ϕ − alorsa Spec(ϕ). 6∈ Supposons maintenant (X a) m (X) ce qui nous permet d’écrire m (X) = (X a)g(X) ϕ ϕ − | − pourung K[X].Puisqueledegrédegeststrictementpluspetitqueceluidem (X),ildoityavoir ϕ ∈ un v V tel que w := g(ϕ)v = 0 (sinon, le polynôme minimal m (X) serait un diviseur de g(X) ϕ ∈ 6 cequiestabsurde).Nousavonsalors (ϕ a)w = m (ϕ)v = 0, ϕ − alorsa Spec(ϕ). ∈ (b)OnécritSpec(ϕ) = a ,...,a . 1 r { } «(i) (ii)» : On choisit une base S telle que M := M (ϕ) est diagonale (voir la pro- S,S ⇒ position 1.3). Un calcul très simple montre que r (M a ) = 0 . Alors, m (X) est un di- i=1 − i n ϕ viseur de r (X a ). Mais, (a) montre que pour chaque i on a (X a ) m (X). Donc, i=1 − i Q − i | ϕ m (X) = r (X a )(lesdeuxpolynômessontnormalisés). ϕ Qi=1 − i «(ii) (i)»:Onappliqueladécompositionspecrale1.10etilsuffitdenoterquelesmatricesM ⇒Q i sontdiagonalescarW = E (a )estl’espaceproprepourlavaleurproprea . i ϕ i i Ilestutilederemarquerquelespropositions1.5et1.13(a)disentquecar (X)etm (X)ontles ϕ ϕ mêmesfacteursdedegré1. 1 0 2 Exemple 1.14. Considérons la matrice M := 0 1 3 à coefficients dans Q. Son polynôme   0 0 4   minimalest(X 1)(X 4),alors,elleestdiagonalisable. − − (Pourobtenirlepolynômeminimalilsuffitdevoirquel’espaceproprepourlavaleurpropre1est dedimension2.) Nousavonsvudanslaproposition1.3quelesmatricesdiagonalisablessontsemblablesàdesma- trices diagonales. L’utilité d’une matrice diagonale pour des calculs est évidente. Malheureusement, les matrices ne sont pas toutes diagonalisables. Notre but maintenant est de choisir une base S de V defaçonqueM (ϕ)aituneforme«simple,jolieetélégante»etleplusprochepossibledelaforme S,S diagonale. 1 RÉDUCTIONDEJORDAN 10 Nous avons aussi vu que la décomposition spectrale 1.10 nous donne une forme diagonale «en blocs».NotrebutpourlaréductiondeJordanseraderendrelesmatricesdanslesblocsleplussimple possible. NousprésentonslaréductiondeJordan(laformenormaledeJordan)d’unpointdevuealgorith- mique.Lespreuvespeuventêtreabrégéesunpeusiontravaillesanscoordonnées,mais,danscecas, lecalculdelaréductionn’estpasclair. Lemme1.15. Soienta K,e N etv V telsque >0 ∈ ∈ ∈ (ϕ a id)e(v) = 0 et (ϕ a id)e−1(v) = 0. − · − · 6 Nousposons: v := v, e v := (ϕ a id)(v), e−1 − · ... v := (ϕ a id)e−2(v), 2 − · v := (ϕ a id)e−1(v). 1 − · et v := v ,...,v ,lesous-espacedeV engendréparlesv ,...,v . ϕ 1 e 1 e h i h i (a) Lesv ,...,v sontK-linéairementindépendantset,enconséquence,formentunebaseSde v . 1 e ϕ h i (b) Nousavons: ϕ(v ) = av , 1 1 ϕ(v ) = v +av , 2 1 2 ϕ(v ) = v +av , 3 2 3 ..., ϕ(v ) = v +av . e e−1 e (c) ϕ( v ) v . ϕ ϕ h i ⊆ h i a 1 0 0 ... 0 0 a 1 0 ... 0   0 0 ... ... ... ... (d) M (ϕ ) =  . S,S |hviϕ ... ... ... ... 1 0     0 0 ... 0 a 1   0 0 ... 0 0 a     Démonstration. (a)Notezquelaplusgrandepuissancedeϕquiapparaîtdansladéfinitiond’undes v estégaleàe 1.Unecombinaisonlinéairenon-trivialedelaforme0 = e α v seréécritalors i − i=1 i i souslaformeg(ϕ)(v) = 0avecunpolynôme0 = g(X) K[X]dedegréaupluse 1.Commele 6 ∈ P − polynômeminimaldeϕestdedegrée,nousobtenonsunecontradiction.

Description:
19 déc. 2012 Jean-Pierre Escoffier : Théorie de Galois. – Jean-Claude Carrega : Théorie des corps, la règle et le compas. – Antoine Chambert-Loir : Algèbre
See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.