Lineare Algebra II Prof. Dr. Karl-H. Neeb Sommersemester 2003 Version 23. Februar 2004 (10:33) 2 Inhaltsverzeichnis 7 Eigenvektoren und Eigenwerte 163 7.1 Eigenvektoren und Eigenwerte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 7.1.1 Lineare Unabh(cid:228)ngigkeit von Eigenvektoren . . . . . . . . . . . . . . . . . . 169 7.2 Formale Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 7.3 Das charakteristische Polynom einer Matrix . . . . . . . . . . . . . . . . . . . . . . 176 7.4 ˜hnlichkeit von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178 7.5 Trigonalisierung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180 7.6 Der Satz von Cayley(cid:21)Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 8 Euklidische und unit(cid:228)re Vektorr(cid:228)ume 187 Rn 8.1 als euklidischer Vektorraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 Cn 8.2 als unit(cid:228)rer Vektorraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 8.3 Euklidische und unit(cid:228)re Vektorr(cid:228)ume. . . . . . . . . . . . . . . . . . . . . . . . . . 189 8.4 Orthonormalbasen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 8.5 Orthogonale und unit(cid:228)re Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . 205 9 Diagonalisierung normaler Matrizen 213 9.1 Normale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 9.2 Diagonalisierungss(cid:228)tze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 9.3 Die Adjungierte eines Endomorphismus . . . . . . . . . . . . . . . . . . . . . . . . 221 10 Bilinearformen, Quadratische Formen und Quadriken 223 10.1 Bilinearformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 10.2 Quadratische Formen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 10.3 Hauptachsentransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 10.3.1 Klassi(cid:28)kation der quadratischen Formen . . . . . . . . . . . . . . . . . . . . 229 10.4 De(cid:28)nitheit von Formen und von Matrizen . . . . . . . . . . . . . . . . . . . . . . . 235 11 Die Jordansche Normalform 243 11.1 Jordank(cid:228)stchen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243 11.2 Der Beweis des Hauptsatzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245 161 162 INHALTSVERZEICHNIS Kapitel 7 Eigenvektoren und Eigenwerte V n K IndiesemKapitelsei ein -dimensionalerVektorraum(cid:252)berdemK(cid:246)rper .Wirbetrachteneine ϕ:V →V B lineare Abbildung . Hauptziel der (cid:220)berlegungen in diesem Kapitel ist es, eine Basis V [ϕ] ϕ B von sozu(cid:28)nden,dassdieMatrix B von bzgl. m(cid:246)glichsteinfacheGestaltbesitzt.Hierbei kann (cid:16)m(cid:246)glichst einfach(cid:17) verschiedene Bedeutungen haben, und wir werden in diesem Semester ϕ mehrereverfolgen.IndiesemKapiteldiskutierenwir,inwieweitman durcheineDiagonalmatrix darstellenkann.Diesf(cid:252)hrtunsaufdasKonzeptdesEigenvektorsunddesEigenwertseinerlinearen Abbildung bzw. einer Matrix. Die Theorie, die wir hier pr(cid:228)sentieren, ist nicht nur fundamental f(cid:252)r zahlreiche mathematische Anwendungen der linearen Algebra, sondern auch von erfahrbarer physikalischer Relevanz, wenn man sie auf gewisse Operatoren auf R(cid:228)umen stetiger Funktionen anwendet. Ein klassisches Bei- spielistdieTheoriederschwingendenSaite.HierentsprechenEigenwertedenResonanzfrequenzen und Eigenvektoren werden als die zugeh(cid:246)rigen Schwingungen h(cid:246)rbar. Wir werden dieses physika- lische Beispiel hier nicht breiter diskutieren und verweisen f(cid:252)r detailliertere Information auf die sch(cid:246)ne Darstellung auf den Seiten 260(cid:21)272 in Egbert BRIESKORNs Buch (cid:16)Lineare Algebra und analytische Geometrie II,(cid:17) (Vieweg, Braunschweig 1985). Ein wichtiger neuer Punkt in diesem Kapitel ist, dass es uns von der linearen Algebra in die Algebrah(cid:246)hererOrdnungf(cid:252)hrt.InderTatwerdenwirsehen,dassdasAu(cid:30)ndenvonEigenwerten auf das L(cid:246)sen von Polynomgleichungen f(cid:252)hrt, deren Grad die Dimension des betrachteten Vek- torraums ist. Die Theorie der Gleichungen h(cid:246)herer Ordnung ist sehr verschieden von der linearen Theorie, die wir bisher kennengelernt haben. Zum Beispiel h(cid:228)ngt die L(cid:246)sbarkeit einer Polynom- ≥ 2 t2 +1 = 0 gleichung vom Grad von dem betrachteten K(cid:246)rper ab; die Gleichung hat keine ±i reelle L(cid:246)sung, aber zwei komplexe L(cid:246)sungen, . Dieses Verhalten steht in starkem Kontrast zu den Systemen linearer Gleichungen, deren L(cid:246)sbarkeit (cid:22)wie wir im 1. Semester gesehen haben(cid:22) (cid:252)berjedemK(cid:246)rperdurchdenGau(cid:255)(cid:21)JordanAlgorithmusentschiedenwerdenkann,wennmanihn (cid:252)ber dem kleinsten K(cid:246)rper, der alle Koe(cid:30)zienten der Matrix enth(cid:228)lt, durchf(cid:252)hrt. 7.1 Eigenvektoren und Eigenwerte V n K ϕ ∈ End(V) In diesem Abschnitt ist ein -dimensionaler -Vektorraum und ist eine lineare Abbildung. 7.1.1 [Motivation] Sei V ein n-dimensionaler Vektorraum (cid:252)ber dem K(cid:246)rper K und ϕ : V → V eine lineare Abbildung. ϕ A Um durch eine Matrix darstellen zu k(cid:246)nnen, w(cid:228)hlen wir eine Basis B =(v ,v ,...,v ) 1 2 n 163 164 KAPITEL 7. EIGENVEKTOREN UND EIGENWERTE V von und berechnen die Bilder der Basisvektoren n X ϕ(v )= a v (j =1,...,n). j ij i i=1 ϕ B (n×n) Dann wird (bzgl. der Basis ) durch die -Matrix [ϕ] =A:=(a ) B ij A B A dargestellt. Wir m(cid:246)chten f(cid:252)r die Matrix eine Basis so (cid:28)nden, dass die Form der Matrix A m(cid:246)glichst einfach wird (dann kann man leichter Berechnungen mit durchf(cid:252)hren). Bemerkung 7.1.2 Man muss hier beachten, dass das beschriebene Problem ganz wesentlich da- von abh(cid:228)ngt, dass wir f(cid:252)r Endomorphismen ϕ eines Vektorraums V die Matrix [ϕ]B bzgl. einer B [ϕ]B B C Basis betrachtenundnichtdieMatrix C bzgl.zweierBasen und ,diejeweilszuBildund ϕ Urbildbereich von geh(cid:246)ren. B C W(cid:252)rden wir zwei Basen zulassen, so k(cid:246)nnten wir mit Beispiel (c) in 5.5.4 Basen und A=[ϕ]B (cid:28)nden, so dass die Matrix C, deren Spalten die Koordinaten der Bilder der Elemente von B C bzgl. der Basis sind, die Gestalt (cid:12) (cid:12) (cid:12) (cid:12) (cid:12) 1 0 ··· 0 (cid:12) 0 ··· ··· 0 (cid:12)(cid:12) (cid:12)(cid:12) (cid:12)(cid:12)(cid:12)(cid:12)(cid:12) 0 1 ... ... (cid:12)(cid:12)(cid:12)(cid:12)(cid:12) ... ... (cid:12)(cid:12)(cid:12)(cid:12)(cid:12) ... ... ... 0 (cid:12)(cid:12)(cid:12)(cid:12)(cid:12) ... ... A=[ϕ]B =(cid:12)(cid:12) (cid:12)(cid:12) . . C (cid:12) 0 ··· 0 1 (cid:12) . . (cid:12) (cid:12) . . (cid:12) (cid:12) 0 ··· ··· ··· 0 ··· ··· 0 . . . .. .. .. 0 ··· ··· ··· 0 ··· ··· 0 hat. In der Tat ist das eine sehr einfache Gestalt, aber bei unserer Problemstellung sind die B = C Spielregeln anders: Wir haben jeweils nur eine Basis zu verwenden. Diese Einschr(cid:228)nkung [ϕ] macht das Problem, eine m(cid:246)glichst einfache Matrix B zu (cid:28)nden, wesentlich schwieriger. Wann ist eine Matrix (cid:16)m(cid:246)glichst einfach(cid:17)? Die einfachsten Matrizen sind Diagonalmatrizen 0 λ 1 λ2 A=diag(λ ,...,λ ):= . 1 n 0 ... λ n ϕ B diag(λ ,...,λ ) Die Matrix von bzgl. der Basis hat genau dann die Diagonalgestalt 1 n , wenn gilt: ϕ(v )=λ v j =1,...,n. j j j f(cid:252)r Dies f(cid:252)hrt zu folgender Frage: Gibt es eine Basis v1,...,vn von V, so dass ϕ(vj)=λjvj f(cid:252)r geeignete Zahlen λ ∈K (j =1,...,n) gilt und wie k(cid:246)nnen wir solche Vektoren v und Zahlen λ j j j (cid:28)nden? Beispiele 7.1.3 In einigen F(cid:228)llen k(cid:246)nnen wir eine solche Basis aus geometrischen (cid:220)berlegungen V =R2 g 0 (cid:28)nden: Sei und eine Gerade durch . 7.1. EIGENVEKTOREN UND EIGENWERTE 165 σ g a) Sei die(orthogonale)SpiegelunganderGeraden .Wirw(cid:228)hlen v g v g einenVektor 1inRichtungvon undeinenVektor 2orthogonal v2 zu g. Dann folgt v1 σ(v1)=1·v1 σ(v )=1·v , σ(v )=(−1)·v . 1 1 2 2 σ v ,v σ(v2)=(−1)·v2 Die Matrix von bzgl. der Basis 1 2 ist (cid:18) (cid:19) 1 0 A= 0 −1 π g v v b) Sei die Orthogonalprojektion auf . F(cid:252)r die obige Basis 1, 2 erhalten wir σ(v )=1·v , σ(v )=0=0·v . 1 1 2 2 A v ,v Also ergibt sich die Matrix von bzgl. 1 2 zu (cid:18) (cid:19) 1 0 A= . 0 0 c) Es gibt andere geometrische Abbildungen, die keine Eigenvektoren besitzen. Zum Beispiel die ρ : R2 −→ R2 θ ∈ ]0,π[ Rotation θ um den Nullpunkt um den Winkel besitzt in der Tat keinen λ∈R Eigenvektor zu einem reellen Eigenwert . ϕ(v)=λv Wir k(cid:246)nnen die Gleichung auch auf die folgende Art schreiben: ϕ(v)=λv ⇐⇒ ϕ(v)−λv =0 ⇐⇒ ϕ(v)−λid(v)=0 ⇐⇒ (ϕ−λid)(v)=0 ⇐⇒ v ∈ker(ϕ−λid). id=id V Dabei ist V die identische Abbildung auf . v ∈ V ϕ(v) = λv λ ∈ K Wir suchen zun(cid:228)chst Vektoren , die f(cid:252)r bestimmte Skalare erf(cid:252)llen. v λ Wir wollen geeignete Namen f(cid:252)r solche Vektoren und Skalare einf(cid:252)hren. De(cid:28)nition 7.1.4 [Eigenvektoren und Eigenwerte] 1. Sei ϕ∈End(V) ein Endomorphismus von V. Eine Zahl λ∈K hei(cid:255)t Eigenwert von ϕ, wenn 06=v ∈V es einen Vektor gibt, so dass ϕ(v)=λv gilt und jeder Vektor v 6= 0, der diese Gleichung erf(cid:252)llt, hei(cid:255)t Eigenvektor von ϕ zum λ 1 Eigenwert . Der Unterraum V :=V (ϕ):=ker(ϕ−λid )={v ∈V :ϕ(v)=λv} λ λ V hei(cid:255)tEigenraum zum Eigenwert λ.DaderKerneinerlinearenAbbildungimmereinlinearer V V Teilraum ist (5.1.1), ist auch λ ein Untervektorraum von . Die Dimension d :=dimV ≥1 λ λ 1Dar(cid:252)ber, ob man 0 in der De(cid:28)nition eines Eigenvektors mit einschliessen sollte, scheiden sich die Geister. In den Lehrb(cid:252)chern von S. Lang und N. Bourbaki ist 0 ein Eigenvektor f(cid:252)r jeden Eigenwert λ. Eine Zahl λ hei(cid:255)t dann Eigenwert, wenn der zugeh(cid:246)rige Eigenraum positive Dimension besitzt. Im Grunde entspricht dies auch meiner Sichtweise, aber die meisten deutschsprachigen B(cid:252)cher zur Linearen Algebra sehen das anders. Um in dieser nebens(cid:228)chlichen Frage keine unn(cid:246)tige Verwirrung zu erzeugen, schliessen wir uns der deutschsprachigen LA-Literaturan. 166 KAPITEL 7. EIGENVEKTOREN UND EIGENWERTE hei(cid:255)t die geometrische Vielfachheit des Eigenwertes λ. λ∈K V (ϕ)6={0} d ≥1 EineZahl istalsogenaudannEigenwert,wenn λ ist,also λ .Indiesem V (ϕ)\{0} ϕ λ Fall ist λ die Menge der Eigenvektoren von zum Eigenwert . Die lineare Abbildung ϕ hei(cid:255)t diagonalisierbar, wenn V eine Basis aus Eigenvektoren von ϕ B [ϕ] besitzt, also wenn eine Basis existiert, so dass die zugeh(cid:246)rige Matrix B Diagonalgestalt hat. A∈M (K) (n×n) 2. Ist n eine -Matrix, so betrachten wir die lineare Abbildung ϕ ∈End(Kn), x7→Ax. A Eine Zahl λ ∈ K hei(cid:255)t Eigenwert von A, wenn λ Eigenwert von ϕA ist, also wenn ein 06=x∈Kn mit Ax=λx existiert. Entsprechend hei(cid:255)t ker(ϕ −λid)={x∈Kn: Ax=λx} A Eigenraum von A zum Eigenwert λ. Alle Aussagen (cid:252)ber Eigenvektoren und Eigenwerte von linearen Abbildungen lassen sich in diesem Sinn auf Matrizen (cid:252)bertragen. Die Matrix A hei(cid:255)t diagonalisierbar, wenn ϕA diagonalisierbar ist, also wenn in Kn eine A Basis aus Eigenvektoren von existiert. Mit dieser Terminologie k(cid:246)nnen wir die Frage in 7.1.1 anders formulieren: Wann ist die lineare ϕ:V →V Abbildung diagonalisierbar? Bemerkung 7.1.5 Wir fassen noch einmal die wichtigsten Aspekte zusammen. λ ϕ ist ein Eigenwert von ⇐⇒ (ϕ−λid)(v)=0 v 6=0 Die Gleichung hat eine L(cid:246)sung ⇐⇒ ker(ϕ−λid)6={0} Analog werden Eigenvektoren charakterisiert: v ϕ λ ist ein Eigenvektor von bzgl. ⇐⇒v (ϕ−λid)v =0 ist eine nichtverschwindende L(cid:246)sung von ⇐⇒06=v ∈ker(ϕ−λid) Bemerkung 7.1.6 F(cid:252)r A ∈ Mn(K) ist λ ∈ K genau dann ein Eigenwert von A, wenn das homogene System linearer Gleichungen (A−λE)v =0 (H) v 6=0 eine nichttriviale L(cid:246)sung besitzt. Die nichttrivialen L(cid:246)sungen von (H) sind dann die Eigen- λ vektoren zum Eigenwert . Av =λv In der Tat, k(cid:246)nnen wir die Gleichung auch auf folgende Art schreiben: Av =λv ⇐⇒ Av−λv =0 ⇐⇒ Av−λEv =0 ⇐⇒ (A−λE)v =0 E =E n×n wobei n die -Einheitsmatrix bezeichnet. Wir legen uns nun die Frage vor, wie wir Eigenwerte und Eigenvektoren einer linearen Abbil- dung bzw. einer Matrix berechnen. Der folgende Satz ist hierbei von zentraler Bedeutung. 7.1. EIGENVEKTOREN UND EIGENWERTE 167 Satz 7.1.7 Ist ϕ∈End(V) und dimV <∞, so ist λ∈K genau dann ein Eigenwert von ϕ, wenn det(ϕ−λid)=0 ist. Beweis. Da wir einen endlichdimensionalen Vektorraum V betrachten, gilt: ker(ϕ−λid)={0} ⇐⇒ ϕ−λid ist injektiv (nach 5.1.3) ⇐⇒ ϕ−λid ist bijektiv (nach 5.1.5) ⇐⇒ det(ϕ−λid)6=0 (nach 6.4.5 (D9)) Folgerung 7.1.8 F(cid:252)r A∈Mn(K) gilt: λ ist Eigenwert von A ⇐⇒ A−λE ist nicht invertierbar ⇐⇒ det(A−λE)=0 Die letzte Formel hei(cid:255)t charakteristische Gleichung von A. Beweis. Wir wissen aus 6.4.5 (D9), dass die Matrix A−λE genau dann nicht invertierbar det(A−λE) = 0 ϕ : Kn → ist, wenn gilt. Wir k(cid:246)nnen nun Satz 7.1.7 auf die lineare Abbildung A Kn,x7→Ax anwenden. Die Behauptung folgt dann aus det(A−λE)=det(ϕ −λid), A A−λE ϕ −λid Kn denn ist die Matrix von A bzgl. der Standardbasis von . Beispiele 7.1.9 1. Wie in 7.1.3 (a) betrachten wir die orthogonale Spiegelung σ an der Gera- g den : λ =1 λ =−1 Eigenwerte 1 2 v v Eigenvektoren 1 2 (und skalare Vielfache) V =Rv V =Rv Eigenr(cid:228)ume λ1 1 λ2 2 g g alle Vektoren auf alle Vektoren senkrecht zu π g 2. F(cid:252)r die Orthogonalprojektion auf aus 7.1.3(b) gilt: λ =1 λ =0 Eigenwerte 1 2 (cid:27) Eigenvektoren wie oben Eigenr(cid:228)ume 1 In beiden Beispielen erhalten wir zwei Eigenwerte mit der geometrischen Vielfachheit . 3. Wie betrachten die Matrix (cid:18) (cid:19) 0 1 A:= ∈M (R). −1 0 2 λ∈R F(cid:252)r erhalten wir die Matrizen (cid:18) (cid:19) −λ 1 A−λE = −1 −λ mit det(A−λE)=λ2+16=0. A−λE A Also sind alle Matrizen invertierbar, denn die charakteristische Gleichung von A besitzt keine Nullstelle. Folglich hat die relle Matrix keinen Eigenwert. Wir sehen insbesondere, dass nicht jede Matrix einen Eigenwert besitzt. 168 KAPITEL 7. EIGENVEKTOREN UND EIGENWERTE 4. Wie betrachten die komplexe Matrix (cid:18) (cid:19) 0 1 A:= ∈M (C). −1 0 2 Ihre charakteristische Gleichung 0=det(A−λE)=λ2+1 λ = i λ = −i besitzt dann die Nullstellen 1 und 2 , die zueinander komplex konjugiert sind. L(cid:246)sen der linearen Gleichungssysteme (A−λ E)v =0 j f(cid:252)hrt auf die Eigenvektoren (cid:18) (cid:19) (cid:18) (cid:19) 1 1 v = v = . 1 i und 2 −i (cid:18) (cid:19) 1 3 Beispiel 7.1.10 (f(cid:252)r K=R): Wir untersuchen die reelle Matrix A= auf Eigenvektoren 3 1 (cid:18) (cid:19) 1−λ 3 A−λE = und Eigenwerte. Dann ist . 3 1−λ Eigenwerte: Die charakteristische Gleichung ist also (cid:12) (cid:12) 0=det(A−λE)=(cid:12)(cid:12)1−λ 3 (cid:12)(cid:12)=(1−λ)2−9 (cid:12) 3 1−λ(cid:12) λ =1±3 und damit 1/2 , d.h. λ =4, λ =−2. 1 2 Eigenvektoren: Wir m(cid:252)ssen beide Eigenwerte ber(cid:252)cksichtigen. • λ =4 1 : (cid:18) (cid:19) (cid:18) (cid:19) −3 3 1 (A−λ E)v = v =0 =⇒ v ∈R . 1 3 −3 1 • λ =−2 2 : (cid:18) (cid:19) (cid:18) (cid:19) 3 3 1 (A−λ E)v = v =0 =⇒ v ∈R . 2 3 3 −1 (cid:18) (cid:19) (cid:18) (cid:19) 1 1 v = v = A B0 R2 Also sind 1 1 und 2 −1 Eigenvektoren von . Diese bilden eine Basis von . A Also ist diagonalisierbar. Bemerkung: DielineareAbbildungϕA :R2 →R2,diedurchdieMatrixAbzgl.derStandard- B basis gegeben ist, besitzt die Matrix (cid:18) (cid:19) 4 0 A0 = 0 −2 B0 =(v ,v ) Av =4v Av =−2v bzgl. der Basis 1 2 . In der Tat ist 1 1 und 2 2. A A0 Die Matrizen und sind durch die Transformationsformel A0 =S−1AS (cid:18) (cid:19) 1 1 S S = miteinander verbunden. Dabei ist die Transformationsmatrix (siehe 5.6.3). Die 1 −1 S v ,v Spalten der Transformationsmatrix sind die Koordinaten der neuen Basisvektoren 1 2 bzgl. (e ,e ) der Standardbasis 1 2 .
Description: