ebook img

Lineare Algebra II: WS 2006/07 PDF

81 Pages·2014·1.914 MB·German
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview Lineare Algebra II: WS 2006/07

Lineare Algebra II Ernst Heintze WS 2006/07 ii Inhaltsverzeichnis §0 Wiederholung und Erg¨anzung . . . . . . . . . . . . . . . . . . . . . . 1 §1 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 §2 Die Leibnizformel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 §3 Diagonalisierbarkeit und Eigenwerte . . . . . . . . . . . . . . . . . . . 16 §4 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . 20 §5 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 §6 Euklidische Vektorra¨ume . . . . . . . . . . . . . . . . . . . . . . . . . 27 §7 Diagonalisierung symmetrischer Endomorphismen . . . . . . . . . . . 32 §8 Quadriken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 §9 Nachtrag: Euklidische Bewegungen . . . . . . . . . . . . . . . . . . . 43 §10 Hermitesche Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . 44 §11 Hermitesche, schiefhermitesche und unit¨are Endomorphismen . . . . . 47 §12 Normalformen schiefsymmetrischer und orthogonaler Matrizen . . . . 52 §13 Trigonalisierung und Cayley-Hamilton . . . . . . . . . . . . . . . . . 55 §14 Nilpotente Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . 59 §15 Verallgemeinerte Eigenr¨aume . . . . . . . . . . . . . . . . . . . . . . 61 §16 Fitting-Zerlegung und verallgemeinerte Eigenraumzerlegung . . . . . 64 §17 Jordan-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 §18 Normalformen nilpotenter Matrizen und Jordansche Normalform . . . 67 §19 Der Dualraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 §20 Symmetrische Bilinearformen . . . . . . . . . . . . . . . . . . . . . . 74 Literatur K. J¨anich: Lineare Algebra G. Fischer: Lineare Algebra H.J. Kowalsky: Lineare Algebra E. Brieskorn: Lineare Algebra und Analytische Geometrie I, II iii §0. Wiederholung und Erg¨anzung 1 §0 Wiederholung und Erg¨anzung Wir beginnen mit einer kurzen Wiederholung der wichtigsten Begriffe aus dem 1. Teil der Vorlesung im Sommersemester. Die lineare Algebra besch¨aftigt sich mit der Untersuchung linearer Abbildungen f : V → W zwischen zwei Vektorr¨aumen V,W u¨ber einen K¨orper K. Dabei ist ein K¨orper ein Bereich von Zahlen, in dem die vier Grundrechenarten erkl¨art sind, so dassdie u¨blichen“Rechenregelngelten.MankannalsodieElementeausK addieren, ” subtrahieren, multiplizieren und dividieren (aber nicht durch Null teilen!). Genauer ist ein K¨orper eine abelsche Gruppe bzgl. +“ und K∗ := K \ {0} eine abelsche ” Gruppe bzgl. ·“. Wichtigste Beispiele sind K = R oder C. ” Ein Vektorraum u¨ber K ist ebenfalls eine abelsche Gruppe bzgl. +“, aber man hat ” zus¨atzlich eine Skalarenmultiplikation von Elementen aus V mit Elementen aus K (den Skalaren), also eine Abbildung K×V → V,(λ,v) 7→ λ·v. Anschaulich ist λ·v die Streckung des Vektors v um den Faktor λ. Vektoren kann man (im Allgemeinen) nicht multiplizieren (Ausnahmen: Kreuzprodukt im R3, komplexe Multplikation im R2 = C,...). Wichtigste Beispiele von Vektorr¨aumen sind der Rn, der Cn oder allgemein der Kn,K ein K¨orper. Tats¨achlich ist jeder endlich dimensionale K-Vektorraum iso- morph zu Kn, d.h. l¨aßt sich mit Kn identifizieren. Dabei heißt V endlich dimensio- nal, wenn V eine endliche Basis hat, d.h. es v ,...,v ∈ V gibt, so dass sich jeder 1 n Vektor v ∈ V eindeutig als v = λ v +···+λ v 1 1 n n schreiben l¨aßt. Die Zuordnung (λ ,...,λ ) 7→ λ v + ··· + λ v liefert dann die 1 n 1 1 n n gewu¨nschte Identifikation von Kn mit V. Allderdings ist nicht jeder Vektorraum endlich dimensional. Beispiele unendlich di- mensionaler Vektorr¨aume sind die fu¨r die Analysis so wichtigen R¨aume wie etwa C◦(a,b)) = {f : (a,b) → R | f stetig } oder C∞((a,b)) = {f : (a,b) → R | f beliebig oft differenzierbar}. Den Begriff der Basis kann man in zwei Teile zerlegen: v ,...,v ∈ V ist eine 1 n Basis genau dann, wenn 1. v ,...,v Erzeugendensystem (jedes v ∈ V l¨aßt sich als 1 n Linearkombination λ v +···+λ v der v ,...,v schreiben) und 2. v ,...,v linear 1 1 n n 1 n 1 n unabh¨angig (l.u.) sind (aus λ v + ··· + λ v = 0 folgt λ = ··· = λ = 0). Die 1 1 n n 1 n lineare Unabh¨angigkeit sorgt gerade fu¨r die Eindeutigkeit der Darstellung. Eine lineare Abbildung f : V → W zwischen zwei Vektorr¨aumen u¨ber den K¨orper K (der gleiche fu¨r V und W!) ist eine Abbildung mit 1. f(λv) = λf(v) 2. f(v +w) = f(v)+f(w) fu¨r alle λ ∈ K und v,w ∈ V. Es folgt durch wiederholte Anwendung der beiden Regeln: N N X X f( λ v ) = λ f(v ) i i i i i=1 i=1 (man kann aus f beliebige Linearkombinationen herausziehen“). ” 2 Die linearen Abbildungen f : Kn → Km sind genau die folgenden: f(x ,...,x ) = 1 n (a x +···+a x ,...,a x +···+a x ), wobei a ,...,a ,...,a ,...,a 11 1 1n n m1 1 mn n 11 1n m1 mn beliebige Elemente aus K sind. Diese Koeffizienten faßt man zu der m×n-Matrix (m Zeilen, n Spalten)   a ... a 11 1n . . A :=  .. ..    a ... a m1 mn zusammen. Die Menge der m × n-Matrizen mit Koeffizienten in K bezeichnen wir mit M(m × n,K)(Km×n ist auch gebr¨auchlich). Jedem A ∈ M(m × n,K) entspricht also eine lineare Abbildung A : Kn → Km (die wir mit demselben Buchstaben bezeichnen!) und umgekehrt. Wendet man in der obigen Formel f auf e := (0,...,0,1,0,...0) (eine 1 an der i-ten Stelle, sonst Nullen; der i-te kanonische i Basivektor), so erh¨alt man f(e ) = (a ,a ,...,a ) i 1i 2i ni unddasistdiei-teSpaltevonA.Istalsof : Kn → Km gegeben,soistdaszugeh¨orige A ∈ M(m×n,K) diejenige Matrix, die als i-ite Spalte f(e ) hat. i Lineare Abbildungen f ,f : Kn → Km kann man addieren ((λ f + λ f )(v) = 1 2 1 1 2 2 λ ·(f (v))+λ ·(f (v))) und mit Skalaren multiplizieren ((λf )(v) := λ·(f (v))). 1 1 2 2 1 1 Dem enspricht auf Matrizenseite die Addition von Matrizen (A = (a ),B = (b ) ⇒ ij ij A+B = (a +b )) bzw. die Skalarmultiplikation (λA = (λa ), d.h. ij ij ij     a ... a λa ... λa 11 1n 11 1n . . . . λ .. ..  =  .. .. ).     a ... a λa ... λa m1 mn m1 mn Die lineare Abbildungen Kn → Km bzw. M(m × n,K) bilden also selber wieder einen Vektorraum. Eine weitere wichtige Verknu¨pfung linearer Abbildungen ist die Hintereinander- schaltung. Sind g : V → W und f : W → U linear, so ist auch f ◦ g : V → U,f ◦g(v) := f(g(v)), linear. Sind speziell g : K‘ → Km linear mit Matrix B (also g = B : K‘ → Km) und f : Km → Kn mit Matrix A, so ist f ◦g : K‘ → Kn linear. Die zugeh¨orige Matrix kann man leicht ausrechnen, man bezeichnet sie mit A · B (Matrizenprodukt). Der (i,j)-te Eintrag von A·B ist m X a b . iµ µj µ=1 Damit ist das Matrizenprodukt M(n×m,K)×M(mב,K) → M(nב,K) erkl¨art. Man kann aber nicht beliebige Matrizen miteinander multiplizieren, sondern nur solche, bei denen B soviele Zeilen hat, wie A Spalten. Fu¨r quadratische Matrizen (m = n) ist das z.B. stets erfu¨llt, so dass man in M(n×n,K) eine Multiplikation hat (neben der Addition und Skalarenmultiplikation). Diese ist nicht kommutativ aber assoziativ: A·(B ·C) = (A·B)·C §0. Wiederholung und Erg¨anzung 3 (da die Hintereinanderschaltung von Abbildungen eine assoziative Verknu¨pfung ist, und zwar von beliebigen, das hat nichts mit Linearit¨at zu tun). Eine lineare Abbildung f : V → W zwischen zwei K-Vektorr¨aumen heißt ein Iso- morphismus, wenn sie außerdem bijektiv ist. Die Umkehrabbildung f−1 : W → V ist dann auch linear. f ist also genau dann ein Isomorphismus, wenn es eine lineare Abbildung g : W → V gibt mit f ◦g = id W g ◦f = id V Ist f : V → W ein Isomorphismus, so haben V und W gleiche Dimension (evtl. unendlich), da f eine Basis von V auf eine Basis von W abbildet. Insbesondere sind Kn und Km mit n 6= m nicht isomorph. Wie eingangs bemerkt, ist aber jeder n-dimensionale Vektorraum V u¨ber K isomorph zu Kn: Ist A = (v ,...,v ) eine 1 n Basis, so ist Φ : Kn → V A (λ ,...,λ ) 7→ λ v +···+λ v 1 n 1 1 n n ein Isomorphismus. Allerdings h¨angt dieser Isomorphismus von der Wahl der Basis ab,eristnicht kanonisch.Dennochisteroftsehrnu¨tzlich,damanallesaufdenStan- dardfall V = Kn zuru¨ckspielen kann. Ist z.B. f : V → W linear, A = (v ,...,v ) 1 n und B = (w ,...,w ) Basen von V bzw. W, so entspricht f nach Identifizierung 1 m von V mit Kn und W mit Km eine lineare Abbildung Kn → Km, also eine (m×n)- Matrix A, die sogenannte f darstellende Matrix A : Kn −Φ→A V −f→ W −Φ→−B1 Km ∼= ∼= und eine Reihe von Eigenschaften von f lassen sich an A ablesen, wie z.B. den Rang. Der Rang einer linearen Abbildung f : V → W ist die Dimension des Bildes von f also von {f(v) | v ∈ V}. Es ist klar, dass sich der Rang nicht ¨andert, wenn man Isomorphismen vor f oder hinter f schaltet, insbesondere Rang f = Rang A in der obigen Situation. Der Rang einer Matrix, also der Rang der zugeh¨origen linearenAbbildungKn → Km,l¨aßtsichabersehrleichtberechnen.Eristgleichdem Zeilenrang und dem Spaltenrang, d.h. der Maximalzahl l.u. Zeilen (bzw. Spalten) und ¨andert sich nicht bei elementaren Zeilen (Spalten)umformungen. Eine quatratische n × n-Matrix A nennt man regul¨ar, wenn sie Rang n hat (also maximalen Rang). Dann ist also A : Kn → Kn surjektiv und auf Grund der Dimen- sionsformel fu¨r lineare Abbildungen (n = dimKn = dimKern A+dimBildA) auch injektiv, also A : Kn → Kn ein Isomorphismus. Es gibt also B ∈ M(n×n,K) mit AB = E BA = E . SolcheMatrizennenntmaninvertierbarundsetztA−1 := B.UmgekehrthatARang n, wenn A invertierbar. Also gilt fu¨r A ∈ M(n×n,K): A regul¨ar ⇐⇒ A invertierbar . Die darstellende Matrix einer linearen Abbildung f : V → W h¨angt von der Wahl der Basen A und B von V bzw. W ab und man versucht A und B so zu w¨ahlen, dass die darstellende Matrix m¨oglichst einfache Gestalt hat. Das ist stets m¨oglich: 4 Satz 0.1. Haben V und W endliche Dimension, so lassen sich Basen A und B von V und W so w¨ahlen, dass die darstellende Matrix von f die Gestalt   1 0 ··· 0 . 0 1 ..    ... ... 0 0   0 ··· 0 1   0  hat. Bemerkung. Die Anzahl der Einsen in der obigen Matrix ist offenbar gleich ihrem Rang und der ist gleich rgf. Also ist die Anzahl der Einsen festgelegt. Beweis. Wir erg¨anzen eine Basis des Kerns von f zu einer Basis A = (v ,...,v ) 1 n von V, wobei v ,...,v die Basis des Kerns. Wir hatten fru¨her gesehen, dass dann k+1 n w := f(v ),...,w := f(v ) eine Basis des Bildes von f bilden, insbesondere also 1 1 k k k = rg f. Wir erg¨anzen w ,...,w zu einer Basis B = (w ,...,w ,w ,...,w ) 1 k 1 k k+1 m von W. Die darstellende Matrix A := Φ−1 ◦f ◦Φ : Kn → Km bildet dann e auf B A i Φ−1(fv ) ab, also auf e ∈ Rm fu¨r i = 1,...,k und auf 0 fu¨r i > k und hat damit B i i die angegebene Gestalt. Ein viel schwierigeres Problem erh¨alt man, wenn V = W und man die gleiche Basis im Definitionsbereich und Bildbereich verlangt (A = B), also nach Basen A von V fragt, so dass die darstellende Matrix Φ−1 ◦ f ◦ Φ : Kn → Kn von f : V → V A A eine m¨oglichst einfache Gestalt wie z.B. Diagonalform hat. Damit werden wir uns ausfu¨hrlich in diesem Semester besch¨aftigen. Zum Abschluß u¨berlegen wir noch wie sich die darstellende Matrix eines Endomor- phismus f : V → V ¨andert, wenn man die Basis A von V ¨andert. Definition 0.2. Zwei Matrizen A,B ∈ M(n × n,K) heißen konjugiert, wenn es eine invertierbare Matrix X ∈ M(n×n,K) gibt, so dass B = XAX−1 . Satz 0.3. Seien A,B ∈ M(n × n,K) darstellende Matrizen von f : V → V bzgl. zweier Basen von V. Dann sind A und B konjugiert. Beweis. Seien A und B Basen von V mit A = Φ−1 ◦f ◦Φ und B = Φ−1 ◦f ◦Φ . A A B B Dann ist B = (Φ−1 ◦ Φ ) ◦ (Φ−1 ◦ f ◦ Φ ) ◦ (Φ−1 ◦ Φ ) = X ◦ A ◦ X−1, wobei B A A A A B X := Φ−1 ◦Φ : Kn → Kn als Matrix aufgefaßt werden kann und X ◦A◦X−1 als B A Matrizenprodukt. ¨ Bemerkung. X bezeichnetmanauchalsUbergangsmatrix(vonderBasisAzurBa- n sisB).Dennistv = Pa w ,sohatX j-teSpalteX e = Φ−1(v ) = Φ−1(Pa w ) = j ij i j B j B ij i i=1 (a ,...,a ), d.h. X = (a ). 1j nj ij §1. Determinanten 5 §1 Determinanten Fu¨r 2×2-Matrizen hatten wir detA := ad−bc gesetzt, wenn A = (a b) ∈ M(2× c d 2,K),K einbeliebigerK¨orper.EsgiltdannAregul¨ar(=invertierbar) ⇐⇒ detA 6= 0 und in diesem Fall ist (cid:18) (cid:19) 1 d −b A−1 = ad−bc −c a wie man sofort nachrechnet. detA 6= 0 ist also eine sehr bequeme Bedingung, um die Regularit¨at festzustellen und wir wu¨rden daher gerne diese Bedingung auf n×n-Matrizen verallgemeinern. Dazu betrachten wir zun¨achst Eigenschaften der Determinante det : M(2×2,K) → K. Satz 1.1. det : M(2×2,K) → K hat folgende Eigenschaften: (i) detE = 1 (ii) detA·B = detA·detB (cid:18) (cid:19) a b (iii) det = 0, wenn (a,b) = (c,d) c d (iv) detAT = detA (cid:18) (cid:19) (cid:18) (cid:19) c d a b (v) det = −det a b c d (cid:18) (cid:19) (cid:18) (cid:19) (cid:18) (cid:19) λa λb a b a b (vi) det = λdet = det c d c d λc λd (cid:18) (cid:19) (cid:18) (cid:19) (cid:18) (cid:19) a+a0 b+b0 a b a0 b0 (vii) det = det +det c d c d c d (cid:18) (cid:19) (cid:18) (cid:19) (cid:18) (cid:19) a b a b a b (viii) det = det +det . c+c0 d+d0 c d c0 d Der Beweis folgt durch einfaches Nachrechnen, wobei eigentlich nur bei (ii) etwas zu tun ist. Aus (i) und (ii) folgt: Ist A invertierbar, also AA−1 = E, so detA·detA−1 = detE = 1 und damit detA 6= 0 wie oben bemerkt. Bemerkung. det : M(2 × 2,K) → K ist nicht linear, z.B. folgt aus (vi) det(λ · A) = det(λa λb) = λdet( a b ) = λ2 · detA. Aber (vi) und (vii) besagen z.B., λc λd λc λd dass det linear ist in (a,b), also in der 1. Zeile (wenn man die 2. Zeile festh¨alt). Genauer ∀ c,d ∈ K ist (a,b) 7→ det(a b) eine lineare Abbildung von K2 nach K. c d Entsprechendes gilt fu¨r die 2. Zeile. Wir benutzen jetzt die obigen Eigenschaften fu¨r die Definition der Determinante von n × n Matrizen. Dabei lassen wir (ii) und (iv) weg, sie werden sich sp¨ater als Folgerungen ergeben. Definition 1.2. Eine Abbildung det : M(n×n,K) → K heißt Determinante, wenn sie folgende Eigenschaften erfu¨llt: 6 (i) Linearit¨atinjederZeile,d.h.beiFesthaltenallerZeilenv ,...,v ,v ,...,v ∈ 1 i−1 i+1 n − v1 − . . . Kn bis auf die i-te ist die Abbildung Kn → K , vi 7→ det− v.i − linear, also . . − v...1 − − v...1 −  v...1  −vvn...1− v...1 det− λ...vi − = λdet− v...i − und detvi+...vi0 = detv...i +detv...i0  − vn − − vn − vn vn vn (ii) detA = 0, wenn A zwei gleiche Zeilen hat (also v = v und i 6= j). i j (iii) detE = 1. Wir wollen natu¨rlich zeigen, dass es so eine Abbildung gibt und sie durch die 3 Ei- genschaften eindeutig festgelegt ist, insbesondere also im Fall n = 2 mit der eingangs definierten Determinante u¨bereinstimmt. Die hat ja nach 1.1 diese Eigenschaften. Sei also det : M(n × n,K) → K im Folgenden eine Determinante. Wir u¨berlegen zun¨achst, wie sie sich bei elementaren Zeilenumformungen verh¨alt. Satz 1.3. (i) detA0 = −detA, wenn A0 durch Vertauschen zweier Zeilen v ,v i j mit i 6= j entsteht. (ii) detA0 = detA, wenn A0 aus A durch Addition des λ-fachen der j-ten Zeile zur i-ten Zeile entsteht und i 6= j,λ ∈ K. (iii) detA0 = λdetA, wenn A0 aus A durch Multiplikation der i-ten Zeile mit λ ∈ K entsteht. Beweis. (i) Wir deuten nur die i-te und j-te Zeile an. Aus  .   .   .  . . . . . . v+w  v   w  0 = det ..  = det .. +det ..   .   .   .  v+w v+w v+w . . . . . . . . . .  .   .   .  . . . . . . . . v v w w .  .   .   .  = det..+det .. +det .. +det ..          v w v w . . . . . . . . . . . .  .   .  . . . . − v − − w − folgt det .. +det ..  = 0 und damit die Behauptung.  .   .  − w − − v − . . . . . .  ..   ..   ..   ..  . . . . v+λw v w v (ii) det ...  = det ... +λdet ...  = det ... .        w  w w w . . . . . . . . . . . . §1. Determinanten 7 (iii) ist Teil der Definition einer Determinante. Korollar 1.4. detA = 0 ⇐⇒ rgA < n (detA 6= 0 ⇐⇒ rgA = n ⇐⇒ A invertierbar). Beweis. IstrgA < n,sosinddieZeilenlinearabh¨angigunddamiteineZeile,z.B.die Pn (cid:18)v.1(cid:19) v1−Pv2λivi! erste,Linearkombinationderanderen:v = λ v .⇒ det . = det . = 1 i i . . . 0 ! i=2 vn vn v2 det . = 0. . . vn Ist rg A = n, also A invertierbar, so l¨aßt sich A durch elementare Zeilenumfor- mungen in die Einheitsmatrix transformieren. Nach dem Satz ¨andert sich dabei die Determinante nur um einen Faktor λ 6= 0. Also detA = λ·detE = λ 6= 0 . Dieselbe Argumentation wie im letzten Absatz liefert: ˜ ˜ Korollar 1.5. Ist det : M(n×n,K) → K eine weitere Determinante, so det = det. (det ist also eindeutig bestimmt, wenn es existiert, was wir im Fall n ≥ 3 noch nicht wissen). ˜ Beweis. Sei A ∈ M(n×n,K). Ist rgA < n, so detA = 0 und ebenso detA = 0, also ˜ detA = detA. Ist rgA = n, so k¨onnen wir A durch elementare Zeilenumformungen auf die Ein- ˜ heitsmatrix bringen. Dabei ¨andern sich detA und detA um den gleichen Faktor, ˜ ˜ etwa λ. Also detA = λ·detE = λ = λ·detE = detA. Wir wollen jetzt die Existenz der Determinante zeigen, und zwar durch Induktion. Diese beruht auf folgender Eigenschaft der natu¨rlichen Zahlen N = {1,2,...}: Ist A ⊂ N eine Teilmenge mit 1 ∈ A und der Eigenschaft, dass fu¨r jedes n ∈ A auch n + 1 ∈ A, so ist A = N. Wir sehen in dieser Vorlesung die natu¨rlichen Zahlen als gegeben an und benutzen das obige Induktionsprinzip ohne Begru¨ndung. Es ist aber sehr einleuchtend, da mit 1 ∈ A auch 1 + 1 = 2 ∈ A , 2 + 1 = 3 ∈ A usw. Konkretbedeutetdasfu¨runs:Esgenu¨gtdetfu¨r1×1-Matrizenzudefinieren(mitden gefordertenEigenschaften)und,wennwirschondet aufdenn×n-Matrizendefiniert n haben, det : M((n+1)×(n+1),K) → K (mit den geforderten Eigenschaften) n+1 zu definieren. Dann haben wir eine (und wegen schon gezeigter Eindeutigkeit) die Determinante fu¨r alle Matrizen definiert. Fu¨r 1×1 Matrizen setzen wir natu¨rlich det (a) := a. Offenbar erfu¨llt det die drei 1 1 Eigenschaften einer Determinante. Fu¨r eine Matrix A bezeichnen wir im Folgenden mit A die Matrix, die aus A ij (cid:16) (cid:17) 1 2 3 durch Streichen der i-ten Zeile und j-ten Spalte entsteht. Ist z.B. A = 4 5 6 , so 7 8 9 A = (4 6) und A = (1 2). 12 7 9 33 4 5

See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.