ebook img

1 Lineare Abbildungen PDF

49 Pages·2007·0.29 MB·German
by  
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview 1 Lineare Abbildungen

1 Lineare Abbildungen Definition 1 Sei K ein K¨orper und V und W K-Vektor¨aume. Eine Abbil- dung f : V W heisst linear (oder Homomoprhismus), wenn gilt: → f(v +v ) = f(v )+f(v ) v ,v V 1 2 1 2 1 2 • ∀ ∈ f(λv) = λf(v) λ K,v V • ∀ ∈ ∈ Mit Hom(V,W) bezeichnen wir die Menge aller linearen Abbildungen V → W. Beispiele 1 (a) Sei A = (a ) M(m n,K). Setze i,j ∈ × x a ... a x 1 11 1m 1 . . . . ℓA : Kn Km,x =  ..   .. ..   ..  = A x. → 7→ · · x a ... a x n n1 nm n             ℓ ist eine lineare Abbildung. Wir werden sp¨ater zeigen, dass jede lineare A Abbildung Kn Km von dieser Form ist, d.h. fu¨r jedes f Hom(Kn,Km) → ∈ gibt es genau ein A M(m n,K) mit f = ℓ . A ∈ × (b) Fu¨r a,b R mit a < b sei C0([a,b]) die Menge aller stetigen Funktionen ∈ [a,b] R und C1([a,b]) die Menge aller stetig diffenzierbaren Funktionen → [a,b] R. Die Teilmengen C0([a,b]),C1([a,b]) sind Untervektorr¨aume von → Abb([a,b],R). Der Differenzialoperator d dϕ : C1([a,b]) C0([a,b]), ϕ = ϕ ′ dx → 7−→ dx ist linear, denn es gilt ja (ϕ + ϕ ) = ϕ + ϕ und (λϕ) = λϕ) fu¨r alle 1 2 ′ ′1 ′2 ′ ′ ϕ,ϕ ,ϕ C1([a,b]) und λ R. 1 2 ∈ ∈ (c) Das Integral b : C0([a,b]) R,ϕ bϕ(x)dx ist linear. a → 7−→ a R R 1 (d) Keine lineare Abbildungen sind z.B.: x 2x+y +1 x sin(x) f : R2 R2, g : R2 R2, → y 7−→ 3x+4y +5 → y 7−→ ey (cid:18) (cid:19) (cid:18) (cid:19) (cid:18) (cid:19) (cid:18) (cid:19) Denn nach Beispiel 1 ist jede lineare Abbildung R2 R2 von der Form → x ax+by R2 R2, → y 7−→ cx+dy (cid:18) (cid:19) (cid:18) (cid:19) fu¨r geeignete a,b,c,d R. ∈ Die Darstellungsmatrix einer linearen Abbildung Seien V und W endlichdimensionale K-Vektorr¨aume und sei f : V W linear. Wir fixieren → Basen v = (v ...v ) und w = (w ...w ) von V und W. 1 n 1 n Fu¨r jedes j 1,...,n gibt es eindeutig bestimmte a ,a ,...,a K so 1j 2j mj ∈ { } ∈ dass f(v ) = a w +...+a w j 1j 1 mj n a ... a 11 1n . . Die Matrix Mwv(f) =  .. ..  heisst Darstellungsmatrix von f a ... a m1 mn   bezu¨glich v und w. Fu¨rj = 1,...,n gilt also: Die j-te Spalte von Mv(f) w besteht aus den Koordinaten von f(v ) bzgl. der Basis (w ...w ). j 1 n Beispiel 1 Sei R[x] die Menge der Polynome mit Koeffizienten in R vom n ≤ Grad n, d.h. ≤ R[x] = f(x) = a xn +a xn 1 +...+a x+a a ,...,a R . n n n 1 − 1 0 0 n ≤ { − | ∈ } R[x] ist ein n+ 1–dimensionaler Unterraum von Abb(R,R). Z.B. ist das n n+1≤–Tupel der Monome (x0 = 1,x1,x2,...,xn) eine Basis von R[x] . Die n d ≤ Abbildung D = : R[x] R[x] ,P(x) P (x) ist linear. n dx ≤n → ≤(n−1) 7−→ ′ WirwollendieDarstellungsmatrixvonD bzgl.derBasenv: = (1,x1,x2,x3) 3 und w: = (1,x1,x2) bestimmen. Da D (1) = 0 = 0 1+0 x+0 x2, D (x) = 1 = 1 1+0 x+0 x2, 3 3 · · · · · · D (x2) = 2x1 = 0x0 +2x1 +0x2, D (x3) = 3x2 = 0x0 +0x1 +3x2 3 3 2 folgt 0 1 0 0 Mv(D ) = 0 0 2 0 . w 3   0 0 0 3   Satz 2 SeienV und W endlichdimensionaleK-Vektorr¨aume mitfestgew¨ahl- ten Basen v = (v ,...,v ) und w = (w ,...,w ). Die Abbildung 1 n 1 m (1) Hom(V,W) M(m n,K),f Mv(f) → × 7−→ w ist bijektiv. Beweis. 1. Injektivit¨at: Seien f,g : V W linear mit 7−→ a ... a 11 1n . . Mwv(f) =  .. ..  = Mwv(g). a ... a m1 mn     Folglich gilt m f(v ) = a w = g(v ) j 1,...,n j ij i j ∀ ∈ { } i=1 X Sei v V. Wir wollen zeigen f(v) = g(v). Da (v ,...,v ) eine Basis von V 1 n ∈ ist, gibt es eindeutig bestimmte λ ,...,λ K mit v = λ v +...+λ v . 1 n 1 1 n n ∈ f(v) = f(λ v +...+λ v ) = λ f(v )+...+λ f(v ) 1 1 n n 1 1 n n = λ g(v )+...+λ g(v ) 1 1 n n = g(λ v +...+λ v ) = g(v) 1 1 n n f = g Injektivit¨at. ⇒ ⇒ a ... a 11 1n . . 2. Surjektivit¨at: Sei A =  .. ..  M(m n,K) ∈ × a ... a m1 mn     Gesucht: f Hom(V,W) mit Mv(f) = A. ∈ w Definiere zun¨achst f(v ) := a w +...+a w j 1,...,n j 1j 1 mj m ∀ ∈ { } 3 Um f(v) fu¨r einen beliebigen Vektor v V zu definieren, stellen wir v als ∈ Linearkombionation der v ,...,v dar: 1 n v = λ v +...+λ v . 1 1 n n Dabei sind λ ,...,λ K eindeutig bestimmt. Wir setzen: 1 n ∈ f(v): = λ f(v )+...+λ f(v ) 1 1 n n Man u¨berpru¨ft leicht, dass die so definierte Abbildung f : V W linear ist → und Mv(f) = A gilt. (cid:3) w Beispiel 2 SeiV = Kn,W = Km undseiene = (e ,...,e ),e = (e ,...,e ) 1 n ′ 1 m die Standardbasen von Kn und Km, d.h. 1 0 0 0 1 0       e = 0 , 0 ,..., 0  ..   ..   ..   .   .   .         0   0   1              Man rechnet leicht nach, dass die beiden Abbildungen Hom(Kn,Km) M(m n,K),f Me′(f) → × 7−→ e M(m n,K) Hom(Kn,Km),A ℓ A × → 7−→ zueinander invers sind. Insbesondere ist die zweite Abbildung A ℓ bijek- A 7→ tiv. Bemerkung 3 (a) Da die Spalten der Darstellungsmatrix die Koordina- ten der Bilder f(v ),...,f(v ) bzgl. der gegebenen Basis von W sind, l¨asst 1 n sich die Injektivit¨at der Abbildung (1) wie folgt interpretieren: Eine linea- re Abbildung f : V W ist eindeutig durch die Bilder der Basisvektoren → f(v ),...,f(v ) festgelegt. Die Surjektivit¨at von (1) bedeutet: Zu jeder Wahl 1 n von n Vektoren w ,...,w W gibt es eine lineare Abbildung f : V W 1 n ∈ → mit f(v ) = w ,...,f(v ) = w . Zusammenfassend erhalten wir: Sei V ein 1 1 n n endlich-dimensionaler und W ein beliebiger K-Vektorraum. Sei (v ,...,v ) 1 n eine Basis von V und seien w ,...,w beliebige Vektoren in W. Dann gibt 1 n es genau eine lineare Abbildung f : V W mit f(v ) = w f¨ur i = 1,...,n. i i → 4 (b) Sei K ein K¨orper und V und W K-Vektor¨aume. Fu¨r f,g Hom(V,W) ∈ und λ K verifiziert man leicht, dass die Abbildungen ∈ (2) f +g : V W,v (f +g)(v): = f(v)+g(v), → 7→ (3) λf : V W,v (λf)(v): = λf(v) → 7→ wieder linear sind. Mit dieser Addition und skalaren Multiplikation wird die Menge Hom (V,W) selbst zu einem K-Vektorraum. Sind V und W endlich- K dimensional mit Basen v = (v ,...,v ) und w = (w ,...,w ) so kann man 1 n 1 m leicht nachrechnen, dass die Abbildung (1) linear ist. Der n¨achste Satz besagt vereinfacht ausgedru¨ckt, dass die Hintereinander- schaltung von linearen Abbildungen dem Produkt der Darstellungsmatrizen entspricht. Satz 4 Seien U,V und W endlich-dimensionale K-Vektorr¨aume mit Basen u = (u ,...,u ),v = (v ,...,v ) und w = (w ,...,w ) und seien f : U V 1 n 1 m 1 l → und g : V W lineare Abbildungen. Dann ist g f : U W linear und es → ◦ → gilt: Mu(g f) = Mv(g)Mu(f). w ◦ w v Beweis. Sei Mu(f) = (b ), Mv(g) = (a ) und Mu(g f) = (c ), d.h. es gilt: v jk w ij w ◦ ik m l f(u ) = b v , g(v ) = a w , und k jk j j ij i j=1 i=1 X X l (g f)(u ) = g(f(u )) = c w . k k ik i ◦ i=1 X Es folgt: l m m l a b w = b a w = ij jk i jk ij i ! ! i=1 j=1 j=1 i=1 X X X X m m l b g(v ) = g b v = g(f(u )) = c w jk j jk j k ik i ! j=1 j=1 i=1 X X X und damit m a b = c fu¨r alle i = 1,...,l und k = 1,...,n. (cid:3) j=1 ij jk ik P 5 Transformationsmatrizen SeiV einn-dimensionaler K-Vektorraumund v = (v ,...,v ), w = (w ,...,w ) zwei Basen von V. DieDarstellungsmatrix 1 n 1 n der Identit¨at id : V V,v v bzgl. v und w bezeichnen wir mit V → 7→ Tv: = Mv(id ). w w V Sie heisst Transformationsmatrix des Basiswechsels. Sei v ein beliebiger Vek- torinV.Mit HilfevonTv lassen sich dieKoordinaten(x ,...,x )von v bzgl. w 1 n (v ,...,v ) in die Koordinaten (y ,...,y ) bzgl. (w ,...,w ) umrechnen: 1 n 1 n 1 n x y 1 1 . . Twv ..  =  .. . x y n n         Ist Tv = (a ), also w ij n v = id (v ) = a w j V j ij i i=1 X so folgt aus v = x v +...x v = y w +...y w n¨amlich 1 1 n n 1 1 n n n n n n n n y w = v = x v = x a w = ( a x )w i i j j j ij i ij j i i=1 j=1 j=1 i=1 i=1 j=1 X X X X X X und damit y = n a x . i j=1 ij j P Lemma 5 Sei V ein endlich-dimensionaler K-Vektorraum und seien u = (u ,...,u ),v = (v ,...,v ) und w = (w ,...,w ) Basen von V. Dann gilt: 1 n 1 n 1 n (a) Tu = Tv Tu w w · v (b) Die Transformationsmatrix Tv ist invertierbar mit Inversem (Tv) 1 = w w − Tw. v Beweis. (a) folgt sofort aus Satz 4 fu¨r U = W = V und f = g = id . V (b) Offenbar gilt Tv = E = Tw. Mit (a) ergibt sich v n w Tv Tw = Tw, Tw Tv = Tv. w · v w v · w v (cid:3) 6 2 3 1 3 1.0.1 Beispiel: Im R2 seien die Basen v = ( , ),w = ( , ) 1 2 0 1 (cid:18) (cid:19) (cid:18) (cid:19) (cid:18) (cid:19) (cid:18) (cid:19) und der Vektor 1 2 3 v = = 5 3 1 · 1 − · 2 (cid:18)− (cid:19) (cid:18) (cid:19) (cid:18) (cid:19) gegeben. Wir wollen die Koordinaten von v bzgl. w berechnen. Sei e = 1 0 ( , ) die Standardbasis. Fu¨r die Transformationsmatrix Tv gilt nach 0 1 w (cid:18) (cid:19) (cid:18) (cid:19) Lemma 5: Tv = TeTv = (Tw) 1Tv w w e e − e 2 3 Ferner gilt Tv = , denn die erste Spalte von Tv besteht aus den e 1 2 e (cid:18) (cid:19) 2 3 Koordinaten von und die zweite Spalte aus den Koordinaten von 1 2 (cid:18) (cid:19) (cid:18) (cid:19) 1 3 bzgl. der Standardbasis e. Ebenso gilt Tw = . e 0 1 (cid:18) (cid:19) 1 1 3 − 2 3 1 3 2 3 1 3 Tv = = − = − − . ⇒ w 0 1 · 1 2 0 1 · 1 2 1 2 (cid:18) (cid:19) (cid:18) (cid:19) (cid:18) (cid:19) (cid:18) (cid:19) (cid:18) (cid:19) 1 3 5 4 Wegen − − = gilt also 1 2 3 1 (cid:18) (cid:19)(cid:18)− (cid:19) (cid:18)− (cid:19) 1 3 v = 4 1 · 0 − 1 (cid:18) (cid:19) (cid:18) (cid:19) Wir wollen jetzt die Frage untersuchen, wie sich die Darstellungsmatrix Mv(f) einer linearen Abbildung f : V W ¨andert, wenn man von den w → Basen v von V und w von W zu zwei neuen Basen v und w u¨bergeht. ′ ′ Satz 6 Es gilt: Mv′(f) = Tw Mv(f) Tv′ w′ w′ · w · v Die Darstellungsmatrizen von f bez¨uglich zweier Basenpaare unterscheidet sich also durch Links- und Rechtsmultiplikation mit gewissen Transformati- onsmatrizen. Beweis. Das folgt wegen f = id f id aus Satz 4. (cid:3) W V ◦ ◦ 7 Determinanten von Endomorphismen Sei V ein K-Vektorraum. Man nennt eine lineare Abbildung f : V V auch einen Endomorphismus. → Lemma und Definition 7 SeiV ein endlich-dimensionalenK-Vektorraum, f : V V ein Endomorphismus und v eine Basis von V. Der Skalar → det(f): = detMv(f) K v ∈ h¨angt nicht von der Wahl von v ab. Man nennt det(f) die Determinante von f. Beweis. Sei w eine weitere Basis von V. Dann ist zu zeigen: detMv(f) = detMw(f). v w Nach Satz 6 und Lemma 5 gilt: Mw(f) = Tv Mv(f) Tw = (Tw) 1 Mv(f)Tw. w w · v · v v − · v v Es folgt: detMw(f) = det((Tw) 1)detMv(f)detTw w v − v v = (det(Tw)) 1detTwdetMv(f) v − v v = detMv(f). v (cid:3) Isomorphismen Definition 8 Seien V und W K-Vektorr¨aume. (a) Eine bijektive, lineare Abbildung f : V W heisst Isomorphismus (von → Vektorr¨aumen). (b) V heisst isomorph zu W (in Zeichen: V = W), wenn es einen Isomor- ∼ phsmus f : V W gibt. → Bemerkungen 9 (a)Seif : V W einIsomorphismusvonK-Vektorr¨aum- → en. Man kann leicht sehen, dass die Umkehrabbildung f 1 : W V wieder − → linear ist. Also gilt: V = W W = V. ∼ ∼ ⇔ (b) Man kann leicht nachrechnen, dass die Abbildung (1) auch linear ist, d.h. (1) ist ein Isomorphismus. 8 Lemma 10 Seien V und W endlich-dimensionale K-Vektorr¨aume. Seien v und w Basen von V und W. Eine lineare Abbildung f : V W ist → genau dann ein Isomorphismus, wenn gilt dim(V) = dim(W) und wenn die Darstellungsmatrix Mv(f) invertierbar ist. w Beweis. Sei n = dim(V) und m = dim(W). Ist f : V W ein Isomorphis- → mus, so gilt fu¨r die Darstellungsmatrizen A: = Mv(f), B =: = Mw(f 1): w v − Mv(f) Mw(f 1) = Mv(f f 1) = Mv(id ) = E w · v − v ◦ − v V m undebensoMw(f 1) Mv(f) = E .Alsoistm = nundMv(f)istinvertierbar v − · w n w mit Inverser Mw(f 1). v − Ist umgekehrt m = n und A = Mv(f) invertierbar mit Inversem B, so gibt w es aufgrund der Surjektivit¨at von (1) eine lineare Abbildung g : W V mit → Darstellungsmatrix Mw(g) = B. Wegen v Mv(g f) = Mw(g) Mv(f) = B A = E = Mv(id ) v ◦ v · w · n v V folgt g f = id (da die Abbildung (1) injektiv ist). Analog zeigt man V ◦ f g = id . Also ist f ein Isomorphismus mit Umkehrabbildung g. (cid:3) W ◦ Satz 11 Seien V und W zwei endlich-dimensionale K-Vektorr¨aume. Dann gilt: dimV = dimW V = W ∼ ⇐⇒ Beweis. “ ” folgt aus Lemma 10. ⇒ “ ”: Sei n = dimV = dimW. Wir w¨ahlen Basen v = (v ,...,v ) und 1 n ⇐ w = (w ,...,w ) von V und W. Nach Bemerkung 3 gibt es eine lineare 1 n Abbildung f : V W mit f(v ) = w fu¨r i = 1,...,n, d.h. Mv(f) = E . → i i v n Explizit ist f gegeben durch f(λ v +...+λ v ) = λ w +...+λ w 1 1 n n 1 1 n n Nach Lemma 10 ist f ein Isomorphismus. (cid:3) Folgerung 12 Seien V und W endlich-dimensionaleK-Vektorr¨aume. Dann ist Hom(V,W) ebenfalls endlich-dimensional und es gilt: dimHom(V,W) = dim(V)dim(W) 3 9 Dimensionsformel fu¨r lineare Abbildungen Definition 13 Sei f : V W eine lineare Abbildung. → Kern(f): = f 1( 0 ) = v V f(v) = 0 − { } { ∈ | } heisst der Kern von f und Bild(f): = f(V) = w W v V : f(v) = w { ∈ ∃ ∈ } (cid:12) heisst das Bild von f. Ist Bild(f) endlich-dimensional, so heisst Rang(f): = (cid:12) dimBild(f) der Rang von f. Lemma 14 Sei f : V W eine lineare Abbildung. (a) Kern(f) ist ein → Untervektorraum von V. Es gilt: Kern(f) = 0 f ist injektiv { } ⇔ (b) Bild(f) ist ein Untervektorraum von W. Beweis. (a) Fu¨r v,w Kern(f) und λ K gilt ∈ ∈ f(v+w) = f(v)+f(w) = 0+0 = 0, f(λv) = λf(v) = 0 also v +w,λv Kernf. ∈ Ist Kern(f) = 0 und sind v ,v V so gilt 1 2 { } ∈ f(v ) = f(v ) f(v v ) = f(v ) f(v ) = 0 v v = 0 v = v . 1 2 1 2 1 2 1 2 1 2 ⇒ − − ⇒ − ⇒ Also ist f injektiv. (cid:3) Satz 15 (Dimensionsformel f¨ur lineare Abbildungen) Sei f : V W eine → lineare Abbildung zwischen K-Vektorr¨aumen. Ist V endlich-dimensional, so gilt: dim(V) = dimKern(f)+Rang(f). Beweis. Sei r: = dimKernf n: = dimV, und sei (v ,...,v ) eine Basis 1 r ≤ von Kernf, die wir zu einer Basis (v ,...,v ) von V erg¨anzen. Sei v = 1 n λ v +...+λ v V. Wegen 1 1 n n ∈ f(v) = λ f(v )+...+λ f(v ) = λ f(v )+...+λ f(v ) 1 1 n n r+1 r+1 n n 10

Description:
Insbesondere ist die zweite Abbildung A ↦→ ℓA bijek- tiv. gelten. Das steht im Widerspruch zur linearen Unabhängig- keit von (w1,,wn). Es folgt ˜
See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.