ebook img

Lineare Algebra PDF

412 Pages·2001·1.996 MB·German
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview Lineare Algebra

Martin Menth LINEARE ALGEBRA Wu¨rzburg, 1997 2 Copyright: Dr. Martin Menth Universit¨at Wu¨rzburg Mathematisches Institut Am Hubland 97074 Wu¨rzburg [email protected] November 1997 Inhaltsverzeichnis Vorwort 3 1 Vektorr¨aume 5 1.1 Der dreidimensionale reelle Vektorraum . . . . . . . . . . . . . . . . . . . . 5 1.2 Vektorr¨aume und Unterr¨aume . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.3 Linearkombinationen, Erzeugendensysteme und Lineare Unabh¨angigkeit . . . 16 1.4 Basis und Dimension in endlich erzeugten Vektorr¨aumen . . . . . . . . . . . 23 1.5 Geordnete Basis, Koordinaten, Rang und elementare Umformungen . . . . . 33 1.6 * Berechnung des Durchschnitts zweier Unterr¨aume . . . . . . . . . . . . . . 44 1.7 * Unendlich-dimensionale Vektorr¨aume . . . . . . . . . . . . . . . . . . . . . 50 1.8 * Vereinigungen und gemeinsame Komplemente von Unterr¨aumen . . . . . . 59 2 Lineare Abbildungen 63 2.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 2.2 Homothetien und Linearformen. Der Dualraum . . . . . . . . . . . . . . . . 69 2.3 Beschreibung von linearen Abbildungen durch Matrizen . . . . . . . . . . . . 73 2.4 Elementare Umformungen, Rang und Invertieren von Matrizen . . . . . . . . 80 2.5 Eigenwerte und Eigenvektoren. ϕ-invariante Unterr¨aume . . . . . . . . . . . 88 2.6 Basiswechsel, ¨aquivalente und ¨ahnliche Matrizen . . . . . . . . . . . . . . . . 90 2.7 Potenzen von Endomorphismen, iterierte Abbildungen . . . . . . . . . . . . 94 2.8 * Additivit¨at und Homogenit¨at von Abbildungen . . . . . . . . . . . . . . . 98 2.9 * Direkte Produkte und ¨außere direkte Summen von Vektorr¨aumen . . . . . 101 2.10 * Vergleich von endlich- und unendlich-dimensionalen Vektorr¨aumen . . . . . 105 3 Affine Teilr¨aume und lineare Gleichungssysteme 107 3.1 Affine Teilr¨aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 3.2 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 3.3 L¨osung von linearen Gleichungssystemen . . . . . . . . . . . . . . . . . . . . 115 3.4 * Faktorr¨aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 3.5 * Faktorr¨aume und lineare Abbildungen . . . . . . . . . . . . . . . . . . . . 127 4 Polynome von Endomorphismen 131 4.1 Polynome u¨ber beliebigen K¨orpern und ihre Teilbarkeitseigenschaften . . . . 131 4.2 Ganzzahlige Polynome und Irreduzibilit¨atkriterien . . . . . . . . . . . . . . . 138 4.3 Polynome von Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . 141 5 Endomorphismen endlichdimensionaler Vektorr¨aume 143 5.1 Das Minimalpolynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 5.2 ϕ-zyklische Unterr¨aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 5.3 Berechnung des Minimalpolynoms . . . . . . . . . . . . . . . . . . . . . . . . 147 5.4 ϕ-unzerlegbare Unterr¨aume und der Grad des Minimalpolynoms . . . . . . . 151 5.5 Zerlegung des Vektorraums in ϕ-invariante Unterr¨aume . . . . . . . . . . . . 154 INHALTSVERZEICHNIS 1 6 Die Jordan-Normalform und Anwendungen 163 6.1 Die Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 6.2 Berechnung der Jordan-Normalform . . . . . . . . . . . . . . . . . . . . . . 168 6.3 Algebraische und geometrische Vielfachheit . . . . . . . . . . . . . . . . . . . 175 6.4 Die Jordan-Normalform komplexer Matrizen . . . . . . . . . . . . . . . . . . 176 6.5 Andere Normalformen reeller Matrizen . . . . . . . . . . . . . . . . . . . . . 177 6.6 Stochastische Matrizen und Permutationsmatrizen . . . . . . . . . . . . . . . 180 6.7 Erweiterung des Skalarenk¨orpers . . . . . . . . . . . . . . . . . . . . . . . . . 183 6.8 * A¨hnlichkeit von A und AT . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 6.9 * Wann sind A und A−1 ¨ahnlich? . . . . . . . . . . . . . . . . . . . . . . . . 187 7 Eigenschaften, die man am Minimalpolynom ablesen kann 191 7.1 A¨hnlichkeit zu einer Dreiecksmatrix oder Diagonalmatrix . . . . . . . . . . . 191 7.2 * Nilpotente und unipotente Endomorphismen . . . . . . . . . . . . . . . . . 194 7.3 * Halbeinfache Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . 196 8 Determinanten 199 8.1 Zwei- und dreireihige Determinanten . . . . . . . . . . . . . . . . . . . . . . 199 8.2 Determinantenfunktionen, Existenz und Eigenschaften der Determinante . . 200 8.3 Berechnung der Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 206 8.4 Cramersche Regel und Matrizeninversion . . . . . . . . . . . . . . . . . . . . 214 9 Das charakteristische Polynom 218 9.1 Definition des charakteristischen Polynoms . . . . . . . . . . . . . . . . . . . 218 9.2 Der Satz von Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . 220 9.3 Minimalpolynom, charakteristisches Polynom und Jordan-Normalform . . . . 222 10 * Reihen ϕ-invarianter Unterr¨aume 227 10.1 * Reihen ϕ-invarianter Unterr¨aume . . . . . . . . . . . . . . . . . . . . . . . 227 10.2 * Nochmals das charakteristische Polynom . . . . . . . . . . . . . . . . . . . 230 11 Bilinearformen und hermitesche Formen 234 11.1 Definition und Beschreibung von Bilinearformen . . . . . . . . . . . . . . . 234 11.2 Basiswechsel und Bilinearformen, Kongruente Matrizen . . . . . . . . . . . . 240 11.3 Hermitesche Formen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 11.4 Orthogonalit¨at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245 11.5 Kongruente Diagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . 256 11.6 Definitheit, Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . . . . . . 261 11.7 * Schiefsymmetrische oder alternierende Bilinearformen . . . . . . . . . . . 270 12 Euklidische und unit¨are Vektorr¨aume 275 12.1 Vektornormen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 12.2 Das Orthonormalisierungsverfahren von Gram-Schmidt . . . . . . . . . . . . 286 12.3 Komplexe normale Matrizen. Der komplexe Spektralsatz . . . . . . . . . . . 293 12.4 Positiv semidefinite hermitesche Matrizen. Wurzeln von Matrizen . . . . . . 305 12.5 Reelle normale Matrizen. Der reelle Spektralsatz . . . . . . . . . . . . . . . 308 12.6 Reelle symmetrische Matrizen. Die Hauptachsentransformation . . . . . . . 312 12.7 Reelle orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . 318 2 INHALTSVERZEICHNIS 12.8 Winkel und Volumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323 12.9 Das Vektorprodukt im Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328 12.10 Die Orthogonalprojektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333 13 *Algorithmen zur Matrizenrechnung 340 13.1 * Matrizeninversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340 13.2 * Rangberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347 13.3 * Berechnung des charakteristischen Polynoms . . . . . . . . . . . . . . . . 352 13.4 * Polarzerlegung und Singul¨arwertzerlegung . . . . . . . . . . . . . . . . . . 355 13.5 * QR-Zerlegung und LU-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . 359 14 Anhang: Hilfsmittel aus der Mengenlehre 365 14.1 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365 14.2 Ordnungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366 14.3 Auswahlaxiom, Zornsches Lemma und Totalordnungssatz . . . . . . . . . . 371 15 Anhang: Gruppen, Ringe und K¨orper 375 15.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375 15.2 K¨orper und Ringe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381 15.3 Endliche K¨orper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386 16 Anhang: Englische Terminologie und Lineare Algebra mit mathematica 391 16.1 Englische Terminologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 16.2 Lineare Algebra mit mathematica . . . . . . . . . . . . . . . . . . . . . . . . 392 Literatur 400 Index 404 Vorwort 3 Vorwort Dieser Text enth¨alt im Wesentlichen den Stoff einer u¨blichen Vorlesung in Linearer Algebra, n¨amlichVektorr¨aumeu¨berbeliebigenkommutativenK¨orpern,lineareAbbildungen,Bilinear- formen und Skalarprodukte. Die Analytische Geometrie wurde bewußt nicht aufgenommen, da sie zu umfangreich ist, um als Anh¨angsel der Linearen Algebra behandelt zu werden. Daher wird der Leser auf Bu¨cher u¨ber Analytische Geometrie verwiesen, etwa [Bra] oder die entsprechenden Kapitel von [Zie]. Eines der Kernstu¨cke dieses Textes, n¨amlich die Entwicklung der Jordan-Normalform (ratio- nalen Normalform) von Matrizen, ist hervorgegangen aus einem Skriptum, das ich zu einer Vorlesung von Prof. Dr. Heineken u¨ber Lineare Algebra im Jahr 1993/94 an der Universit¨at Wu¨rzburg angefertigt habe. Eine Besonderheit dieser Vorlesung war die Entwicklung der Normalform allein mit Hilfe des Minimalpolynoms, sowie die Definition des charakteristi- schen Polynoms nicht durch die Determinante der charakteristischen Matrix, sondern mit Hilfe der Minimalpolynome von gewissen induzierten Abbildungen. Dementsprechend kam die Determinante erst ganz zum Schluß. Trotz der unbestreitbar riesigen Anzahl von Lehrbu¨chern zur Linearen Algebra fand sich damals keines mit dieser Stoffanordnung. Inzwischen ist das Lehrbuch [Axl] von Axler auf dem Markt, das auch nach dieser Methode vorgeht. Mir scheint das vorliegende Buch dennoch nicht obsolet zu sein, da es anscheinend noch immer keinen deutschen Text mit diesem Aufbau gibt, und einige einschr¨ankende Voraussetzungen von Axler (etwa auf die K¨orper R und C) fehlen. Damit sind wir bei den beiden kanonischen Fragen zu jedem Buch u¨ber Lineare Algebra angelangt: welche Skalarenk¨orper kommen vor und welche Dimensionen? Beide Fragen kann man wohl mit alle“ beantworten. Selbstverst¨andlich spielen die endlich-dimensionalen ” Vektorr¨aume u¨ber den K¨orpern R und C die Hauptrolle. Da andererseits Vektorr¨aume u¨ber endlichen K¨orpern zum Beispiel in der Kodierungstheorie, und unendlich-dimensionale Vektorr¨aume in der Funktionalanalysis vorkommen, sollten die Grundbegriffe der Linearen Algebra nicht unn¨otig auf Spezialf¨alle einschr¨ankt werden. Damit sich das vorliegende Buch auch zum Nachschlagen eignet, habe ich den Stoff rela- tiv großzu¨gig ausgew¨ahlt. Andererseits soll ein Leser, der sich nur in die Grundzu¨ge der Theorie der linearen Abbildungen zwischen endlich-dimensionalen reellen oder komplexen Vektorr¨aumen einlesen m¨ochte, nicht durch eine zu große Stoffmenge abgeschreckt werden. Daher sind einzelne Kapitel oder Abschnitte, die man beim ersten Lesen u¨bergehen kann, mit einem Stern * gekennzeichnet. Der Text, der durch die Wegnahme der *-Abschnitte entsteht, ist in sich abgeschlossen. Ebenso soll auch eine gewisse Kompatibilit¨at zu anderen Lehrbu¨chern hergestellt werden. Daher wird etwa das charakteristische Polynom auf zwei verschiedene Arten eingefu¨hrt und der Determinante mehr Raum gewidmet als bei Axler. In der Linearen Algebra tauchen immer wieder einmal Hilfsmittel aus der Mengenlehre und der Algebra, insbesondere u¨ber endliche K¨orper, auf, die im ersten oder zweiten Semester u¨blicherweise nicht bereitstehen. Diese Begriffe und S¨atze sind in zwei Anhangskapiteln zusammengestellt. 4 Vorwort Im Vergleich zu ¨alteren Lehrbu¨chern wird im Allgemeinen jetzt algorithmischen Verfahren mehr Beachtung geschenkt. Dies geschieht auch in diesem Text, da der Leser vertrauter mit der Theorie wird, wenn er viele Beispiele konkret durchrechnen kann, sei es mit der Hand oder mit dem Computer. Deshalb wird in Kapitel 16 eine kurze Einfu¨hrung in das Programm mathematica gegeben, mit dem man viele der in der Linearen Algebra vorkom- menden Rechnungen durchfu¨hren kann. Außerdem soll auf die Probleme mancher Verfahren aufmerksam gemacht werden. A¨nderungen gegenu¨ber der 4. Auflage des erw¨ahnten Skriptums: Die Basiss¨atze in Kapitel 1 werden getrennt fu¨r den endlichen und den unendlichen Fall behandelt. Die bisherigen Kapitel 5 und 6 sind etwas umorganisiert und in ein neues Kapitel 5 zusammengefaßt worden. Nachdem jetzt auch Skalarprodukte besprochen werden, wurden die Abschnitte u¨ber hermitesche, symmetrische, unit¨are und orthogonale Matrizen an die passende Stelle im neuen Kapitel 12 eingebaut, der Rest des fru¨heren Kapitels 9 dem neuen Kapitel 6 u¨ber die Jordan-Normalform einverleibt. V¨ollig neu sind die Kapitel 11, 12, 16 und die Abschnitte 13.2 bis 13.5. Herrn Prof. Dr. H. Heineken danke ich fu¨r die großzu¨gige Erlaubnis, Mitschriften aus seinen Vorlesungen zu verwenden. Fu¨r das Korrekturlesen von Teilen des Manuskripts und viele Verbesserungsvorschl¨age danke ich Prof. Dr. R. Brandl sowie W. Dirscherl, M. D¨oll und R. Jarisch. Martin Menth, November 1997 5 1 Vektorr¨aume 1.1 Der dreidimensionale reelle Vektorraum Vektor, Koordinate, Koordinatenursprung: Aus dem Geometrieunterricht der Schule ist die Beschreibung der Punkte des Raumes durch Tripel reeller Zahlen ξ ,ξ ,ξ bekannt. 1 2 3 Man w¨ahlt einen festen Punkt o als Koordinatenursprung, zei- z chnet drei paarweise senkrecht aufeinanderstehende Achsen (cid:54) ξ aus (x-Achse, y-Achse, z-Achse oder x -Achse, ..., x -Achse), 1 1 3   (cid:1)(cid:26)(cid:1)(cid:1)(cid:26)(cid:112)(cid:1)(cid:112)(cid:112)(cid:1)(cid:26)(cid:112)(cid:1)(cid:21)(cid:112)(cid:112)(cid:26)(cid:112)y(cid:112)(cid:112)(cid:112)(cid:26)(cid:112)(cid:112)(cid:112)(cid:26)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:26)(cid:26)(cid:62)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112) (cid:45)xξξ23  udiAnnecmdhRsiebmchegatzenuehinctξgh,1nmdEeeititrndhdyeee-AnimtecPnhZsuaienhnklueRtnnidticmrhiξpt3ueRnElagiundmhee,ritdxeen-nAicnmhRsaeni,chξet2rurEneiigcnhhdtee,irtienzn-- ξ 1   ξ . 2  ξ  3 Ein solches Zahlentripel nennt man auch Vektor oder Spaltenvektor mit den Koordinaten ξ ,ξ ,ξ . Die Vektoren wollen wir mit kleinen lateinischen Buchstaben, ihre Koordinaten 1 2 3 (die hier alle reelle Zahlen sind) mit kleinen griechischen Buchstaben bezeichnen. Da die Schreibweise eines Vektors als Spaltenvektor sehr platzraubend ist, wollen wir die alternative Schreibweise ξ 1   (ξ ,ξ ,ξ )T = ξ 1 2 3 2  ξ  3 einfu¨hren. Diese Schreibweise mit dem hochgestellten T wird sp¨ater in einem allgemeineren Zusammenhang verwendet werden. Zwei Vektoren (ξ ,ξ ,ξ )T , (η ,η ,η )T sind genau dann identisch (d.h. geben denselben 1 2 3 1 2 3 Punkt im Raum an), wenn ξ = η , ξ = η und ξ = η gilt. Der Koordinatenursprung o 1 1 2 2 3 3 wird dargestellt durch das Tripel (0,0,0)T , die Punkte auf der x-Achse durch (ξ,0,0)T , ξ ∈ R,diePunkteaufdery-Achsedurch (0,ξ,0)T , ξ ∈ R,unddiePunkteaufderz-Achsedurch (0,0,ξ)T , ξ ∈ R. Vektoraddition, skalare Multiplikation, Ortsvektor: Die Koordinaten eines solchen Zahlentripels kann man mit einem gemeinsamen Faktor λ multiplizieren, oder man kann die Koordinaten ξ ,ξ ,ξ eines Vektors zu den Koordinaten 1 2 3 η ,η ,η eines anderen Vektors addieren, also den Vektor 1 2 3 ξ +η 1 1   ξ +η 2 2  ξ +η  3 3 bilden. Um eine anschauliche Vorstellung davon zu bekommen, was bei dieser skalaren Multiplikation und Vektoraddition passiert, stellt man sich den Punkt (ξ ,ξ ,ξ )T mit dem 1 2 3 Koordinatenursprung durch einen Pfeil verbunden vor, dessen Spitze in dem betrachteten Punkt liegt. Dieser Pfeil wird auch der Ortsvektor des betrachteten Zahlentripels genannt. 6 1 VEKTORRA¨UME z 6 Betrachten wir zum Beispiel die Vektoren 12 (cid:54)(cid:1)(cid:113)(cid:113)(cid:26)(cid:26)(cid:1)2(cid:1)(cid:26)(cid:26)(cid:112)4(cid:112)(cid:1)(cid:112)(cid:112)(cid:1)(cid:26)(cid:26)(cid:112)(cid:112)(cid:112)(cid:1)y(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:1)(cid:26)(cid:26)(cid:112)(cid:112)(cid:112)(cid:112)(cid:1)(cid:1)(cid:21)(cid:112)(cid:112)(cid:112)(cid:112)(cid:26)(cid:26)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:26)(cid:62)(cid:112)(cid:112)(cid:112)(cid:112)(cid:26)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:26)(cid:112)(cid:112)(cid:112)(cid:112)(cid:26)(cid:112)(cid:112)321(cid:112)(cid:112)(cid:112)(cid:26)(cid:112)(cid:112)(cid:112)(cid:112)(cid:26)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:26)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:45)(cid:26)(cid:62)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112) x 42  Mmabaatnnr¨adegretarn.e=iDVchea(kt3ht,deo2rer,ni1asP)tzTuewsneksiumtinnbadnlivmionbllRd,=aebru(s=6me,lb42d,eaa2nd)zuRTuri.ccshhc,thudrneaigß- ben. 3 6 Allgemein definieren wir das Produkt eines Vektors mit einer reellen Zahl λ auf folgende Weise: ξ λξ 1 1 λ· ξ  =  λξ  . 2 2  ξ   λξ  3 3 Dann gilt 1·(ξ ,ξ ,ξ )T = (ξ ,ξ ,ξ )T und 0·(ξ ,ξ ,ξ )T = (0,0,0)T = o. Multiplizieren 1 2 3 1 2 3 1 2 3 mit 3 streckt einen Vektor auf die dreifache L¨ange und multiplizieren mit −1 dreht die Richtung des Vektors um. y (cid:54)z (cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:17)(cid:112)(cid:1)(cid:112)(cid:112)(cid:1)(cid:1)(cid:21)(cid:17)(cid:112)(cid:112)(cid:17)(cid:51)(cid:112)(cid:112)(cid:10)(cid:112)(cid:10)(cid:30)(cid:112)(cid:112)(cid:112)(cid:3)(cid:112)(cid:112)(cid:3)(cid:23)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112) a+b DAnieeiAnadndditeirohn¨anzgweeniedreVrezkutgoerhe¨onribgeesnchPrfeeiiblet,edbieenhfiaelrlsadbaesr b(cid:112)(cid:17)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:17)(cid:112)(cid:1)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:1)(cid:112)(cid:112)(cid:10)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:10)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:3)(cid:112)(cid:3)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112) nicht mehr dieselbe Richtung haben mu¨ssen. (cid:112)(cid:112) (cid:112)(cid:112) (cid:112) (cid:112)(cid:112)(cid:3)(cid:3)(cid:23)(cid:112)(cid:112) (cid:1) (cid:10)(cid:112)(cid:112) (cid:112)(cid:112) (cid:3)(cid:112)(cid:112) Es sei etwa a = (1,1,0)T und b = (0,1,1)T . (cid:112) (cid:112) (cid:112) (cid:112) (cid:112) (cid:112)(cid:112)(cid:112)(cid:112)(cid:3) (cid:112)(cid:112)(cid:112)(cid:112) (cid:1)(cid:10)(cid:112)(cid:112)(cid:112)(cid:112) (cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:3)(cid:112)(cid:112)(cid:112) Die Summe c = a+b = (1,2,1)T entsteht durch Hin- (cid:112)(cid:112)(cid:112)(cid:3)(cid:112)(cid:3)(cid:112)(cid:1)(cid:112)(cid:10)(cid:1)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:10)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:17)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:17)(cid:51)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:3)(cid:112)(cid:112)a tereinanderh¨angen der zugeh¨origen Pfeile, wobei es egal (cid:3)(cid:1)(cid:10)(cid:17)(cid:17)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112) ist, ob man a an b oder b an a h¨angt. (cid:112)(cid:112) (cid:17)(cid:3)(cid:10)(cid:1) (cid:112)(cid:112) (cid:45) x Das Kommutativgesetz fu¨r die Addition von Vektoren ergibt sich offensichtlich aus dem Kommutativgesetz fu¨r die Addition von reellen Zahlen, denn es gilt ξ η ξ +η η +ξ η ξ 1 1 1 1 1 1 1 1             ξ + η = ξ +η = η +ξ = η + ξ . 2 2 2 2 2 2 2 2  ξ   η   ξ +η   η +ξ   η   ξ  3 3 3 3 3 3 3 3 Genauso erh¨alt man das Assoziativgesetz fu¨r die Vektoraddition. Die Gleichung c = a + b k¨onnen wir auch umformen zu a = c − b. Die Differenz a − b zweier Vektoren ist ebenfalls komponentenweise erkl¨art: ξ η ξ −η 1 1 1 1  ξ − η  =  ξ −η  . 2 2 2 2  ξ   η   ξ −η  3 3 3 3 Die obige Zeichung fu¨r die Addition von a und b macht zugleich deutlich, wie wir uns die Subtraktion zweier Vektoren geometrisch vorstellen k¨onnen: die Differenz c−b k¨onnen wir durch einen Pfeil veranschaulichen, dessen Fußpunkt in der Spitze von b und dessen Spitze in der Spitze von c liegt. Die Differenz zweier Vektoren ist eigentlich keine neue Operation, denn sie kann mit Hilfe der beiden vorher definierten erkl¨art werden: a−b = a+((−1)·b). Wir erhalten an weiteren Rechenregeln: • (ξ ,ξ ,ξ )T +(0,0,0)T = (ξ ,ξ ,ξ )T . 1 2 3 1 2 3 • −(ξ ,ξ ,ξ )T +(ξ ,ξ ,ξ )T = (0,0,0)T . 1 2 3 1 2 3 1.1 Der dreidimensionale reelle Vektorraum 7 • λ· µ·(ξ ,ξ ,ξ )T = (λ·µ)·(ξ ,ξ ,ξ )T = µ· λ·(ξ ,ξ ,ξ )T . 1 2 3 1 2 3 1 2 3 (cid:0) (cid:1) (cid:0) (cid:1) • die Distributivgesetze λ· (ξ ,ξ ,ξ )T +(η ,η ,η )T = λ·(ξ ,ξ ,ξ )T +λ·(η ,η ,η )T und 1 2 3 1 2 3 1 2 3 1 2 3 (cid:0) (cid:1) (λ+µ)·(ξ ,ξ ,ξ )T = λ·(ξ ,ξ ,ξ )T +µ·(ξ ,ξ ,ξ )T . 1 2 3 1 2 3 1 2 3 Geraden und Ursprungsgeraden: Es sei g eine Ursprungsgerade, d.h. eine Gerade, die durch den Ursprung o geht, und sei a = (ξ ,ξ ,ξ )T (cid:54)= o ein Punkt auf dieser Geraden. 1 2 3 Jeder andere Punkt b auf dieser Geraden, der auf der- selben Seite des Ursprungs liegt wie a, l¨aßt sich dann durch Streckung des Vektorsa um einen geeigneten po- z y sitiven Faktor erreichen, das heißt: es gibt ein λ > 0 (cid:54) (cid:1)(cid:21) Gerade g (cid:1) mit b = λa. Zu jedem Punkt b auf g, der auf der (cid:19) (cid:1) (cid:19) anderen Seite des Ursprungs liegt, gibt es ein λ < 0 (cid:1)(cid:19)(cid:55)(cid:19)(cid:55)(cid:19)(cid:55)(cid:19)(cid:55)(cid:19)(cid:55)(cid:19)(cid:55)(cid:19)(cid:55)(cid:19) (cid:1)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19) a mit b = λa. Der Urspung o selbst hat die Darstellung (cid:1)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19) o = 0·a. Umgekehrt liegt fu¨r jedes λ ∈ R der Punkt (cid:1)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19) (cid:45)x λa auf der Geraden g. Es gilt also (cid:19)(cid:19)(cid:1) (cid:1)(cid:1) g = {λa | λ ∈ R}. Was zeichnet die Ursprungsgeraden aus in der Menge aller Geraden im Raum R3? z h Betrachten wir zum Beispiel die Gerade h, die aus der (cid:19)s(cid:19)(cid:112)(cid:1)(cid:112)(cid:1)(cid:112)(cid:112)(cid:54)(cid:54)(cid:1)(cid:112)(cid:54)(cid:19)(cid:19)(cid:112)(cid:19)(cid:19)(cid:54)(cid:54)(cid:19)(cid:19)(cid:19)(cid:19)(cid:112)s(cid:112)(cid:1)(cid:112)(cid:112)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19)(cid:19)(cid:112)(cid:1)(cid:112)+(cid:112)(cid:112)(cid:1)(cid:19)(cid:19)(cid:19)(cid:19)(cid:112)(cid:19)(cid:19)(cid:19)(cid:19)(cid:112)(cid:112)(cid:1)(cid:112)(cid:19)(cid:55)(cid:19)(cid:55)(cid:19)(cid:55)(cid:19)(cid:55)(cid:19)(cid:55)(cid:19)(cid:55)(cid:19)(cid:55)(cid:112)(cid:19)a(cid:1)(cid:21)(cid:112)(cid:112)(cid:112)y(cid:112)(cid:19)(cid:112)(cid:112)(cid:112)(cid:19)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)(cid:112)g (cid:45)x dtGtEooiseerrrsgasesirdltapeGbaagtelrsrraeo¨aalngldetteslntunenehardhtcr,hedi=incaodhnb{tenesmnme+aimvnnλea,sagnciehn|edidλieigeebn∈mtGe.RtemerEs}aaidn.VneeizengulfeuaPrcmsuhtneddkseetnnvobVVnaeekkua--f. Die Summe zweier Vektoren, die Punkte auf der Geraden g beschreiben, gibt wieder einen Punkt an, der auf g liegt: λa + µa = (λ + µ)a ∈ g. Die analoge Aussage ist aber nicht richtig fu¨r die Gerade h: (s + λa) + (s + µa) = 2s + (λ + µ)a. Dieser Vektor beschreibt genau dann einen Punkt auf h, wenn es ein ν ∈ R gibt mit 2s+(λ+µ)a = s+νa. Dies ist ¨aquivalent zu s = (ν−λ−µ)a. Das bedeutet aber, daß der Stu¨tzvektor“ s von h selbst ” einen Punkt auf der Geraden g beschreibt, also h = g eine Ursprungsgerade ist. Im folgenden Abschnitt abstrahieren wir das Modell und betrachten Mengen von Objekten mit zwei Operationen, einer Addition und einer skalaren Multiplikation mit Elementen aus einem K¨orper, die dieselben Rechenregeln erfu¨llen, die wir fu¨r die Vektoroperationen dieses Abschnitts erhalten haben.

See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.