The Lecture Notes are intended to report quickly and informally, but on a high level, new developments in mathematical economics and operations research. In addition reports and descriptions of interesting methods for practical application are particularly desirable. The following items are to be published: 1. Preliminary drafts of original papers and monographs 2. Special lectures on a new field, or a classical field from a new point of view 3. Seminar reports 4. Reports from meetings Out of print manuscripts satisfYing the above characterization may also be considered, if they continue to be in demand. The timeliness of a manuscript is more important than its form, which may be unfinished and prelimi nary. In certain instances, therefore, proofs may only be outlined, or results may be presented which have been or will also be published elsewhere. The publication of the "Lectun Notes" Series is intended as a service, in that a commercial publisher, Springer Verlag, makes house publications of mathematical institutes available to mathematicians on an inter national scale. By advertising them in scientific journals, listing them in catalogs, further by copyrighting and by sending out review copies, an adeq uate documentation in scientific libraries is made possible. Manuscripts Since manuscripts will be reproduced photomechanically, they must be written in clean typewriting. Hand written formulae are to be filled in with indelible black or red ink. Any corrections should be typed on a separate sheet in the same size and spacing as the manuscript. All corresponding numerals in the text and on the correction sheet should be marked in pencil. Springer-Verlag will then take care of inserting the corrections in their proper places. Should a manuscript or parts thereof have to be retyped, an appro priate indemnification will be paid to the author upon publication of his volume. The authors receive 25 free copies. Manuscripts written in English, German, or French will be received by Prof. Dr. M. Beckmann, Depart ment of Economics, Brown University, Providence, Rhode Island 02912/ USA, or Prof. Dr. H. P. Kunzi, Institut fUr Operat~.ons Research und elektronische Datenverarbeitung der U niversitat Zurich, Sumatrastra£e 30, 8006 Zurich. Die Lecture Notes sollen rasch und inform ell, aber auf hohem Niveau, uber neue Entwicklungen der mathematischen Okonometrie und Unternehmensforschung berichten, wobei insbesondere auch Berichte 'und Darstellungen der fUr die praktische Anwendung interessanten Methoden erwunscht sind. Zur -Veroffentlichung kommen: 1. VorUiufige Fassungen von Originalarbeiten und Monographien. 2. Spezielle Vorlesungen uber ein neues Gebiet oder ein klassisches Gebiet in neuer Betrachtungsweise. 3. Seminarausarbeitungen. 4. Vortrage von Tagungen. Ferner kommen auch altere vergriffene spezielle Vorlesungen, Seminare und Berichte in Frage, wenn nach ihnen eine anhaltende Nachfrage besteht. Die Beitrage durfen im Interesse einer gro~eren Aktualitat durchaus den Charakter des Unfertigen und Vorlaufigen haben. Sie brauchen Beweise unter Umstanden nur zu skizzieren und durfen auch Ergebnisse enthalten, die in ahnlicher Form schon erschienen sind oder spater erscheinen sollen. Die Herausgabe der "Lecture Notes" Serie durch den Springer-Verlag stellt eine Dienstleistung an die mathematischen Institute dar, indem der Springer-Verlag fUr ausreichende Lagerhaltung sorgt und einen gro~en internationalen Kreis von Interessenten erfassen kann. Durch Anzeigen in Fachzeitschriften, Auf nahme in Kataloge und durch Anmeldung zum Copyright sowie durch die Versendung von Be sprechungsexemplaren wird eine lUckenlose Dokumentation in den wissenschaftlichen Bibliotheken ermoglicht. Lecture Notes in Operations Research and Mathematical Economics Edited by M. Beckmann, Providence and H. P. KUnzi, ZUrich 9 Ernst Schultze Universitat Bern EinfUhrung in die mathematischen Grundlagen der In formationstheorie 1969 Springer-Verlag Berlin· Heidelberg· New York Dr. E. Schultze Privatdozent an der Universitat Bern, Wissenschaftlicher Mitarbeiter der Hasler AG Bern. ISBN-13: 978-3-540-04633-2 e-ISBN-13: 978-3-642-86515-2 DOl: 10.1007/978-3-642-86515-2 All rights reserved. No part of this book may be translated or reproduced in any form without written permission from Springer Verlag. © by Springer-Verlag Berlin' Heidelberg 1969 Library of Congress Catalog Card Number 79-79749 Title No.3759 v 0 R W0 R T Der Inhalt der vorliegenden Schrift deckt sich mit der Vorlesung, die ich 1967/68 an der Universitat Bern gehalten habe. Sie verfolgte den Zweck, sowohl Mathematikstudenten in die Informationstheorie einzufUhren, als auch mathematisch interessierten Physikern, Ingenieuren und Unternehmens forschern eine exakte Grundlage der lnformationstheorie zu vermitteln. Dementsprechend wurde einer grUndlichen Darstellung der Beweise der Vor zug gegeben. Leider musste der Stoff auf den diskreten Fall beschrankt werden, doch glaube ich, dass demit schon die wesentlichsten Merkmale der Informationstheorie erfasst werden. An Voraussetzung wird die Kenntnis des Ublichen mathematischen Stoffes mittlerer Hochschulsemester verlangt, einsch1iess1ich hauptsach1ich e1ementarer Kenntnisse der Wahrscheinlichkeitsrechnung. An dieser Stelle sei der Firma Hasler AG gedankt, welche in gros8zUgiger Weise die Verfassung und Niederschrift der Vorlesung unterstUtzte. Bern Ernst Schultze Dezember 1968 Inhaltsverzeichnis Einleitung 1 1. Die Entropie des endlichen Wahrscheinlichkeitsfeldes 3 1.1. Definition und Eigenschaften der Entropie 3 1.1.1. Die Ungewissheit 3 1.1. 2. Eigenschaften der Entropie 5 1.1.3. Beispiele 8 1.2. Entropie eines zusammengesetzten Wahrschein1ichkeitsfeldes. Bedingte Entropie 11 1.2.1. Bezeichnungen 11 1. 2. 2. Unabhiingige Wahrsche inlichkeitsfelder 12 1.2.3. Abhiingige Wahrscheinlichkeitsfelder 13 1.2.4. Entropieungleichungen 16 1. 2. 5. Umkehrung der Abhiingigkeit 19 1.3. Die Synentropie zweier Wahrscheinlichkeitsfelder 21 1.3.1. Definition und Interpretation 21 1.3.2. Schranken 22 1.3.3. Beispiel und Aufgaben 24 1.4. Informationsgehalt 27 1.4.1. Informationsgehalt eines Wahrscheinlichkeitsfeldes 27 1.4.2. Informationsgehalt eines Elementarereignisses 28 1.4.3. Gegenseitiger Informationsgeha1t zweier E1ementar- ereignisse 28 1.5. Eindeutigkeitssatz der Entropie 29 2. Die diskrete Informationsque11e und ihre Kodierung 34 2.1. Beschreibung 34 2.2. Diskrete Informationsque11e ohne Gedachtnis 36 2.2.1. Beschreibung 36 2.2.2. Kodierung 37 2.2.3. Eindeutige Dekodierbarkeit 38 2.2.4. Kodierbaum 39 2.2.5. Ungleichung von Kraft 40 2.2.6. Mitt1ere Kodewort1ange 46 2.2.7. Optimaler Kode 49 2.2.8. Konstruktion eines optimal en Kodes nacb Huffman 51 2.2.9. Kettcbenkodierung 5) 2.3. Informationsgebalt und Redundanz 58 2.4. Stationare diskrete Informationsquelle mit Gedacbtnis 60 2.4.1. Definition 60 2.4.2. Entropie der stationaren Informationsquelle 65 2.4.3. Informationsgebalt 70 2.5. Beispiel. diskreter Intormationsquellen 72 2.5.1. Allgemeine stationare Quelle 2. Ordnung mit 2 Symbolen 72 2.5.2. "Ktinstlicbe" Scbriftspracbe 76 2.5.3. Die natUrlicbe Schriftsprache 80 3. Diskreter Uebertragungskanal mit Storungen 81 3.1. EinfUhrung 81 3.2. Definition des diskreten stationaren Kanals 8) 3.3. Kanalkapazitat 87 3.3.1. Definition der Kanalkapazitat 87 3.3.2. Die Kapazitat des Kanals ohne Gedachtnis 90 3.3.3. Beispiele 9) 3.4. Fundamentalsatz der Informationstheorie 97 3.4.1. Entstorung durch den "idealen Beobachter" 97 3.4.2. Kodierer zwischen Quelle und Kanal 102 3.4.3. Formu1ierungdes Pundamentalsatzes 108 3.4.4. Asymptotische Vertei1ung der Kettchen 110 3.4.5. Heuristischer Beweis des Pundamenta1satzes 113 Literaturverzeichnia 116 - 1 - Einleitung Die Fragestellungen der Informationstheorieentstammen der Nachrichten technik. Die heutige Nachrichtentechnik kennt die verschiedenartigsten Uebertragungssysteme (Telefon, Fernschreiber, Radio, Fernsehen, usw.). Sie haben aber aIle das folgende allgemeine Schema der Nachrichtentiber tragung gemeinsam: Nachrlcht.n- Kodleruno Ueb.rtraounOI- r-- O.kodl.runo Nachricht.n- bzw. bzw. quell. kanal s.nk. ~odulation O• •o dulatlon Storunoen I.B. Rausch.n Dieses Schema widerspiegelt die yom Standpunkt der Theorie her wesent lichen Bestandteile einer Nachrichtentibertragung. Es bildet den Rahmen der Informationstheorie im engeren Sinne, d.h. der Theorie der Uebertragung von Nachrichten. Zu dieser Theorie gehort vor allem die Aufgabe, das Wesen der Information zu klaren und die Information quantitativ zu er fassen, um damit eine mathematische Behandlung des obigen Schemas zu ermoglichen. Erste Versuche in dieser Richtung wurden von Hartley 1928 unternommen. Von einer eigentlichen Theorie der Nachrichtentibertragung kann jedoch erst .ait dem Erscheinen der Arbeiten von Shannon 1948 gesprochen werden. Shannon gilt als der eigentliche Begrtinder der Intormationstheorie. Der Grundgedanke der Informationstheorie beruht auf dem Zusammenhang zwischen Information und Wahrscheinlichkeit: So, wie in der Wahrschein lichkeitsrechnung vor der Durchttihrung eines Versuchs Ungewissheit dartiber besteht, welches Ereignis eintreten wird,so ist auch der - 2 - Nachrichtenempfanger in Ungewissheit liber die Nachricht, die ein treffen wird. Dieser Zusammenhang gestattet es, die Erzeugung von Information in einer Nachrichtenquelle flir einen Nachrichtenempfanger als einen zufalligen Prozess aufzufassen. Die Auffassung der Nachrichtenquelle ale zufalliger Prozess ist wohl der wesentlichste Ausgangspunkt flir die Informationstheorie, sie er moglicht insbesondere die mathematische Behandlung der Nachrichtenliber tragung. - :3 - 1. Die Entropie des endlichen Wahrscheinlichkeitsfe1des 1.1. Detinition und Eigenachaften der Entropie 1.1.1. Die Ungewissheit Vie schon erwKhnt, kann man die Ungewissheit, die der EmpfKnger vor dem Eintretfen der Nachricht verBpUrt, vergleichen mit der Ungewissheit, die vor der DurchfUhrung eines Experimentes besteht, dessen Ausgang durch ein Zufa11sgesetz bestimmt wird. Wir nehmen zunKchst ein ganz eintaches Experiment vor, etwa das VUrfeln mit einem gewHhn1ichen Spie1wUrfel. Bei diesem Versuch sind genau sechs Ergebnisse mijglich, entsprechend den 6 mHglichen Augenzahlen. Jedem dieser secha Ergebnisse ist eine bestimmte Wahrschein1ichkeit zugeordnet. Beim normalen VUrfel sind aIle sechs Ergebnisse gleich wahrschein1ich, also besitzt jedes die Vahrschein1ichkeit 1/6 Augenzahl: 1 2 3 4 5 6 Vahrschein1ichkeit: 1/6 1/6 1/6 1/6 1/6 1/6 Neben diesem normalen VUrfel betrachten wir nun aber noch einen andern, weniger normalen VUrfel, dessen Augenzah1en nicht aIle diese1be Wahr scheinlichkeit besitzen, z.B. : Augenzah1: 1 2 3 4 5 6 Yahrscheinliehkeit: 1/9 1/9 1/9 1/6 1/6 1/3 Obwohl fUr beide YUrtel die Yahrscheinliehkeiten angegeben sind, ist das YUrtein nieht beide Male gleich interessante Beim normalen YUrfei haben wir grundsKtzlich keine Abnung, welche Augenzahl sieh ergeben wird, da aIle seehs Ergebnisse gieich wahrscheinlich sind. Beim getKlschten YUrtei dagegen kHnnen wir von vornherein viel eher mit einer grossen Augenzahl rechnen a1s mit einer k1einen. Mit andern Yorten: Beim ersten YUrfe1 herrscht vor dem Vurf eine grijssere Ungewissheit Uber den Ausgang des Versuches als beim zweiten. - 4 - Nehmen wir anstelle der Experimente mit dem SpielwUrtel ein allgemeines endliches Wahrscheinlichkeitsteld (abgekUrzt: wp) Al bis An bezeichnen die Elementarereignisse des ~ und PI bis Pn die = Wahrscheinlichkeiten der Elementarereignisse, p. 1. mit'~l 1- 1 Viederum besteht vor der Durchftihrung eines Versuches Ungewissheit darUber, welches der n Elementarereignisse eintreten wird, und wiederum hangt die Hohe der Ungewissheit ab von den Vahrscheinlichkeiten PI bis P • Besonders krass kommt dies etwa beim Vergleich der tolgenden n beiden WP zum Ausdruck und !13- = ( Al 0,99 Beim WP ~ ist die Ungewissheit otfensichtlich viel kleiner als beim WFOL. Es ist nun bestimmt wUnschenswert, aine mathematische Grijsse einzutUhren, welche die mit einem endlichen Wahrscheinlichkeitsteld verbundene Un gewissheit auf verntinftige Weise misst. Shannon schlug fUr die Ungewiss- heit eine in der Physik bekannte Formel vor: Die Entropie. Die Ungewissheit wird wie folgt als Entropie des WP detiniert: ~ - t H (Of.) = p. log p. i=1 1 1 Tatsichlich hat diese Grosse die oder weniger das zu Eigenschatt~mehr liefern, was man von einer Grosse zur Messung der mit einem Versuch verbundenen Ungewissheit verlangen wird, wie wir bald sehen werden.