ebook img

Zu Analyse und Entwurf evolutionärer Algorithmen PDF

172 Pages·2007·1.31 MB·German
by  
Save to my drive
Quick download
Download
Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.

Preview Zu Analyse und Entwurf evolutionärer Algorithmen

Zu Analyse und Entwurf evolution¨arer Algorithmen Dissertation zur Erlangung des Grades eines Doktors der Naturwissenschaften der Universit¨at Dortmund am Fachbereich Informatik von Stefan Droste Dortmund 2000 Tag der mu¨ndlichen Pru¨fung: 29. November 2000 Dekan: Prof. Dr. Bernd Reusch Gutachter: Prof. Dr. Ingo Wegener Prof. Dr. Heinrich Mu¨ller Hiermit m¨ochte ich mich bei Ingo Wegener fu¨r seine sehr gute Betreuung und Zusammenarbeit bedanken. Ich habe nicht nur vieles u¨ber die Analyse evolution¨arer Algorithmen, sondern wohl noch mehr u¨ber wissenschaftliches Arbeiten bei ihm gelernt. Thomas Jansen danke ich fu¨r viele Diskussionen und die M¨oglichkeit, ge- meinsam offene Probleme und neue L¨osungsans¨atze jederzeit auch ganz ins Blaue hinein anzugehen. Bei Dirk Wiesmann bedanke ich mich fu¨r manches Gespr¨ach, das mir andere, neue Sichtweisen auf evolution¨are Algorithmen offengelegt hat. Beate Bollig bin ich fu¨r viele Hinweise und aufmunternde Worte, wenn es ein- mal nur schlecht voranging, dankbar. Meinen Eltern danke ich fu¨r ihre Un- terstu¨tzung und ihr Verst¨andnis. Inhaltsverzeichnis 1 Einleitung 1 1.1 Motivation und Themenu¨bersicht . . . . . . . . . . . . . . . . . . . . 1 1.2 U¨bersicht evolution¨arer Algorithmen . . . . . . . . . . . . . . . . . . 5 1.3 U¨berblick u¨ber Ver¨offentlichungen . . . . . . . . . . . . . . . . . . . 12 2 Grenzen allgemeiner Suchverfahren 13 2.1 Allgemeine Suchverfahren . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2 Das NFL-Theorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.3 Realistische Szenarien fu¨r allgemeine Suchverfahren. . . . . . . . . . 18 2.4 Ein Free Appetizer“ in einem realistischen Szenario . . . . . . . . . 20 ” 2.5 Ein allgemeines NFL-Theorem . . . . . . . . . . . . . . . . . . . . . 23 2.6 Ein Almost No Free Lunch“ Theorem . . . . . . . . . . . . . . . . . 25 ” 2.7 Konsequenzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 3 Zur theoretischen Analyse von EA 29 3.1 Der (1+1) EA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.2 Bekannte Resultate zur Analyse des (1+1) EA . . . . . . . . . . . . 35 3.3 Einfache Schranken fu¨r den (1+1) EA . . . . . . . . . . . . . . . . . 36 3.4 Der (1+1) EA mit Mutationsst¨arke p (n)=1/n. . . . . . . . . . . 41 m 3.4.1 Sehr einfache und sehr schwierige Funktionen . . . . . . . . . 41 3.4.2 Analysen fu¨r lineare Funktionen . . . . . . . . . . . . . . . . 44 3.4.3 Analysen fu¨r Polynome vom Grad Zwei . . . . . . . . . . . . 57 3.4.4 Analysen fu¨r unimodale Funktionen . . . . . . . . . . . . . . 61 3.4.5 Eine Hierarchie von Funktionen . . . . . . . . . . . . . . . . . 70 3.5 Variationen des (1+1) EA . . . . . . . . . . . . . . . . . . . . . . . 73 3.5.1 Analyse des (1+1) EA mit p (n)(cid:1)=1/n . . . . . . . . . . . 73 m 3.5.2 Akzeptanz bei Gleichheit . . . . . . . . . . . . . . . . . . . . 76 3.6 Zum Vorteil dynamischer Anpassung . . . . . . . . . . . . . . . . . . 78 3.6.1 Einfache Eigenschaften des Static EA auf symmetrischen Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 3.6.2 Eine Analyse fu¨r sinkende Temperatur . . . . . . . . . . . . . 83 3.6.3 Eine Analyse fu¨r steigende Temperatur . . . . . . . . . . . . 90 3.7 Analyse einer natu¨rlichen Funktion . . . . . . . . . . . . . . . . . . . 95 3.7.1 Die Funktion MaxCount . . . . . . . . . . . . . . . . . . . . 96 4 Zum Entwurf evolution¨arer Algorithmen 105 4.1 Metrik-basierte evolution¨are Algorithmen . . . . . . . . . . . . . . . 106 4.1.1 Eine formale Beschreibung evolution¨arer Algorithmen . . . . 106 4.1.2 Die MBEA-Richtlinien . . . . . . . . . . . . . . . . . . . . . . 108 4.2 Genetische Programmierung . . . . . . . . . . . . . . . . . . . . . . . 111 4.2.1 Das Lernen boolescher Funktionen . . . . . . . . . . . . . . . 112 4.2.2 Die Standard-Repr¨asentationder genetischen Programmierung113 i ii INHALTSVERZEICHNIS 4.2.3 Die Standard-Operatorenin der genetischen Programmierung 114 4.2.4 Eine Bewertungsm¨oglichkeitvon GP-Systemen . . . . . . . . 116 4.2.5 Nachteile von GP mit S-Expressions . . . . . . . . . . . . . . 117 4.3 Ordered Binary Decision Diagrams . . . . . . . . . . . . . . . . . . . 119 4.3.1 Bestehende GP-Systeme mit OBDDs . . . . . . . . . . . . . . 122 4.4 Ein MBGP-System mit OBDDs . . . . . . . . . . . . . . . . . . . . . 123 4.4.1 Die zu lernenden Funktionen und die Metrik . . . . . . . . . 124 4.4.2 Repr¨asentation . . . . . . . . . . . . . . . . . . . . . . . . . . 125 4.4.3 Initialisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 4.4.4 Mutation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127 4.4.5 Rekombination . . . . . . . . . . . . . . . . . . . . . . . . . . 130 4.4.6 U¨berblick u¨ber die GP-Systeme . . . . . . . . . . . . . . . . . 135 4.4.7 Empirische Resultate. . . . . . . . . . . . . . . . . . . . . . . 136 5 Theoretische Qualit¨atsgarantien fu¨r GP 141 5.1 Lernen unvollst¨andig definierter Funktionen . . . . . . . . . . . . . . 141 5.2 Das Occam’s Razor Theorem . . . . . . . . . . . . . . . . . . . . . . 143 5.3 GP fu¨r unvollst¨andige Trainingsmengen . . . . . . . . . . . . . . . . 146 5.4 Anwendung des Occam’s Razor Theorems . . . . . . . . . . . . . . . 149 6 Zusammenfasssung und Ausblick 153 A Grundlegende mathematische Begriffe 157 Literaturverzeichnis 161 Kapitel 1 Einleitung In dieser Arbeit werden Ergebnisse zu Analyse und Entwurf evolution¨arer Algo- rithmenvorgestellt.DeshalbwerdenindiesemerstenKapiteldieMerkmaleevoluti- on¨arer Algorithmen besprochen, die in den folgenden Kapiteln behandelten Frage- stellungen motiviert, die wichtigsten Klassenevolution¨arerAlgorithmen vorgestellt und es wird zusammengefasst, wie sich die Resultate dieser Arbeit in Ver¨offentli- chungen wiederfinden. 1.1 Motivation und Themenu¨bersicht Unterevolution¨aren Algorithmen (EA)verstehenwirrandomisierteHeuristiken,die Suchproblemen¨aherungsweisedurchvereinfachendealgorithmischeUmsetzungvon Prinzipien der natu¨rlichen Evolution zu l¨osen versuchen. Somit geben evolution¨are AlgorithmeninderRegelwedereineGarantiebzgl.derben¨otigtenRechenzeitnoch der Gu¨te der ausgegebenen L¨osung. Ein Suchproblem besteht darin, zu einer Ziel- funktion ein Element aus deren Definitionsbereich zu finden, dessen Funktionswert m¨oglichst gut ist. Darunter verstehen wir im Folgenden, wenn nicht ausdru¨cklich andersvermerkt,einen m¨oglichstgroßenFunktionswert,weshalbderZielfunktions- wert eines Elements auch als seine Fitness bezeichnet wird. Der Aufbau eines evolution¨aren Algorithmus l¨asst sich dann grob wie folgt be- schreiben: in jedem Schritt verwalteter eine Menge fester Gr¨oßevonSuchpunkten, die so genannte Population, wobei jeder einzelne Suchpunkt auch als Individuum bezeichnet wird. Aus den Punkten der Population neue Punkte zu erzeugen, ist Aufgabe von Mutation und Rekombination. Dabei steht hinter der Mutation die Idee, jeweils nur ein einzelnes Individuum zuf¨allig zu ver¨andern, ohne dass ande- re Individuen dabei beru¨cksichtigt werden. Durch Rekombination wird hingegen aus mehreren, meist zwei Individuen zuf¨allig ein neues gebildet, das von diesen m¨oglichst gute Eigenschaften u¨bernehmen soll. Durch Mutation und Rekombina- tion werden also neue Individuen (Kinder genannt) aus bestehenden Individuen (Eltern genannt) erzeugt. Beide Operatoren h¨angen oftmals stark von Zufallsent- scheidungen ab. Jedoch fließt in der Regel weder in Mutation noch Rekombination der Zielfunktionswert der Individuen ein. DieZielfunktionbeeinflusstnurdieSelektion.DieserOperatorw¨ahltIndividuen der Population aus, sei es zur Auswahl der Eltern fu¨r eine Rekombination oder Mutation oder, um aus der Menge von Eltern und Kindern die n¨achste Population zuw¨ahlen,wasden U¨bergangzur n¨achstenGeneration darstellt.Dadurch,dassdie Selektion Punkte mit h¨oherem Zielfunktionswert mit gr¨oßerer Wahrscheinlichkeit ausw¨ahlt,sollerreichtwerden,dassnachund nachimmer bessere Punkte gefunden werden. 1 2 KAPITEL 1. EINLEITUNG Initialisierung (cid:2) (cid:1) Selektion bis Stopp-Kriterium (cid:1) erfu¨llt Rekombination (cid:1) Mutation Abbildung 1.1: Schematischer Aufbau eines evolution¨aren Algorithmus. Diese Abfolge der genetischen Operatoren Selektion, Mutation und Rekombina- tion wird u¨ber viele Generationen hinweg wiederholt, bis ein Stopp-Kriterium den Prozess beendet und ein Individuum mit dem gr¨oßten Zielfunktionswert, welches in einer der Generationen gefunden wurde, ausgegeben wird. Zu Beginn des evolu- tion¨aren Algorithmus steht natu¨rlich die Initialisierung der ersten Population, die h¨aufig durch uniforme, d.h. gleichverteilte Auswahl der Individuen aus dem Such- raumerfolgt.GraphischkannderAufbaueinesevolution¨arenAlgorithmusalsoganz grob wie in Abbildung 1.1 dargestellt werden. Schon diese bewusst kurz gehaltene U¨bersicht u¨ber die wichtigsten Prinzipien evolution¨arerAlgorithmenzeigt,dassdieseeinesehrgroßeKlassevonSuchverfahren bilden. Denn fu¨r die algorithmische Umsetzung der genetischen Operatorengibt es aufgrundihrerUnspezifiziertheiteineVielzahlvonWahlm¨oglichkeiten.Dafu¨rspielt die Wahl der Repr¨asentation der Individuen zus¨atzlich eine entscheidende Rolle. Auch besteht keine Einigkeit daru¨ber, welche genetischen Operatoren in einem Al- gorithmus auftauchen mu¨ssen, um ihn evolution¨ar nennen zu k¨onnen. Dies hat zur Folge, dass jeder Algorithmus, der mindestens eines der obigen Prinzipien beru¨ck- sichtigt, als evolution¨arer Algorithmus bezeichnet werden kann. Diese große Zahl von Umsetzungsm¨oglichkeiten der Prinzipien ist zusammen mit ihrer großen Anschaulichkeit mitverantwortlich fu¨r den Erfolg evolution¨arer AlgorithmeninpraktischenAnwendungen.DennzueinemgegebenenProbleml¨asst sich sehr schnell ein erster einfacher evolution¨arer Algorithmus entwickeln, ohne große Einsicht in die Struktur des Problems haben zu mu¨ssen. Durch die schnelle Erreichbarkeit lauff¨ahiger und oftmals auch gute Resultate erzielender evolution¨arerAlgorithmen sind die theoretischenGrundlagen in diesem Bereich zum Teil nur schwach entwickelt. Denn oftmals werden neue und immer kompliziertere Varianten evolution¨arer Algorithmen entwickelt und getestet, oh- ne ein Basiswissen zu haben, welche Zielfunktionstypen von welchen evolution¨aren Algorithmen erfolgreich optimiert werden k¨onnen und welche Mechanismen dafu¨r entscheidend sind. Demzufolge gibt es auch keine theoretisch abgesichertenMetho- den, wie evolution¨are Algorithmen zu entwerfen sind. H¨aufig wird ein Trial-and- Error Verfahren eingesetzt, nur durch eine Reihe von allein empirisch gestu¨tzten Entwurfsregeln begleitet. InAbschnitt 1.2werdenwirdie wichtigstenKlassenevolution¨arerAlgorithmen, die sich durch verschiedene Auspr¨agungen des Suchraum und darauf abgestimmter genetischer Operatoren unterscheiden, vorstellen. Dies dient einerseits dazu, durch 1.1. MOTIVATION UND THEMENU¨BERSICHT 3 konkrete Beispiele die bisher doch sehr abstrakte Beschreibungevolution¨arerAlgo- rithmen mit mehr Leben zu fu¨llen, aber auch, die verschiedenen Ans¨atze theoreti- scher Analysen, die sichzum Teil getrenntfu¨r die einzelnen Klassenherausgebildet haben, zu beschreiben. Die dort festgestellten M¨angel sind Motivation fu¨r einen Großteil dieser Arbeit. Die leichte Umsetzbarkeit evolution¨arer Algorithmen mit oftmals guten Erfol- gen hat auch zusammen mit dem Grundgedanken, dass die natu¨rliche Evolution einu¨berlegenesOptimierprinzipdarstellt,zuderBehauptung gefu¨hrt,dassevoluti- on¨are Algorithmen anderen Suchverfahren u¨berlegen sind, ohne diese Behauptung genau zu formalisieren (Goldberg (1989)). Dass gemittelt u¨ber alle Zielfunktionen alle Suchverfahren gleich gut sind, was im so genannten NFL ( No-Free-Lunch“)- ” Theorem (Wolpert und Macready (1997)) formalisiert wurde, hat demzufolge zu zum Teil großer Verwunderung gefu¨hrt. In Kapitel 2 wird die Aufgabenstellung von Suchverfahren zusammengefasst und das NFL-Theorem mit einem kurzen Beweis wiederholt, um seine grundlegen- de Aussage und einfache Struktur deutlich zu machen. Ohne an der Korrektheit zweifeln zu wollen, werden wir dann seine Voraussetzung, dass alle Zielfunktionen bei der Optimierung gleichrangig sind, durch komplexit¨atstheoretische Argumen- te ad absurdum fu¨hren. Dies zeigt zusammen mit einem konkreten Beispiel unter realistischerenAnnahmen, dass zumindest kleine Unterschiede verschiedener Such- verfahren bei realistischen Voraussetzungen m¨oglich sind. Eine neue allgemeine- re Version des NFL-Theorems und der Nachweis, dass es fu¨r ein beliebiges festes Suchverfahren zu jeder schnell optimierbaren wenig verschiedene, jedoch nur lang- sam optimierbare Zielfunktionen gibt, zeigen, dass Untersuchungen u¨ber zu große Klassen von Funktionen und Suchverfahren nicht zu aussagekr¨aftigen Resultaten fu¨hren k¨onnen. Die Idee, die natu¨rliche Evolution als Vorbild zu nutzen, war entscheidend zur Entwicklungevolution¨arerAlgorithmenindensp¨aten50erund60erJahrenundist fu¨r eine erste anschaulicheBeschreibung sehr geeignet.Oftmals wirddieser Gedan- ke auch so weiterentwickelt, dass man hofft, durch m¨oglichst genaue Modellierung von evolution¨aren Vorg¨angen der Natur in evolution¨aren Algorithmen mittels der Ergebnisse dieser Algorithmen Ru¨ckschlu¨sse auf die natu¨rliche Evolutionziehen zu k¨onnen. Dieser Ansatz, neue Erkenntnisse aus der Biologie in evolution¨are Algo- rithmen einfließen zu lassen und umgekehrt aus ihnen auf die natu¨rliche Evolution zu schließen, wird hier bewusst nicht verfolgt. Vielmehr werden wir evolution¨are Algorithmen als eine Teilklasse von rando- misierten Suchheuristiken betrachten. Damit sind evolution¨are Algorithmen algo- rithmischeBeschreibungenstochastischerProzesse.DieseSichtweiseimpliziert,dass evolution¨are Algorithmen auch nur vollst¨andig durch mathematische Methoden zu analysieren sind. Dabei wird die M¨oglichkeit, durch wiederholte Testl¨aufe Daten u¨ber dasVerhaltendes evolution¨arenAlgorithmuszu erhalten,d.h.die experimen- telle Analyse, hier nicht als im Prinzip irrefu¨hrend bezeichnet. Im Gegenteil, sie wird von uns auch in manchen Teilen durchgefu¨hrt, wo sich der betrachtete evolution¨are Algorithmus als fu¨r eine mathematische Analyse zu kompliziert erweist. Jedoch kann eine rein experimentelle Analyse nur Gewissheit u¨berdiedurchgefu¨hrtenL¨aufegeben,alleweiterenL¨aufek¨onnenschonaufgrundder stochastischen Natur des evolution¨aren Algorithmus andere Resultate liefern. Eine weitergehendeGewissheitkannindiesemFallnatu¨rlichmitstatistischenMethoden gewonnen werden, womit Sicherheiten bestimmt werden k¨onnen, mit denen das beobachtete Verhalten auftreten wird. Die theoretische Analyse ohne unbewiesene Annahmen kann jedoch als Einzige sichere Ergebnisseu¨ber das generelle Verhalten eines evolution¨aren Algorithmus liefern. Einsehreinfacher,dabeijedochwichtigePrinzipienverk¨orpernderevolution¨arer Algorithmus,dersogenannte(1+1) EA,undVariationenvonihmwerdeninKapi- 4 KAPITEL 1. EINLEITUNG tel 3 mit mathematischen Methoden analysiert. Die Einschr¨ankung auf einen solch einfachen Algorithmus und genau definierte Klassen von Zielfunktionen begru¨ndet sichausdenErgebnissenausKapitel2,wonachu¨berzuallgemeineKlassenvonZiel- funktionen keine sinnvollenAussagengemachtwerden k¨onnen. Schon die Analysen dieser einfachen“ Probleme werden oftmals schwierige Fragestellungen aufwerfen ” und allgemeiner anwendbare Prinzipien offenbaren. Dabeiwirdprim¨ardie erwarteteLaufzeit,die der(1+1) EAbis zum Erreichen einesOptimumsbraucht,fu¨rverschiedeneZielfunktionenuntersucht,wobeioftmals auch die Wahrscheinlichkeit, mit der eine bestimmte Laufzeit ben¨otigt wird, ab- gesch¨atzt wird. Diese Gr¨oßen werden abh¨angig von der Dimension des Suchraums untersucht, wobei davon unabh¨angige Konstanten oftmals vernachl¨assigt werden. Dies spiegelt die U¨berzeugung wider, dass das qualitative Verhalten eines Algo- rithmus von der Gr¨oßenordnung, mit der die Eingabel¨ange, in diesem Fall die Di- mension des Suchraums, in die Laufzeit einfließt, beschrieben wird. Dies ist in der Algorithmenanalyseg¨angigePraxis(Motwaniund Raghavan(1995)).Hauptaugen- merk ist dabei der mathematisch korrekte Nachweis, ob alle Zielfunktionen einer Klasse effizient, d.h. in polynomieller Laufzeit (im Erwartungsfall oder mit hoher Wahrscheinlichkeit)optimiertwerdenk¨onnenoderobsieFunktionenenthalten,die exponentielle Laufzeit haben. Dabei werden zum ersten Mal lange gehegte Vermu- tungen mathematisch genau best¨atigt (fu¨r die Klasse der linearen Zielfunktionen) oder als falsch nachgewiesen (fu¨r die Klasse der unimodalen Zielfunktionen). Ein zweiter Schwerpunkt ist der Versuch einer Konkretisierung der Prinzipien evolution¨arer Algorithmen, um den Entwurf auf ein Problem abgestimmter evo- lution¨arer Algorithmen zu erleichtern. Der zu Beginn besprochene Aufbau evolu- tion¨arer Algorithmen macht durch seine Allgemeinheit eine schnelle Anwendung zwar einfach, doch ist zur Anpassung an komplexe Probleme oft eine aufwendige Ver¨anderung seiner Parameter oder Operatoren notwendig. Um diesen Prozess zu vereinfachen,werdeninKapitel4formalgenaudefinierteRichtlinienfu¨rgewu¨nschte Auswirkungen der genetischen Operatoren angegeben. In diese muss nach den Er- gebnissen von Kapitel 2 die Zielfunktion einfließen, um u¨berdurchschnittliche Leis- tungen des Algorithmus nicht dem glu¨cklichen Zusammenpassen von Algorithmus und Zielfunktion zu u¨berlassen. Da die Zielfunktion nur anhand einer Metrik auf dem Suchraum in die gene- tischen Operatoren einfließt, werden diese Richtlinien erfu¨llende evolution¨are Al- gorithmen Metrik-basierte evolution¨are Algorithmen (MBEA) genannt. Die vorge- schlagenenRichtlinien sind um ihrer leichterenAnwendbarkeitwegen aber noch zu allgemein, als dass ihre Auswirkungen hier theoretisch analysiert werden k¨onnen. Deshalb werden wir sie nur anhand von Experimenten untersuchen. Dies geschiehtfu¨r eine spezielle Auspr¨agung evolution¨arerAlgorithmen,der ge- netischen Programmierung (GP). Diese hat das entscheidende Charakteristikum, dassdieElementedesSuchraumsalsProgrammeinterpretiertwerden.Hierbetrach- tete GP-Systeme versuchen, ein unbekanntes Programm nur anhand einer implizit gegebenen vollst¨andigen bzw. unvollst¨andigen Trainingsmenge zu lernen. Dass aus Effizienzgru¨nden die Individuen in der genetischen Programmierung durch Daten- strukturenvariablerL¨ange,wieB¨aume,ListenoderGraphen,repr¨asentiertwerden, erschwerteinemathematischeAnalyse,sodassimGebietdergenetischenProgram- mierung theoretische Grundlagen kaum vorhanden sind. Da die vorgeschlagenen MBEA-Richtlinien gerade bei GP-Systemen oft nicht eingehalten werden, wird in Kapitel 4 ein GP-System nach diesen Richtlinien ent- worfenundseineLeistungaufBenchmark-ProblemenmitPrototypeng¨angigerGP- Systeme verglichen. Dabei wird dieses GP-System zur Repr¨asentation so genannte Ordered Binary Decision Diagrams (OBDDs) verwenden. Diese sind eine effiziente Datenstruktur fu¨r boolesche Funktionen und finden, auch weil sie theoretisch gut verstandensind,z.B.imCAD-BereichgroßeVerwendung.Anhandderempirischen

Description:
1.1. MOTIVATION UND THEMEN¨UBERSICHT. 3 konkrete Beispiele die bisher doch sehr abstrakte Beschreibung evolutionärer Algo- rithmen mit mehr Leben zu füllen, aber auch, die verschiedenen Ansätze theoreti- scher Analysen, die sich zum Teil getrennt für die einzelnen Klassen herausgebildet.
See more

The list of books you might like

Most books are stored in the elastic cloud where traffic is expensive. For this reason, we have a limit on daily download.