Treffen Sie mit der klassischen Methode eine unbedingt optimale Entscheidung. Unbedingte und bedingte Optimierungsmethoden. Eindimensionale Optimierungsmethoden

Die akzeptableste Entscheidungsoption, die auf der Führungsebene zu einem beliebigen Thema getroffen wird, gilt als optimal, und der Prozess der Suche danach wird als Optimierung angesehen.

Die gegenseitige Abhängigkeit und Komplexität organisatorischer, sozioökonomischer, technischer und anderer Aspekte des Produktionsmanagements läuft derzeit darauf hinaus, eine Managemententscheidung zu treffen, die eine Vielzahl verschiedener Arten von Faktoren beeinflusst, die eng miteinander verknüpft sind, wodurch dies unmöglich wird jedes einzeln mit herkömmlichen Analysemethoden zu analysieren.

Die meisten Faktoren sind für den Entscheidungsprozess ausschlaggebend und können (von Natur aus) nicht quantifiziert werden. Es gibt auch solche, die praktisch unverändert sind. In diesem Zusammenhang bestand die Notwendigkeit, spezielle Methoden zu entwickeln, die die Auswahl wichtiger sicherstellen könnten Managemententscheidungen im Rahmen komplexer organisatorischer, wirtschaftlicher, technischer Fragestellungen (Gutachten, Operations Research und Optimierungsmethoden etc.).

Methoden des Operations Research werden eingesetzt, um optimale Lösungen in Managementbereichen wie der Organisation von Produktions- und Transportprozessen, der Planung von Großproduktionen sowie der Material- und technischen Versorgung zu finden.

Methoden zur Optimierung von Lösungen umfassen Forschung durch den Vergleich numerischer Schätzungen einer Reihe von Faktoren, deren Analyse mit herkömmlichen Methoden nicht durchgeführt werden kann. Die optimale Lösung ist die beste unter den möglichen Optionen in Bezug auf das Wirtschaftssystem, und die akzeptabelste in Bezug auf einzelne Elemente des Systems ist suboptimal.

Die Essenz der Operations-Research-Methoden

Wie bereits erwähnt, bilden sie Methoden zur Optimierung von Managemententscheidungen. Ihre Grundlage sind mathematische (deterministische), probabilistische Modelle, die den untersuchten Prozess, die Art der Aktivität oder das untersuchte System darstellen. Ein solches Modell stellt ein quantitatives Merkmal des entsprechenden Problems dar. Sie dienen als Grundlage für wichtige Managemententscheidungen bei der Suche nach der optimalen Option.

Eine Liste von Problemen, die für direkte Produktionsleiter eine wesentliche Rolle spielen und durch den Einsatz der betrachteten Methoden gelöst werden:

  • der Grad der Gültigkeit der gewählten Entscheidungsoptionen;
  • Wie viel besser sind sie als die Alternativen?
  • Grad der Berücksichtigung bestimmender Faktoren;
  • Was ist das Kriterium für die Optimalität der ausgewählten Lösungen?

Diese Methoden der Entscheidungsoptimierung (management) zielen darauf ab, optimale Lösungen für möglichst viele Firmen, Unternehmen oder deren Unternehmensbereiche zu finden. Sie basieren auf vorhandenen Errungenschaften statistischer, mathematischer und wirtschaftswissenschaftlicher Disziplinen (Spieltheorie, Schlange stehen, Diagramme, optimale Programmierung, mathematische Statistik).

Expertenbewertungsmethoden

Diese Methoden zur Optimierung von Managemententscheidungen kommen dann zum Einsatz, wenn das Problem teilweise oder vollständig keiner Formalisierung unterliegt und seine Lösung nicht mit mathematischen Methoden gefunden werden kann.

Unter Expertise versteht man die Untersuchung komplexer Sonderfragen im Stadium der Entwicklung einer konkreten Managemententscheidung durch relevante Personen, die über besondere Kenntnisse und beeindruckende Erfahrung verfügen, um Schlussfolgerungen, Empfehlungen, Meinungen und Einschätzungen zu erhalten. Bei der Gutachterforschung werden im Rahmen der Spezialisierung des Gutachters die neuesten Erkenntnisse aus Wissenschaft und Technik genutzt.

Die betrachteten Methoden zur Optimierung einer Reihe von Managemententscheidungen (Gutachten) sind wirksam bei der Lösung folgender Managementaufgaben im Bereich der Produktion:

  1. Das Studium komplexer Prozesse, Phänomene, Situationen, Systeme, die durch informelle, qualitative Merkmale gekennzeichnet sind.
  2. Einstufung und Bestimmung wesentlicher Faktoren nach einem vorgegebenen Kriterium, die für das Funktionieren und die Entwicklung des Produktionssystems entscheidend sind.
  3. Die betrachteten Optimierungsmethoden sind besonders effektiv bei der Vorhersage von Trends in der Entwicklung eines Produktionssystems sowie seiner Interaktion mit der externen Umgebung.
  4. Erhöhung der Zuverlässigkeit der Expertenbewertung hauptsächlich von Zielfunktionen quantitativer und qualitativer Natur durch Mittelung der Meinungen qualifizierter Spezialisten.

Und das sind nur einige Methoden zur Optimierung einer Reihe von Managemententscheidungen (Expertenbewertung).

Klassifizierung der betrachteten Methoden

Methoden zur Lösung von Optimierungsproblemen, basierend auf der Anzahl der Parameter, können unterteilt werden in:

  • Eindimensionale Optimierungsmethoden.
  • Mehrdimensionale Optimierungsmethoden.

Sie werden auch „numerische Optimierungsverfahren“ genannt. Genauer gesagt handelt es sich dabei um Algorithmen zur Suche.

Im Rahmen des Einsatzes von Derivaten sind die Methoden:

  • direkte Optimierungsmethoden (nullte Ordnung);
  • Gradientenmethoden (1. Ordnung);
  • Methoden 2. Ordnung usw.

Die meisten mehrdimensionalen Optimierungsverfahren liegen nahe am Problem der zweiten Methodengruppe (eindimensionale Optimierung).

Eindimensionale Optimierungsmethoden

Alle numerischen Optimierungsmethoden basieren auf der ungefähren oder genauen Berechnung von Merkmalen wie den Werten der Zielfunktion und Funktionen, die die zulässige Menge und ihre Ableitungen definieren. Somit kann für jede einzelne Aufgabe die Frage nach der Auswahl der zu berechnenden Merkmale in Abhängigkeit von den vorhandenen Eigenschaften der betrachteten Funktion, den verfügbaren Möglichkeiten und Einschränkungen bei der Speicherung und Verarbeitung von Informationen gelöst werden.

Zur Lösung von Optimierungsproblemen (eindimensional) gibt es folgende Methoden:

  • Fibonacci-Methode;
  • Dichotomien;
  • Goldener Schnitt;
  • den Schritt verdoppeln.

Fibonacci-Methode

Zuerst müssen Sie die Koordinaten des Punktes x im Intervall als Zahl festlegen, die dem Verhältnis der Differenz (x – a) zur Differenz (b ​​– a) entspricht. Daher hat a eine Koordinate von 0 relativ zum Intervall, b hat eine Koordinate von 1 und der Mittelpunkt ist ½.

Wenn wir annehmen, dass F0 und F1 einander gleich sind und den Wert 1 annehmen, F2 gleich 2, F3 - 3, ... ist, dann ist Fn = Fn-1 + Fn-2. Fn sind also Fibonacci-Zahlen, und die Fibonacci-Suche ist die optimale Strategie für die sogenannte sequentielle Suche nach dem Maximum, da sie ziemlich eng mit ihnen verwandt ist.

Im Rahmen der optimalen Strategie ist es üblich, xn – 1 = Fn-2: Fn, xn = Fn-1: Fn zu wählen. Für jedes von zwei Intervallen (oder), von denen jedes als verengtes Unsicherheitsintervall fungieren kann, hat der (geerbte) Punkt relativ zum neuen Intervall entweder die Koordinaten , oder . Als nächstes wird ein Punkt als xn - 2 angenommen, der eine der angegebenen Koordinaten relativ zum neuen Intervall hat. Wenn Sie F(xn – 2) verwenden, einen Funktionswert, der vom vorherigen Intervall geerbt wird, wird es möglich, das Unsicherheitsintervall zu reduzieren und einen Funktionswert zu erben.

Im letzten Schritt ist es möglich, zu einem Unsicherheitsintervall wie z. B. zu wechseln, während der Mittelpunkt vom vorherigen Schritt übernommen wird. Als x1 wird ein Punkt festgelegt, der eine relative Koordinate von ½+ε hat, und das endgültige Unsicherheitsintervall beträgt oder [½, 1] in Bezug auf .

Im 1. Schritt wurde die Länge dieses Intervalls auf Fn-1: Fn (von eins) reduziert. Bei den Endbearbeitungsschritten wird die Verringerung der Längen der entsprechenden Intervalle durch die Zahlen Fn-2: Fn-1, Fn-3: Fn-2, ..., F2: F3, F1: F2 (1 + 2ε) dargestellt ). Also die Länge eines Intervalls wie endgültige Version nimmt den Wert (1 + 2ε) an: Fn.

Wenn wir ε vernachlässigen, dann ist asymptotisch 1: Fn gleich rn, mit n→∞ und r = (√5 - 1) : 2, was ungefähr gleich 0,6180 ist.

Es ist erwähnenswert, dass asymptotisch für signifikantes n jeder nachfolgende Schritt der Fibonacci-Suche das betrachtete Intervall um den oben genannten Koeffizienten erheblich verengt. Dieses Ergebnis muss mit 0,5 (dem Koeffizienten zur Verengung des Unsicherheitsintervalls innerhalb der Halbierungsmethode zum Finden des Nullpunkts der Funktion) verglichen werden.

Dichotomie-Methode

Wenn Sie sich eine bestimmte Zielfunktion vorstellen, müssen Sie zunächst deren Extremum im Intervall (a; b) ermitteln. Dazu wird die Abszissenachse in vier äquivalente Teile geteilt, dann ist es notwendig, den Wert der jeweiligen Funktion an 5 Punkten zu bestimmen. Als nächstes wird das Minimum unter ihnen ausgewählt. Das Extremum der Funktion muss innerhalb des Intervalls (a“; b“) liegen, das an den Minimalpunkt angrenzt. Die Suchgrenzen werden um das Zweifache eingegrenzt. Und wenn das Minimum in Punkt a oder b liegt, dann verengt es sich um das Vierfache. Das neue Intervall wird ebenfalls in vier gleiche Segmente unterteilt. Da im vorherigen Schritt die Werte dieser Funktion an drei Punkten bestimmt wurden, ist es anschließend erforderlich, die Zielfunktion an zwei Punkten zu berechnen.

Methode des Goldenen Schnitts

Für signifikante Werte von n liegen die Koordinaten von Punkten wie xn und xn-1 nahe bei 1 - r, gleich 0,3820 und r ≈ 0,6180. Der Push aus diesen Werten kommt der gewünschten optimalen Strategie sehr nahe.

Wenn wir annehmen, dass F(0,3820) > F(0,6180), dann ist das Intervall umrissen. Da jedoch 0,6180 * 0,6180 ≈ 0,3820 ≈ xn-1 ist, ist F zu diesem Zeitpunkt bereits bekannt. Folglich ist in jeder Stufe, beginnend mit der 2., nur eine Berechnung der Zielfunktion erforderlich und jeder Schritt reduziert die Länge des betrachteten Intervalls um den Faktor 0,6180.

Im Gegensatz zur Fibonacci-Suche ist es bei dieser Methode nicht erforderlich, die Zahl n vor Beginn der Suche festzulegen.

« Goldener Schnitt» Abschnitt (a; b) - ein Abschnitt, in dem das Verhältnis seiner Länge r zum größeren Teil (a; c) identisch ist mit dem Verhältnis des größeren Teils r zum kleineren, also (a; c) zu (c; b). Es ist nicht schwer zu erraten, dass r durch die obige Formel bestimmt wird. Folglich wird für signifikantes n hier die Fibonacci-Methode verwendet.

Schrittverdopplungsmethode

Das Wesentliche ist die Suche nach der Richtung der Abnahme der Zielfunktion, eine Bewegung in diese Richtung bei erfolgreicher Suche mit einem allmählich zunehmenden Schritt.

Zunächst bestimmen wir die Anfangskoordinate M0 der Funktion F(M), den minimalen Schrittwert h0 und die Suchrichtung. Dann definieren wir die Funktion am Punkt M0. Als nächstes machen wir einen Schritt und ermitteln den Wert dieser Funktion an dieser Stelle.

Wenn die Funktion kleiner als der Wert im vorherigen Schritt ist, sollte der nächste Schritt in die gleiche Richtung erfolgen und zunächst um das Zweifache erhöht werden. Wenn sein Wert größer als der vorherige ist, müssen Sie die Suchrichtung ändern und dann mit den Schritten h0 beginnen, sich in die ausgewählte Richtung zu bewegen. Der vorgestellte Algorithmus kann modifiziert werden.

Mehrdimensionale Optimierungsmethoden

Die oben erwähnte Methode nullter Ordnung berücksichtigt nicht die Ableitungen der minimierten Funktion, weshalb ihr Einsatz effektiv sein kann, wenn bei der Berechnung von Ableitungen Schwierigkeiten auftreten.

Die Gruppe der Methoden 1. Ordnung wird auch Gradientenmethoden genannt, da zur Festlegung der Suchrichtung der Gradient einer gegebenen Funktion verwendet wird – ein Vektor, dessen Komponenten die partiellen Ableitungen der minimierten Funktion nach den entsprechenden optimierten Parametern sind .

In der Gruppe der Methoden 2. Ordnung werden 2 Ableitungen verwendet (ihre Verwendung ist aufgrund der Schwierigkeiten bei der Berechnung recht eingeschränkt).

Liste der uneingeschränkten Optimierungsmethoden

Bei Verwendung der mehrdimensionalen Suche ohne Verwendung abgeleiteter Methoden bedingungslose Optimierung die folgende:

  • Hook und Jeeves (durchführen von zwei Arten der Suche – musterbasiert und explorativ);
  • Minimierung durch den richtigen Simplex (Suche nach dem Minimalpunkt der entsprechenden Funktion durch Vergleich ihrer Werte an den Scheitelpunkten des Simplex bei jeder einzelnen Iteration);
  • zyklischer Koordinatenabstieg (unter Verwendung von Koordinatenvektoren als Referenzpunkte);
  • Rosenbrock (basierend auf der Verwendung eindimensionaler Minimierung);
  • Minimierung mit einem deformierten Simplex (Modifikation der Minimierungsmethode mit einem regulären Simplex: Hinzufügen eines Kompressions- und Streckverfahrens).

Bei der Verwendung von Ableitungen im Prozess der mehrdimensionalen Suche wird die Methode des steilsten Abstiegs unterschieden (das grundlegendste Verfahren zur Minimierung einer differenzierbaren Funktion mit mehreren Variablen).

Es gibt auch andere Methoden, die konjugierte Richtungen verwenden (Davidon-Fletcher-Powell-Methode). Sein Kern ist die Darstellung von Suchrichtungen als Dj*grad(f(y)).

Klassifikation mathematischer Optimierungsverfahren

Herkömmlicherweise lauten sie, basierend auf der Dimension der Funktionen (Ziel), wie folgt:

  • mit 1 Variable;
  • mehrdimensional.

Abhängig von der Funktion (linear oder nichtlinear) gibt es eine Vielzahl mathematischer Methoden, die darauf abzielen, ein Extremum zur Lösung des Problems zu finden.

Nach dem Kriterium für den Einsatz von Derivaten mathematische Methoden Optimierungen sind unterteilt in:

  • Methoden zur Berechnung einer Ableitung der Zielfunktion;
  • mehrdimensional (1. Ableitung-Vektor-Menge-Gradient).

Basierend auf der Effizienz der Berechnung gibt es:

  • Methoden zur schnellen Berechnung von Extremwerten;
  • vereinfachte Berechnung.

Hierbei handelt es sich um eine bedingte Klassifizierung der betrachteten Methoden.

Geschäftsprozessoptimierung

Abhängig von den zu lösenden Problemen können hier unterschiedliche Methoden zum Einsatz kommen. Es ist üblich, folgende Methoden zur Optimierung von Geschäftsprozessen zu unterscheiden:

  • Ausnahmen (Reduzierung der Ebenen des bestehenden Prozesses, Beseitigung der Störungsursachen usw.) Eingabesteuerung, Reduzierung der Transportwege);
  • Vereinfachung (erleichterte Auftragsabwicklung, reduzierte Komplexität der Produktstruktur, Arbeitsverteilung);
  • Standardisierung (Einsatz spezieller Programme, Methoden, Technologien etc.);
  • Beschleunigung (Parallel Engineering, Stimulation, betriebliches Design von Prototypen, Automatisierung);
  • Veränderung (Änderungen bei Rohstoffen, Technologie, Arbeitsmethoden, Personalbesetzung, Arbeitssystemen, Auftragsvolumen, Verarbeitungsverfahren);
  • Sicherstellung der Interaktion (in Bezug auf Organisationseinheiten, Personal, Arbeitssystem);
  • Auswahl und Einbeziehung (relativ zu notwendige Prozesse, Komponenten).

Steueroptimierung: Methoden

Die russische Gesetzgebung bietet dem Steuerzahler sehr umfangreiche Möglichkeiten zur Steuersenkung, weshalb es üblich ist, solche Methoden zur Steuerminimierung in allgemeine (klassische) und besondere Methoden zu unterscheiden.

Allgemeine Methoden Steueroptimierung die folgende:

  • Entwicklung der Rechnungslegungsgrundsätze des Unternehmens unter größtmöglicher Nutzung der bereitgestellten Mittel Russische Gesetzgebung Möglichkeiten (Verfahren zur Abschreibung von IBP, Wahl der Methode zur Berechnung der Einnahmen aus Warenverkäufen usw.);
  • Optimierung durch einen Vertrag (Abschluss von Vorzugsgeschäften, klare und kompetente Formulierung usw.);
  • Anwendung verschiedener Arten von Vorteilen und Steuerbefreiungen.

Auch die zweite Methodengruppe kann von allen Unternehmen genutzt werden, hat aber noch einen eher engen Anwendungsbereich. Spezielle Steueroptimierungsmethoden sind wie folgt:

  • Ersetzen von Beziehungen (ein Vorgang, der eine belastende Besteuerung mit sich bringt, wird durch einen anderen ersetzt, der es einem ermöglicht, ein ähnliches Ziel zu erreichen, aber gleichzeitig eine steuerliche Vorzugsbehandlung in Anspruch zu nehmen).
  • Aufteilung der Beziehungen (Ersetzung nur eines Teils eines Geschäftsvorfalls);
  • Aufschub der Steuerzahlung (Verschiebung des Zeitpunkts des Erscheinens des steuerpflichtigen Gegenstands auf einen anderen Kalenderzeitraum);
  • direkte Reduzierung des Steuergegenstandes (Entfall vieler steuerpflichtiger Transaktionen oder Vermögenswerte, ohne dass dies negative Auswirkungen auf die Hauptsache hat). Wirtschaftstätigkeit Firmen).

Unter den Optimierungsmethoden nullter Ordnung im CAD werden die Methoden von Rosenbrock, Konfigurationen, verformbares Polyeder und Zufallssuche verwendet. Zu den Methoden, die Ableitungen verwenden, gehören die Methoden des steilsten Abstiegs, des konjugierten Gradienten und der variablen Metrik.

Rosenbrocks Methode ist eine verbesserte Version des Koordinatenabstiegs.

Koordinatenabstiegsmethode gekennzeichnet durch die Wahl der Suchrichtungen abwechselnd entlang aller Koordinatenachsen, der Schritt wird auf der Grundlage einer eindimensionalen Optimierung berechnet, Suche Endkriterium , wobei die angegebene Genauigkeit der Bestimmung ist lokales Extremum ist die Dimension des Raums der kontrollierten Parameter. Die Koordinatenabstiegsbahn für ein Beispiel eines zweidimensionalen Raums kontrollierter Parameter ist in Abb. dargestellt. 1, wobei Punkte auf der Suchtrajektorie und kontrollierte Parameter sind. Die Zielfunktion wird durch ihre Linien gleicher Ebenen dargestellt, und der entsprechende Wert wird neben jede Linie geschrieben. Natürlich gibt es eine Mindestpunktzahl.

Reis. 1. Flugbahn des Koordinatenabstiegs

Bei Verwendung der Koordinatenabstiegsmethode besteht eine hohe Wahrscheinlichkeit, dass die Suche am Grund einer Schlucht weit vom Extrempunkt entfernt stecken bleibt. In Abb. 2 zeigt, dass nach dem Auftreffen auf den am Grund der Schlucht liegenden Punkt weitere Schritte nur noch in die Richtungen oder möglich sind, diese aber zu einer Verschlechterung der Zielfunktion führen. Daher stoppt die Suche an Punkt .

Anmerkung 1

Eine Schlucht ist ein Teil des Raums kontrollierter Parameter, in dem in einigen Richtungen schwache Änderungen der Ableitungen der Zielfunktion und in anderen Richtungen erhebliche Änderungen mit Vorzeichenwechsel beobachtet werden. Das Vorzeichen der Ableitung ändert sich an Punkten, die zum Grund der Schlucht gehören.

Reis. 3. Trajektorie des Koordinatenabstiegs mit günstiger Ausrichtung der Koordinatenachsen

Rosenbrock-Methode besteht darin, die Koordinatenachsen so zu drehen, dass eine von ihnen quasi parallel zum Grund der Schlucht verläuft. Diese Drehung wird auf der Grundlage von Daten durchgeführt, die nach einer Reihe von Koordinatenabstiegsschritten erhalten wurden. Die Position der neuen Achsen kann ermittelt werden lineare Transformation ehemalige Achsen: Die Achse fällt in Richtung mit dem Vektor zusammen; die übrigen Achsen werden aus der Bedingung der Orthogonalität zueinander und zueinander gewählt.

Eine weitere erfolgreiche Modifikation des Koordinatenabstiegs ist Konfigurationsmethode(Hook-Jeeves). Gemäß dieser Methode wird zunächst die übliche Reihe von Schritten des Koordinatenabstiegs durchgeführt, dann wird ein zusätzlicher Schritt in Richtung des Vektors unternommen, wie in Abb. 4, wo ein zusätzlicher Schritt in Richtung des Vektors durchgeführt wird, der zum Punkt führt.

Reis. 4. Darstellung der Konfigurationsmethode

Suche nach Extremum Methode des verformbaren Polyeders(Nelder-Mead) basiert auf der Konstruktion eines Polyeders mit Eckpunkten bei jedem Suchschritt, wobei es sich um die Dimension des Raums kontrollierter Parameter handelt. Zu Beginn der Suche werden diese Eckpunkte zufällig ausgewählt; in den weiteren Schritten unterliegt die Auswahl den Regeln der Methode.

Diese Regeln werden in Abb. erläutert. 5 am Beispiel eines zweidimensionalen Optimierungsproblems. Die Eckpunkte des ursprünglichen Dreiecks werden ausgewählt: , , . Der neue Scheitelpunkt liegt auf dem Strahl, der vom schlechtesten Scheitelpunkt (vom Scheitelpunkt mit dem größten Wert der Zielfunktion) durch den Schwerpunkt des Polyeders gezogen wird, und es wird empfohlen, einen Abstand von gleich zu wählen. Der neue Scheitelpunkt ersetzt den schlechtesten Scheitelpunkt. Wenn sich herausstellt, dass dies der Fall ist bester Wert Zielfunktion zwischen den Eckpunkten des Polyeders, dann wird der Abstand vergrößert. In der Abbildung ist genau diese Situation gegeben und die Erhöhung gibt den Punkt an. In einem neuen Polyeder mit Eckpunkten ist das Schlimmste der Eckpunkt. Ebenso erhält man den Eckpunkt, dann den Eckpunkt usw. Wenn sich herausstellt, dass der neue Scheitelpunkt schlechter ist, muss der beste Scheitelpunkt im Polyeder erhalten bleiben und die Längen aller Kanten müssen beispielsweise um die Hälfte reduziert werden (wodurch das Polyeder auf den besten Scheitelpunkt zusammengezogen wird). Die Suche wird beendet, wenn die Bedingung, die Größe des Polyeders auf einen bestimmten Grenzwert zu reduzieren, erfüllt ist.

Der optimale Schritt wird durch eindimensionale Optimierung ausgewählt.

Bei Verwendung der Methode des steilsten Abstiegs wird, wie bei den meisten anderen Methoden auch, die Sucheffizienz in Schluchtsituationen erheblich verringert. Die Suchbahn nimmt eine Zickzackform mit langsamer Bewegung entlang des Grundes der Schlucht in Richtung Extremum an. Um die Effizienz von Gradientenmethoden zu steigern, werden verschiedene Techniken eingesetzt.

Eine der Techniken, die in verwendet werden konjugierte Gradientenmethode(auch Fletcher-Reeves-Methode genannt) basiert auf dem Konzept der Konjugation von Vektoren. Vektoren und heißen -konjugiert wenn , wobei positiv definit ist quadratische Matrix von der gleichen Ordnung wie die Größe der Vektoren und (ein Sonderfall der Konjugation ist die Orthogonalität von Vektoren, wenn es sich um die Einheitsmatrix der Ordnung handelt), - Zeilenvektor, - Spaltenvektor.

Die Besonderheit konjugierter Richtungen für , wobei die Hesse-Matrix ist, bei Problemen mit einer quadratischen Zielfunktion ist wie folgt: Die eindimensionale Minimierung nacheinander entlang konjugierter Richtungen ermöglicht es, den Extrempunkt in nur Schritten zu finden.

Anmerkung 2

Die Hesse-Matrix ist die Matrix der zweiten partiellen Ableitungen der Zielfunktion nach den kontrollierten Parametern.

Der Grund für die Verwendung der Suche in -konjugierten Richtungen liegt darin, dass für Funktionen () allgemeiner Form eine quadratische Näherung angewendet werden kann, was in der Praxis dazu führt, dass die Suche in mehr als Schritten durchgeführt wird.

Die Suche nach einem Extremum erfolgt gemäß der Formel

Wo ist der Koeffizient? Zusätzlich wird die Konjugationsbedingung berücksichtigt

Da der Schritt auf Basis der eindimensionalen Optimierungsbedingung berechnet wird, gilt zunächst folgende Beziehung:

Der Suchalgorithmus reduziert sich auf die Anwendung der Formel (3), bis die Bedingung für den Abschluss der Berechnungen erfüllt ist

Um den Koeffizienten zu bestimmen, lösen Sie das Gleichungssystem (2)–(7), indem Sie in (4) die Werte aus (3) und (2) einsetzen:

oder

Wo

und unter Berücksichtigung von (6) und (7)


Ausdruck (10) ist ein lineares System algebraische Gleichungen. Seine Wurzel ist eine weitere Annäherung an die Lösung

Wenn der Prozess konvergiert, wird die Lösung in wenigen Iterationen erreicht, deren Ende die Erfüllung der Bedingung ist
Wo


Deshalb

Es kann gezeigt werden, dass die Tendenz zu , - zu wann besteht, wobei die Dimension des Raums der kontrollierten Parameter ist. Nach den Schritten müssen Sie erneut beginnen.

Aus der Gesamtheit der Optionen können Sie ein Histogramm erstellen, um abzuschätzen, wie oft sie auftreten gute Optionen, und schließlich können Sie entscheiden, ob Sie die Suche fortsetzen oder sich auf die gefundene Lösung beschränken möchten.

Trotz der Universalität und Einfachheit des Zufallserkennungsverfahrens kann es aufgrund der erheblichen Rechenkomplexität nicht eingeschränkt werden. Deshalb größere Verbreitung Habe Methoden gezielte Suche Lösungen.

4.5.3. Unbeschränkte Optimierungsmethoden

Die notwendigen Bedingungen zum Erreichen eines Extremums in allen oben diskutierten Formen führen zur Lösung eines Systems nichtlinearer Gleichungen – eine sehr komplexe und zeitaufwändige Aufgabe (selbst in der Computermathematik wird die Lösung nichtlinearer Gleichungen oft auf eine Art reduziert). Optimierungsproblem). Daher werden in der Praxis andere Ansätze zur Optimierung von Funktionen verwendet, deren Betrachtung mit den sogenannten direkten Methoden beginnt. In Zukunft werden wir von Minimierung sprechen, das Extremum ist also das Minimum.

Derzeit wurden viele numerische Methoden sowohl für unbedingte als auch für bedingte Optimierungsprobleme entwickelt. Die Qualität einer numerischen Methode wird durch viele Faktoren charakterisiert: die Konvergenzgeschwindigkeit, die Ausführungszeit einer Iteration, die Menge an Computerspeicher, die zur Implementierung der Methode erforderlich ist, die Klasse der zu lösenden Probleme usw. Auch die zu lösenden Probleme sind es sehr vielfältig: Sie können hohe und niedrige Dimensionen haben, unimodal und multiextremal sein usw. Dieselbe Methode, die zur Lösung von Problemen einer Art wirksam ist, kann sich für Probleme einer anderen Art als völlig inakzeptabel erweisen.

Nachfolgend finden Sie eine Übersicht über die wichtigsten Methoden zur Lösung nichtlinearer Programmierprobleme. Dabei ist zu bedenken, dass die gesamte Liste solcher Methoden sehr umfangreich ist und offen bleibt. Darüber hinaus sind für eine Reihe der betrachteten Methoden verschiedene Modifikationen bekannt. Nähere Informationen erhalten Sie unter

Beispiel, in .

Betrachten wir zunächst direkte Methoden der uneingeschränkten Optimierung, wenn keine Einschränkungen bestehen.

Die Bedeutung direkter bedingungsloser Optimierungsverfahren besteht darin, eine Folge von Punkten X, X, ..., X zu konstruieren, z

dass f (X )>f (X )>… …>f (X ). Als Startpunkt X kann ein beliebiger Punkt gewählt werden, man strebt jedoch danach, ihn so nah wie möglich am Minimalpunkt zu wählen. Der Übergang (Iteration) von Punkt X zu Punkt X, k =0,1,2,... besteht aus zwei Phasen:

Auswahl der Bewegungsrichtung von einem Punkt aus X ;

Bestimmen des Schrittes in dieser Richtung.

Methoden zur Konstruktion solcher Folgen werden oft als Abstiegsmethoden bezeichnet, da der Übergang von größeren zu kleineren Funktionswerten erfolgt.

Mathematisch werden Abstiegsmethoden durch die Relation beschrieben

X =X +a k p , k =0,1,2,...,

wo p – Einheitsvektor, die die Abstiegsrichtung bestimmt;

a k – Schrittlänge.

Verschiedene Abstiegsmethoden unterscheiden sich voneinander in der Art und Weise, wie sie p und a k wählen. In der Praxis werden nur konvergierende Methoden verwendet. Sie ermöglichen es Ihnen, in einer endlichen Anzahl von Schritten den Mindestpunkt zu erreichen oder diesem ziemlich nahe zu kommen. Die Qualität konvergenter iterativer Verfahren wird anhand der Konvergenzgeschwindigkeit beurteilt.

Theoretisch wird das Problem bei Abstiegsverfahren in unendlich vielen Iterationen gelöst. In der Praxis werden Berechnungen gestoppt, wenn bestimmte Kriterien (Bedingungen) zum Stoppen des iterativen Prozesses erfüllt sind. Dies kann beispielsweise die Bedingung eines kleinen Inkrements sein

Streit

X[ k] − X[ k − 1 ]

f (X [ k ]) − f (X [ k − 1])< γ . Здесь k – номер итерации; ε , γ – задан-

näre Werte der Genauigkeit der Lösung des Problems.

Methoden zur Ermittlung des Minimalpunkts heißen deterministisch, wenn beide Parameter des Übergangs von X nach X (Bewegungsrichtung und Schrittgröße) anhand der am Punkt X verfügbaren Informationen eindeutig gewählt werden. Wenn während des Übergangs ein Zufallsmechanismus verwendet wird, wird der Suchalgorithmus als zufällige Minimumsuche bezeichnet.

Deterministische uneingeschränkte Minimierungsalgorithmen werden abhängig von der Art der verwendeten Informationen in Klassen eingeteilt. Wenn bei jeder Iteration nur die Werte der minimierten Funktionen verwendet werden, wird die Methode als Methode nullter Ordnung bezeichnet. Ist zusätzlich die Berechnung der ersten Ableitungen der zu minimierenden Funktion erforderlich, so kommen Methoden erster Ordnung zum Einsatz,

Wenn eine zusätzliche Berechnung zweiter Ableitungen erforderlich ist, verwenden Sie Methoden zweiter Ordnung.

Es ist zu beachten, dass Methoden erster und zweiter Ordnung bei der Lösung bedingungsloser Minimierungsprobleme in der Regel mehr haben hohe Geschwindigkeit Konvergenz als Methoden nullter Ordnung. In der Praxis wird jedoch die erste und zweite Ableitung der Funktion berechnet große Menge Variablen ist sehr arbeitsintensiv. In einigen Fällen können sie nicht in Form von analytischen Funktionen erhalten werden. Ableitungen werden durch verschiedene numerische Methoden bestimmt, wobei Fehler auftreten können, die die Verwendung solcher Methoden einschränken können. Darüber hinaus kann das Optimalitätskriterium nicht explizit, sondern durch ein Gleichungssystem angegeben werden. In diesem Fall wird es sehr schwierig und manchmal unmöglich, Ableitungen analytisch oder numerisch zu finden. Daher werden hier Methoden nullter Ordnung ausführlicher besprochen.

Eindimensionale Suchmethoden. Liste eindimensionaler Suchmethoden – numerische Suche nach dem Extremum einer Funktion eines Arguments f(x ) – ist recht umfangreich und wird in der Literatur gut behandelt. Daher beschränken wir uns hier auf die Betrachtung nur einer Methode, die nach Erfahrung der Autoren eine der effektivsten ist – die Methode des „Goldenen Schnitts“.

Die Idee der Methode besteht darin, das Unsicherheitsintervall – das Intervall der Werte des Arguments x, das den gewünschten Mindestpunkt enthält – sequentiell auf eine Länge von nicht mehr als zu reduzieren

zulässiger Fehler des Ergebnisses ε. Das Anfangsintervall kann als der zulässige Wertebereich des Arguments betrachtet werden, der durch die Bedingungen des Problems angegeben wird, oder, falls dieser keine linken und (oder) rechten Grenzen hat, ein Bereich innerhalb des zulässigen Bereichs , zu der vorläufige Analysen zeigen, dass das gewünschte Minimum dazugehört.

Innerhalb jedes Intervalls gibt es zwei Punkte x =y 0 und x =z 0, die seinen „Goldenen Schnitt“ erfüllen – eine Teilung in zwei ungleiche Teile, sodass das Verhältnis des größeren Teils zur Länge des gesamten Intervalls mit dem Verhältnis von übereinstimmt der kleinere Teil zum größeren. Offensichtlich liegen diese Punkte symmetrisch zur Mitte des Intervalls (Abb. 26). Die Koordinaten der Punkte des „Goldenen Schnitts“ ergeben sich aus den entsprechenden Größenverhältnissen:

b−y0

y0 − a

= δ ,

z0 − a

b − z0

= δ,

b−a

b−y

b−a

− a

Daraus lässt sich leicht δ = (1–δ )/δ und die Gleichung δ 2 +δ –1=0 ermitteln. Als Ergebnis erhalten wir relative Anteile, was den „Goldenen Schnitt“ des Intervalls definiert: δ =0,618, 1–δ =0,382. Der „Goldene Schnitt“ hat eine wichtige Eigenschaft: Punkt y 0 ist einer der Punkte des „Goldenen Schnitts“ des Intervalls, Punkt z 0 ist einer der Punkte des „Goldenen Schnitts“ des Intervalls. In diesem

Es erwartet Sie eine einfache Berechnung: 0,382/0,618 = 0,618 und (0,618–0,382)/0,618 = 0,382.

Der auf der Methode des „Goldenen Schnitts“ basierende Algorithmus zum Finden eines Minimums sieht die Auswahl bei jeder Iteration des linken oder rechten Punktes des „Goldenen Schnitts“ als eine der Grenzen des reduzierten Intervalls in einem solchen vor Art und Weise, dass das gesuchte Minimum darin erhalten bleibt:

1. Setzen Sie k = 0, das anfängliche Unsicherheitsintervall und den zulässigen Fehler des Ergebnisses ε.

2. Berechnen Sie die Koordinaten der Punkte des „Goldenen Schnitts“:

y k =a k +0,382(b k –a k ), z k =a k +0,618(b k –a k ).

3. Berechnen Sie die Werte der Zielfunktion an den gefundenen Punkten

f (y k) und f (z k).

4. Wenn f (y k)≤f (z k) (Abb. 26, a), weisen Sie a k + 1 =a k, b k + 1 =z k, z k + 1 =y k, y k + 1 =a k +z k –y k, k zu =k +1. Ansonsten (Abb. 26, b) a k + 1 =y k, b k + 1 =b k, y k + 1 =z k, z k + 1 =y k +b k –z k, k =k +1.

5. Überprüfen Sie die Erfüllung der Suchabschlussbedingung

b k + 1 − a k + 1 ≤ ε . Ist sie erfüllt, wird der Punkt x = (y k + 1 + z k + 1 ) 2 als Lösung gewählt. Andernfalls fahren Sie mit Schritt 2 fort.

Die Recheneffizienz der Methode „Goldener Schnitt“ beruht auf der Tatsache, dass bei jeder Iteration nur eine einzige Berechnung des Werts der Zielfunktion erforderlich ist.

Direkte Suchmethode (Hooke-Jeeves-Methode). Manche

zweiter Startpunkt X. Durch abwechselndes Ändern der Komponenten des Vektors X wird die Umgebung dieses Punktes untersucht, wodurch ein Punkt (neue Basis) gefunden wird, der die Richtung bestimmt, in die die minimierte Funktion f (X) abnimmt. Es erfolgt ein Abstieg in die gewählte Richtung, wobei sichergestellt wird, dass der Wert der Funktion abnimmt. Der Vorgang wird zyklisch wiederholt, bis die Abstiegsrichtung unter Berücksichtigung der akzeptierten Stoppbedingung ermittelt werden kann.

Der Algorithmus des Direktsuchverfahrens in seiner allgemeinsten Form lässt sich wie folgt formulieren:

1. Durch die Werte der Koordinaten x ich, ich= 1,2,…n, der Startpunkt (k = 0), der Vektor der anfänglichen Koordinateninkremente

∆ Faktor d >1.

2. Nehmen Sie X als „alte Basis“: X b = X. Berechnung

Wert f(X b).

3. Ändern Sie abwechselnd jede Koordinate x b i, i= 1,2,…n,

Punkt X b um den Wert ∆ x i, das heißt, nimm x i = x b i + ∆ x i, dann

x i =x b i –∆ x i. Berechnen Sie die Werte von f (X) an den resultierenden Testpunkten und vergleichen Sie sie mit dem Wert von f (X b). Wenn f(X)< < f (X б ), то соответствующая координата х i приобретает новое значение, вычисленное по одному из приведенных выражений. В противном случае значение этой координаты остается неизменным. Если после изменения последней n -й координаты f (X )

4. Abstieg in Richtung von der „alten“ zur „neuen“ Basis durch die letzte, d.h. Berechnen Sie die Koordinaten des neuen Punktes

X: x i = x i + λ (x i – x bi), i= 1,2,...n. Berechnen Sie den Wert von f(X). Wenn die Bedingung f(X) erfüllt ist

Die „neue“ Basis wird als die „alte“ akzeptiert (X b = ..N .

5. Ändern Sie wie in Schritt 3 abwechselnd jede Koordinate des Punktes X, indem Sie die entsprechenden Werte der Funktion f (X) mit dem in Schritt 4 erhaltenen Wert f (X) vergleichen. Nachdem Sie die letzte Koordinate geändert haben, vergleichen Sie den entsprechenden Wert

Funktionen f (X) mit dem in Absatz 4 erhaltenen Wert f (X b). Wenn f (X)

6. Wenn für alle i ∆ x i<ε , вычисления прекращаются. В противном случае уменьшают значения ∆ х i в d раз и переходят к п. 3.

Die Funktionsweise des Algorithmus ist in Abb. dargestellt. 27. Linien angezeigt

Ebene der minimierten Funktion f (x 1 ,x 2 ), d. h. Linien, die aus den Bedingungen f (x 1 ,x 2 )=f 1 =const, f (x 1 ,x 2 )=f 2 =const usw. erhalten werden Weiter. Hier ist f 1 >f 2 >f 3 . Durchgezogene Linien sind das Ergebnis einer einzelnen Ausführung von Absätzen. 3...5 (Suchen Sie nach der Richtung der abnehmenden Funktion und des Abstiegs), die gepunktete Linie ist der nächste Abstieg.

Der Vorteil der Direktsuchmethode liegt in der einfachen Programmierung am Computer. Es erfordert keine explizite Kenntnis der Zielfunktion und berücksichtigt problemlos Einschränkungen einzelner Variablen sowie komplexe Einschränkungen des Suchraums.

Der Nachteil des direkten Suchverfahrens besteht darin, dass es bei stark verlängerten, gekrümmten oder scharfwinkligen Linien der Zielfunktionsebene aufgrund der begrenzten Anzahl analysierter Richtungen möglicherweise nicht möglich ist, den Fortschritt zum Minimalpunkt sicherzustellen.

Methode des verformbaren Polyeders (Nelder-Mead-Methode) ist das, um die Funktion zu minimieren n Variablen f(X) in n-dimensional Raum wird ein enthaltendes Polyeder konstruiert N +1 Scheitelpunkt. Offensichtlich entspricht jeder Scheitelpunkt einem bestimmten Vektor Xi . Berechnen Sie die Werte der Zielfunktion f(Xi ), i=1,2,…, n +1 Bestimmen Sie an jedem Eckpunkt des Polyeders das Maximum dieser Werte und den entsprechenden Eckpunkt Xh . Zeichnen Sie durch diesen Scheitelpunkt und den Schwerpunkt der übrigen Scheitelpunkte eine projizierende Linie, auf der sich der Punkt befindet Xq mit einem kleineren Wert der Zielfunktion als am Scheitelpunkt Xh (Abb. 28, a ). Beseitigen Sie dann den Scheitelpunkt Xh . Aus den restlichen Eckpunkten und Punkten Xq Bauen Sie ein neues Polyeder, mit dem der beschriebene Vorgang wiederholt wird. Bei der Durchführung solcher Operationen ändert das Polyeder seine Abmessungen, was den Namen der Methode bestimmt.

Führen wir die folgende Notation ein: X – Koordinatenvektor des i-ten Scheitelpunkts des Polyeders im k-ten Suchschritt, i= 1,2,…n +1, k= 1,2,…; h – Nummer des Scheitelpunkts, in dem der Zielwert liegt

Reifen, mit Ausnahme von X. Die Koordinaten des Schwerpunkts werden berechnet

xj [n + 2, k] =

n+ 1

nach der Formel

∑ xj [ i, k] − xj [ h, k]

J= 1,2,…n.

j= 1

Ein ungefährer Algorithmus für die Methode des verformbaren Polyeders lautet wie folgt:

1. Spezifiziert durch Reflexionskoeffizientenα, Zug γ >1, Druck β<1 , допустимой погрешностью определения координат

Mindestpunktzahl ε. Wählen Sie die Koordinaten der Eckpunkte des ursprünglichen Polyeders X, i= 1,2,…n +1, k= 1.

2. Berechnen Sie die Werte der Zielfunktion an allen Eckpunkten f (X), ich= 1,2,…n +1, und finde die Punkte X, X (in Abb. 28, b Punkte X 2 bzw. X 1) sowie X.

3. Führen Sie eine Punktprojektion durch X durch die Mitte des

Zinn: X =X +α (X –X).

4. Wenn f (X) ≤ X, führen Sie die Streckoperation durch

tion: X =X +γ (X –X ). Andernfalls fahren Sie mit Schritt 6 fort.

5. Ein neues Polyeder wird gebaut: wenn f(X)

durch Ersetzen von X durch X, andernfalls durch Ersetzen von X durch X. Setzen Sie die Berechnungen ab Schritt 2 mit k =k +1 fort.

6. Wenn X >f (X)>X für alle i ungleich h,

Führen Sie die Komprimierungsoperation durch: X =X +β ​​​​(X – X). Konstruieren Sie ein neues Polyeder, indem Sie X durch X ersetzen und die Berechnungen ab Schritt 2 mit k =k +1 fortsetzen.

7. Wenn f (X)>X, dann erstellen Sie unter Beibehaltung des Scheitelpunkts aus Schritt 2 bei k =k +1.

In Absätzen 6, 7 Bevor mit Schritt 2 fortgefahren wird, muss die Erfüllung der Bedingung für den Abschluss der Suche nach dem Minimum überprüft werden, beispielsweise durch die Bedingung

Ich sehe max n ∑ + 1 (x j [ i ,k ] − x j [ n + 2,k ] ) 2< ε 2 .

ich j = 1

MIT Durch den Vorgang des Streckens und Stauchens werden die Abmessungen und die Form des verformbaren Polyeders an die Topographie der Zielfunktion angepasst. Dadurch wird das Polyeder entlang langer geneigter Flächen gedehnt, ändert in gekrümmten Vertiefungen die Richtung und zieht sich in der Nähe des Minimums zusammen, was die Wirksamkeit der betrachteten Methode bestimmt.

α =1, 2≤ γ ≤3, 0,4≤β ≤0,6.

Rotierende Koordinatenmethode (Rosenbrock-Methode). Sein Wesen besteht in aufeinanderfolgenden Drehungen des Koordinatensystems entsprechend der Richtungsänderung der schnellsten Abnahme der Zielfunktion (Abb. 29). Vom Ausgangspunkt X zum Punkt hinabsteigen X in Richtungen parallel zu den Koordinatenachsen. Bei der nächsten Iteration sollte sich eine der Achsen in die Richtung bewegen x’1 = X– X, der Rest - in Richtungen senkrecht zu x’1 . Der Abstieg entlang dieser Achsen führt zum Punkt X , was es ermöglicht, einen neuen Vektor zu konstruieren x''1 = X– X und auf seiner Grundlage neues System Suchanweisungen

Mindestpunktzahl X.

IN Im Gegensatz zu anderen Methoden nullter Ordnung konzentriert sich die Methode von Rosenbrock darauf, den optimalen Punkt in jede Richtung zu finden, und nicht nur auf eine feste Verschiebung in alle Richtungen. Abhängig von der Topographie der ebenen Fläche ändert sich die Schrittweite im Suchvorgang kontinuierlich. Die Kombination aus Koordinatenrotation und Schrittsteuerung macht die Methode von Rosenbrock effektiv zur Lösung komplexer Optimierungsprobleme.

IN insbesondere, diese Methode Im Gegensatz zu vielen anderen minimiert es effektiv die sogenannten „Gully“-Funktionen (bei stark verlängerten ebenen Flächen), da die resultierende Suchrichtung tendenziell entlang der Achse der „Schlucht“ verläuft.

Paralleltangentenmethode (Powell-Methode). Sein Wesen besteht darin, sequentiell eine eindimensionale Suche nach dem Minimum der Zielfunktion durchzuführen n+1 in jede Richtung aus den bekannten eindimensionalen Methoden. Bei der ersten Iteration, als erste N Koordinatenrichtungen werden gewählt, als(n+1)th Richtungen wird die erste davon verwendet (Abb. 30). Bei jeder weiteren Iteration beginnt die Suche in der zweiten Richtung der vorherigen Iteration bzw. die Anzahl der Richtungen wird um eins reduziert;(n+1)th die Richtung der nachfolgenden Iteration wird durch den Vektor vorgegeben X– X[n+1] – vom Minimalpunkt, der im ersten Schritt der vorherigen Iteration gefunden wurde, bis zum Minimalpunkt, der im letzten Schritt gefunden wurde.

Problem 1. Finden

wobei x = (x 1 .. xp) e E p

Bei diesem Problem geht es darum, das Gleichungssystem zu lösen

und untersuchen Sie den Wert des zweiten Differentials

an den Punkten (a-|, (*2, a n) Lösungen der Gleichungen (7.3).

Wenn quadratische Form(7.4) an einem Punkt negativ definit ist, dann erreicht es an diesem Punkt seinen Maximalwert, und wenn es positiv definit ist, dann seinen Minimalwert.

Beispiel:

Das Gleichungssystem hat Lösungen:

Punkt (-1; 3,0) ist der maximale Punkt und Punkt (1; 3,2) ist der minimale Punkt.

Aufgabe 2. Finden

unter Bedingungen:

Dieses Problem 2 wird durch die Lagrange-Multiplikatormethode gelöst, für die eine Lösung des Systems gefunden wird (t + p) Gleichungen:

Beispiel 2. Finden Sie die Seiten eines Rechtecks ​​mit der größten Fläche, die in einen Kreis eingeschrieben sind Fläche L eines Rechtecks

kann geschrieben werden als: A= 4xy also

Wo

Aufgabe 3. Finden Sie unter den Bedingungen:

Dieses Problem betrifft einen weiten Bereich funktionsbedingter Einstellungen F und Mi Wenn sie linear sind, handelt es sich um ein lineares Programmierproblem.

Aufgabe für.

unter Bedingungen

Die Lösung erfolgt mit der Simplex-Methode, die mit dem Apparat der linearen Algebra eine gezielte Suche nach den Eckpunkten des durch (7.13) definierten Polyeders durchführt.

Simplex-Methode besteht aus zwei Etappen.

Stufe 1. Finden der Referenzlösung x^ 0). Die Referenzlösung ist einer der Punkte des Polyeders (7.13).

Stufe 2. Finden der optimalen Lösung. Es wird durch sequentielles Aufzählen der Eckpunkte des Polyeders (7.13) gefunden, in dem der Wert der Zielfunktion z nicht bei jedem Schritt abnimmt, das heißt:

Ein Sonderfall eines linearen Programmierproblems ist das sogenannte Transportproblem.

Transportproblem. In den Punkten a-1, a 2, .... a l gebe es Lagerhäuser, in denen Waren in Mengen x 1, x 2, ..., x l gelagert werden. An den Punkten b-|, b 2,..., b t gibt es Verbraucher, die diese Güter in Mengen liefern müssen y- y 2, y t jeweils. Bezeichnen wir Cjj Kosten für den Transport einer Frachteinheit zwischen den Punkten a-| und von.

Wir untersuchen den Vorgang des Transports von Gütern durch Verbraucher in ausreichenden Mengen, um die Bedürfnisse der Kundschaft zu befriedigen. Bezeichnen wir mit Hu die Menge der Güter, die von Punkt a zu Punkt transportiert werden.

Um die Bedürfnisse der Verbraucher zu befriedigen, ist dies notwendig Werte x,y erfüllte die Bedingungen:

Gleichzeitig ist es unmöglich, Produkte vom Lager dorthin zu transportieren mehr, als es gibt. Das bedeutet, dass die benötigten Größen dem Ungleichungssystem genügen müssen:

Erfüllen Sie die Bedingungen (7.14), (7.15), d. h. Es gibt unzählige Möglichkeiten, einen Transportplan zu erstellen, der den Bedürfnissen der Verbraucher entspricht. Damit der Operations Researcher eine bestimmte optimale Lösung auswählen kann, d. h. bestimmte zuordnen Xjj, Es muss eine Auswahlregel formuliert werden, die anhand eines Kriteriums bestimmt wird, das unsere subjektive Vorstellung vom Ziel widerspiegelt.

Das Problem des Kriteriums wird unabhängig von der Untersuchung des Betriebs gelöst – das Kriterium muss vom Betreiber festgelegt werden. Bei dem betrachteten Problem sind die Transportkosten eines der möglichen Kriterien. Es beträgt

Dann wird das Transportproblem als lineares Programmierproblem formuliert: Bestimmen Sie die Werte x,y > O, die die Einschränkungen (7.14), (7.15) erfüllen, und liefern Sie den Minimalwert für die Funktion (7.16). Die Einschränkung (7.15) ist eine Gleichgewichtsbedingung; Bedingung (7.14) kann als Ziel der Operation bezeichnet werden, da der Sinn der Operation darin besteht, die Bedürfnisse der Verbraucher zu befriedigen.

Die Angabe zweier Bedingungen stellt im Wesentlichen ein Modell der Operation dar. Die Durchführung der Operation hängt von dem Kriterium ab, nach dem das Ziel der Operation erreicht wird. Ein Kriterium kann in verschiedenen Rollen auftreten. Es kann sowohl als Formalisierung eines Ziels als auch als Prinzip für die Auswahl zulässiger Handlungen dienen, d.h. die Einschränkungen erfüllen.

Eine der bekanntesten Methoden zur Lösung des Transportproblems ist die Potentialmethode, deren Schema wie folgt aussieht.

In der ersten Phase der Problemlösung wird ein erster Transportplan erstellt, der die Randbedingungen (7.14), (7.15) erfüllt. Wenn

(d. h. der Gesamtbedarf stimmt nicht mit den gesamten Produktbeständen in den Lagerhäusern überein), dann wird ein fiktiver Verbrauchsort berücksichtigt oder fiktives Lager

mit den Transportkosten, gleich Null. Für neue Aufgabe die Gesamtmenge der Waren in den Lagerhäusern stimmt mit ihrem Gesamtbedarf überein. Dann wird mit einer Methode (z. B. dem kleinsten Element oder der nordwestlichen Ecke) der ursprüngliche Plan gefunden. Im nächsten Schritt bilden die Verfahren des resultierenden Plans ein System besonderer Merkmale – Potenziale. Eine notwendige und hinreichende Bedingung für einen optimalen Plan ist seine Potenzialität. Das Planverfeinerungsverfahren wird wiederholt, bis der Plan potenziell (optimal) wird.

Aufgabe 36. Im allgemeinen Fall wird das Problem (7.10-7.11) als nichtlineares Programmierproblem bezeichnet. Betrachten wir es in der Form

unter Bedingungen

Um dieses Problem zu lösen, werden sogenannte Entspannungsverfahren eingesetzt. Der Prozess der Konstruktion einer Folge von Punkten wird als Entspannung bezeichnet, wenn:

Abstiegsmethoden ( allgemeines Schema). Alle Abstiegsmethoden zur Lösung des uneingeschränkten Optimierungsproblems (7.17) unterscheiden sich entweder in der Wahl der Abstiegsrichtung oder in der Art der Bewegung entlang der Abstiegsrichtung. Abstiegsmethoden bestehen aus dem folgenden Sequenzkonstruktionsverfahren (x k).

Als erste Näherung wird ein beliebiger Punkt Xq gewählt. Aufeinanderfolgende Näherungen werden nach dem folgenden Schema konstruiert:

  • Punkt x k Abstiegsrichtung ist ausgewählt - S k ;
  • finden (Zu+ 1)te Näherung gemäß der Formel

wo als Menge $k Wählen Sie eine beliebige Zahl, die die Ungleichung erfüllt

Wo ist die Nummer? X k - jede Zahl mit 0 X k min f(x k - $ Sk).

Bei den meisten Abstiegsmethoden ist der Wert X k wird gleich eins gewählt. Um (3^) zu bestimmen, ist es daher notwendig, das Problem der eindimensionalen Minimierung zu lösen.

Gradientenabstiegsmethode. Da ist der Antigradient G(x k) gibt die Richtung des schnellsten Abfalls der Funktion an f(x), dann ist es natürlich, von diesem Punkt abzuweichen x bis by diese Richtung. Abstiegsmethode, bei der S k = f"(x k) wird als Gradientenabstiegsmethode bezeichnet. Wenn X k= 1, dann wird der Relaxationsprozess als Methode des steilsten Abstiegs bezeichnet.

Methode der konjugierten Richtungen. IN In der linearen Algebra ist diese Methode als konjugierte Gradientenmethode zur Lösung linearer algebraischer Gleichungssysteme bekannt OH= b und daher als Minimierungsmethode quadratische Funktion f(x) =((Dx - b)) 2 .

Methodendiagramm:

Wenn f k = 0, dann verwandelt sich diese Schaltung in eine Schaltung mit der Methode des steilsten Abstiegs. Angemessene Wertauswahl Tk garantiert die Konvergenz der konjugierten Richtungsmethode mit einer Geschwindigkeit in der gleichen Größenordnung wie bei Gradientenabstiegsmethoden und stellt sicher, dass die Anzahl der Iterationen beim quadratischen Abstieg endlich ist (z. B.

Koordinatenabstieg. Bei jeder Iteration als Abstiegsrichtung S k Die Richtung entlang einer der Koordinatenachsen wird ausgewählt. Die Methode weist eine Konvergenzrate des Minimierungsprozesses in der Größenordnung von 0 (1 //77) auf und hängt maßgeblich von der Dimension des Raums ab.

Methodendiagramm:

Wo Koordinatenvektor,

Wenn am Punkt x k Es liegen Informationen über das Verhalten des Funktionsgradienten vor f(x), Zum Beispiel,

dann als Abstiegsrichtung S k Wir können den Koordinatenvektor ey nehmen. In diesem Fall beträgt die Konvergenzrate der Methode P mal weniger als beim Gefälleabstieg.

In der Anfangsphase des Minimierungsprozesses können Sie die Methode des zyklischen Koordinatenabstiegs verwenden, wenn der Abstieg zuerst in Richtung e-|, dann entlang b2 usw. erfolgt. bis zu ep, Danach wiederholt sich der gesamte Zyklus. Vielversprechender als der beschriebene ist der Koordinaten-für-Koordinaten-Abstieg, bei dem die Abstiegsrichtungen zufällig ausgewählt werden. Bei diesem Ansatz zur Richtungswahl gibt es A-priori-Schätzungen, die die Funktion garantieren f(x) mit einer Wahrscheinlichkeit, die gegen Eins tendiert, wenn der Prozess mit einer Geschwindigkeit in der Größenordnung von 0(1) konvergiert 1t).

Methodendiagramm:

Bei jedem Schritt des Prozesses P Zahlen (1, 2, ..., P) wird eine Zahl zufällig ausgewählt j(k) und wie s k Es wird ein Einheitskoordinatenvektor ausgewählt vsch, Danach erfolgt der Abstieg:


Zufällige Abstiegsmethode. Auf der n-dimensionalen Einheitskugel mit Mittelpunkt im Ursprung wird ein zufälliger Punkt ausgewählt S k , einer gleichmäßigen Verteilung auf dieser Kugel gehorchen und dann gemäß der Berechnung auf / etw. Schritt Prozesselement x k bestimmt x k+] :


Konvergenzrate der Zufallsabstiegsmethode in P mal weniger als die Gradientenabstiegsmethode, aber P mal größer als die der Methode des zufälligen Koordinatenabstiegs. Die betrachteten Abstiegsmethoden sind auch auf Funktionen anwendbar, die nicht unbedingt konvex sind, und garantieren ihre Konvergenz unter sehr geringen Einschränkungen (z. B. dem Fehlen lokaler Minima).

Entspannungsmethoden der mathematischen Programmierung. Kehren wir zu Aufgabe 36 ((7.17) - (7.18)) zurück:

unter Bedingungen

Bei Optimierungsproblemen mit Nebenbedingungen erfordert die Wahl der Abstiegsrichtung die ständige Überprüfung des neuen Werts x k +" sollte das gleiche sein wie das vorherige x k, erfüllen das System der Einschränkungen X.

Bedingte Gradientenmethode. IN Bei dieser Methode ist die Idee der Wahl der Abstiegsrichtung wie folgt: am Punkt x k Linearisieren Sie die Funktion

f(x), Konstruieren einer linearen Funktion f(x) = f(x k) + (y"(x k), x-x k), und dann minimieren f(x) auf einem Set X, einen Punkt finden bei k. Danach glauben sie S k = y k - x k und dann in dieser Richtung absteigen Xk+ 1= x k - $ k (x k -y k), so dass g X.

So finden Sie die Richtung S k Das Problem der Minimierung einer linearen Funktion auf einer Menge X sollte gelöst werden. Wenn X wiederum durch lineare Einschränkungen angegeben wird, handelt es sich um ein lineares Programmierproblem.

Methode möglicher Richtungen. Die Idee der Methode: Wählen Sie unter allen möglichen Richtungen am Punkt xk diejenige aus, entlang derer die Funktion verläuft f(x) nimmt am schnellsten ab und steigt dann in dieser Richtung ab.

Richtung S am Punkt X e X heißt möglich_wenn es eine solche Zahl gibt (3 > O, dass X- (3s e X für alle (3 g. Um eine mögliche Richtung zu finden, ist es notwendig, ein lineares Programmierproblem zu lösen oder einfachste Aufgabe Quadratische Programmierung: hm?=> min unter Bedingungen

Lassen d k Und s k- Lösung für dieses Problem. Bedingung (7.25) garantiert die Richtung s k möglich. Bedingung (7.26) stellt sicher, dass der Maximalwert (/"( x k),s), diese. unter allen möglichen Richtungen S, Richtung s k bietet die am schnellsten abnehmende Funktion f(x). Bedingung (7.27) beseitigt die Unbeschränktheit der Lösung des Problems. Die Methode der möglichen Richtungen ist resistent gegen mögliche Rechenfehler. Allerdings lässt sich die Konvergenzrate im allgemeinen Fall nur schwer abschätzen, und dieses Problem bleibt ungelöst.

Zufällige Suchmethode. Die Implementierung der zuvor beschriebenen Minimierungsmethoden ist im Allgemeinen sehr arbeitsintensiv, außer in den einfachsten Fällen, in denen der Satz von Einschränkungen eine einfache geometrische Struktur aufweist (z. B. wenn es sich um ein mehrdimensionales Parallelepiped handelt). Generell kann die Zufallssuchmethode, bei der die Abstiegsrichtung zufällig gewählt wird, sehr vielversprechend sein. In diesem Fall kommt es zu einem erheblichen Verlust der Konvergenzgeschwindigkeit, aber die Einfachheit der Richtungswahl kann diese Verluste hinsichtlich der Gesamtarbeitskosten zur Lösung des Minimierungsproblems ausgleichen.

Methodendiagramm:

Auf der im Ursprung zentrierten n-dimensionalen Einheitskugel wird ein zufälliger Punkt ausgewählt gu unterliegen einer gleichmäßigen Verteilung auf dieser Kugel und dann der Abstiegsrichtung - s^ aus den Konditionen

Als erste Näherung wählen wir xc e X. Basierend auf dem bei jeder Iteration berechneten Punkt X? Bauarbeiten im Gange (k + 1)ter Punkt x^+ y:

Beliebige Nummer von Befriedigung der Ungleichheit

Die Konvergenz dieser Methode wird unter sehr nicht starren Einschränkungen der Funktion / (Konvexität) und der Restriktionsmenge bewiesen X(Konvexität und Schließung).

5. Mehrdimensionale Optimierung

Lineares Programmieren

Optimierung ist eine zielgerichtete Tätigkeit, die darauf abzielt, unter geeigneten Bedingungen die besten Ergebnisse zu erzielen.

Die quantitative Bewertung der zu optimierenden Qualität nennt man Optimalitätskriterium oder Zielfunktion .Es kann in der Form geschrieben werden:

(5.1)

wobei x 1, x 2, …, x n– einige Parameter des Optimierungsobjekts.

Es gibt zwei Arten von Optimierungsproblemen – unbedingte und bedingte.

Bedingungslose Aufgabe Die Optimierung besteht darin, das Maximum oder Minimum der realen Funktion (5.1) von zu findenNreelle Variablen und Bestimmung der entsprechenden Argumentwerte.

Bedingte Optimierungsprobleme oder Probleme mit Einschränkungen sind solche, bei deren Formulierung den Werten der Argumente Einschränkungen in Form von Gleichheiten oder Ungleichungen auferlegt werden.

Lösung von Optimierungsproblemen, bei denen das Optimalitätskriterium gilt lineare Funktion unabhängige Variablen (d. h. sie enthalten diese Variablen in der ersten Potenz) mit linearen Einschränkungen für sie ist das Subjekt Lineares Programmieren.

Das Wort „Programmierung“ spiegelt hier das ultimative Ziel der Studie wider – die Bestimmung des optimalen Plans oder optimalen Programms, nach dem aus den vielen möglichen Optionen für den untersuchten Prozess die beste und optimale Option anhand eines bestimmten Kriteriums ausgewählt wird.

Beispiel Eine solche Aufgabe ist Problem der optimalen Rohstoffverteilung zwischen verschiedenen Branchen zu maximalen Produktionskosten.

Lassen Sie zwei Arten von Produkten aus zwei Arten von Rohstoffen herstellen.

Bezeichnen wir: x 1 , x 2 – die Anzahl der Produkteinheiten des ersten bzw. zweiten Typs; c 1 , c 2 – Stückpreis von Produkten der ersten bzw. zweiten Art. Dann betragen die Gesamtkosten aller Produkte:

(5.2)

Aufgrund der Produktion ist es wünschenswert, dass die Gesamtproduktionskosten maximiert werden.R (x 1 , x 2 ) ist die Zielfunktion in diesem Problem.

b 1, b 2 – die Menge der verfügbaren Rohstoffe der ersten und zweiten Art;ein ij- Anzahl der Einheiten ich -te Art von Rohmaterial, das zur Herstellung einer Einheit benötigt wirdJ-ter Produkttyp.

Da der Verbrauch einer bestimmten Ressource ihre Gesamtmenge nicht überschreiten darf, schreiben wir die restriktiven Bedingungen für Ressourcen auf:

(5.3)

Bezüglich Variablen x 1 , x 2 wir können auch sagen, dass sie nicht negativ und unendlich sind:

(5.4)

Unter den vielen Lösungen des Ungleichungssystems (5.3) und (5.4) ist es erforderlich, eine solche Lösung zu finden ( x 1 , x 2 ), für die die FunktionRerreicht seinen größten Wert.

In ähnlicher Form sind die sogenannten Transportprobleme (Aufgaben, die Lieferung von Waren, Rohstoffen oder Produkten aus verschiedenen Lagern an mehrere Bestimmungsorte mit minimalen Transportkosten optimal zu organisieren) und eine Reihe anderer formuliert.

Grafische Methode zur Lösung linearer Programmierprobleme.

Lassen Sie es erforderlich sein, zu finden x 1 und x 2 , befriedigend Ungleichheitssystem:

(5.5)

und Bedingungen Nicht-Negativität:

(5.6)

Für deren Funktion

(5. 7 )

erreicht sein Maximum.

Lösung.

Konstruieren wir in einem System rechtwinkliger Koordinaten x 1 x 2 Bereich praktikabler Problemlösungen (Abb. 11). Dazu konstruieren wir, indem wir jede der Ungleichungen (5.5) durch Gleichheit ersetzen relevant seine Grenzlinie:

(ich = 1, 2, … , R)

Reis. elf

Diese Gerade teilt die gesamte Ebene in zwei Halbebenen. Für Koordinaten x 1 , x 2 irgendein Punkt A einer Halbebene gilt folgende Ungleichung:

und für die Koordinaten eines beliebigen Punktes IN eine weitere Halbebene – die entgegengesetzte Ungleichung:

Die Koordinaten eines beliebigen Punktes auf der Grenzlinie erfüllen die Gleichung:

Um festzustellen, auf welcher Seite der Grenzlinie sich die einer bestimmten Ungleichung entsprechende Halbebene befindet, reicht es aus, einen Punkt zu „testen“ (am einfachsten ist es, den Punkt zu testen). UM(0;0)). Wenn beim Einsetzen seiner Koordinaten in die linke Seite der Ungleichung diese erfüllt ist, wird die Halbebene in Richtung des zu prüfenden Punktes gedreht; ist die Ungleichung nicht erfüllt, wird die entsprechende Halbebene in die entgegengesetzte Richtung gedreht . Die Richtung der Halbebene ist in der Zeichnung durch Schraffur dargestellt. Ungleichheiten:

entsprechen Halbebenen, die sich rechts von der Ordinatenachse und oberhalb der Abszissenachse befinden.

In der Abbildung konstruieren wir Grenzgeraden und Halbebenen, die allen Ungleichungen entsprechen.

Der gemeinsame Teil (Schnittpunkt) aller dieser Halbebenen stellt den Bereich möglicher Lösungen für dieses Problem dar.

Bei der Konstruktion eines Bereichs zulässiger Lösungen kann je nach Art des Systems von Einschränkungen (Ungleichungen) für Variablen einer der folgenden vier Fälle auftreten:

Reis. 12. Der Bereich der zulässigen Lösungen ist leer, was der Inkonsistenz des Ungleichungssystems entspricht; keine Lösung

Reis. 13. Der Bereich der zulässigen Lösungen wird durch einen Punkt A dargestellt, der der einzigen Lösung des Systems entspricht

Reis. 14. Der Bereich möglicher Lösungen ist begrenzt und wird als konvexes Polygon dargestellt. Es gibt unendlich viele mögliche Lösungen

Reis. 15. Der Bereich möglicher Lösungen ist unbegrenzt und hat die Form eines konvexen Polygonalbereichs. Es gibt unendlich viele mögliche Lösungen

Grafische Darstellung der Zielfunktion

auf einen festen WertRdefiniert eine gerade Linie und beim ÄndernR- eine Familie paralleler Linien mit einem ParameterR. Für alle Punkte, die auf einer der Geraden liegen, gilt die Funktion R nimmt einen bestimmten Wert an, daher werden die angegebenen Geraden aufgerufen ebene Linien für Funktion R.

Verlaufsvektor:

aufrechtzu den Niveaulinien zeigt die Richtung des Anstiegs anR.

Das Problem, eine optimale Lösung für das Ungleichungssystem (5.5) zu finden, für das die Zielfunktion giltR(5.7) ein Maximum erreicht, reduziert sich geometrisch darauf, im Bereich der zulässigen Lösungen den Punkt zu bestimmen, durch den die entsprechende Niveaulinie verläuft Höchster Wert ParameterR

Reis. 16

Wenn der Bereich zulässiger Lösungen ein konvexes Polygon ist, dann ist das Extremum der FunktionR wird mindestens an einem der Eckpunkte dieses Polygons erreicht.

Wenn der ExtremwertRan zwei Eckpunkten erreicht wird, dann wird an jedem Punkt des diese beiden Eckpunkte verbindenden Segments derselbe Extremwert erreicht. In diesem Fall heißt die Aufgabe „haben“. alternatives Optimum .

Im Fall eines unbeschränkten Bereichs das Extremum der FunktionREntweder existiert es nicht oder wird an einem der Eckpunkte der Region erreicht oder es gibt ein alternatives Optimum.

Beispiel.

Angenommen, wir müssen die Werte finden x 1 und x 2 , das das System der Ungleichungen erfüllt:

und Bedingungen Nicht-Negativität:

Für dessen Funktion ist:

erreicht sein Maximum.

Lösung.

Ersetzen wir jede der Ungleichungen durch Gleichheit und konstruieren die Grenzlinien:

Reis. 17

Bestimmen wir die diesen Ungleichungen entsprechenden Halbebenen, indem wir den Punkt (0;0) „testen“. Unter Berücksichtigung Nicht-Negativität x 1 und x 2 Wir erhalten den Bereich zulässiger Lösungen für dieses Problem in Form eines konvexen Polygons OAVDE.

Im Bereich zulässiger Lösungen finden wir die optimale Lösung durch Konstruktion des Gradientenvektors

zeigenRichtung des AnstiegsR.

Die optimale Lösung entspricht dem Punkt IN, deren Koordinaten entweder grafisch oder durch Lösung eines Systems aus zwei Gleichungen entsprechend den Grenzgeraden AB und VD ermittelt werden können:

Antwort: x 1 = 2; x 2 = 6; Rmax = 22.

Aufgaben. Finden Sie die Position des Extrempunkts und den Extremwert der Zielfunktion

unter gegebenen Einschränkungen.

Tabelle 9

Option Nr.

Extremum

Einschränkungen

M Axt

; ;

; ;

Max

; ; ;

;

; ;

; ;

; ;

; ; ;

;

; ;