Mathematische Forschungsmethoden. Allgemeine Merkmale mathematischer Analysemethoden

Mathematische Methoden werden in der Systemforschung am häufigsten eingesetzt. Dabei erfolgt die Lösung praktischer Probleme mit mathematischen Methoden sequentiell nach folgendem Algorithmus:

    mathematische Formulierung des Problems (Entwicklung eines mathematischen Modells);

    Auswahl einer Methode zur Durchführung von Untersuchungen zum resultierenden mathematischen Modell;

    Analyse des erhaltenen mathematischen Ergebnisses.

Mathematische Formulierung des Problemsüblicherweise in Form von Zahlen, geometrischen Bildern, Funktionen, Gleichungssystemen usw. dargestellt. Die Beschreibung eines Objekts (Phänomens) kann durch kontinuierliche oder diskrete, deterministische oder stochastische und andere mathematische Formen dargestellt werden.

Mathematisches Modell ist ein System mathematischer Beziehungen (Formeln, Funktionen, Gleichungen, Gleichungssysteme), das bestimmte Aspekte des untersuchten Objekts, Phänomens, Prozesses oder Objekts (Prozesses) als Ganzes beschreibt.

Die erste Stufe mathematische Modellierung Ist Formulierung des Problems, Definition des Gegenstands und der Ziele der Studie, Festlegung von Kriterien (Zeichen) für die Untersuchung von Objekten und deren Verwaltung. Eine falsche oder unvollständige Formulierung des Problems kann die Ergebnisse aller nachfolgenden Phasen zunichte machen.

Das Modell ist das Ergebnis eines Kompromisses zwischen zwei gegensätzlichen Zielen:

    das Modell muss detailliert sein und alle tatsächlich bestehenden Zusammenhänge sowie die an seiner Arbeit beteiligten Faktoren und Parameter berücksichtigen;

    Gleichzeitig muss das Modell einfach genug sein, um angesichts bestimmter Ressourcenbeschränkungen in einem akzeptablen Zeitrahmen akzeptable Lösungen oder Ergebnisse zu liefern.

Die Modellierung kann als ungefähre wissenschaftliche Studie bezeichnet werden. Und der Grad seiner Genauigkeit hängt vom Forscher, seinen Erfahrungen, Zielen und Ressourcen ab.

Die bei der Entwicklung eines Modells getroffenen Annahmen ergeben sich aus den Zielen der Modellierung und den Fähigkeiten (Ressourcen) des Forschers. Sie werden durch die Anforderungen an die Genauigkeit der Ergebnisse bestimmt und sind wie das Modell selbst das Ergebnis eines Kompromisses. Schließlich sind es Annahmen, die ein Modell desselben Prozesses von einem anderen unterscheiden.

Normalerweise werden bei der Entwicklung eines Modells unwichtige Faktoren verworfen (nicht berücksichtigt). Konstanten in physikalischen Gleichungen werden als Konstanten betrachtet. Manchmal werden einige Größen, die sich während des Prozesses ändern, gemittelt (z. B. kann die Lufttemperatur über einen bestimmten Zeitraum als konstant angesehen werden).

    1. Modellentwicklungsprozess

Dabei handelt es sich um einen Prozess der konsequenten (und möglicherweise wiederholten) Schematisierung oder Idealisierung des untersuchten Phänomens.

Die Angemessenheit eines Modells ist seine Übereinstimmung mit dem realen physikalischen Prozess (oder Objekt), den es darstellt.

Um das Modell zu entwickeln physikalischer Vorgang es ist notwendig zu bestimmen:

Manchmal wird ein Ansatz verwendet, bei dem ein probabilistisches Modell mit geringer Vollständigkeit verwendet wird. Dann wird es mit Hilfe eines Computers analysiert und geklärt.

Modellverifizierung beginnt und findet bereits im Prozess seiner Konstruktion statt, wenn bestimmte Beziehungen zwischen seinen Parametern ausgewählt oder hergestellt und die akzeptierten Annahmen bewertet werden. Nach der Bildung des Modells als Ganzes ist es jedoch notwendig, es aus einigen allgemeinen Gesichtspunkten zu analysieren.

Die mathematische Grundlage des Modells (d. h. die mathematische Beschreibung physikalischer Zusammenhänge) muss konsistent sein Standpunkte Mathematiker: Funktionale Abhängigkeiten müssen die gleichen Veränderungstendenzen aufweisen wie reale Prozesse; die Gleichungen müssen einen Existenzbereich haben, der nicht kleiner ist als der Bereich, in dem die Studie durchgeführt wird; Das hätten sie nicht tun sollen einzelne Punkte oder Diskontinuitäten, wenn sie im realen Prozess nicht vorhanden sind usw. Gleichungen sollten die Logik des realen Prozesses nicht verzerren.

Das Modell muss die Realität ausreichend, also möglichst genau, widerspiegeln. Die Angemessenheit ist nicht allgemein, sondern im betrachteten Bereich erforderlich.

Diskrepanzen zwischen den Ergebnissen der Modellanalyse und dem tatsächlichen Verhalten des Objekts sind unvermeidlich, da das Modell eine Spiegelung und nicht das Objekt selbst ist.

In Abb. 3. Es wird eine verallgemeinerte Darstellung vorgestellt, die bei der Konstruktion mathematischer Modelle verwendet wird.

Reis. 3. Geräte für den Bau Mathematische Modelle

Bei der Verwendung statischer Methoden werden am häufigsten der Apparat der Algebra und Differentialgleichungen mit zeitunabhängigen Argumenten verwendet.

Dynamische Methoden verwenden Differentialgleichungen auf die gleiche Weise; Integralgleichungen; partielle Differentialgleichungen; Theorie der automatischen Steuerung; Algebra.

Wahrscheinlichkeitsmethoden verwenden: Wahrscheinlichkeitstheorie; Informationstheorie; Algebra; Theorie zufällige Prozesse; Theorie der Markov-Prozesse; Automatentheorie; Differentialgleichung.

Einen wichtigen Platz in der Modellierung nimmt die Frage nach der Ähnlichkeit zwischen Modell und realem Objekt ein. Quantitative Korrespondenzen zwischen Individuen Verfahrensbeteiligte, die in einem realen Objekt und seinem Modell vorkommen, werden durch den Maßstab charakterisiert.

Im Allgemeinen wird die Ähnlichkeit von Prozessen in Objekten und Modellen durch Ähnlichkeitskriterien charakterisiert. Das Ähnlichkeitskriterium ist ein dimensionsloser Parametersatz, der einen bestimmten Prozess charakterisiert. Bei der Durchführung von Forschungen werden je nach Forschungsgebiet unterschiedliche Kriterien herangezogen. In der Hydraulik ist ein solches Kriterium beispielsweise die Reynolds-Zahl (charakterisiert die Fließfähigkeit der Flüssigkeit), in der Wärmetechnik die Nusselt-Zahl (charakterisiert die Bedingungen der Wärmeübertragung), in der Mechanik das Newton-Kriterium usw.

Es wird angenommen, dass das Modell korrekt ist, wenn diese Kriterien für das Modell und das untersuchte Objekt gleich sind.

Eine andere Methode grenzt an die Ähnlichkeitstheorie theoretische Forschung - Dimensionsanalysemethode, die auf zwei Bestimmungen beruht:

    physikalische Gesetze werden nur durch Produkte von Potenzen physikalischer Größen ausgedrückt, die positiv, negativ, ganzzahlig und gebrochen sein können; Die Abmessungen beider Seiten der Gleichheit, die die physische Dimension ausdrückt, müssen gleich sein.

Einer der Indikatoren für die Reife der Wissenschaft ist der Einsatz mathematischer Forschungsmethoden. Solche Methoden werden in der Kriminaltechnik schon seit langem eingesetzt. Im Wesentlichen ist die bereits erwähnte allgemeine Erkenntnismethode als Messung ein erkenntnistheoretisch verallgemeinerter Begriff jeder mathematischen Methode. Wenn wir jedoch von der „Mathematisierung“ der Kriminologie sprechen, meinen wir moderne mathematische Forschungsmethoden, die aus Operationen bestehen, die unermesslich komplexer sind als ein einfacher Vergleich eines Objekts mit einem Maß.

Seit Anfang der 60er Jahre sind in der forensischen Literatur sowohl die grundsätzliche Möglichkeit des Einsatzes mathematischer Methoden in der forensischen wissenschaftlichen Forschung als auch die Notwendigkeit ihres Einsatzes zur Lösung forensischer Probleme, einschließlich Identifizierungsproblemen, weitgehend anerkannt. Wenn man dieses Problem unter verschiedenen Aspekten betrachtet, haben Kriminologen stets betont, dass der Einsatz mathematischer Forschungsmethoden neue Möglichkeiten in der Entwicklung sowohl der forensischen Wissenschaft als auch der Beweispraxis eröffnet, und die bloße Formulierung dieses Problems zeigt, dass die Kriminologie dies erreicht hat Entwicklungsstand, wenn sie wie andere entwickelte Wissenschaften das Bedürfnis verspürt, jene präzisen Methoden zur Kenntnis ihres Fachs zu benötigen, die ihr die moderne Mathematik bieten kann.

Verfahren " „Mathematisierung“ der Kriminologie fließt derzeit in drei Richtungen. Die erste davon ist eine allgemeine theoretische Richtung.

In allgemeiner theoretischer Hinsicht hat der Prozess der „Mathematisierung“ Kriminologen vor die Aufgabe gestellt, die Möglichkeiten des Einsatzes mathematischer Forschungsmethoden grundlegend zu begründen und diejenigen Wissenschaftsbereiche zu identifizieren, in deren Entwicklung diese Methoden die effektivsten Ergebnisse liefern können. In der Literatur wird diese Richtung durch die Werke von V. A. Poshkyavichus, N. S. Polevoy, A. A. Eisman, N. A. Selivanov, Z. I. Kirsanov, L. G. Edzhubov und anderen Autoren repräsentiert. Die wichtigsten Schlussfolgerungen, die nach der Lektüre ihrer Forschung gezogen werden können, sind folgende:

1. Der Prozess der „Mathematisierung“ der Kriminologie ist ein natürlicher Prozess, der durch den modernen Entwicklungsstand dieser Wissenschaft und mathematischer Forschungsmethoden bedingt ist, die daher immer universeller werden. Der Einsatz mathematisch-kybernetischer Forschungsmethoden in der Kriminalistik ist grundsätzlich zulässig; ihre Verwendung als Beweismittel kann nicht als Verwendung von Spezialwissen über quantitative Merkmale und elementare mathematische Methoden angesehen werden; In den Fällen, in denen zur Beschreibung, Begründung oder Analyse von Phänomenen mathematische Methoden eingesetzt werden, deren Kenntnis mit Hilfe von Spezialwissen erfolgt, fällt der Einsatz dieser Methoden unter den Begriff der Nutzung von Spezialwissen in Gerichtsverfahren.

2. Der Einsatz mathematischer und kybernetischer Forschungsmethoden ist möglich zu folgenden Zwecken:

A) Verbesserung der Methodik der forensischen Untersuchung, was letztendlich zu einer Erweiterung ihrer Fähigkeiten führen wird;

B) wissenschaftliche Analyse des Beweisprozesses und Entwicklung von Empfehlungen für die Anwendung der Wahrscheinlichkeitstheorie und der mathematischen Statistik, der mathematischen Logik, des Operations Research und der Spieltheorie in der Ermittlungspraxis.

In Studien zur allgemeinen theoretischen Richtung spiegelten sich auch zwei weitere Richtungen des Prozesses der „Mathematisierung“ der Kriminologie wider: der Einsatz mathematischer Methoden bei der forensischen Untersuchung und bei der Analyse des gesamten Beweisprozesses.

Die zweite Richtung des betrachteten Prozesses ist die Verwendung mathematischer Methoden zur Entwicklung von Problemen der Theorie der forensischen Identifizierung und ihrer praktischen Anwendungen sowie von Problemen der forensischen Untersuchung und infolgedessen von Problemen der forensischen Untersuchung im Allgemeinen. Das Wesen dieser Richtung und die Art und Weise, die Ergebnisse der Mathematisierung zu nutzen, werden von A. R. Shlyakhov charakterisiert: „Die Rolle mathematischer Methoden in Forensik ist zweifach: Einerseits fungieren sie als integraler Bestandteil der Funktionsweise eines Computers in Form von Softwarekomplexen zur Lösung von Problemen und Informationssystemen, andererseits können sie unabhängig, ohne Computer, genutzt werden und bereitstellen eine vollständige oder teilweise Lösung forensischer Probleme. Mathematische Methoden sind in den Methoden zur Erstellung von Untersuchungen, zum Beispiel spurenkundliche, ballistische, handschriftliche, autotechnische usw., seit langem fest etabliert. Mathematische Methoden sind nützlich bei der Verarbeitung von Messergebnissen, dem analytischen Vergleich und als Kriterium für die Angemessenheit von der identifizierte Satz von Merkmalen zur Individualisierung eines Objekts und zur Beurteilung seiner Vollständigkeit zu Identifikationszwecken.“

Dieser Bereich entwickelt sich am intensivsten, da er direkt den Bedürfnissen der forensischen Praxis entspricht. Bereits 1969 stellte A. R. Shlyakhov fest, dass mathematische Methoden einen der Hauptplätze im System der Methoden einnahmen, die allen Phasen der Expertenforschung gemeinsam sind verschiedene Arten forensische Untersuchungen. Im Jahr 1977 wurden Methoden der angewandten Mathematik und programmmathematische Methoden der Computernutzung gemäß der von A. I. Vinberg und A. R. Shlyakhov vorgeschlagenen Klassifizierung von Expertenforschungsmethoden als allgemeine (allgemeine kognitive) Methoden klassifiziert. Seit Ende der 60er Jahre. Es wird intensiv nach Einsatzmöglichkeiten mathematisch-kybernetischer Methoden in nahezu allen forensischen Untersuchungsarten gesucht und versucht, die eingesetzten Methoden zu inventarisieren.

Als Ergebnis der intensiven Auseinandersetzung mit der Problematik des Einsatzes mathematischer Methoden in der wissenschaftlichen und fachlichen Forschung stellte sich die Frage nach den Grenzen ihrer Anwendung. G. L. Granovsky verwies auf zwei Standpunkte: Einige setzen ihre Hoffnungen auf dem Gebiet der Prüfungsverbesserung nur auf den Einsatz von Methoden der exakten Wissenschaften, andere gehen dieses Thema vorsichtiger an und weisen auf die Grenzen der Möglichkeiten des Einsatzes moderner Mathematik hin. Es ist ihre Position, die dem richtigen Verständnis des Problems näher zu sein scheint.“ Seiner Meinung nach gibt es natürliche Einschränkungen, „die die Art der Untersuchungsgegenstände der Möglichkeit auferlegt, mathematische Methoden für ihre Untersuchung zu verwenden … Die Verwendung.“ Die Verwendung quantitativer Methoden in jeder Untersuchung ist theoretisch zulässig, in der Praxis reicht es jedoch noch nicht aus, zu wissen, welche Anzeichen und in welchem ​​Umfang vorhanden sein können mathematische Beschreibung und Einschätzung, welche Ergebnisse vom Einsatz mathematischer Methoden für ihre Forschung zu erwarten sind.“ Die moderne Expertenpraxis geht den Weg, dieses Doppelproblem zu lösen: die Bestimmung der Einsatzpunkte mathematischer Methoden und dann deren praktische Anwendung.

Derzeit werden mathematische Methoden am aktivsten bei der Lösung von Problemen der forensischen Handschriftprüfung, SATE sowie KEMVI eingesetzt; Darüber hinaus werden sie nicht nur bei der Durchführung forensischer Untersuchungen (bei der Beschaffung von Informationen über den forensischen Untersuchungsgegenstand) eingesetzt, sondern sind auch ein Mittel zur Lösung eines forensischen Problems auf der Grundlage von Informationen über den Gegenstand. Gleichzeitig haben quantitative Informationen den größten Beweiswert, was durch Studien zur Lösung des Problems der Ermittlung des PCF von Objekten faseriger Natur (V.A. Puchkov, V.Z. Polyakov, 1986) auf der Grundlage der Ergebnisse einer analytischen Studie bestätigt wird Fasermikropartikel (wenn nach einer Informationssuche auf der Grundlage einer Reihe von in Untersuchungen untersuchten Fasern das Problem der Entscheidungsfindung auf der Grundlage der Ergebnisse einer bestimmten analytischen Studie auf ein theoretisch-probabilistisches Problem reduziert wird), unter Verwendung eines probabilistisch-statistischen Modells (L. A. Gegechkori, 1985) zur Lösung des Problems der forensischen Identifizierung auf der Grundlage von Zusammensetzungs- und Strukturmerkmalen (das Modell kann sowohl im Vorstadium als auch in den Phasen der vergleichenden Forschung und Synthese verwendet werden; der Kern des Modells sind die statistischen Kriterien wird in der Phase der vergleichenden Forschung verwendet und abhängig davon wird die statistische Analyse von Informationsfonds organisiert, die erforderlich ist, wenn das Modell in anderen Phasen der Problemlösung eingesetzt wird) , mit der Entwicklung eines mathematischen Modells für die Aufgaben der Unterscheidung zwischen authentisch und unechte Unterschriften, die nach vorherigem Training mit Nachahmung ausgeführt werden (S. A. Atakhodzhaev et al., 1984). Wir weisen auch auf die Entwicklung mathematischer Modelle des Problems der Kollision eines Fahrzeugs mit einem Fußgänger bei eingeschränkter Sicht und auf einige Ansätze für den Einsatz mathematischer Methoden bei forensischen phonoskopischen Untersuchungsproblemen hin.

Nutzungserfahrung Mathematische Methoden in der forensischen Untersuchung weist darauf hin, dass klar zwischen der Verwendung mathematischer Methoden zur Verarbeitung von Informationen, die bei der Untersuchung forensischer Untersuchungsobjekte gewonnen werden, und der Entwicklung mathematischer Modelle zur Lösung forensischer Probleme auf der Grundlage von Forschungsergebnissen unterschieden werden muss. Wenn der erste Aspekt nicht spezifisch forensisch ist (da die Untersuchung des forensischen Untersuchungsgegenstandes mit naturwissenschaftlichen Methoden erfolgt), dann hat der zweite Aspekt einen besonderen forensischen Charakter. Es erscheint in entfernter Form, wenn wir bereits über ein mathematisches Modell zur Lösung eines typischen forensischen Problems verfügen. Wenn wir jedoch nicht vom Prozess der Entwicklung eines mathematischen Modells ablenken, wird seine forensische Natur klar offenbart. Tatsächlich geht die Entwicklung mathematischer Modelle für typische forensische Aufgaben immer von der Notwendigkeit aus, spezifische, individuell definierte Probleme zu lösen. Ein Mathematiker identifiziert in engem Kontakt mit einem forensischen Experten die wichtigsten quantitativen Muster, die es ermöglichen, ein mathematisches Modell nicht nur für eine bestimmte forensische Aufgabe, sondern für eine ganze Art von Aufgabe zu entwickeln. Das ist die tiefe Bedeutung der Mathematisierung ihrer Lösung. Mathematische Methoden in der Forensik sind nicht nur (und nicht so sehr) Methoden zur Untersuchung von Objekten und zur Gewinnung von Informationen über sie (wie beispielsweise physikalische und chemische Methoden), sondern auch Methoden zur Lösung forensischer Probleme auf der Grundlage von Forschungsergebnissen.

Die dritte Richtung der Mathematisierung der Forensik wissenschaftliche Forschung- Anwendung mathematischer Methoden zur Lösung forensischer Taktiken und Techniken. In der Literatur wird es durch die Werke von A.A. Eisman, I.M. Luzgin, L.G. Vidonov, N.A. repräsentiert. Selivanova und andere. Bereits die ersten Studien in diesem Bereich zeigten die Grenzen der Anwendung mathematischer Methoden zur Lösung taktischer und methodischer Probleme.

A. A. Eisman hat zu Recht darauf hingewiesen, dass „gerichtliche Beweise nicht mit den Mitteln der traditionellen Logik beschrieben werden können, vor allem weil alle Beweishandlungen, sowohl einfache als auch komplexe, nicht nur qualitativer Natur (ja/nein), sondern auch quantitativ sind ( zuverlässiger, weniger zuverlässig). Es ist diese bewertende, quantitative Seite, die die Hauptschwierigkeiten für die Modellierung darstellt... Es gibt keine Mittel oder Möglichkeiten, das absolute Niveau dieser Zuverlässigkeit darzustellen, ihr strenge quantitative Werte zu geben. Das ist durchaus verständlich , weil wir keine Methoden haben (und es ist schwierig, mit wissenschaftlicher Sicherheit vorherzusagen, ob wir jemals welche haben werden). Quantifizierung Beweis Offensichtlich ist die einzige Möglichkeit, solche quantitativen Merkmale zu erhalten, die statistische Verarbeitung einer Vielzahl von Ereignissen und Fakten, die zum Beweisinhalt gehören. In diesem Fall geht es um die statistische Berücksichtigung der Bedeutung einzelner Tatsachen (z. B. auf frischer Tat ertappt zu werden) unter verschiedenen sich ändernden Bedingungen. Es ist nicht schwer, sich einen nahezu unbegrenzten Umfang solcher statistischen Forschungen vorzustellen. Gleichzeitig ist es schwierig, die praktische Wirksamkeit der Ergebnisse zu beurteilen, wenn sie erzielt werden.“ Aus diesem Grund vertrat A. A. Eisman die Meinung, dass in der Logik der Konsequenzen aus den Mitteln der mathematischen Logik nur einige Formeln der Aussagenrechnung verwendet werden , die „keinen strengen Kalkül, also einen vollständigen Regelapparat zur Konstruktion von Schlussfolgerungen, bilden, sondern eine Hilfsrolle spielen.“ Diese Meinung wurde auch von I. M. Luzgin unterstützt.

N. A. Selivanov begrenzt Anwendung mathematischer Methoden im Bereich der forensischen Taktik nur durch die Vermessung verschiedener Objekte und die Lösung bestimmter Probleme im Rahmen einzelner Ermittlungshandlungen, vor allem bei der Inspektion des Unfallorts: Bestimmung eines unbekannten Abstands von zwei bekannten, der Neigung der Fluglinie von Blutspritzern, der Größe von Autoreifen basierend auf ihren Spuren, der Geschwindigkeit eines Autos entlang des Bremswegs und einigen anderen. Bei I. M. Luzgin finden wir eine Erwähnung der logisch-mathematischen Modellierung, deren Objekte aus seiner Sicht Zeichen kontroverser Situationen, Tatsachen, die das Corpus Delicti bilden, und damit verbundene Umstände, Beziehungen zwischen Objekten und Phänomenen, Zeichen von sein können Spuren. Abgesehen von der Erwähnung liefert er jedoch keine Daten, die die tatsächliche Möglichkeit einer solchen Modellierung bestätigen.

Z. I. Kirsanov und N. A. Rodionov können als Pioniere bei der Untersuchung der Möglichkeit des Einsatzes probabilistisch-statistischer Methoden in forensischen Techniken angesehen werden. Im ersten wurden die Hauptanwendungsbereiche statistischer Methoden identifiziert: zur Untersuchung der Methoden zur Begehung einer Straftat, der Arten von Dokumenten, die von Kriminellen gefälscht wurden, von Gegenständen, die als Verstecke verwendet werden, im Allgemeinen zur Verallgemeinerung und Untersuchung der Ermittlungspraxis usw. Im zweiten wurden diese statistischen Methoden benannt die seiner Meinung nach bei der Aufklärung von Straftaten eingesetzt werden können. Ein Beispiel für die erfolgreiche Anwendung probabilistischer statistischer Methoden zur Bestimmung von Abhängigkeiten zwischen Elementen der forensischen Merkmale vorsätzlicher Morde ist die Arbeit von L. G. Vidonov.

Es wird versucht, mit probabilistischen und statistischen Methoden die Wirksamkeit einzelner taktischer Techniken oder deren Kombinationen im Rahmen spezieller Komplexe sowie die Wirksamkeit taktischer Kombinationen (Operationen) für bestimmte Kategorien von Straftaten zu beurteilen.

Die Erweiterung des Anwendungsbereichs mathematischer Methoden in der Forensik brachte logischerweise die Untersuchung der Einsatzmöglichkeiten zur Lösung praktischer Probleme auf Basis der Computertechnologie mit sich. „Wenn ich über den Einsatz mathematischer Methoden spreche, möchte ich betonen, dass sie nicht im Gegensatz zu Computern stehen sollten“, bemerkte A. R. Shlyakhov in diesem Zusammenhang bereits 1984 zu Recht. „Mathematische und technische und forensische Methoden können sich ergänzen, interagieren und.“ in einer Reihe von Fällen in ihrer Funktion parallel. In Wesen und Form sind sie nicht identisch. Es ist wahr, dass fast alles, was die Mathematik erreichen kann, gelöst werden kann und

Computer (manchmal sogar besser als Mathematiker), aber ohne Mathematiker ist der Computer machtlos.“ Ein Bereich der praktischen Strafverfolgungstätigkeit, in dem sich der Einsatz von Computern als am erfolgversprechendsten erwiesen hat, ist die forensische Untersuchung.

Neben der gutachterlichen Praxis wurden in der Kriminalistik folgende Einsatzgebiete kybernetischer Methoden identifiziert:

Extrahieren von Informationen über verschiedene Objekte, Prozesse und Automatisieren ihrer primären Verarbeitung;

Der Einsatz von automatischen Geräten und Computern zur dringenden Verarbeitung von Informationen und zur Erlangung abgeleiteter Parameter nach einem festgelegten Schema Primärinformationen;

Automatisierung des Prozesses zum Kodieren und Scannen von Informationen;

Computermustererkennung;

Studium mathematischer Modelle des Beweisprozesses.

Und Geometrie. Basic Kennzeichen Analyse im Vergleich zu anderen Bereichen - das Vorhandensein von Funktionen variabler Größen als Forschungsgegenstand. Wenn gleichzeitig elementare Abschnitte der Analysis in Bildungsprogrammen und -materialien häufig mit elementarer Algebra kombiniert werden (es gibt beispielsweise zahlreiche Lehrbücher und Kurse mit dem Titel „Algebra und die Anfänge der Analysis“), dann verwendet die moderne Analysis weitgehend die Methoden moderner geometrischer Schnitte, vor allem Differentialgeometrie und Topologie.

Geschichte

Separate Zweige der „Infinitesimalanalyse“, wie die Theorie der gewöhnlichen Differentialgleichungen (Euler, Johann Bernoulli, D'Alembert), die Variationsrechnung (Euler, Lagrange), die Theorie der analytischen Funktionen (Lagrange, Cauchy, später Riemann). ), begann sich im 18. und 19. Jahrhundert noch stärker zu trennen. Als Beginn der Herausbildung der Analyse als eigenständiger moderner Zweig gelten jedoch die Arbeiten der Mitte des 19. Jahrhunderts zur Formalisierung von Schlüsselbegriffen klassische Analyse- reelle Zahl, Funktion, Grenze, Integral, vor allem in den Werken von Cauchy und Bolzano, und erhielten ihre endgültige Form in den 1870er bis 1880er Jahren in den Werken von Weierstrass, Dedekind und Cantor. In diesem Zusammenhang entstand die Funktionstheorie einer reellen Variablen und bei der Entwicklung von Methoden zur Arbeit mit analytischen Funktionen die Funktionstheorie einer komplexen Variablen. Die von Cantor Ende des 19 Konzentrieren Sie sich von reellen Zahlen auf nicht-numerische Konzepte.

Zu Beginn des 20. Jahrhunderts entstand vor allem durch die Bemühungen der französischen mathematischen Schule (Jordan, Borel, Lebesgue, Baer) eine Maßtheorie, dank derer das Konzept eines Integrals verallgemeinert wurde, und eine Theorie der Funktionen einer reellen Variablen konstruiert wurde. Ebenfalls zu Beginn des 20. Jahrhunderts begann sich die Funktionalanalysis als eigenständiges Teilgebiet herauszubilden. moderne Analyse, Untersuchung topologischer Vektorräume und ihrer Abbildungen. Der Begriff „Funktionsanalyse“ wurde von Hadamard eingeführt und bezeichnet einen Zweig der Variationsrechnung, der an der Wende vom 19. zum 20. Jahrhundert von einer Gruppe italienischer und französischer Mathematiker (darunter Volterra, Arcela) entwickelt wurde. Im Jahr 1900 veröffentlichte Fredholm einen Artikel über Integralgleichungen, der der Entwicklung der Theorie der Integralgleichungen, der Entwicklung, Impulse gab allgemeine Theorie Integration (Lebesgue) und die Bildung der Funktionsanalyse. 1906 skizzierte Hilbert in seinem Werk die Spektraltheorie und im selben Jahr erschien Fréchets Werk, in dem erstmals abstrakte metrische Räume in die Analyse eingeführt wurden. In den 1910er bis 1920er Jahren wurden die Konzepte der Trennbarkeit geklärt und erstmals allgemeine topologische Methoden auf die Analyse angewendet (Hausdorff), funktionale Räume wurden beherrscht und die Bildung einer allgemeinen Theorie normierter Räume begann (Hilbert, Ries, Banach, Hahn). Im Zeitraum 1929–1932 entstand die axiomatische Theorie der Hilbert-Räume (John von Neumann, Marshall Stone, Rees). 1936 formulierte Sobolev das Konzept einer verallgemeinerten Funktion (später in den 1940er Jahren kam Laurent Schwartz unabhängig von ihm zu einem ähnlichen Konzept), das in vielen Bereichen der Analyse weit verbreitet war und in Anwendungen breite Anwendung fand (z. B. eine verallgemeinerte Funktion). Funktion ist δ (\displaystyle \delta )-Dirac-Funktion). In den 1930er und 1950er Jahren wurden bedeutende Ergebnisse in der Funktionsanalyse durch den Einsatz allgemeiner algebraischer Werkzeuge (Vektorverbände, Operatoralgebren, Banachalgebren) erzielt.

Bis zur Mitte des 20. Jahrhunderts erhielten Bereiche wie die Theorie dynamischer Systeme und die Ergodentheorie (George Birkhoff, Kolmogorov, von Neumann) eine eigenständige Entwicklung, die Ergebnisse der harmonischen Analyse wurden durch die Verwendung allgemeiner algebraischer Mittel – topologischer Gruppen – erheblich verallgemeinert und Darstellungen (Weil, Peter, Pontryagin). Seit den 1940er bis 1950er Jahren fanden Methoden der Funktionsanalyse Anwendung in angewandten Bereichen, insbesondere in den Werken von Kantorovich. In den 1930er bis 1940er Jahren wurden die Werkzeuge der Funktionsanalyse in der Computermathematik und Wirtschaftswissenschaften (lineare Programmierung) eingesetzt. In den 1950er Jahren wurde in den Werken von Pontryagin und seinen Schülern die Theorie der optimalen Kontrolle bei der Entwicklung von Methoden der Variationsrechnung geschaffen.

Ab der zweiten Hälfte des 20. Jahrhunderts gesellte sich mit der Entwicklung der Differentialtopologie eine neue Richtung zur Analyse – die Analyse auf Mannigfaltigkeiten, die sogenannte „Globalanalyse“, die tatsächlich bereits in den 1920er Jahren im Rahmen von Morse Gestalt annahm Theorie als Verallgemeinerung der Variationsrechnung (genannt „Variational“ von Morsekalkül im Allgemeinen, englisch Variationsrechnung im Großen). Diese Richtung umfasst diejenigen, die bei der Entwicklung der Bifurkationstheorie entstanden sind dynamische Systeme(Andronov) Bereiche wie die Theorie der Singularitäten (Whitney, ) und die Theorie der Katastrophen (Tom und Maser,), die in den 1970er Jahren in den Werken von Ziman und Arnold entwickelt wurden.

Klassische mathematische Analyse

Die klassische mathematische Analyse – ein Abschnitt, der eigentlich vollständig der historischen „Infinitesimalanalyse“ entspricht, besteht aus zwei Hauptkomponenten: Differential- und Integralrechnung. Grundbegriffe - Grenzwert einer Funktion, Differential, Ableitung, Integral, Hauptergebnisse - Newton-Leibniz-Formel, die ein bestimmtes Integral und eine Stammfunktion verbindet, und Taylor-Reihe - Reihenentwicklung einer unendlich differenzierbaren Funktion in der Umgebung eines Punktes.

Der Begriff „mathematische Analyse“ bezieht sich normalerweise auf diesen klassischen Abschnitt und wird hauptsächlich in Bildungsprogrammen und -materialien verwendet. Gleichzeitig ist das Studium der Grundlagen der Analyse in den meisten Sekundarschulprogrammen enthalten, und ein mehr oder weniger vollständiges Studium des Fachs ist in den Programmen der ersten Hochschuljahre für eine Vielzahl von Fachgebieten enthalten, darunter viele in den Geisteswissenschaften. In der angloamerikanischen Bildungstradition zur Bezeichnung der Klassik mathematische Analyse der Begriff „Kalkül“ wird verwendet (englisch calculus).

Theorie der Funktionen einer reellen Variablen(manchmal kurz genannt - Funktionstheorie) entstand als Ergebnis der Formalisierung der Konzepte einer reellen Zahl und einer Funktion: Wurden in den klassischen Abschnitten der Analyse nur Funktionen berücksichtigt, die in bestimmten Problemen auf natürliche Weise auftreten, so werden in der Theorie der Funktionen die Funktionen selbst Das Untersuchungsobjekt, ihr Verhalten und die Beziehungen zwischen ihren Eigenschaften werden untersucht. Eines der Ergebnisse, das die Besonderheit der Theorie der Funktionen einer reellen Variablen verdeutlicht, ist die Tatsache, dass eine stetige Funktion an keinem Punkt eine Ableitung haben darf (im Übrigen nach früheren Vorstellungen der klassischen mathematischen Analyse die Differenzierbarkeit aller kontinuierliche Funktionen wurde nicht in Frage gestellt).

Hauptrichtungen der Funktionentheorie einer reellen Variablen:

Theorie der Funktionen einer komplexen Variablen

Gegenstand des Studiums der Theorie der Funktionen einer komplexen Variablen sind numerische Funktionen, die auf der komplexen Ebene definiert sind C 1 (\displaystyle \mathbb (C) ^(1)) oder komplexer euklidischer Raum C n (\displaystyle \mathbb (C) ^(n)), während die am gründlichsten untersuchten analytischen Funktionen eine wichtige verbindende Rolle für fast alle Zweige der mathematischen Analysis spielen. Insbesondere wird das Konzept einer analytischen Funktion für beliebige Banachräume verallgemeinert, wodurch viele Ergebnisse aus der Theorie der Funktionen einer komplexen Variablen in der Funktionalanalysis Verallgemeinerung gefunden haben.

Funktionsanalyse

Die Funktionsanalyse als Abschnitt zeichnet sich durch die Präsenz topologischer Vektorräume und ihrer Abbildungen als Untersuchungsgegenstand mit verschiedenen ihnen auferlegten algebraischen und topologischen Bedingungen aus. Funktionsräume spielen in der Funktionalanalysis eine zentrale Rolle, ein klassisches Beispiel sind die Räume aller messbaren Funktionen, deren p (\displaystyle p)-ter Grad ist integrierbar; gleichzeitig schon L 2 (\displaystyle L^(2))- Unendlichdimensionaler Raum (Hilbert-Raum) und Räume unendlicher Dimensionen sind der Funktionalanalysis in einem solchen Ausmaß inhärent, dass manchmal der gesamte Abschnitt als Teil der Mathematik definiert wird, der unendlichdimensionale Räume und ihre Abbildungen untersucht. Die wichtigste Raumform in den klassischen Abschnitten der Funktionalanalysis sind Banachräume – normierte Vektorräume, vollständig in der durch die Norm erzeugten Metrik: Ein erheblicher Teil der in der Praxis interessanten Räume sind solche, darunter alle Hilberträume, Räume L p (\displaystyle L^(p)), Hardy-Räume, Sobolev-Räume. Eine wichtige Rolle in der Funktionsanalyse spielen algebraische Strukturen, die Banachräume sind – Banachverbände und Banachalgebren (einschließlich – C ∗ (\displaystyle C^(*))-Algebren, von Neumann-Algebren).

Die abstrakte harmonische Analyse verallgemeinert klassische Methoden auf abstrakte Strukturen unter Verwendung von Konzepten wie dem Haar-Maß und Gruppendarstellungen. Das wichtigste Ergebnis der kommutativen harmonischen Analyse ist der Dualitätssatz von Pontryagin, dank dem fast alle klassischen Ergebnisse der harmonischen Analyse mit relativ einfachen allgemeinen algebraischen Mitteln beschrieben werden. Eine Weiterentwicklung der Theorie ist die nichtkommutative harmonische Analyse, die wichtige Anwendungen in der Quantenmechanik hat.

Differential- und Integralgleichungen

In der Theorie der Integralgleichungen gibt es neben klassischen Lösungsmethoden auch Richtungen wie die Fredholm-Theorie, die einen spürbaren Einfluss auf die Entstehung der Funktionalanalysis als eigenständigem Abschnitt hatten und insbesondere zur Entstehung des Hilbert-Konzepts beitrugen Raum.

Theorie dynamischer Systeme und Ergodentheorie

Aus den Hauptstudienbereichen Differentialgleichung Die Theorie dynamischer Systeme, die die zeitliche Entwicklung mechanischer Systeme untersucht, und die Ergodentheorie, die auf die Untermauerung der statistischen Physik abzielt, entstanden als eigenständige Abschnitte. Trotz des angewandten Charakters der Probleme umfassen diese Abschnitte eine breite Palette von Konzepten und Methoden von allgemeiner mathematischer Bedeutung, insbesondere die Konzepte der Stabilität und Ergodizität.

Globale Analyse

Globale Analyse- ein Zweig der Analysis, der Funktionen und Differentialgleichungen auf Mannigfaltigkeiten und Vektorbündeln untersucht; Manchmal wird diese Richtung als „Analyse auf Mannigfaltigkeiten“ bezeichnet.

Einer der ersten Bereiche der globalen Analyse ist die Morsetheorie und ihre Anwendung auf geodätische Probleme auf Riemannschen Mannigfaltigkeiten; Die Richtung wurde „Variationsrechnung im Allgemeinen“ genannt. Die Hauptergebnisse sind das Morse-Lemma, das das Verhalten glatter Funktionen auf glatten Mannigfaltigkeiten an nicht entarteten singulären Punkten beschreibt, und eine Homotopieinvariante wie die Lyusternik-Shnirelman-Kategorie. Viele der Konstruktionen und Aussagen werden auf den Fall unendlichdimensionaler Mannigfaltigkeiten verallgemeinert ( Hilbert-Sorten *, Banach-Sorten). Die im Rahmen der globalen Analyse singulärer Punkte gewonnenen Ergebnisse haben breite Anwendung zur Lösung rein topologischer Probleme gefunden, wie beispielsweise Botts Periodizitätssatz, das weitgehend als Grundlage für einen eigenständigen Zweig der Mathematik diente - K (\displaystyle K)-Theorien sowie der Satz über h (\displaystyle h)-Cobordismus, dessen Folge die Erfüllung der Poincaré-Vermutung für Dimensionen über 4 ist.

Ein weiterer großer Bereich der globalen Analyse, der in der Physik und Ökonomie weit verbreitet ist, ist die Theorie der Singularitäten, die Theorie der Bifurkationen und die Theorie der Katastrophen; Die Hauptforschungsrichtung in diesem Block ist die Klassifizierung des Verhaltens von Differentialgleichungen oder Funktionen in der Nähe kritischer Punkte und die Identifizierung Charakteristische Eigenschaften entsprechenden Klassen.

Nicht standardmäßige Analyse

Nichtstandardanalyse ist die Formalisierung von Schlüsselkonzepten der Analyse mittels mathematischer Logik. Die Hauptidee ist die formale Aktualisierung unendlich großer und unendlich kleiner Größen und die logische Formalisierung von Manipulationen mit ihnen. Gleichzeitig erweisen sich nicht standardmäßige Analysetools als sehr praktisch: Sie erzielten Ergebnisse, die aufgrund mangelnder Übersichtlichkeit bisher mit klassischen Tools nicht zu finden waren

Einführung

Eine der Richtungen zur Verbesserung der Analyse Wirtschaftstätigkeit ist die Einführung ökonomischer und mathematischer Methoden und moderner Computer. Ihre Verwendung erhöht die Effizienz der Wirtschaftsanalyse durch Erweiterung der Faktoren, die die akzeptierten Faktoren rechtfertigen Managemententscheidungen, Auswahl der optimalen Option zur Nutzung wirtschaftlicher Ressourcen, Identifizierung und Mobilisierung von Reserven zur Steigerung der Produktionseffizienz.

Mathematische Methoden basieren auf der Methodik der wirtschaftsmathematischen Modellierung und der wissenschaftlich fundierten Problemklassifizierung der Wirtschaftstätigkeit.

Abhängig von den Zielen der ökonomischen Analyse werden folgende ökonomische und mathematische Modelle unterschieden: in deterministischen Modellen - Logarithmus, Kapitalbeteiligung, Differenzierung; in stochastischen Modellen - Korrelations-Regressionsmethode, lineare Programmierung, Warteschlangentheorie, Graphentheorie.

Allgemeine Merkmale mathematischer Analysemethoden

Der weit verbreitete Einsatz mathematischer Methoden ist eine wichtige Richtung zur Verbesserung der Wirtschaftsanalyse und erhöht die Effizienz der Analyse der Aktivitäten von Unternehmen und ihren Unternehmensbereichen. Dies wird durch eine Verkürzung der für die Analyse erforderlichen Zeit und eine umfassendere Abdeckung des Einflusses von Faktoren auf die Ergebnisse erreicht kommerzielle Aktivitäten, Ersetzung von Näherungs- oder vereinfachten Berechnungen durch exakte Berechnungen, Festlegung und Lösung neuer mehrdimensionaler Analyseprobleme, die mit herkömmlichen Methoden praktisch nicht zu lösen sind.

Anwendung mathematischer Methoden in wirtschaftliche Analyse Die Tätigkeit des Unternehmens erfordert:

· ein systematischer Ansatz zur Untersuchung der Unternehmensökonomie unter Berücksichtigung aller wesentlichen Beziehungen zwischen verschiedenen Aspekten der Unternehmenstätigkeit; Unter diesen Bedingungen erhält die Analyse selbst zunehmend die Merkmale eines Systems im kybernetischen Sinne des Wortes;

· Entwicklung eines Komplexes ökonomischer und mathematischer Modelle, die quantitative Merkmale widerspiegeln Wirtschaftsprozesse und Probleme, die mithilfe der Wirtschaftsanalyse gelöst werden;

· Verbesserung des Wirtschaftsinformationssystems über die Arbeit der Unternehmen;

Verfügbarkeit technische Mittel(Computer usw.) Speicherung, Verarbeitung und Übermittlung von Wirtschaftsinformationen zum Zwecke der Wirtschaftsanalyse;

· Organisation der Computeranalyse wirtschaftlicher Aktivitäten, Erstellung Software Analyse im Steuerungssystem.

Reis. 1.

Der Höhepunkt von heute in der Entwicklung von Steuerungssystemen sind VRM-Systeme ( Business-Performance-Management - Business Performance Management), d.h. Systeme, die eine Verknüpfung aller Steuerungsfunktionen ermöglichen. Innerhalb solcher Systeme haben beispielsweise Topmanager die Möglichkeit, diese Zahlen zu analysieren, anzupassen und ihre neuen Daten einzugeben. Die Systeme ermöglichen es ihnen, die Berichte der zugehörigen Abteilungen einzusehen und zu nutzen. Darüber hinaus werden die auf der unteren Führungsebene korrigierten und ergänzten Daten wieder an die Unternehmensebene weitergegeben. Der gesamte bidirektionale Planungsprozess wird zeitnah wiederholt, bis der optimale Plan erstellt ist. Mit BPM-Systemen können Sie mehrere Versionen des Plans (Budgets), sogenannte flexible Schätzungen für unterschiedliche Verkaufsmengen, unter Berücksichtigung möglicher negativer oder positiver ungeplanter Faktoren erstellen. Somit ist es in Krisenzeiten möglich, die Organisation sofort in ein Notfallbudget zu überführen. Gleichzeitig bleibt natürlich keine Zeit, alle Budgetposten über alle Kosten- und Verantwortungsbereiche hinweg zu prüfen und abzustimmen. Es ist zu beachten, dass die Grundlage für die weitere Verbesserung von VRM-Systemen ihre methodische und methodisch-analytische Unterstützung ist.

Ein mathematisch formuliertes Problem der Wirtschaftsanalyse kann mit einer der entwickelten mathematischen Methoden gelöst werden. In Abb. Abbildung 1 zeigt ein ungefähres Diagramm der wichtigsten mathematischen Methoden, an denen zur Analyse der wirtschaftlichen Aktivitäten von Unternehmen gearbeitet wird.

Methoden der Elementarmathematik werden in gewöhnlichen traditionellen Wirtschaftsberechnungen verwendet, um den Ressourcenbedarf zu begründen, Produktionskosten zu berücksichtigen, Pläne, Projekte, Bilanzberechnungen usw. zu entwickeln. Die Auswahl der Methoden der klassischen höheren Mathematik im Diagramm ist darauf zurückzuführen, dass diese nicht nur im Rahmen anderer Methoden, beispielsweise Methoden, eingesetzt werden mathematische Statistik und mathematische Programmierung, aber auch separat. Somit ist die Faktorenanalyse der Veränderungen in vielen Fällen möglich Ökonomische Indikatoren kann durch Differenzierung und Integration erreicht werden.

In der Wirtschaftsanalyse werden häufig Methoden der mathematischen Statistik und der Wahrscheinlichkeitstheorie eingesetzt. Diese Methoden werden in Fällen eingesetzt, in denen die Änderung der analysierten Indikatoren als zufälliger Prozess dargestellt werden kann.

Statistische Methoden spielen als wichtigstes Mittel zur Untersuchung wiederkehrender Massenphänomene eine wichtige Rolle bei der Vorhersage des Verhaltens von Wirtschaftsindikatoren. Wenn der Zusammenhang zwischen den analysierten Merkmalen nicht deterministisch, sondern stochastisch ist, sind statistische und probabilistische Methoden praktisch das einzige Forschungsinstrument. Die am weitesten verbreiteten mathematischen und statistischen Methoden in der Wirtschaftsanalyse sind die Methoden der Mehrfach- und Paarkorrelationsanalyse. Zur Untersuchung eindimensionaler statistischer Populationen werden Variationsreihen, Verteilungsgesetze und die Stichprobenmethode verwendet. Zur Untersuchung multivariater statistischer Populationen werden Korrelationen, Regressionen, Varianz- und Faktoranalysen verwendet.

Ökonometrische Methoden basieren auf der Synthese von drei Wissensgebieten: Wirtschaftswissenschaften, Mathematik und Statistik. Grundlage der Ökonometrie ist ein Wirtschaftsmodell, das als schematische Darstellung eines wirtschaftlichen Phänomens oder Prozesses mittels wissenschaftlicher Abstraktion verstanden wird und diese widerspiegelt Charakteristische Eigenschaften. Die am weitesten verbreitete Methode ist die Input-Output-Analyse. Dabei handelt es sich um Matrix-(Bilanz-)Modelle, die nach dem Schachbrettmuster aufgebaut sind und es ermöglichen, den Zusammenhang zwischen Kosten und Produktionsergebnissen in möglichst kompakter Form darzustellen. Einfache Berechnungen und Klarheit der wirtschaftlichen Interpretation sind die Hauptmerkmale von Matrixmodellen. Dies ist wichtig bei der Erstellung automatisierter Datenverarbeitungssysteme und bei der Planung der Produktion von Produkten mithilfe eines Computers.

Mathematische Programmierung ist ein wichtiger Zweig der modernen angewandten Mathematik. Methoden der Mathematik (hauptsächlich lineare Programmierung) dienen als Hauptmittel zur Lösung von Problemen und zur Optimierung wirtschaftlicher Aktivitäten. Im Kern sind diese Methoden Mittel zur Planungsberechnung. Ihr Wert für die wirtschaftliche Analyse der Planumsetzung liegt darin, dass sie ermöglichen eine, um die Intensität geplanter Aufgaben zu beurteilen und limitierende Gerätegruppen, Arten von Rohstoffen und Materialien zu bestimmen, Schätzungen über die Knappheit von Produktionsressourcen zu erhalten usw.

Unter Operations Research versteht man die Entwicklung von Methoden für zielgerichtetes Handeln (Operationen), die quantitative Bewertung der daraus resultierenden Lösungen und die Auswahl der besten Lösung. Gegenstand des Operations Research ist ökonomische Systeme, einschließlich der wirtschaftlichen Aktivitäten von Unternehmen. Ziel ist eine Kombination strukturell miteinander verbundener Systemelemente, die der Aufgabe, aus mehreren möglichen den besten Wirtschaftsindikator zu gewinnen, am besten gerecht wird.

Die Spieltheorie als Teilgebiet des Operations Research ist die Theorie mathematischer Adoptionsmodelle optimale Lösungen unter Bedingungen der Unsicherheit oder des Konflikts zwischen mehreren Parteien mit unterschiedlichen Interessen.

Die Warteschlangentheorie erforscht auf der Grundlage der Wahrscheinlichkeitstheorie mathematische Methoden zur quantitativen Bewertung von Warteschlangenprozessen. Ja, irgendeins davon strukturelle Unterteilungen Unternehmen können als Objekt eines Dienstleistungssystems dargestellt werden.

Ein gemeinsames Merkmal aller mit Warteschlangen verbundenen Probleme ist die zufällige Natur der untersuchten Phänomene. Die Anzahl der Serviceanfragen und die zeitlichen Abstände zwischen deren Eintreffen sind zufällig und können nicht mit eindeutiger Sicherheit vorhergesagt werden. Allerdings unterliegen viele dieser Anforderungen in ihrer Gesamtheit bestimmten statistischen Gesetzmäßigkeiten, deren quantitative Untersuchung Gegenstand der Warteschlangentheorie ist.

Die Wirtschaftskybernetik analysiert wirtschaftliche Phänomene und Prozesse als sehr komplexe Systeme aus der Sicht der Gesetze und Mechanismen zur Verwaltung und zum Informationsfluss in ihnen. Die am weitesten verbreiteten Methoden der Wirtschaftsanalyse sind Modellierung und Systemanalyse.

In einer Reihe von Fällen ist es notwendig, Lösungen für extreme Probleme zu finden, ohne den Mechanismus des betrachteten Phänomens vollständig zu kennen. Eine solche Lösung wird experimentell gesucht. IN letzten Jahren V Wirtschaftswissenschaft Es besteht ein erhöhtes Interesse an der Formalisierung von Methoden für die empirische Suche nach optimalen Bedingungen für den Prozess unter Nutzung menschlicher Erfahrung und Intuition.

Heuristische Methoden sind informelle Methoden zur Lösung wirtschaftlicher Probleme im Zusammenhang mit der aktuellen Wirtschaftslage, basierend auf Intuition, Erfahrung aus der Vergangenheit, Experteneinschätzungen von Spezialisten etc.

Für die Analyse der Wirtschaftstätigkeit haben viele Methoden aus dem angegebenen Näherungsdiagramm keine praktische Anwendung gefunden und werden lediglich in der Theorie der Wirtschaftsanalyse entwickelt. Das Lehrbuch diskutiert die grundlegenden ökonomischen und mathematischen Methoden, die bereits in der Praxis der Wirtschaftsanalyse eingesetzt wurden. Die Anwendung der einen oder anderen mathematischen Methode in der Wirtschaftsanalyse basiert auf der Methodik der wirtschaftsmathematischen Modellierung wirtschaftlicher Prozesse und einer wissenschaftlich fundierten Klassifizierung von Analysemethoden und -problemen.

Nach dem Klassifizierungskriterium der Optimalität werden alle ökonomischen und mathematischen Methoden (Probleme) in zwei Gruppen eingeteilt: Optimierung und Nichtoptimierung. Wenn eine Methode oder ein Problem die Suche nach einer Lösung auf der Grundlage eines bestimmten Optimalitätskriteriums ermöglicht, wird diese Methode als Gruppe von Optimierungsmethoden klassifiziert. Für den Fall, dass die Suche nach einer Lösung ohne Optimalitätskriterium durchgeführt wird, wird die entsprechende Methode als Gruppe von Nichtoptimierungsverfahren klassifiziert.

Auf der Grundlage einer exakten Lösung werden alle ökonomischen und mathematischen Methoden in exakte und näherungsweise unterteilt. Wenn der Algorithmus der Methode es erlaubt, nur eine eindeutige Lösung mit oder ohne gegebenem Optimalitätskriterium zu erhalten, dann diese Methode gehören zur Gruppe der präzisen Methoden. Wenn bei der Suche nach einer Lösung stochastische Informationen verwendet werden und die Lösung des Problems mit beliebiger Genauigkeit erhalten werden kann, wird die verwendete Methode in eine Gruppe von Näherungsmethoden eingeteilt. Zur Gruppe der Näherungsmethoden gehören auch solche, deren Anwendung keine Gewähr für den Erhalt bietet die einzige Lösung nach einem gegebenen Optimalitätskriterium.

Somit werden alle ökonomischen und mathematischen Methoden unter Verwendung von nur zwei Klassifizierungskriterien in vier Gruppen eingeteilt: 1) Optimierung exakter Methoden; 2) Optimierungsnäherungsmethoden;

3) nicht optimierungsexakte Methoden; 4) nicht optimierende Näherungsmethoden.

Zu den Optimierungsmethoden gehören daher Methoden der Theorie optimaler Prozesse, einige Methoden der mathematischen Programmierung und Methoden des Operations Research. Optimierungsnäherungsmethoden umfassen einzelne Methoden der mathematischen Programmierung, Methoden des Operations Research, Methoden der Wirtschaftskybernetik, Methoden mathematische Theorie Planung extremer Experimente, heuristische Methoden.

Zu den nicht optimierenden exakten Methoden gehören Methoden der Elementarmathematik und klassische Methoden der mathematischen Analyse sowie ökonometrische Methoden. Zu den nicht optimierenden Näherungsmethoden gehören die statistische Testmethode und andere Methoden der mathematischen Statistik.

Das Diagramm (siehe Abb. 1) stellt erweiterte Gruppen ökonomischer und mathematischer Methoden dar; einzelne Methoden aus diesen Gruppen werden zur Lösung verschiedener Probleme, sowohl Optimierungs- als auch Nichtoptimierungsproblemen, verwendet; sowohl genau als auch ungefähr. Sehr wichtig Bei der Analyse der Wirtschaftstätigkeit gibt es eine Gruppierung von Methoden (Aufgaben) des Gleichgewichts und des Faktors.

Bilanzmethoden sind Methoden zur Analyse von Struktur, Proportionen und Zusammenhängen.

Die Wirtschaftsanalyse ist in erster Linie eine Faktorenanalyse (im weiteren Sinne des Wortes und nicht nur in stochastischer Form). Faktorenanalyse).

Unter ökonomischer Faktorenanalyse versteht man einen schrittweisen Übergang vom anfänglichen Faktorensystem (resultativer Indikator) zum endgültigen Faktorsystem (oder umgekehrt), die Offenlegung eines vollständigen Satzes direkter, quantitativ messbarer Faktoren, die Änderungen im resultierenden Indikator beeinflussen.

Betrachten wir eine ungefähre Klassifizierung der Probleme der Faktoranalyse der Unternehmensarbeit unter dem Gesichtspunkt des Einsatzes mathematischer Methoden (Abb. 2).

Bei der direkten Faktorenanalyse werden einzelne Einflussfaktoren auf Veränderungen eines resultierenden Indikators oder Prozesses identifiziert, Formen deterministischer (funktionaler) oder stochastischer Abhängigkeiten zwischen dem resultierenden Indikator und einer bestimmten Menge von Faktoren ermittelt und schließlich die Rolle einzelner Faktoren dabei ermittelt Änderung des resultierenden Wirtschaftsindikators wird geklärt. Die Formulierung des Problems der direkten Faktorenanalyse erstreckt sich auf den deterministischen und stochastischen Fall.

Reis. 2 - Erweitertes Schema zur Klassifizierung von Problemen der Wirtschaftsfaktorenanalyse

mathematische Modellierung, wirtschaftliche Analyse

Probleme der direkt deterministischen Faktorenanalyse sind die häufigste Problemgruppe bei der Analyse der Wirtschaftstätigkeit.

Betrachten wir die Merkmale der Formulierung des Problems der direkten stochastischen Faktorenanalyse. Stehen bei der direkten deterministischen Faktorenanalyse die Ausgangsdaten für die Analyse in Form konkreter Zahlen zur Verfügung, so werden sie bei der direkten stochastischen Faktorenanalyse durch eine Stichprobe (temporär oder querschnittlich) spezifiziert. Die Lösung der Probleme der stochastischen Faktorenanalyse erfordert: eine eingehende Wirtschaftsforschung, um die Hauptfaktoren zu identifizieren, die den Ergebnisindikator beeinflussen; Auswahl der Art der Regression, die durchgeführt werden soll der beste Weg spiegelte die tatsächliche Beziehung des untersuchten Indikators mit einer Reihe von Faktoren wider; Entwicklung einer Methode zur Bestimmung des Einflusses jedes Faktors auf den Ergebnisindikator.

Wenn sich die Ergebnisse der direkt deterministischen Analyse als genau und eindeutig erweisen sollten, dann stochastische – mit einer bestimmten Wahrscheinlichkeit (Zuverlässigkeit), die bewertet werden sollte.

Ein Beispiel für eine direkte stochastische Faktorenanalyse ist Regressionsanalyse Arbeitsproduktivität und andere Wirtschaftsindikatoren.

In der Wirtschaftsanalyse gibt es neben den Aufgaben, bei denen es darum geht, einen Indikator zu detaillieren und in seine Bestandteile zu zerlegen, eine Gruppe von Aufgaben, bei denen es darum geht, eine Reihe wirtschaftlicher Merkmale zu einem Komplex zu verknüpfen, d. h. Konstruieren Sie eine Funktion, die die Hauptqualität aller betrachteten ökonomischen Indikatoren-Argumente enthält, d.h. Syntheseprobleme. IN in diesem Fall Es wird ein umgekehrtes Problem gestellt (bezogen auf das Problem der direkten Faktorenanalyse) – das Problem der Kombination mehrerer Indikatoren zu einem Komplex.

Probleme der Umkehrfaktoranalyse können deterministisch oder stochastisch sein. Beispiele für inverse deterministische Faktorenanalyseprobleme sind Probleme der komplexen Bewertung der Wirtschaftstätigkeit sowie Probleme der mathematischen Programmierung, einschließlich linearer. Ein Beispiel für ein Problem der inversen stochastischen Faktorenanalyse können Produktionsfunktionen sein, die Abhängigkeiten zwischen der Produktionsmenge und den Kosten von Produktionsfaktoren (Primärressourcen) herstellen. Für eine detaillierte Untersuchung wirtschaftlicher Indikatoren oder Prozesse ist es notwendig, nicht nur eine einstufige, sondern auch eine Kettenfaktorenanalyse durchzuführen: statisch (räumlich) und dynamisch (räumlich und zeitlich).

Die Detaillierung der Faktoren kann weiter fortgesetzt werden. Anschließend lösen sie das inverse Problem der Faktorenanalyse, indem sie die Forschungsergebnisse synthetisieren, um den Ergebnisindikator zu charakterisieren u. Diese Forschungsmethode wird als kettenstatische Methode der Faktorenanalyse bezeichnet. Bei der Anwendung der kettendynamischen Faktoranalyse zur vollständigen Untersuchung des Verhaltens des Ergebnisindikators reicht sein statischer Wert nicht aus; Die Faktorenanalyse des Indikators wird in verschiedenen Zeitintervallen durchgeführt, in denen der Indikator untersucht wird.

Die Analyse ökonomischer Faktoren kann darauf abzielen, die Wirkung von Faktoren zu klären, die die Ergebnisse der Wirtschaftstätigkeit auf der Grundlage verschiedener Quellen räumlichen oder zeitlichen Ursprungs beeinflussen.

Analyse dynamischer (zeitlicher) Reihen von Wirtschaftsaktivitätsindikatoren, Aufteilung der Ebene der Reihe in ihre Komponenten (die Hauptentwicklungslinie - ein Trend, eine saisonale oder periodische Komponente, eine zyklische Komponente im Zusammenhang mit Fortpflanzungsphänomenen, eine Zufallskomponente). die Aufgabe der Zeitfaktoranalyse.

Die Klassifizierung von Faktorenanalyseproblemen rationalisiert die Formulierung vieler wirtschaftlicher Probleme und ermöglicht es uns, allgemeine Muster in ihrer Lösung zu identifizieren. Bei der Untersuchung komplexer wirtschaftlicher Prozesse ist eine Kombination von Problemformulierungen möglich, wenn diese nicht vollständig zu einem in der Klassifikation genannten Typus gehören.