Methoden statistischer Lösungen. Probabilistische und statistische Modelle der Entscheidungsfindung II thematische Planung

2. BESCHREIBUNG DER UNSICHERHEITEN IN DER ENTSCHEIDUNGSFINDUNGSTHEORIE

2.2. Probabilistische und statistische Methoden zur Beschreibung von Unsicherheiten in der Entscheidungstheorie

2.2.1. Wahrscheinlichkeitstheorie und mathematische Statistik bei der Entscheidungsfindung

Wie werden Wahrscheinlichkeitstheorie und mathematische Statistik verwendet? Diese Disziplinen bilden die Grundlage der Wahrscheinlichkeitstheorie statistische Methoden Entscheidungsfindung. Um ihren mathematischen Apparat nutzen zu können, ist es notwendig, Entscheidungsprobleme in Form probabilistisch-statistischer Modelle auszudrücken. Die Anwendung einer bestimmten probabilistisch-statistischen Entscheidungsmethode besteht aus drei Schritten:

Der Übergang von der wirtschaftlichen, betriebswirtschaftlichen, technologischen Realität zu einem abstrakten mathematisch-statistischen Schema, d.h. Aufbau eines probabilistischen Modells eines Kontrollsystems, technologischen Prozesses, Entscheidungsverfahrens, insbesondere auf der Grundlage der Ergebnisse der statistischen Kontrolle usw.

Durchführung von Berechnungen und Schlussfolgerungen mit rein mathematischen Mitteln im Rahmen eines probabilistischen Modells;

Interpretation mathematischer und statistischer Schlussfolgerungen in Bezug auf eine reale Situation und Treffen einer entsprechenden Entscheidung (z. B. über die Übereinstimmung oder Nichtübereinstimmung der Produktqualität mit festgelegten Anforderungen, die Notwendigkeit einer Anpassung des technologischen Prozesses usw.), insbesondere Schlussfolgerungen (zum Anteil fehlerhafter Produkteinheiten in einer Charge, zur spezifischen Form der Verteilungsgesetze der kontrollierten Parameter des technologischen Prozesses usw.).

Die mathematische Statistik nutzt die Konzepte, Methoden und Ergebnisse der Wahrscheinlichkeitstheorie. Betrachten wir die Hauptprobleme bei der Konstruktion probabilistischer Entscheidungsmodelle in wirtschaftlichen, betriebswirtschaftlichen, technologischen und anderen Situationen. Für die aktive und korrekte Nutzung regulatorischer, technischer und instruktiver Dokumente zu probabilistischen und statistischen Entscheidungsmethoden sind Vorkenntnisse erforderlich. Daher ist es notwendig zu wissen, unter welchen Bedingungen ein bestimmtes Dokument verwendet werden soll, welche Ausgangsinformationen für seine Auswahl und Anwendung erforderlich sind, welche Entscheidungen auf der Grundlage der Ergebnisse der Datenverarbeitung getroffen werden sollten usw.

Anwendungsbeispiele Wahrscheinlichkeitstheorie und mathematische Statistik. Betrachten wir mehrere probabilistische Beispiele statistische Modelle sind ein gutes Instrument zur Lösung von Management-, Produktions-, Wirtschafts- und Volkswirtschaftsproblemen. So heißt es beispielsweise in A. N. Tolstois Roman „Walking through Torment“ (Bd. 1): „Die Werkstatt produziert 23 Prozent des Ausschusses, Sie bleiben bei dieser Zahl“, sagte Strukow zu Iwan Iljitsch.“

Es stellt sich die Frage, wie diese Worte im Gespräch von Fabrikmanagern zu verstehen sind, da eine Produktionseinheit nicht zu 23 % fehlerhaft sein kann. Es kann entweder gut oder defekt sein. Strukov meinte wahrscheinlich, dass eine großvolumige Charge etwa 23 % fehlerhafte Produktionseinheiten enthält. Dann stellt sich die Frage: Was bedeutet „ungefähr“? Wenn sich herausstellt, dass 30 von 100 getesteten Produktionseinheiten fehlerhaft sind, oder von 1000 - 300, oder von 100.000 - 30.000 usw., sollte Strukov der Lüge beschuldigt werden?

Oder ein anderes Beispiel. Die als Los verwendete Münze muss „symmetrisch“ sein, d. h. Beim Werfen sollte im Durchschnitt in der Hälfte der Fälle das Wappen und in der Hälfte der Fälle eine Raute (Schwänze, Zahl) erscheinen. Aber was bedeutet „im Durchschnitt“? Wenn Sie viele Serien mit jeweils 10 Würfen durchführen, werden Sie häufig auf Serien stoßen, in denen die Münze viermal als Wappen landet. Bei einer symmetrischen Münze geschieht dies in 20,5 % der Durchläufe. Und wenn nach 100.000 Würfen 40.000 Wappen vorhanden sind, kann die Münze dann als symmetrisch angesehen werden? Das Entscheidungsverfahren basiert auf Wahrscheinlichkeitstheorie und mathematischer Statistik.

Das betreffende Beispiel scheint möglicherweise nicht ernst genug zu sein. Dies ist jedoch nicht der Fall. Die Auslosung wird häufig bei der Organisation industrieller technischer und wirtschaftlicher Experimente verwendet, beispielsweise bei der Verarbeitung der Ergebnisse der Messung des Qualitätsindikators (Reibungsmoment) von Lagern in Abhängigkeit von verschiedenen technologischen Faktoren (Einfluss der Konservierungsumgebung, Methoden zur Vorbereitung von Lagern vor der Messung). , der Einfluss von Lagerbelastungen während des Messvorgangs usw.). P.). Nehmen wir an, es ist notwendig, die Qualität von Lagern in Abhängigkeit von den Ergebnissen ihrer Lagerung in verschiedenen Konservierungsölen zu vergleichen, d. h. in Kompositionsölen A Und IN. Bei der Planung eines solchen Experiments stellt sich die Frage, welche Lager im Öl der Zusammensetzung platziert werden sollen A, und welche - in der Ölzusammensetzung IN, aber so, dass Subjektivität vermieden und die Objektivität der getroffenen Entscheidung gewährleistet wird.

Die Antwort auf diese Frage kann per Losverfahren ermittelt werden. Ein ähnliches Beispiel kann für die Qualitätskontrolle eines beliebigen Produkts gegeben werden. Um zu entscheiden, ob die kontrollierte Produktcharge die festgelegten Anforderungen erfüllt oder nicht, wird daraus eine Probe ausgewählt. Basierend auf den Ergebnissen der Probenkontrolle wird ein Rückschluss auf die gesamte Charge gezogen. In diesem Fall ist es sehr wichtig, Subjektivität bei der Bildung einer Probe zu vermeiden, d. h. es ist notwendig, dass jede Produkteinheit in der kontrollierten Charge die gleiche Wahrscheinlichkeit hat, für die Probe ausgewählt zu werden. Unter Produktionsbedingungen erfolgt die Auswahl der Produkteinheiten für die Stichprobe in der Regel nicht per Los, sondern anhand spezieller Zufallszahlentabellen oder mithilfe von Computer-Zufallszahlensensoren.

Ähnliche Probleme bei der Gewährleistung der Objektivität des Vergleichs treten beim Vergleich verschiedener Systeme zur Organisation der Produktion, der Vergütung, bei Ausschreibungen und Wettbewerben sowie bei der Auswahl von Kandidaten auf offene Posten usw. Überall brauchen wir eine Auslosung oder ähnliche Verfahren. Lassen Sie uns das am Beispiel der Ermittlung der stärksten und zweitstärksten Mannschaften bei der Organisation eines Turniers nach dem olympischen System erklären (der Verlierer scheidet aus). Lassen Sie das stärkere Team immer das schwächere besiegen. Es ist klar, dass die stärkste Mannschaft definitiv Meister wird. Das zweitstärkste Team erreicht das Finale nur dann, wenn es vor dem Finale keine Spiele mit dem zukünftigen Meister hat. Sollte ein solches Spiel geplant sein, wird es die zweitstärkste Mannschaft nicht ins Finale schaffen. Derjenige, der das Turnier plant, kann entweder das zweitstärkste Team vorzeitig aus dem Turnier „schlagen“, indem er es im ersten Aufeinandertreffen gegen den Führenden antreten lässt, oder ihm den zweiten Platz verschaffen, indem er dafür sorgt, dass bis zum Ende des Turniers Begegnungen mit schwächeren Teams stattfinden Finale. Um Subjektivität zu vermeiden, wird eine Auslosung durchgeführt. Bei einem Turnier mit 8 Mannschaften beträgt die Wahrscheinlichkeit, dass die beiden besten Mannschaften im Finale aufeinandertreffen, 4/7. Demnach wird mit einer Wahrscheinlichkeit von 3/7 die zweitstärkste Mannschaft das Turnier vorzeitig verlassen.

Jede Messung von Produkteinheiten (mit einem Messschieber, Mikrometer, Amperemeter usw.) enthält Fehler. Um herauszufinden, ob systematische Fehler vorliegen, müssen wiederholte Messungen an einer Produkteinheit durchgeführt werden, deren Eigenschaften bekannt sind (z. B. eine Standardprobe). Es ist zu beachten, dass es neben systematischen Fehlern auch zufällige Fehler gibt.

Daher stellt sich die Frage, wie man aus den Messergebnissen herausfinden kann, ob ein systematischer Fehler vorliegt. Wenn wir nur feststellen, ob der bei der nächsten Messung erhaltene Fehler positiv oder negativ ist, kann diese Aufgabe auf die vorherige reduziert werden. Vergleichen wir nämlich eine Messung mit dem Werfen einer Münze, einen positiven Fehler mit dem Verlust eines Wappens, einen negativen Fehler mit einem Gitter (ein Nullfehler tritt bei ausreichend vielen Skalenteilungen fast nie auf). Dann ist die Überprüfung, ob kein systematischer Fehler vorliegt, gleichbedeutend mit der Überprüfung der Symmetrie der Münze.

Der Zweck dieser Überlegungen besteht darin, das Problem der Überprüfung der Abwesenheit eines systematischen Fehlers auf das Problem der Überprüfung der Symmetrie einer Münze zu reduzieren. Die obige Überlegung führt zum sogenannten „Vorzeichenkriterium“ in der mathematischen Statistik.

Bei der statistischen Regulierung technologischer Prozesse werden auf der Grundlage der Methoden der mathematischen Statistik Regeln und Pläne zur statistischen Prozesssteuerung entwickelt, die darauf abzielen, Probleme in technologischen Prozessen rechtzeitig zu erkennen und Maßnahmen zu deren Behebung zu ergreifen und die Freigabe von Produkten zu verhindern, bei denen dies nicht der Fall ist den festgelegten Anforderungen genügen. Diese Maßnahmen zielen darauf ab, Produktionskosten und Verluste aus der Lieferung minderwertiger Einheiten zu reduzieren. Bei der statistischen Abnahmekontrolle, basierend auf den Methoden der mathematischen Statistik, werden Qualitätskontrollpläne durch Analyse von Proben aus Produktchargen entwickelt. Die Schwierigkeit liegt darin, probabilistisch-statistische Entscheidungsmodelle korrekt aufbauen zu können, auf deren Grundlage die oben gestellten Fragen beantwortet werden können. In der mathematischen Statistik wurden zu diesem Zweck probabilistische Modelle und Methoden zur Überprüfung von Hypothesen entwickelt, insbesondere von Hypothesen, dass der Anteil fehlerhafter Produktionseinheiten einer bestimmten Zahl entspricht p 0, Zum Beispiel, p 0= 0,23 (erinnern Sie sich an Strukovs Worte aus dem Roman von A.N. Tolstoi).

Bewertungsaufgaben. In einer Reihe von Management-, Produktions-, Wirtschafts- und Volkswirtschaftssituationen treten Probleme anderer Art auf – Probleme bei der Bewertung der Merkmale und Parameter von Wahrscheinlichkeitsverteilungen.

Schauen wir uns ein Beispiel an. Lassen Sie eine Menge N elektrische Lampen Aus dieser Charge eine Probe von N elektrische Lampen Es stellen sich eine Reihe natürlicher Fragen. Wie lässt sich die durchschnittliche Lebensdauer elektrischer Lampen anhand der Testergebnisse von Musterelementen ermitteln und mit welcher Genauigkeit kann dieses Merkmal beurteilt werden? Wie ändert sich die Genauigkeit, wenn wir eine größere Stichprobe nehmen? Zu wie vielen Stunden T Bei elektrischen Lampen kann eine Lebensdauer von mindestens 90 % garantiert werden T und mehr Stunden?

Nehmen wir das beim Testen einer Stichprobengröße an N Es stellte sich heraus, dass elektrische Lampen defekt waren X elektrische Lampen Dann stellen sich folgende Fragen. Welche Grenzen können für eine Zahl angegeben werden? D defekte Glühbirnen in einer Charge, für den Grad der Fehlerhaftigkeit D/ N usw.?

Oder bei der statistischen Analyse der Genauigkeit und Stabilität technologischer Prozesse ist es notwendig, Qualitätsindikatoren wie den Durchschnittswert des kontrollierten Parameters und den Grad seiner Streuung im betrachteten Prozess zu bewerten. Nach der Wahrscheinlichkeitstheorie empfiehlt es sich, ihren mathematischen Erwartungswert als Mittelwert einer Zufallsvariablen und Streuung, Standardabweichung oder Variationskoeffizient als statistisches Merkmal der Streuung zu verwenden. Dies wirft die Frage auf: Wie lassen sich diese statistischen Merkmale anhand von Stichprobendaten schätzen und mit welcher Genauigkeit kann dies erfolgen? Es gibt viele ähnliche Beispiele, die angeführt werden können. Hier war es wichtig zu zeigen, wie Wahrscheinlichkeitstheorie und mathematische Statistik eingesetzt werden können Produktionsleitung bei Entscheidungen im Bereich des statistischen Produktqualitätsmanagements.

Was ist „mathematische Statistik“? Unter Mathematischer Statistik versteht man „einen Zweig der Mathematik, der sich mit mathematischen Methoden zur Erhebung, Systematisierung, Verarbeitung und Interpretation statistischer Daten sowie deren Nutzung für wissenschaftliche oder praktische Schlussfolgerungen befasst.“ Die Regeln und Verfahren der mathematischen Statistik basieren auf der Wahrscheinlichkeitstheorie, die es uns ermöglicht, die Genauigkeit und Zuverlässigkeit der in jedem Problem gewonnenen Schlussfolgerungen auf der Grundlage des verfügbaren statistischen Materials zu bewerten.“ Unter statistischen Daten versteht man in diesem Fall Informationen über die Anzahl der Objekte in einer mehr oder weniger umfangreichen Sammlung, die bestimmte Merkmale aufweisen.

Basierend auf der Art der zu lösenden Probleme wird die mathematische Statistik normalerweise in drei Abschnitte unterteilt: Datenbeschreibung, Schätzung und Hypothesentest.

Basierend auf der Art der verarbeiteten statistischen Daten wird die mathematische Statistik in vier Bereiche unterteilt:

Univariate Statistik (Statistik von Zufallsvariablen), bei der das Ergebnis einer Beobachtung durch eine reelle Zahl beschrieben wird;

Multivariate statistische Analyse, bei der das Ergebnis der Beobachtung eines Objekts durch mehrere Zahlen (Vektor) beschrieben wird;

Statistik zufälliger Prozesse und Zeitreihen, bei denen das Beobachtungsergebnis eine Funktion ist;

Statistik von Objekten nicht numerischer Natur, bei der das Ergebnis einer Beobachtung nicht numerischer Natur ist, beispielsweise eine Menge (eine geometrische Figur), eine Ordnung oder das Ergebnis einer auf einer Messung beruhenden Messung ist nach einem qualitativen Kriterium.

Historisch gesehen tauchten zunächst einige Bereiche der Statistik von Objekten nichtnumerischer Natur (insbesondere Probleme bei der Schätzung des Fehleranteils und der Prüfung von Hypothesen darüber) und der eindimensionalen Statistik auf. Der mathematische Apparat ist für sie einfacher, daher wird ihr Beispiel normalerweise verwendet, um die Grundideen der mathematischen Statistik zu demonstrieren.

Nur solche Datenverarbeitungsmethoden, d.h. Mathematische Statistiken sind evidenzbasiert und basieren auf probabilistischen Modellen relevanter realer Phänomene und Prozesse. Wir sprechen über Modelle des Verbraucherverhaltens, des Risikoeintritts und der Funktionsweise technologische Ausrüstung, Erhalt der Versuchsergebnisse, des Krankheitsverlaufs usw. Ein probabilistisches Modell eines realen Phänomens sollte als konstruiert gelten, wenn die betrachteten Größen und die Verbindungen zwischen ihnen wahrscheinlichkeitstheoretisch ausgedrückt werden. Übereinstimmung mit dem probabilistischen Modell der Realität, d.h. Ihre Angemessenheit wird insbesondere durch statistische Methoden zur Hypothesenüberprüfung nachgewiesen.

Nicht-probabilistische Methoden der Datenverarbeitung sind explorativ und können nur in der vorläufigen Datenanalyse eingesetzt werden, da sie keine Beurteilung der Genauigkeit und Zuverlässigkeit von Schlussfolgerungen ermöglichen, die auf der Grundlage begrenzten statistischen Materials gewonnen werden.

Probabilistische und statistische Methoden sind überall dort anwendbar, wo es möglich ist, ein probabilistisches Modell eines Phänomens oder Prozesses zu erstellen und zu begründen. Ihr Einsatz ist zwingend erforderlich, wenn Schlussfolgerungen aus Stichprobendaten auf die gesamte Grundgesamtheit übertragen werden (z. B. von einer Stichprobe auf eine ganze Produktcharge).

In spezifischen Anwendungsgebieten werden sowohl probabilistische als auch statistische Methoden mit allgemeiner und spezifischer Anwendung eingesetzt. Beispielsweise wird im Bereich des Produktionsmanagements, der sich mit statistischen Methoden des Produktqualitätsmanagements befasst, die angewandte mathematische Statistik (einschließlich Versuchsplanung) eingesetzt. Mit seinen Methoden werden statistische Analysen der Genauigkeit und Stabilität technologischer Prozesse sowie statistische Qualitätsbewertungen durchgeführt. Spezifische Methoden umfassen Methoden der statistischen Akzeptanzkontrolle der Produktqualität, der statistischen Regulierung technologischer Prozesse, der Zuverlässigkeitsbewertung und -kontrolle usw.

Angewandte probabilistische und statistische Disziplinen wie Zuverlässigkeitstheorie und Warteschlangentheorie sind weit verbreitet. Der Inhalt der ersten davon geht aus dem Namen hervor, die zweite befasst sich mit der Untersuchung von Systemen wie einer Telefonzentrale, die Anrufe zu zufälligen Zeiten entgegennimmt – den Anforderungen der Teilnehmer, die Nummern auf ihren Telefonapparaten wählen. Die Dauer der Erfüllung dieser Anforderungen, d.h. Auch die Gesprächsdauer wird durch Zufallsvariablen modelliert. Einen großen Beitrag zur Entwicklung dieser Disziplinen leistete das korrespondierende Mitglied der Akademie der Wissenschaften der UdSSR A.Ya. Chinchin (1894-1959), Akademiker der Akademie der Wissenschaften der Ukrainischen SSR B.V. Gnedenko (1912-1995) und andere einheimische Wissenschaftler.

Kurz über die Geschichte der mathematischen Statistik. Die mathematische Statistik als Wissenschaft beginnt mit den Werken des berühmten deutschen Mathematikers Carl Friedrich Gauß (1777-1855), der auf der Grundlage der Wahrscheinlichkeitstheorie die von ihm 1795 entwickelte und zur Verarbeitung astronomischer Daten verwendete Methode der kleinsten Quadrate untersuchte und begründete ( um die Umlaufbahn des Kleinplaneten Ceres zu klären). Eine der beliebtesten Wahrscheinlichkeitsverteilungen, die Normalverteilung, wird oft nach ihm benannt, und in der Theorie der Zufallsprozesse werden Gaußsche Prozesse hauptsächlich untersucht.

IN Ende des 19. Jahrhunderts V. - frühes 20. Jahrhundert Wichtige Beiträge zur mathematischen Statistik wurden von englischen Forschern geleistet, vor allem von K. Pearson (1857–1936) und R. A. Fisher (1890–1962). Insbesondere entwickelte Pearson den Chi-Quadrat-Test zum Testen statistischer Hypothesen, und Fisher entwickelte die Varianzanalyse, die Theorie des experimentellen Designs und die Maximum-Likelihood-Methode zum Schätzen von Parametern.

In den 30er Jahren des 20. Jahrhunderts. Der Pole Jerzy Neyman (1894-1977) und der Engländer E. Pearson entwickelten sich allgemeine Theorie Prüfung statistischer Hypothesen und sowjetischer Mathematiker A.N. Kolmogorov (1903-1987) und korrespondierendes Mitglied der Akademie der Wissenschaften der UdSSR N.V. Smirnov (1900-1966) legten den Grundstein für die nichtparametrische Statistik. In den vierziger Jahren des zwanzigsten Jahrhunderts. Der Rumäne A. Wald (1902-1950) entwickelte die Theorie der sequentiellen statistischen Analyse.

Die mathematische Statistik entwickelt sich derzeit rasant. Somit lassen sich in den letzten 40 Jahren vier grundlegend neue Forschungsbereiche unterscheiden:

Entwicklung und Umsetzung mathematische Methoden Planungsexperimente;

Entwicklung von Statistiken über Objekte nichtnumerischer Natur als unabhängige Richtung in angewandter mathematischer Statistik;

Entwicklung statistischer Methoden, die gegenüber kleinen Abweichungen vom verwendeten Wahrscheinlichkeitsmodell resistent sind;

Weit verbreitete Entwicklung von Arbeiten zur Erstellung von Computersoftwarepaketen für die statistische Datenanalyse.

Wahrscheinlichkeitsstatistische Methoden und Optimierung. Der Optimierungsgedanke durchdringt die moderne angewandte mathematische Statistik und andere statistische Methoden. Nämlich Methoden zur Planung von Experimenten, zur statistischen Akzeptanzkontrolle, zur statistischen Regulierung technologischer Prozesse usw. Andererseits sorgen Optimierungsformulierungen in der Entscheidungstheorie, beispielsweise der angewandten Theorie der Optimierung von Produktqualität und Standardanforderungen, für die weit verbreiteter Einsatz probabilistischer statistischer Methoden, vor allem der angewandten mathematischen Statistik.

Insbesondere im Produktionsmanagement ist es bei der Optimierung von Produktqualität und Standardanforderungen besonders wichtig, statistische Methoden in der Anfangsphase des Produktlebenszyklus anzuwenden, d. h. im Stadium der Forschungsvorbereitung experimenteller Designentwicklungen (Entwicklung vielversprechender Anforderungen an Produkte, Vorentwurf, Leistungsbeschreibung für die experimentelle Entwicklung). Dies ist auf die begrenzten verfügbaren Informationen in der Anfangsphase des Produktlebenszyklus und die Notwendigkeit zurückzuführen, die technischen Fähigkeiten und die wirtschaftliche Situation für die Zukunft vorherzusagen. Statistische Methoden sollten in allen Phasen der Lösung eines Optimierungsproblems eingesetzt werden – bei der Skalierung von Variablen, der Entwicklung mathematischer Modelle der Funktionsweise von Produkten und Systemen, der Durchführung technischer und wirtschaftlicher Experimente usw.

Bei Optimierungsproblemen, einschließlich der Optimierung von Produktqualität und Normanforderungen, werden alle Bereiche der Statistik genutzt. Nämlich Statistik von Zufallsvariablen, multivariate statistische Analyse, Statistik von Zufallsprozessen und Zeitreihen, Statistik von Objekten nichtnumerischer Natur. Es empfiehlt sich, eine statistische Methode zur Analyse spezifischer Daten gemäß den Empfehlungen auszuwählen.

Vorherige

Das Senden Ihrer guten Arbeit an die Wissensdatenbank ist ganz einfach. Nutzen Sie das untenstehende Formular

Studierende, Doktoranden und junge Wissenschaftler, die die Wissensbasis in ihrem Studium und ihrer Arbeit nutzen, werden Ihnen sehr dankbar sein.

Veröffentlicht am http://www.allbest.ru/

[Text eingeben]

Einführung

1. Wahrscheinlichkeitstheorie und mathematische Statistik bei der Entscheidungsfindung

1.1 Wie Wahrscheinlichkeitstheorie und mathematische Statistik verwendet werden

1.2 Beispiele für die Anwendung der Wahrscheinlichkeitstheorie und der mathematischen Statistik

1.3 Bewertungsziele

1.4 Was ist „mathematische Statistik“?

1.5 Kurz zur Geschichte der mathematischen Statistik

1.6 Wahrscheinlichkeitsstatistische Methoden und Optimierung

2. Typische praktische Probleme der probabilistisch-statistischen Entscheidungsfindung und Methoden zu ihrer Lösung

2.1 Statistik und angewandte Statistik

2.2 Aufgaben der statistischen Analyse der Genauigkeit und Stabilität technologischer Prozesse und Produktqualität

2.3 Probleme der eindimensionalen Statistik (Statistik von Zufallsvariablen)

2.4 Multivariate statistische Analyse

2.5 Statistik zufälliger Prozesse und Zeitreihen

2.6 Statistik von Objekten nichtnumerischer Natur

3. Anwendung probabilistischer und statistischer Entscheidungsmethoden zur Lösung wirtschaftlicher Probleme

Abschluss

Verweise

Einführung

Wahrscheinlichkeitsstatistische Methoden der Entscheidungsfindung werden dann eingesetzt, wenn die Wirksamkeit der getroffenen Entscheidungen von Faktoren abhängt, bei denen es sich um Zufallsvariablen handelt, für die die Gesetze der Wahrscheinlichkeitsverteilung und andere statistische Merkmale bekannt sind. Darüber hinaus kann jede Entscheidung zu einem von vielen möglichen Ergebnissen führen, und jedes Ergebnis hat eine bestimmte Eintrittswahrscheinlichkeit, die berechnet werden kann. Charakterisierende Indikatoren problematische Situation, werden auch mit probabilistischen Merkmalen beschrieben. Bei solchen Entscheidungsaufgaben läuft der Entscheider immer Gefahr, ein Ergebnis zu erhalten, das nicht dem entspricht, an dem er sich bei der Auswahl der optimalen Lösung auf der Grundlage der gemittelten statistischen Merkmale von Zufallsfaktoren orientiert, also die Entscheidung trifft Risikobedingungen.

In der Praxis kommen häufig probabilistische und statistische Methoden zum Einsatz, wenn Schlussfolgerungen aus Stichprobendaten auf die gesamte Grundgesamtheit übertragen werden (z. B. von einer Stichprobe auf eine ganze Produktcharge). Allerdings sollte in jeder konkreten Situation zunächst die grundsätzliche Möglichkeit beurteilt werden, ausreichend verlässliche probabilistische und statistische Daten zu erhalten.

Bei der Nutzung von Ideen und Ergebnissen der Wahrscheinlichkeitstheorie und der mathematischen Statistik bei Entscheidungen wird ein mathematisches Modell zugrunde gelegt, in dem objektive Zusammenhänge wahrscheinlichkeitstheoretisch ausgedrückt werden. Mit Wahrscheinlichkeiten wird in erster Linie die Zufälligkeit beschrieben, die bei Entscheidungen berücksichtigt werden muss. Dabei handelt es sich sowohl um unerwünschte Chancen (Risiken) als auch um attraktive Chancen („glücklicher Zufall“).

Das Wesen probabilistisch-statistischer Entscheidungsmethoden besteht in der Verwendung probabilistischer Modelle, die auf der Schätzung und Prüfung von Hypothesen anhand von Stichprobenmerkmalen basieren.

Die Logik der Verwendung von Stichprobenmerkmalen zur Entscheidungsfindung auf der Grundlage theoretischer Modelle beinhaltet die gleichzeitige Verwendung zweier paralleler Konzeptreihen – theoriebezogener (Wahrscheinlichkeitsmodell) und praxisbezogener (Stichprobe von Beobachtungsergebnissen). Beispielsweise entspricht die theoretische Wahrscheinlichkeit der aus der Stichprobe ermittelten Häufigkeit. Der mathematische Erwartungswert (theoretische Reihe) entspricht dem arithmetischen Mittel der Stichprobe (praktische Reihe). Typischerweise handelt es sich bei Stichprobenmerkmalen um Schätzungen theoretischer Merkmale.

Zu den Vorteilen des Einsatzes dieser Methoden gehört die Möglichkeit, verschiedene Szenarien für die Entwicklung von Ereignissen und deren Wahrscheinlichkeiten zu berücksichtigen. Der Nachteil dieser Methoden besteht darin, dass die Wahrscheinlichkeitswerte für die in den Berechnungen verwendeten Szenarien in der Praxis meist nur sehr schwer zu erhalten sind.

Die Anwendung einer bestimmten probabilistisch-statistischen Entscheidungsmethode besteht aus drei Schritten:

Der Übergang von der wirtschaftlichen, betriebswirtschaftlichen, technologischen Realität zu einem abstrakten mathematisch-statistischen Schema, d.h. Aufbau eines probabilistischen Modells eines Kontrollsystems, technologischen Prozesses, Entscheidungsverfahrens, insbesondere auf der Grundlage der Ergebnisse der statistischen Kontrolle usw.;

Ein probabilistisches Modell eines realen Phänomens sollte als konstruiert gelten, wenn die betrachteten Größen und die Verbindungen zwischen ihnen wahrscheinlichkeitstheoretisch ausgedrückt werden. Die Angemessenheit des probabilistischen Modells wird insbesondere durch statistische Methoden zur Hypothesenprüfung nachgewiesen.

Basierend auf der Art des zu lösenden Problems wird die mathematische Statistik normalerweise in drei Abschnitte unterteilt: Datenbeschreibung, Schätzung und Hypothesentest. Basierend auf der Art der verarbeiteten statistischen Daten wird die mathematische Statistik in vier Bereiche unterteilt:

Ein Beispiel, wann es ratsam ist, probabilistisch-statistische Modelle zu verwenden.

Bei der Qualitätskontrolle eines Produkts wird eine Probe daraus ausgewählt, um zu entscheiden, ob die hergestellte Produktcharge den festgelegten Anforderungen entspricht. Basierend auf den Ergebnissen der Probenkontrolle wird ein Rückschluss auf die gesamte Charge gezogen. In diesem Fall ist es sehr wichtig, Subjektivität bei der Bildung einer Probe zu vermeiden, d. h. es ist notwendig, dass jede Produkteinheit in der kontrollierten Charge die gleiche Wahrscheinlichkeit hat, für die Probe ausgewählt zu werden. Eine Auswahl nach dem Los ist in einer solchen Situation nicht ausreichend objektiv. Daher erfolgt die Auswahl der Produkteinheiten für die Stichprobe unter Produktionsbedingungen in der Regel nicht per Los, sondern anhand spezieller Zufallszahlentabellen oder unter Verwendung von Computer-Zufallszahlensensoren.

Bei der statistischen Regulierung technologischer Prozesse werden auf der Grundlage der Methoden der mathematischen Statistik Regeln und Pläne zur statistischen Prozesssteuerung entwickelt, die darauf abzielen, Probleme in technologischen Prozessen rechtzeitig zu erkennen und Maßnahmen zu deren Behebung zu ergreifen und die Freigabe von Produkten zu verhindern, bei denen dies nicht der Fall ist den festgelegten Anforderungen genügen. Diese Maßnahmen zielen darauf ab, Produktionskosten und Verluste aus der Lieferung minderwertiger Einheiten zu reduzieren. Bei der statistischen Abnahmekontrolle, basierend auf den Methoden der mathematischen Statistik, werden Qualitätskontrollpläne durch Analyse von Proben aus Produktchargen entwickelt. Die Schwierigkeit liegt darin, probabilistisch-statistische Entscheidungsmodelle korrekt aufbauen zu können, auf deren Grundlage die oben gestellten Fragen beantwortet werden können. In der mathematischen Statistik wurden zu diesem Zweck probabilistische Modelle und Methoden zum Testen von Hypothesen entwickelt.

Darüber hinaus treten in einer Reihe von Management-, Produktions-, Wirtschafts- und Volkswirtschaftssituationen Probleme anderer Art auf – Probleme bei der Bewertung der Merkmale und Parameter von Wahrscheinlichkeitsverteilungen.

Oder bei der statistischen Analyse der Genauigkeit und Stabilität technologischer Prozesse ist es notwendig, Qualitätsindikatoren wie den Durchschnittswert des kontrollierten Parameters und den Grad seiner Streuung im betrachteten Prozess zu bewerten. Nach der Wahrscheinlichkeitstheorie empfiehlt es sich, ihren mathematischen Erwartungswert als Mittelwert einer Zufallsvariablen und Streuung, Standardabweichung oder Variationskoeffizient als statistisches Merkmal der Streuung zu verwenden. Dies wirft die Frage auf: Wie lassen sich diese statistischen Merkmale anhand von Stichprobendaten schätzen und mit welcher Genauigkeit kann dies erfolgen? In der Literatur gibt es viele ähnliche Beispiele. Sie alle zeigen, wie Wahrscheinlichkeitstheorie und mathematische Statistik im Produktionsmanagement bei Entscheidungen im Bereich des statistischen Produktqualitätsmanagements eingesetzt werden können.

In spezifischen Anwendungsgebieten werden sowohl probabilistische als auch statistische Methoden mit allgemeiner und spezifischer Anwendung eingesetzt. Beispielsweise wird im Bereich des Produktionsmanagements, der sich mit statistischen Methoden des Produktqualitätsmanagements befasst, die angewandte mathematische Statistik (einschließlich Versuchsplanung) eingesetzt. Mit seinen Methoden werden statistische Analysen der Genauigkeit und Stabilität technologischer Prozesse sowie statistische Qualitätsbewertungen durchgeführt. Spezifische Methoden umfassen Methoden der statistischen Akzeptanzkontrolle der Produktqualität, der statistischen Regulierung technologischer Prozesse sowie der Zuverlässigkeitsbewertung und -kontrolle
usw.

Insbesondere im Produktionsmanagement ist es bei der Optimierung der Produktqualität und der Sicherstellung der Einhaltung von Normanforderungen besonders wichtig, statistische Methoden bereits in der Anfangsphase des Produktlebenszyklus anzuwenden, d. h. im Stadium der Forschungsvorbereitung experimenteller Designentwicklungen (Entwicklung vielversprechender Produktanforderungen, Vorentwurf, technische Spezifikationen für experimentelle Designentwicklung). Dies ist auf die begrenzten verfügbaren Informationen in der Anfangsphase des Produktlebenszyklus und die Notwendigkeit zurückzuführen, die technischen Fähigkeiten und die wirtschaftliche Situation für die Zukunft vorherzusagen.

Die gebräuchlichsten probabilistischen statistischen Methoden sind Regressionsanalyse, Faktorenanalyse, Varianzanalyse, statistische Methoden zur Risikobewertung, Szenariomethode usw. Der Bereich der statistischen Methoden, der sich der Analyse statistischer Daten nicht-numerischer Natur widmet, gewinnt zunehmend an Bedeutung. Messergebnisse basierend auf qualitativen und unterschiedlichen Merkmalstypen. Eine der Hauptanwendungen der Statistik von Objekten nichtnumerischer Natur ist die Theorie und Praxis von Expertenbewertungen im Zusammenhang mit der Theorie statistischer Entscheidungen und Abstimmungsprobleme.

Die Rolle einer Person bei der Lösung von Problemen mit den Methoden der statistischen Lösungstheorie besteht darin, das Problem zu formulieren, d. h. ein reales Problem auf das entsprechende Standardproblem zu reduzieren, die Wahrscheinlichkeiten von Ereignissen anhand statistischer Daten zu bestimmen und auch genehmigen Sie die resultierende optimale Lösung.

1. Wahrscheinlichkeitstheorie und mathematische Statistik bei der Entscheidungsfindung

1.1 Wie die Wahrscheinlichkeitstheorie verwendet wirdund mathematische Statistik

Diese Disziplinen bilden die Grundlage probabilistischer und statistischer Methoden der Entscheidungsfindung. Um ihren mathematischen Apparat nutzen zu können, ist es notwendig, Entscheidungsprobleme in Form probabilistisch-statistischer Modelle auszudrücken. Die Anwendung einer bestimmten probabilistisch-statistischen Entscheidungsmethode besteht aus drei Schritten:

Der Übergang von der wirtschaftlichen, betriebswirtschaftlichen, technologischen Realität zu einem abstrakten mathematisch-statistischen Schema, d.h. Aufbau eines probabilistischen Modells eines Kontrollsystems, technologischen Prozesses, Entscheidungsverfahrens, insbesondere auf der Grundlage der Ergebnisse der statistischen Kontrolle usw.

Durchführung von Berechnungen und Schlussfolgerungen mit rein mathematischen Mitteln im Rahmen eines probabilistischen Modells;

Interpretation mathematischer und statistischer Schlussfolgerungen in Bezug auf eine reale Situation und Treffen einer entsprechenden Entscheidung (z. B. über die Übereinstimmung oder Nichtübereinstimmung der Produktqualität mit festgelegten Anforderungen, die Notwendigkeit einer Anpassung des technologischen Prozesses usw.), insbesondere Schlussfolgerungen (zum Anteil fehlerhafter Produkteinheiten in einer Charge, zur spezifischen Form der Verteilungsgesetze der kontrollierten Parameter des technologischen Prozesses usw.).

Die mathematische Statistik nutzt die Konzepte, Methoden und Ergebnisse der Wahrscheinlichkeitstheorie. Betrachten wir die Hauptprobleme bei der Konstruktion probabilistischer Entscheidungsmodelle in wirtschaftlichen, betriebswirtschaftlichen, technologischen und anderen Situationen. Für die aktive und korrekte Nutzung regulatorischer, technischer und instruktiver Dokumente zu probabilistischen und statistischen Entscheidungsmethoden sind Vorkenntnisse erforderlich. Daher ist es notwendig zu wissen, unter welchen Bedingungen ein bestimmtes Dokument verwendet werden soll, welche Ausgangsinformationen für seine Auswahl und Anwendung erforderlich sind, welche Entscheidungen auf der Grundlage der Ergebnisse der Datenverarbeitung getroffen werden sollten usw.

1.2 Beispiele für die Anwendung der Wahrscheinlichkeitstheorieund mathematische Statistik

Betrachten wir einige Beispiele, bei denen probabilistisch-statistische Modelle ein gutes Werkzeug zur Lösung von Management-, Produktions-, Wirtschafts- und Volkswirtschaftsproblemen sind. So heißt es beispielsweise in A. N. Tolstois Roman „Walking through Torment“ (Bd. 1): „Die Werkstatt produziert 23 Prozent des Ausschusses, Sie bleiben bei dieser Zahl“, sagte Strukow zu Iwan Iljitsch.“

Es stellt sich die Frage, wie diese Worte im Gespräch von Fabrikmanagern zu verstehen sind, da eine Produktionseinheit nicht zu 23 % fehlerhaft sein kann. Es kann entweder gut oder defekt sein. Strukov meinte wahrscheinlich, dass eine großvolumige Charge etwa 23 % fehlerhafte Produktionseinheiten enthält. Dann stellt sich die Frage: Was bedeutet „ungefähr“? Wenn sich herausstellt, dass 30 von 100 getesteten Produktionseinheiten defekt sind, oder von 1000 - 300, oder von 100.000 - 30.000 usw., ist es notwendig, Strukov der Lüge zu beschuldigen?

Oder ein anderes Beispiel. Die als Los verwendete Münze muss „symmetrisch“ sein, d. h. Beim Werfen sollte im Durchschnitt in der Hälfte der Fälle das Wappen herausfallen und in der Hälfte der Fälle ein Raute (Schwänze, Zahl). Aber was bedeutet „im Durchschnitt“? Wenn Sie viele Serien mit jeweils 10 Würfen durchführen, werden Sie häufig auf Serien stoßen, in denen die Münze viermal als Wappen landet. Bei einer symmetrischen Münze geschieht dies in 20,5 % der Durchläufe. Und wenn nach 100.000 Würfen 40.000 Wappen vorhanden sind, kann die Münze dann als symmetrisch angesehen werden? Das Entscheidungsverfahren basiert auf Wahrscheinlichkeitstheorie und mathematischer Statistik.

Das betreffende Beispiel scheint möglicherweise nicht ernst genug zu sein. Dies ist jedoch nicht der Fall. Die Auslosung wird häufig bei der Organisation industrieller technischer und wirtschaftlicher Experimente verwendet, beispielsweise bei der Verarbeitung der Ergebnisse der Messung des Qualitätsindikators (Reibungsmoment) von Lagern in Abhängigkeit von verschiedenen technologischen Faktoren (Einfluss der Konservierungsumgebung, Methoden zur Vorbereitung von Lagern vor der Messung). , der Einfluss von Lagerbelastungen während des Messvorgangs usw.). P.). Nehmen wir an, es ist notwendig, die Qualität von Lagern in Abhängigkeit von den Ergebnissen ihrer Lagerung in verschiedenen Konservierungsölen zu vergleichen, d. h. in Ölen der Zusammensetzung A und B. Bei der Planung eines solchen Experiments stellt sich die Frage, welche Lager in Öl der Zusammensetzung A und welche in Öl der Zusammensetzung B platziert werden sollten, jedoch so, dass Subjektivität vermieden wird und stellen Sie die Objektivität der getroffenen Entscheidung sicher.

Die Antwort auf diese Frage kann per Losverfahren ermittelt werden. Ein ähnliches Beispiel kann für die Qualitätskontrolle eines beliebigen Produkts gegeben werden. Um zu entscheiden, ob die kontrollierte Produktcharge die festgelegten Anforderungen erfüllt oder nicht, wird daraus eine Probe ausgewählt. Basierend auf den Ergebnissen der Probenkontrolle wird ein Rückschluss auf die gesamte Charge gezogen. In diesem Fall ist es sehr wichtig, Subjektivität bei der Bildung einer Probe zu vermeiden, d. h. es ist notwendig, dass jede Produkteinheit in der kontrollierten Charge die gleiche Wahrscheinlichkeit hat, für die Probe ausgewählt zu werden. Unter Produktionsbedingungen erfolgt die Auswahl der Produkteinheiten für die Stichprobe in der Regel nicht per Los, sondern anhand spezieller Zufallszahlentabellen oder mithilfe von Computer-Zufallszahlensensoren.

Ähnliche Probleme bei der Gewährleistung der Objektivität des Vergleichs treten beim Vergleich verschiedener Systeme zur Organisation der Produktion, der Vergütung, bei Ausschreibungen und Wettbewerben, bei der Auswahl von Kandidaten für freie Stellen usw. auf. Überall brauchen wir eine Auslosung oder ähnliche Verfahren. Lassen Sie uns das am Beispiel der Ermittlung der stärksten und zweitstärksten Mannschaften bei der Organisation eines Turniers nach dem olympischen System erklären (der Verlierer scheidet aus). Lassen Sie das stärkere Team immer das schwächere besiegen. Es ist klar, dass die stärkste Mannschaft definitiv Meister wird. Das zweitstärkste Team erreicht das Finale nur dann, wenn es vor dem Finale keine Spiele mit dem zukünftigen Meister hat. Sollte ein solches Spiel geplant sein, wird es die zweitstärkste Mannschaft nicht ins Finale schaffen. Derjenige, der das Turnier plant, kann entweder das zweitstärkste Team vorzeitig aus dem Turnier „schlagen“, indem er es im ersten Aufeinandertreffen gegen den Führenden antreten lässt, oder ihm den zweiten Platz verschaffen, indem er dafür sorgt, dass bis zum Ende des Turniers Begegnungen mit schwächeren Teams stattfinden Finale. Um Subjektivität zu vermeiden, wird eine Auslosung durchgeführt. Bei einem Turnier mit 8 Mannschaften beträgt die Wahrscheinlichkeit, dass die beiden besten Mannschaften im Finale aufeinandertreffen, 4/7. Demnach wird mit einer Wahrscheinlichkeit von 3/7 die zweitstärkste Mannschaft das Turnier vorzeitig verlassen.

Jede Messung von Produkteinheiten (mit einem Messschieber, Mikrometer, Amperemeter usw.) enthält Fehler. Um herauszufinden, ob systematische Fehler vorliegen, müssen wiederholte Messungen an einer Produkteinheit durchgeführt werden, deren Eigenschaften bekannt sind (z. B. eine Standardprobe). Es ist zu beachten, dass es neben systematischen Fehlern auch zufällige Fehler gibt.

Daher stellt sich die Frage, wie man aus den Messergebnissen herausfinden kann, ob ein systematischer Fehler vorliegt. Wenn wir nur feststellen, ob der bei der nächsten Messung erhaltene Fehler positiv oder negativ ist, kann diese Aufgabe auf die vorherige reduziert werden. Vergleichen wir nämlich eine Messung mit dem Werfen einer Münze, einen positiven Fehler mit dem Verlust eines Wappens und einen negativen Fehler mit einem Gitter (ein Nullfehler tritt bei ausreichend vielen Skalenteilungen fast nie auf). Dann ist die Überprüfung, ob kein systematischer Fehler vorliegt, gleichbedeutend mit der Überprüfung der Symmetrie der Münze.

Der Zweck dieser Überlegungen besteht darin, das Problem der Überprüfung der Abwesenheit eines systematischen Fehlers auf das Problem der Überprüfung der Symmetrie einer Münze zu reduzieren. Die obige Überlegung führt zum sogenannten „Vorzeichenkriterium“ in der mathematischen Statistik.

Bei der statistischen Regulierung technologischer Prozesse werden auf der Grundlage der Methoden der mathematischen Statistik Regeln und Pläne zur statistischen Prozesssteuerung entwickelt, die darauf abzielen, Probleme in technologischen Prozessen rechtzeitig zu erkennen und Maßnahmen zu deren Behebung zu ergreifen und die Freigabe von Produkten zu verhindern, bei denen dies nicht der Fall ist den festgelegten Anforderungen genügen. Diese Maßnahmen zielen darauf ab, Produktionskosten und Verluste aus der Lieferung minderwertiger Einheiten zu reduzieren. Bei der statistischen Abnahmekontrolle, basierend auf den Methoden der mathematischen Statistik, werden Qualitätskontrollpläne durch Analyse von Proben aus Produktchargen entwickelt. Die Schwierigkeit liegt darin, probabilistisch-statistische Entscheidungsmodelle korrekt aufbauen zu können, auf deren Grundlage die oben gestellten Fragen beantwortet werden können. In der mathematischen Statistik wurden zu diesem Zweck probabilistische Modelle und Methoden zum Testen von Hypothesen entwickelt, insbesondere von Hypothesen, dass der Anteil fehlerhafter Produktionseinheiten einer bestimmten Zahl p0 entspricht, beispielsweise p0 = 0,23 (erinnern Sie sich an die Worte von Strukov). aus dem Roman von A. N. Tolstoi).

1.3 Bewertungsziele

In einer Reihe von Management-, Produktions-, Wirtschafts- und Volkswirtschaftssituationen treten Probleme anderer Art auf – Probleme bei der Bewertung der Merkmale und Parameter von Wahrscheinlichkeitsverteilungen.

Schauen wir uns ein Beispiel an. Lassen Sie eine Charge N-Elektrolampen zur Inspektion eintreffen. Aus dieser Charge wurde zufällig eine Stichprobe von n elektrischen Lampen ausgewählt. Es stellen sich eine Reihe natürlicher Fragen. Wie lässt sich die durchschnittliche Lebensdauer elektrischer Lampen anhand der Testergebnisse von Musterelementen ermitteln und mit welcher Genauigkeit kann dieses Merkmal beurteilt werden? Wie ändert sich die Genauigkeit, wenn wir eine größere Stichprobe nehmen? Bei wie vielen Stunden T kann garantiert werden, dass mindestens 90 % der elektrischen Lampen T oder mehr Stunden halten?

Nehmen wir an, dass sich bei der Prüfung einer Stichprobe von n elektrischen Lampen herausstellte, dass X elektrische Lampen defekt waren. Dann stellen sich folgende Fragen. Welche Grenzwerte können für die Anzahl D fehlerhafter elektrischer Lampen in einer Charge, für den Fehlergrad D/N usw. angegeben werden?

Oder bei der statistischen Analyse der Genauigkeit und Stabilität technologischer Prozesse ist es notwendig, Qualitätsindikatoren wie den Durchschnittswert des kontrollierten Parameters und den Grad seiner Streuung im betrachteten Prozess zu bewerten. Nach der Wahrscheinlichkeitstheorie empfiehlt es sich, ihren mathematischen Erwartungswert als Mittelwert einer Zufallsvariablen und Streuung, Standardabweichung oder Variationskoeffizient als statistisches Merkmal der Streuung zu verwenden. Dies wirft die Frage auf: Wie lassen sich diese statistischen Merkmale anhand von Stichprobendaten schätzen und mit welcher Genauigkeit kann dies erfolgen? Es gibt viele ähnliche Beispiele, die angeführt werden können. Hier war es wichtig zu zeigen, wie Wahrscheinlichkeitstheorie und mathematische Statistik im Produktionsmanagement bei Entscheidungen im Bereich des statistischen Managements der Produktqualität eingesetzt werden können.

1.4 Was ist „mathematische Statistik“?

Unter Mathematischer Statistik versteht man „einen Zweig der Mathematik, der sich mit mathematischen Methoden zur Erhebung, Systematisierung, Verarbeitung und Interpretation statistischer Daten sowie deren Nutzung für wissenschaftliche oder praktische Schlussfolgerungen befasst.“ Die Regeln und Verfahren der mathematischen Statistik basieren auf der Wahrscheinlichkeitstheorie, die es uns ermöglicht, die Genauigkeit und Zuverlässigkeit der in jedem Problem gewonnenen Schlussfolgerungen auf der Grundlage des verfügbaren statistischen Materials zu bewerten.“ Unter statistischen Daten versteht man in diesem Fall Informationen über die Anzahl der Objekte in einer mehr oder weniger umfangreichen Sammlung, die bestimmte Merkmale aufweisen.

Basierend auf der Art der zu lösenden Probleme wird die mathematische Statistik normalerweise in drei Abschnitte unterteilt: Datenbeschreibung, Schätzung und Hypothesentest.

Basierend auf der Art der verarbeiteten statistischen Daten wird die mathematische Statistik in vier Bereiche unterteilt:

Univariate Statistik (Statistik von Zufallsvariablen), bei der das Ergebnis einer Beobachtung durch eine reelle Zahl beschrieben wird;

Multivariate statistische Analyse, bei der das Ergebnis der Beobachtung eines Objekts durch mehrere Zahlen (Vektor) beschrieben wird;

Statistik zufälliger Prozesse und Zeitreihen, bei denen das Ergebnis einer Beobachtung eine Funktion ist;

Statistik von Objekten nicht numerischer Natur, bei der das Ergebnis einer Beobachtung nicht numerischer Natur ist, beispielsweise eine Menge (eine geometrische Figur), eine Ordnung oder das Ergebnis einer auf einer Messung beruhenden Messung ist nach einem qualitativen Kriterium.

Historisch gesehen tauchten zunächst einige Bereiche der Statistik von Objekten nichtnumerischer Natur (insbesondere Probleme bei der Schätzung des Fehleranteils und der Prüfung von Hypothesen darüber) und der eindimensionalen Statistik auf. Der mathematische Apparat ist für sie einfacher, daher wird ihr Beispiel normalerweise verwendet, um die Grundideen der mathematischen Statistik zu demonstrieren.

Nur solche Datenverarbeitungsmethoden, d.h. Mathematische Statistiken sind evidenzbasiert und basieren auf probabilistischen Modellen relevanter realer Phänomene und Prozesse. Wir sprechen über Modelle des Verbraucherverhaltens, des Auftretens von Risiken, der Funktionsweise technologischer Geräte, der Gewinnung experimenteller Ergebnisse, des Krankheitsverlaufs usw. Ein probabilistisches Modell eines realen Phänomens sollte als konstruiert gelten, wenn die betrachteten Größen und die Verbindungen zwischen ihnen wahrscheinlichkeitstheoretisch ausgedrückt werden. Übereinstimmung mit dem probabilistischen Modell der Realität, d.h. Ihre Angemessenheit wird insbesondere durch statistische Methoden zur Hypothesenüberprüfung nachgewiesen.

Nicht-probabilistische Methoden der Datenverarbeitung sind explorativ und können nur in der vorläufigen Datenanalyse eingesetzt werden, da sie keine Beurteilung der Genauigkeit und Zuverlässigkeit von Schlussfolgerungen ermöglichen, die auf der Grundlage begrenzten statistischen Materials gewonnen werden.

Probabilistische und statistische Methoden sind überall dort anwendbar, wo es möglich ist, ein probabilistisches Modell eines Phänomens oder Prozesses zu erstellen und zu begründen. Ihr Einsatz ist zwingend erforderlich, wenn Schlussfolgerungen aus Stichprobendaten auf die gesamte Grundgesamtheit übertragen werden (z. B. von einer Stichprobe auf eine ganze Produktcharge).

In spezifischen Anwendungsgebieten werden sowohl probabilistische als auch statistische Methoden mit allgemeiner und spezifischer Anwendung eingesetzt. Beispielsweise wird im Bereich des Produktionsmanagements, der sich mit statistischen Methoden des Produktqualitätsmanagements befasst, die angewandte mathematische Statistik (einschließlich Versuchsplanung) eingesetzt. Mit seinen Methoden werden statistische Analysen der Genauigkeit und Stabilität technologischer Prozesse sowie statistische Qualitätsbewertungen durchgeführt. Spezifische Methoden umfassen Methoden der statistischen Akzeptanzkontrolle der Produktqualität, der statistischen Regulierung technologischer Prozesse, der Zuverlässigkeitsbewertung und -kontrolle usw.

Angewandte probabilistische und statistische Disziplinen wie Zuverlässigkeitstheorie und Warteschlangentheorie sind weit verbreitet. Der Inhalt der ersten davon geht aus dem Namen hervor, die zweite befasst sich mit der Untersuchung von Systemen wie einer Telefonzentrale, die Anrufe zu zufälligen Zeiten entgegennimmt – den Anforderungen der Teilnehmer, die Nummern auf ihren Telefonapparaten wählen. Die Dauer der Erfüllung dieser Anforderungen, d.h. Auch die Gesprächsdauer wird durch Zufallsvariablen modelliert. Einen großen Beitrag zur Entwicklung dieser Disziplinen leistete das korrespondierende Mitglied der Akademie der Wissenschaften der UdSSR A.Ya. Chinchin (1894-1959), Akademiker der Akademie der Wissenschaften der Ukrainischen SSR B.V. Gnedenko (1912-1995) und andere einheimische Wissenschaftler.

1.5 Kurz zur Geschichte der mathematischen Statistik

Die mathematische Statistik als Wissenschaft beginnt mit den Werken des berühmten deutschen Mathematikers Carl Friedrich Gauß (1777-1855), der auf der Grundlage der Wahrscheinlichkeitstheorie die von ihm 1795 entwickelte und zur Verarbeitung astronomischer Daten verwendete Methode der kleinsten Quadrate untersuchte und begründete ( um die Umlaufbahn des Kleinplaneten Ceres zu klären). Eine der beliebtesten Wahrscheinlichkeitsverteilungen, die Normalverteilung, wird oft nach ihm benannt, und in der Theorie der Zufallsprozesse werden Gaußsche Prozesse hauptsächlich untersucht.

Ende des 19. Jahrhunderts. - frühes 20. Jahrhundert Wichtige Beiträge zur mathematischen Statistik wurden von englischen Forschern geleistet, vor allem von K. Pearson (1857–1936) und R. A. Fisher (1890–1962). Insbesondere entwickelte Pearson den Chi-Quadrat-Test zum Testen statistischer Hypothesen, und Fisher entwickelte die Varianzanalyse, die Theorie des experimentellen Designs und die Maximum-Likelihood-Methode zum Schätzen von Parametern.

In den 30er Jahren des 20. Jahrhunderts. Der Pole Jerzy Neumann (1894-1977) und der Engländer E. Pearson entwickelten die allgemeine Theorie zum Testen statistischer Hypothesen, und der sowjetische Mathematiker A.N. Kolmogorov (1903-1987) und korrespondierendes Mitglied der Akademie der Wissenschaften der UdSSR N.V. Smirnov (1900-1966) legten den Grundstein für die nichtparametrische Statistik. In den vierziger Jahren des zwanzigsten Jahrhunderts. Der Rumäne A. Wald (1902-1950) entwickelte die Theorie der sequentiellen statistischen Analyse.

Die mathematische Statistik entwickelt sich derzeit rasant. Somit lassen sich in den letzten 40 Jahren vier grundlegend neue Forschungsbereiche unterscheiden:

Entwicklung und Implementierung mathematischer Methoden zur Planung von Experimenten;

Entwicklung der Statistik von Objekten nichtnumerischer Natur als eigenständige Richtung in der angewandten mathematischen Statistik;

Entwicklung statistischer Methoden, die gegenüber kleinen Abweichungen vom verwendeten Wahrscheinlichkeitsmodell resistent sind;

Weit verbreitete Entwicklung von Arbeiten zur Erstellung von Computersoftwarepaketen für die statistische Datenanalyse.

1.6 Wahrscheinlichkeitsstatistische Methoden und Optimierung

Der Optimierungsgedanke durchdringt die moderne angewandte mathematische Statistik und andere statistische Methoden. Nämlich Methoden zur Planung von Experimenten, zur statistischen Akzeptanzkontrolle, zur statistischen Regulierung technologischer Prozesse usw. Andererseits sorgen Optimierungsformulierungen in der Entscheidungstheorie, beispielsweise der angewandten Theorie der Optimierung von Produktqualität und Standardanforderungen, für die weit verbreiteter Einsatz probabilistischer statistischer Methoden, vor allem der angewandten mathematischen Statistik.

Insbesondere im Produktionsmanagement ist es bei der Optimierung von Produktqualität und Standardanforderungen besonders wichtig, statistische Methoden in der Anfangsphase des Produktlebenszyklus anzuwenden, d. h. im Stadium der Forschungsvorbereitung experimenteller Designentwicklungen (Entwicklung vielversprechender Produktanforderungen, Vorentwurf, technische Spezifikationen für experimentelle Designentwicklung). Dies ist auf die begrenzten verfügbaren Informationen in der Anfangsphase des Produktlebenszyklus und die Notwendigkeit zurückzuführen, die technischen Fähigkeiten und die wirtschaftliche Situation für die Zukunft vorherzusagen. Statistische Methoden sollten in allen Phasen der Lösung eines Optimierungsproblems eingesetzt werden – bei der Skalierung von Variablen, der Entwicklung mathematischer Modelle der Funktionsweise von Produkten und Systemen, der Durchführung technischer und wirtschaftlicher Experimente usw.

Bei Optimierungsproblemen, einschließlich der Optimierung von Produktqualität und Normanforderungen, werden alle Bereiche der Statistik genutzt. Nämlich Statistik von Zufallsvariablen, multivariate statistische Analyse, Statistik von Zufallsprozessen und Zeitreihen, Statistik von Objekten nichtnumerischer Natur. Es empfiehlt sich, eine statistische Methode zur Analyse spezifischer Daten gemäß den Empfehlungen auszuwählen.

2. Typische praktische Probleme der Wahrscheinlichkeitsrechnungatistische Entscheidungsfindungund Methoden zu ihrer Lösung

2.1 Statistik und angewandte Statistik

Unter Angewandter Statistik versteht man den Teil der mathematischen Statistik, der sich mit Methoden zur Verarbeitung realer statistischer Daten sowie den entsprechenden mathematischen und statistischen Methoden befasst Software. Daher werden rein mathematische Probleme nicht in die angewandte Statistik einbezogen.

Unter statistischen Daten versteht man numerische oder nichtnumerische Werte kontrollierter Parameter (Zeichen) der untersuchten Objekte, die als Ergebnis von Beobachtungen (Messungen, Analysen, Tests, Experimente etc.) einer bestimmten Anzahl von gewonnen werden Zeichen für jede in die Studie einbezogene Einheit. Methoden zur Gewinnung statistischer Daten und Stichprobengrößen werden auf der Grundlage der Formulierung eines konkreten angewandten Problems auf der Grundlage der Methoden der mathematischen Theorie der Experimentplanung festgelegt.

Das Ergebnis der Beobachtung xi des untersuchten Merkmals .., n, wobei n die Stichprobengröße ist).

Die Ergebnisse der Beobachtungen x1, x2,…, xn, wobei xi das Ergebnis der Beobachtung der i-ten Stichprobeneinheit ist, oder die Ergebnisse von Beobachtungen für mehrere Stichproben, werden mit der Aufgabenstellung entsprechenden Methoden der angewandten Statistik verarbeitet. Wird normalerweise verwendet analytische Methoden, d.h. Methoden, die auf numerischen Berechnungen basieren (Objekte nicht numerischer Natur werden durch Zahlen beschrieben). In einigen Fällen ist die Verwendung zulässig grafische Methoden(visuelle Analyse).

2.2 Aufgaben der statistischen Analyse der Genauigkeit und Stabilität technologischer Prozesse und Produktqualität

Statistische Methoden werden insbesondere zur Analyse der Genauigkeit und Stabilität technologischer Prozesse und der Produktqualität eingesetzt. Ziel ist es, Lösungen zu erarbeiten, die das effektive Funktionieren technologischer Einheiten gewährleisten und die Qualität und Wettbewerbsfähigkeit der hergestellten Produkte verbessern. Statistische Methoden sollten in allen Fällen verwendet werden, in denen es auf der Grundlage der Ergebnisse einer begrenzten Anzahl von Beobachtungen erforderlich ist, die Gründe für die Verbesserung oder Verschlechterung der Genauigkeit und Stabilität technologischer Geräte zu ermitteln. Unter der Genauigkeit eines technologischen Prozesses wird eine Eigenschaft eines technologischen Prozesses verstanden, die die Nähe der tatsächlichen und nominalen Werte der Parameter des hergestellten Produkts bestimmt. Unter der Stabilität eines technologischen Prozesses wird eine Eigenschaft eines technologischen Prozesses verstanden, die ohne Eingriff von außen die Konstanz der Wahrscheinlichkeitsverteilungen seiner Parameter über einen bestimmten Zeitraum bestimmt.

Die Ziele der Anwendung statistischer Methoden zur Analyse der Genauigkeit und Stabilität technologischer Prozesse und der Produktqualität in den Phasen Entwicklung, Produktion und Betrieb (Verbrauch) von Produkten sind insbesondere:

* Ermittlung tatsächlicher Indikatoren für Genauigkeit und Stabilität des technologischen Prozesses, der Ausrüstung oder der Produktqualität;

* Feststellung der Übereinstimmung der Produktqualität mit den Anforderungen der behördlichen und technischen Dokumentation;

* Überprüfung der Einhaltung der technischen Disziplin;

* Untersuchung zufälliger und systematischer Faktoren, die zu Fehlern führen können;

* Identifizierung von Produktions- und Technologiereserven;

* Begründung technische Standards und Produktzulassungen;

* Bewertung der Testergebnisse von Prototypen bei der Begründung von Produktanforderungen und Standards dafür;

* Begründung für die Wahl der technologischen Ausrüstung sowie der Mess- und Prüfinstrumente;

* Vergleich verschiedener Produktmuster;

* Begründung für die Ersetzung der kontinuierlichen Kontrolle durch statistische Kontrolle;

* Ermittlung der Möglichkeit der Einführung statistischer Methoden für das Produktqualitätsmanagement usw.

Um die oben genannten Ziele zu erreichen, verwenden Sie verschiedene Methoden Daten beschreiben, Hypothesen bewerten und testen. Lassen Sie uns Beispiele für Problemstellungen geben.

2.3 Probleme der eindimensionalen Statistik (Statistik von Zufallsvariablen)

Der Vergleich der mathematischen Erwartungen wird in Fällen durchgeführt, in denen die Übereinstimmung der Qualitätsindikatoren des hergestellten Produkts und des Referenzmusters festgestellt werden muss. Dies ist die Aufgabe, die Hypothese zu testen:

H0: M(X) = m0,

wobei m0 der Wert ist, der der Referenzprobe entspricht; X ist eine Zufallsvariable, die die Ergebnisse von Beobachtungen modelliert. Abhängig von der Formulierung des probabilistischen Situationsmodells und der Alternativhypothese erfolgt der Vergleich mathematischer Erwartungen entweder mit parametrischen oder nichtparametrischen Methoden.

Ein Streuungsvergleich wird durchgeführt, wenn der Unterschied zwischen der Streuung eines Qualitätsindikators und der Nennstreuung ermittelt werden muss. Dazu testen wir die Hypothese:

Nicht weniger wichtig als die Probleme beim Testen von Hypothesen sind die Probleme bei der Parameterschätzung. Sie werden wie Hypothesentestprobleme in Abhängigkeit vom verwendeten Wahrscheinlichkeitsmodell der Situation in parametrische und nichtparametrische Probleme unterteilt.

Bei parametrischen Schätzproblemen wird ein probabilistisches Modell angewendet, nach dem die Ergebnisse der Beobachtungen x1, x2,..., xn als Realisierungen von n unabhängigen Zufallsvariablen mit einer Verteilungsfunktion F(x;u) betrachtet werden. Hierbei handelt es sich um einen unbekannten Parameter, der in dem Parameterraum liegt, der durch das verwendete probabilistische Modell spezifiziert wird. Die Schätzaufgabe besteht darin, Punktschätzungen und Konfidenzgrenzen (oder Konfidenzbereiche) für den Parameter und zu bestimmen.

Der Parameter und ist entweder eine Zahl oder ein Vektor mit fester endlicher Dimension. Für eine Normalverteilung ist also = (m, y2) ein zweidimensionaler Vektor, für eine Binomialverteilung und = p eine Zahl für eine Gammaverteilung
und = (a, b, c) ist ein dreidimensionaler Vektor usw.

In der modernen mathematischen Statistik gibt es eine Reihe von gängige Methoden Bestimmung von Schätzungen und Konfidenzgrenzen – Momentenmethode, Maximum-Likelihood-Methode, einstufige Schätzmethode, stabile (robuste) Schätzmethode, unvoreingenommene Schätzmethode usw.

Schauen wir uns kurz die ersten drei an.

Die Momentenmethode basiert auf der Verwendung von Ausdrücken für die Momente der betrachteten Zufallsvariablen durch die Parameter ihrer Verteilungsfunktionen. Schätzungen der Momentenmethode werden erhalten, indem Beispielmomente anstelle theoretischer Momente in Funktionen eingesetzt werden, die Parameter als Momente ausdrücken.

Bei der Maximum-Likelihood-Methode, die hauptsächlich von R.A. Fisher entwickelt wurde, wird der Wert u*, für den die sogenannte Likelihood-Funktion maximal ist, als Schätzung des Parameters u genommen

f(x1, u) f(x2, u) … f(xn, u),

wobei x1, x2,…, xn die Ergebnisse von Beobachtungen sind; f(x, u) ist ihre Verteilungsdichte, abhängig vom Parameter u, der geschätzt werden muss.

Maximum-Likelihood-Schätzer sind in der Regel effizient (oder asymptotisch effizient) und weisen eine geringere Varianz auf als Momentenschätzer. In einigen Fällen werden Formeln dafür explizit ausgeschrieben (Normalverteilung, Exponentialverteilung ohne Verschiebung). Um sie zu finden, ist es jedoch häufiger erforderlich, ein System transzendentaler Gleichungen (Weibull-Gnedenko-Verteilungen, Gamma) numerisch zu lösen. In solchen Fällen ist es ratsam, nicht Maximum-Likelihood-Schätzungen zu verwenden, sondern andere Arten von Schätzungen, vor allem einstufige Schätzungen.

Bei nichtparametrischen Schätzproblemen wird ein probabilistisches Modell verwendet, bei dem die Ergebnisse der Beobachtungen x1, x2,..., xn als Realisierungen von n unabhängigen Zufallsvariablen mit einer Verteilungsfunktion F(x) betrachtet werden. Gesamtansicht. F(x) ist nur erforderlich, um bestimmte Bedingungen wie Kontinuität, das Vorhandensein mathematischer Erwartungen und Streuung usw. zu erfüllen. Solche Bedingungen sind nicht so streng wie die Bedingung der Zugehörigkeit zu einer bestimmten parametrischen Familie.

Im nichtparametrischen Setting werden entweder die Eigenschaften einer Zufallsvariablen (mathematischer Erwartungswert, Streuung, Variationskoeffizient) oder ihre Verteilungsfunktion, Dichte usw. geschätzt. Somit ist das arithmetische Mittel der Stichprobe aufgrund des Gesetzes der großen Zahlen eine konsistente Schätzung der mathematischen Erwartung M(X) (für jede Verteilungsfunktion F(x) von Beobachtungsergebnissen, für die die mathematische Erwartung existiert). Mithilfe des zentralen Grenzwertsatzes werden asymptotische Vertrauensgrenzen bestimmt

(M(X))H = , (M(X))B = .

wo g - Konfidenzwahrscheinlichkeit, – Quantil der Ordnung der Standardnormalverteilung N(0;1) mit Null-Mathematikerwartung und Einheitsvarianz, – arithmetisches Mittel der Stichprobe, s – Stichprobenstandardabweichung. Der Begriff „asymptotische Konfidenzgrenzen“ bedeutet, dass die Wahrscheinlichkeiten

P((M(X))H< M(X)}, P{(M(X))B >M(X)),

P((M(X))H< M(X) < (M(X))B}

neigen dazu bzw. r für n > ?, sind aber im Allgemeinen nicht gleich diesen Werten für endliches n. In der Praxis bieten asymptotische Konfidenzgrenzen eine ausreichende Genauigkeit für n der Ordnung 10.

Das zweite Beispiel einer nichtparametrischen Schätzung ist die Schätzung der Verteilungsfunktion. Nach dem Satz von Glivenko ist die empirische Verteilungsfunktion Fn(x) eine konsistente Schätzung der Verteilungsfunktion F(x). Wenn F(x) eine stetige Funktion ist, dann werden basierend auf dem Satz von Kolmogorov die Konfidenzgrenzen für die Verteilungsfunktion F(x) in der Form angegeben

(F(x))Н = max, (F(x))B = min,

Dabei ist k(r,n) das Quantil der Ordnung r der Verteilung der Kolmogorov-Statistik für eine Stichprobengröße n (denken Sie daran, dass die Verteilung dieser Statistik nicht von F(x) abhängt).

Die Regeln zur Bestimmung von Schätzungen und Konfidenzgrenzen im parametrischen Fall basieren auf der parametrischen Verteilungsfamilie F(x;u). Bei der Verarbeitung realer Daten stellt sich die Frage: Entsprechen diese Daten dem akzeptierten Wahrscheinlichkeitsmodell? Diese. Statistische Hypothese, dass die Beobachtungsergebnisse eine Verteilungsfunktion aus der Familie (F(x;u) und U) für einige u = u0 haben? Solche Hypothesen werden als Übereinstimmungshypothesen bezeichnet, und die Kriterien für deren Prüfung werden als Übereinstimmungskriterien bezeichnet.

Wenn der wahre Wert des Parameters u = u0 bekannt ist und die Verteilungsfunktion F(x; u0) stetig ist, wird häufig der auf Statistiken basierende Kolmogorov-Test zum Testen der Anpassungsgütehypothese verwendet

wobei Fn(x) die empirische Verteilungsfunktion ist.

Wenn der wahre Wert des Parameters u0 unbekannt ist, beispielsweise beim Testen der Hypothese über die Normalität der Verteilung von Beobachtungsergebnissen (d. h. beim Testen, ob diese Verteilung zur Familie der Normalverteilungen gehört), werden manchmal Statistiken verwendet

Sie unterscheidet sich von der Kolmogorov-Statistik Dn dadurch, dass anstelle des wahren Wertes des Parameters u0 dessen Schätzung u* eingesetzt wird.

Die Verteilung der Dn(u*)-Statistik unterscheidet sich stark von der Verteilung der Dn-Statistik. Betrachten Sie als Beispiel einen Normalitätstest, wenn u = (m, y2) und u* = (, s2). Für diesen Fall sind die Quantile der Statistikverteilungen Dn und Dn(u*) in Tabelle 1 angegeben. Somit unterscheiden sich die Quantile um etwa das 1,5-fache.

Tabelle 1 – Quantile der Statistiken Dn und Dn(and*) bei der Überprüfung der Normalität

Bei der Erstverarbeitung statistischer Daten besteht eine wichtige Aufgabe darin, Beobachtungsergebnisse auszuschließen, die aufgrund grober Fehler und Versäumnisse erzielt wurden. Wenn Sie beispielsweise Daten zum Gewicht (in Kilogramm) von Neugeborenen anzeigen, kann neben den Zahlen 3.500, 2.750, 4.200 auch die Zahl 35,00 erscheinen. Es ist klar, dass dies ein Fehler ist und aufgrund einer fehlerhaften Aufzeichnung eine falsche Zahl erhalten wurde – der Dezimalpunkt wurde um ein Zeichen verschoben, wodurch das Beobachtungsergebnis fälschlicherweise um das Zehnfache erhöht wurde.

Statistische Methoden zum Ausschluss von Ausreißern basieren auf der Annahme, dass solche Beobachtungen Verteilungen aufweisen, die sich stark von den untersuchten unterscheiden, und daher aus der Stichprobe ausgeschlossen werden sollten.

Das einfachste Wahrscheinlichkeitsmodell ist dieses. Unter der Nullhypothese werden die Beobachtungsergebnisse als Realisierungen unabhängiger identisch verteilter Zufallsvariablen X1, X2, Xn mit der Verteilungsfunktion F(x) betrachtet. Unter der Alternativhypothese sind X1, X2, Dann mit einer Wahrscheinlichkeit nahe 1 (genauer gesagt tendiert sie mit zunehmender Stichprobengröße zu 1),

Xn = max (X1, X2, Xn) = Xmax,

diese. Bei der Beschreibung von Daten sollte Xmax als möglicher Fehler berücksichtigt werden. Der kritische Bereich hat die Form

Ø = (x: x > d).

Der kritische Wert d = d(b,n) wird abhängig vom Signifikanzniveau b und der Stichprobengröße n aus der Bedingung gewählt

P(Xmax > d | H0) = b (1)

Bedingung (1) entspricht für großes n und kleines b dem Folgenden:

Wenn die Verteilungsfunktion der Beobachtungsergebnisse F(x) bekannt ist, dann wird der kritische Wert d aus Beziehung (2) ermittelt. Wenn F(x) beispielsweise bis auf Parameter bekannt ist, ist bekannt, dass F(x) - normale Funktion Verteilung wurden auch Regeln zum Testen der betrachteten Hypothese entwickelt.

Allerdings ist die Form der Verteilungsfunktion von Beobachtungsergebnissen oft nicht absolut genau und nicht mit der Genauigkeit der Parameter bekannt, sondern nur mit einem gewissen Fehler. Dann wird Beziehung (2) praktisch unbrauchbar, da ein kleiner Fehler bei der Bestimmung von F(x), wie gezeigt werden kann, zu einem großen Fehler bei der Bestimmung des kritischen Werts d aus Bedingung (2) und für ein festes d des Niveaus von führt Die Signifikanz des Kriteriums kann erheblich vom Nominalwert abweichen.

In einer Situation, in der es keine vollständigen Informationen über F(x) gibt, aber der mathematische Erwartungswert M(X) und die Varianz y2 = D(X) der Beobachtungsergebnisse X1, X2, Xn bekannt sind, basieren daher nichtparametrische Ablehnungsregeln zur Tschebyscheff-Ungleichung verwendet werden. Mit dieser Ungleichung finden wir den kritischen Wert d = d(b,n), sodass

dann ist die Beziehung (3) erfüllt, wenn

Durch Tschebyschews Ungleichung

Damit (4) erfüllt ist, reicht es daher aus, die rechten Seiten der Formeln (4) und (5) gleichzusetzen, d. h. Bestimmen Sie d aus der Bedingung

Die Ablehnungsregel, die auf dem mit Formel (6) berechneten kritischen Wert d basiert, verwendet minimale Informationen über die Verteilungsfunktion F(x) und schließt daher nur Beobachtungsergebnisse aus, die sehr weit von der Masse entfernt sind. Mit anderen Worten, der durch Beziehung (1) gegebene Wert von d1 ist normalerweise viel kleiner als der durch Beziehung (6) gegebene Wert von d2.

2.4 Multivariate statistische Analyse

Die multivariate statistische Analyse wird verwendet, um die folgenden Probleme zu lösen:

* Untersuchung der Abhängigkeit zwischen Zeichen;

* Klassifizierung von durch Vektoren spezifizierten Objekten oder Merkmalen;

* Reduzierung der Dimension des Merkmalsraums.

In diesem Fall ist das Ergebnis von Beobachtungen ein Vektor von Werten einer festen Anzahl quantitativer und manchmal qualitativer Merkmale, die an einem Objekt gemessen werden. Ein quantitatives Merkmal ist ein Merkmal einer beobachtbaren Einheit, das direkt durch eine Zahl und eine Maßeinheit ausgedrückt werden kann. Einem quantitativen Merkmal steht ein qualitatives Merkmal gegenüber – ein Merkmal einer beobachteten Einheit, das durch Zuordnung zu einer von zwei oder mehr bedingten Kategorien bestimmt wird (wenn es genau zwei Kategorien gibt, wird das Merkmal als Alternative bezeichnet). Die statistische Analyse qualitativer Merkmale ist Teil der Statistik von Objekten nichtnumerischer Natur. Quantitative Merkmale werden in Merkmale unterteilt, die auf den Skalen Intervalle, Verhältnisse, Differenzen und Absolutheit gemessen werden.

Und qualitative – für Merkmale, die in einer Namensskala und einer Ordinalskala gemessen werden. Die Datenverarbeitungsmethoden müssen mit den Maßstäben übereinstimmen, in denen die betreffenden Merkmale gemessen werden.

Die Ziele der Untersuchung der Abhängigkeit zwischen Merkmalen bestehen darin, die Existenz eines Zusammenhangs zwischen Merkmalen nachzuweisen und diesen Zusammenhang zu untersuchen. Um die Existenz eines Zusammenhangs zwischen zwei Zufallsvariablen X und Y nachzuweisen, wird die Korrelationsanalyse verwendet. Wenn die gemeinsame Verteilung von

Mithilfe der Regressionsanalyse wird die funktionale Abhängigkeit des quantitativen Merkmals Y von den quantitativen Merkmalen x(1), x(2), ..., x(k) untersucht. Diese Abhängigkeit wird Regression oder kurz Regression genannt. Das einfachste probabilistische Modell der Regressionsanalyse (im Fall von k = 1) verwendet als Ausgangsinformation eine Reihe von Paaren von Beobachtungsergebnissen (xi, yi), i = 1, 2, … , n, und hat die Form

yi = axi + b + ei, i = 1, 2, … , n,

wobei ei Beobachtungsfehler sind. Manchmal wird angenommen, dass ei unabhängige Zufallsvariablen mit derselben Normalverteilung N(0, y2) sind. Da die Verteilung von Beobachtungsfehlern in der Regel vom Normalwert abweicht, empfiehlt es sich, das Regressionsmodell in einer nichtparametrischen Formulierung zu betrachten, d. h. mit einer willkürlichen Verteilung von ei.

Die Hauptaufgabe der Regressionsanalyse besteht darin, die unbekannten Parameter a und b zu schätzen, die die lineare Abhängigkeit von y von x definieren. Um dieses Problem zu lösen, wird die Methode der kleinsten Quadrate verwendet, die 1794 von K. Gauß entwickelt wurde, d. h. Finden Sie Schätzungen der unbekannten Modellparameter a und b aus der Bedingung der Minimierung der Quadratsumme

durch die Variablen a und b.

Mithilfe der Varianzanalyse wird der Einfluss qualitativer Merkmale auf eine quantitative Variable untersucht. Angenommen, es gäbe k Stichproben von Messergebnissen quantitativer Indikator Qualität der auf k Maschinen hergestellten Produkteinheiten, d.h. eine Menge von Zahlen (x1(j), x2(j), … , xn(j)), wobei j die Maschinennummer, j = 1, 2, …, k und n die Stichprobengröße ist. In einer gängigen Formulierung der Varianzanalyse wird davon ausgegangen, dass die Messergebnisse unabhängig sind und in jeder Stichprobe eine Normalverteilung N(m(j), y2) mit derselben Varianz aufweisen.

Überprüfung der Gleichmäßigkeit der Produktqualität, d.h. Das Fehlen eines Einflusses der Maschinennummer auf die Produktqualität kommt auf die Prüfung der Hypothese an

H0: m(1) = m(2) = … = m(k).

Die Varianzanalyse hat Methoden zum Testen solcher Hypothesen entwickelt.

Die Hypothese H0 wird gegen die Alternativhypothese H1 getestet, nach der mindestens eine der angegebenen Gleichungen nicht erfüllt ist. Der Test dieser Hypothese basiert auf der folgenden von R. A. Fisher angegebenen „Varianzzerlegung“:

wobei s2 die Stichprobenvarianz in der gepoolten Stichprobe ist, d. h.

Somit spiegelt der erste Term auf der rechten Seite der Formel (7) die gruppeninterne Streuung wider. Schließlich gibt es eine Intergruppenvarianz,

Der Bereich der angewandten Statistik im Zusammenhang mit Varianzerweiterungen wie Formel (7) wird Varianzanalyse genannt. Betrachten Sie als Beispiel für ein Problem der Varianzanalyse die Prüfung der obigen Hypothese H0 unter der Annahme, dass die Messergebnisse unabhängig sind und in jeder Stichprobe eine Normalverteilung N(m(j), y2) mit derselben Varianz aufweisen. Wenn H0 wahr ist, hat der erste Term auf der rechten Seite der Formel (7), dividiert durch y2, eine Chi-Quadrat-Verteilung mit k(n-1) Freiheitsgraden, und der zweite Term, dividiert durch y2, hat ebenfalls eine Chi-Quadrat-Verteilung mit k(n-1) Freiheitsgraden eine Chi-Quadrat-Verteilung, jedoch mit ( k-1) Freiheitsgraden, wobei der erste und der zweite Term als Zufallsvariablen unabhängig sind. Daher die Zufallsvariable

hat eine Fisher-Verteilung mit (k-1) Zähler-Freiheitsgraden und k(n-1) Nenner-Freiheitsgraden. Hypothese H0 wird akzeptiert, wenn F< F1-б, и отвергается в противном случае, где F1-б - квантиль порядка 1-б распределения Фишера с указанными числами степеней свободы. Такой выбор критической области определяется тем, что при Н1 величина F безгранично увеличивается при росте объема выборок n. Значения F1-б берут из соответствующих таблиц.

Zur Lösung klassischer Probleme der Varianzanalyse, insbesondere zum Testen der Hypothese H0, wurden nichtparametrische Methoden entwickelt.

Die nächste Art multivariater statistischer Analyseprobleme sind Klassifizierungsprobleme. Sie sind grundsätzlich in drei Bereiche unterteilt verschiedene Arten- Diskriminanzanalyse, Clusteranalyse, Gruppierungsprobleme.

Die Aufgabe der Diskriminanzanalyse besteht darin, eine Regel zur Einordnung eines beobachteten Objekts in eine der zuvor beschriebenen Klassen zu finden. In diesem Fall werden Objekte in einem mathematischen Modell mithilfe von Vektoren beschrieben, deren Koordinaten das Ergebnis der Beobachtung einer Reihe von Merkmalen in jedem Objekt sind. Klassen werden entweder direkt in mathematischen Begriffen oder anhand von Trainingsbeispielen beschrieben. Ein Trainingssatz ist eine Stichprobe für jedes Element, bei dem angegeben ist, zu welcher Klasse es gehört.

...

Ähnliche Dokumente

    Geschichte der Ökonometrie und angewandten Statistik. Angewandte Statistik in nationale Wirtschaft. Wachstumspunkte. Nichtparametrische Statistik. Die Statistik von Objekten nichtnumerischer Natur ist Teil der angewandten Statistik.

    Zusammenfassung, hinzugefügt am 01.08.2009

    Strukturkomponenten der deterministischen Komponente. Der Hauptzweck der statistischen Analyse von Zeitreihen. Extrapolationsprognose wirtschaftlicher Prozesse. Identifizierung anomaler Beobachtungen sowie Erstellung von Zeitreihenmodellen.

    Kursarbeit, hinzugefügt am 11.03.2014

    Statistische Modelle der Entscheidungsfindung. Beschreibung von Modellen mit bekannter Wahrscheinlichkeitsverteilung des Zustands der Umwelt. Rücksichtnahme das einfachste Schema dynamischer Entscheidungsprozess. Durchführung einer Berechnung der Änderungswahrscheinlichkeit des Unternehmens.

    Test, hinzugefügt am 07.11.2011

    Statistische Methoden zur Analyse eindimensionaler Zeitreihen, zur Lösung von Analyse- und Prognoseproblemen, zur Darstellung eines Diagramms des untersuchten Indikators. Kriterien zur Identifizierung von Reihenkomponenten, zum Testen der Hypothese über die Zufälligkeit der Reihe und die Werte der Standardfehler.

    Test, hinzugefügt am 13.08.2010

    Die Rolle statistischer Methoden bei der objektiven Bewertung quantitativer und qualitativer Merkmale des Managementprozesses. Einsatz von Qualitätstools bei der Analyse von Prozessen und Produktparametern. Diskrete Zufallsvariablen. Wahrscheinlichkeitstheorie.

    Kursarbeit, hinzugefügt am 11.01.2015

    Mathematische Theorie optimale Entscheidungsfindung. Tabellarische Simplex-Methode. Formulierung und Lösung eines dualen linearen Programmierproblems. Mathematisches Modell Transportproblem. Analyse der Machbarkeit der Produktion im Unternehmen.

    Test, hinzugefügt am 13.06.2012

    Allgemein, Stichprobenpopulation. Methodische Grundlage Wahrscheinlichkeitsstatistische Analyse. MathCad-Funktionen zur Lösung von Problemen der mathematischen Statistik. Lösen von Problemen in MS Excel mithilfe von Formeln und Verwendung des Menüs „Datenanalyse“.

    Kursarbeit, hinzugefügt am 20.01.2014

    Berechnung der Kostenhöhe für den Produktionsplan. Koeffizienten einer linearen Gleichung der gepaarten Regression. Merkmale der grafischen Interpretation der Ergebnisse. Entwicklung wirtschaftlicher Prozesse. Merkmale der ökonometrischen Modellierung von Zeitreihen.

    Test, hinzugefügt am 22.02.2011

    Grundelemente der ökonometrischen Analyse von Zeitreihen. Analyseaufgaben und deren Erstbearbeitung. Lösung von Problemen der kurz- und mittelfristigen Prognose von Zeitreihenwerten. Methoden zum Ermitteln der Parameter der Trendgleichung. Methode der kleinsten Quadrate.

    Test, hinzugefügt am 03.06.2009

    Elementare Konzepte über zufällige Ereignisse, Mengen und Funktionen. Numerische Eigenschaften von Zufallsvariablen. Arten der Verteilungsasymmetrie. Statistische Auswertung der Verteilung von Zufallsvariablen. Lösung von Problemen der strukturparametrischen Identifizierung.

Wie werden die Ansätze, Ideen und Ergebnisse der Wahrscheinlichkeitstheorie und der mathematischen Statistik bei der Entscheidungsfindung genutzt?

Grundlage ist ein probabilistisches Modell eines realen Phänomens oder Prozesses, d.h. ein mathematisches Modell, in dem objektive Beziehungen im Sinne der Wahrscheinlichkeitstheorie ausgedrückt werden. Mit Wahrscheinlichkeiten werden vor allem die Unsicherheiten beschrieben, die bei Entscheidungen berücksichtigt werden müssen. Dabei handelt es sich sowohl um unerwünschte Chancen (Risiken) als auch um attraktive Chancen („glücklicher Zufall“). Manchmal wird der Zufall bewusst in eine Situation eingeführt, beispielsweise bei der Auslosung, der zufälligen Auswahl von Einheiten zur Kontrolle, der Durchführung von Lotterien oder der Durchführung von Verbraucherumfragen.

Die Wahrscheinlichkeitstheorie ermöglicht die Verwendung einer Wahrscheinlichkeit zur Berechnung anderer, für den Forscher interessanter Wahrscheinlichkeiten. Mithilfe der Wahrscheinlichkeit, ein Wappen zu erhalten, können Sie beispielsweise die Wahrscheinlichkeit berechnen, dass Sie bei 10 Münzwürfen mindestens 3 Wappen erhalten. Eine solche Berechnung basiert auf einem probabilistischen Modell, nach dem Münzwürfe durch ein Muster unabhängiger Versuche beschrieben werden; außerdem sind das Wappen und die Raute gleichermaßen möglich und daher ist die Wahrscheinlichkeit jedes dieser Ereignisse gleich bis ½. Bei einem komplexeren Modell geht es darum, die Qualität einer Produktionseinheit zu überprüfen, anstatt eine Münze zu werfen. Das entsprechende Wahrscheinlichkeitsmodell basiert auf der Annahme, dass die Qualitätskontrolle verschiedener Produktionseinheiten durch ein unabhängiges Prüfschema beschrieben wird. Im Gegensatz zum Münzwurfmodell muss ein neuer Parameter eingeführt werden – die Wahrscheinlichkeit p, dass eine Produktionseinheit fehlerhaft ist. Das Modell wird vollständig beschrieben, wenn wir davon ausgehen, dass alle Produktionseinheiten die gleiche Wahrscheinlichkeit haben, fehlerhaft zu sein. Wenn die letzte Annahme falsch ist, erhöht sich die Anzahl der Modellparameter. Sie können beispielsweise davon ausgehen, dass jede Produktionseinheit eine eigene Wahrscheinlichkeit hat, fehlerhaft zu sein.

Lassen Sie uns ein Qualitätskontrollmodell mit einer für alle Produktionseinheiten gemeinsamen Fehlerwahrscheinlichkeit p diskutieren. Um bei der Analyse des Modells „auf die Zahl zu kommen“, ist es notwendig, p durch einen bestimmten Wert zu ersetzen. Dazu ist es notwendig, über das probabilistische Modell hinauszugehen und auf Daten zurückzugreifen, die bei der Qualitätskontrolle gewonnen werden.

Die mathematische Statistik löst das inverse Problem in Bezug auf die Wahrscheinlichkeitstheorie. Ihr Ziel ist es, aus den Ergebnissen von Beobachtungen (Messungen, Analysen, Tests, Experimente) Rückschlüsse auf die dem probabilistischen Modell zugrunde liegenden Wahrscheinlichkeiten zu ziehen. Beispielsweise können aus der Häufigkeit des Auftretens fehlerhafter Produkte bei der Inspektion Rückschlüsse auf die Fehlerwahrscheinlichkeit gezogen werden (siehe Satz von Bernoulli oben).

Basierend auf der Tschebyscheff-Ungleichung wurden Rückschlüsse auf die Übereinstimmung der Häufigkeit des Auftretens fehlerhafter Produkte mit der Hypothese gezogen, dass die Wahrscheinlichkeit der Fehlerhaftigkeit einen bestimmten Wert annimmt.

Somit basiert die Anwendung der mathematischen Statistik auf einem probabilistischen Modell eines Phänomens oder Prozesses. Es werden zwei parallele Konzeptreihen verwendet – solche mit Bezug zur Theorie (probabilistisches Modell) und solche mit Bezug zur Praxis (Stichprobe von Beobachtungsergebnissen). Beispielsweise entspricht die theoretische Wahrscheinlichkeit der aus der Stichprobe ermittelten Häufigkeit. Der mathematische Erwartungswert (theoretische Reihe) entspricht dem arithmetischen Mittel der Stichprobe (praktische Reihe). Stichprobenmerkmale sind in der Regel Schätzungen theoretischer Merkmale. Gleichzeitig befinden sich Größen im Zusammenhang mit der theoretischen Reihe „in den Köpfen der Forscher“, beziehen sich auf die Welt der Ideen (nach dem antiken griechischen Philosophen Platon) und stehen nicht für eine direkte Messung zur Verfügung. Den Forschern stehen nur Beispieldaten zur Verfügung, mit denen sie versuchen, die für sie interessanten Eigenschaften eines theoretischen Wahrscheinlichkeitsmodells zu ermitteln.

Warum brauchen wir ein probabilistisches Modell? Tatsache ist, dass nur mit seiner Hilfe die aus der Analyse einer bestimmten Probe ermittelten Eigenschaften auf andere Proben sowie auf die gesamte sogenannte Allgemeinbevölkerung übertragen werden können. Der Begriff „Bevölkerung“ wird verwendet, wenn man sich auf eine große, aber endliche Ansammlung untersuchter Einheiten bezieht. Zum Beispiel über die Gesamtheit aller Einwohner Russlands oder die Gesamtheit aller Instantkaffeekonsumenten in Moskau. Das Ziel von Marketing- oder soziologischen Umfragen besteht darin, Aussagen, die aus einer Stichprobe von Hunderten oder Tausenden von Menschen gewonnen wurden, auf Bevölkerungsgruppen von mehreren Millionen Menschen zu übertragen. Bei der Qualitätskontrolle fungiert eine Produktcharge als allgemeine Grundgesamtheit.

Um Schlussfolgerungen aus einer Stichprobe auf eine größere Grundgesamtheit zu übertragen, sind einige Annahmen über die Beziehung der Stichprobenmerkmale zu den Merkmalen dieser größeren Grundgesamtheit erforderlich. Diese Annahmen basieren auf einem geeigneten Wahrscheinlichkeitsmodell.

Natürlich ist es möglich, Beispieldaten zu verarbeiten, ohne das eine oder andere Wahrscheinlichkeitsmodell zu verwenden. Sie können beispielsweise ein arithmetisches Stichprobenmittel berechnen, die Häufigkeit der Erfüllung bestimmter Bedingungen zählen usw. Allerdings beziehen sich die Berechnungsergebnisse nur auf eine bestimmte Stichprobe; die mit ihrer Hilfe gewonnenen Erkenntnisse auf jede andere Grundgesamtheit zu übertragen, ist falsch. Diese Aktivität wird manchmal als „Datenanalyse“ bezeichnet. Im Vergleich zu probabilistisch-statistischen Methoden hat die Datenanalyse nur einen begrenzten pädagogischen Wert.

Daher ist die Verwendung probabilistischer Modelle, die auf der Schätzung und Prüfung von Hypothesen anhand von Stichprobenmerkmalen basieren, das Wesentliche probabilistisch-statistischer Methoden der Entscheidungsfindung.

Wir betonen, dass die Logik der Verwendung von Stichprobenmerkmalen zur Entscheidungsfindung auf der Grundlage theoretischer Modelle die gleichzeitige Verwendung zweier paralleler Konzeptreihen beinhaltet, von denen eine probabilistischen Modellen und die zweite Stichprobendaten entspricht. Leider wird in einer Reihe literarischer Quellen, die meist veraltet oder im Geiste eines Rezepts verfasst sind, nicht zwischen Stichproben- und theoretischen Merkmalen unterschieden, was beim Leser zu Verwirrung und Fehlern bei der praktischen Anwendung statistischer Methoden führt.

Methoden zur Entscheidungsfindung unter Risikobedingungen werden auch im Rahmen der sogenannten Theorie statistischer Entscheidungen entwickelt und begründet. Die statistische Entscheidungstheorie ist eine Theorie des Dirigierens statistische Beobachtungen, diese Beobachtungen verarbeiten und nutzen. Die Aufgabe der Wirtschaftsforschung besteht bekanntlich darin, die Natur eines Wirtschaftsgegenstandes zu verstehen und den Mechanismus der Beziehung zwischen seinen wichtigsten Variablen aufzudecken. Dieses Verständnis ermöglicht uns die Entwicklung und Umsetzung Notwendige Maßnahmen für die Leitung dieser Einrichtung, oder Wirtschaftspolitik. Dazu benötigen wir aufgabenadäquate Methoden, die die Art und Spezifität ökonomischer Daten berücksichtigen, die als Grundlage für qualitative und quantitative Aussagen über den untersuchten Wirtschaftsgegenstand oder das untersuchte Wirtschaftsphänomen dienen.

Alle Wirtschaftsdaten stellen quantitative Merkmale beliebiger Wirtschaftsobjekte dar. Sie entstehen unter dem Einfluss vieler Faktoren, von denen nicht alle einer externen Kontrolle zugänglich sind. Unkontrollierbare Faktoren können zufällige Werte aus einer Reihe von Werten annehmen und dadurch dazu führen, dass die von ihnen definierten Daten zufällig sind. Der stochastische Charakter von Wirtschaftsdaten erfordert für ihre Analyse und Verarbeitung den Einsatz spezieller, ihnen adäquater statistischer Methoden.

Eine quantitative Einschätzung des Geschäftsrisikos, unabhängig vom Inhalt einer konkreten Aufgabe, ist in der Regel mit Methoden der mathematischen Statistik möglich. Die Hauptwerkzeuge dieser Bewertungsmethode sind Streuung, Standardabweichung und Variationskoeffizient.

Typische Designs, die auf Messungen der Variabilität oder Wahrscheinlichkeit von Risikobedingungen basieren, werden in Anwendungen häufig verwendet. So werden finanzielle Risiken, die durch Schwankungen des Ergebnisses um den Erwartungswert, beispielsweise die Effizienz, entstehen, anhand der Streuung bzw. der erwarteten absoluten Abweichung vom Durchschnitt bewertet. Bei Kapitalmanagementproblemen ist die Wahrscheinlichkeit von Verlusten oder Einkommensverlusten im Vergleich zur prognostizierten Option ein gängiges Maß für den Risikograd.

Um die Größe des Risikos (Risikograd) einzuschätzen, konzentrieren wir uns auf die folgenden Kriterien:

  • 1) durchschnittlicher Erwartungswert;
  • 2) Schwankung (Variabilität) des möglichen Ergebnisses.

Für statistische Stichproben

Wo Xj - Erwartungswert für jeden Beobachtungsfall (/" = 1, 2,...), l, - Anzahl der Beobachtungsfälle (Häufigkeit) Wert l:, x=E - durchschnittlicher Erwartungswert, st - Varianz,

V - Variationskoeffizient, wir haben:

Betrachten wir das Problem der Risikobewertung bei Geschäftsverträgen. Interproduct LLC beschließt, einen Vertrag über die Lieferung von Lebensmitteln aus einer von drei Stützpunkten abzuschließen. Nach der Erhebung der Daten zu den Zahlungsbedingungen für Waren durch diese Stützpunkte (Tabelle 6.7) ist es nach Risikobewertung erforderlich, beim Abschluss eines Vertrags über die Lieferung von Produkten die Stützstelle auszuwählen, die die Waren in kürzester Zeit bezahlt .

Tabelle 6.7

Zahlungsbedingungen in Tagen

Anzahl der beobachteten Fälle P

PS

(x-x)

(x-x ) 2

(x-x) 2 S

Für die erste Basis, basierend auf Formeln (6.4.1):

Für zweite Basis

Für die dritte Basis

Der Variationskoeffizient für die erste Basis ist am kleinsten, was auf die Zweckmäßigkeit des Abschlusses eines Produktliefervertrags mit dieser Basis hinweist.

Die betrachteten Beispiele zeigen, dass das Risiko eine mathematisch ausgedrückte Verlustwahrscheinlichkeit aufweist, die auf statistischen Daten basiert und mit einem relativ hohen Maß an Genauigkeit berechnet werden kann. Bei der Auswahl der akzeptablen Lösung wurde die Regel der optimalen Ergebniswahrscheinlichkeit verwendet, die darin besteht, aus den möglichen Lösungen diejenige auszuwählen, bei der die Ergebniswahrscheinlichkeit für den Unternehmer akzeptabel ist.

In der Praxis wird die Anwendung der Regel der optimalen Wahrscheinlichkeit eines Ergebnisses üblicherweise mit der Regel der optimalen Variabilität des Ergebnisses kombiniert.

Bekanntlich wird die Variabilität von Indikatoren durch deren Streuung, Standardabweichung und Variationskoeffizient ausgedrückt. Der Kern der Regel der optimalen Ergebnisschwankung besteht darin, dass aus den möglichen Lösungen diejenige ausgewählt wird, bei der die Gewinn- und Verlustwahrscheinlichkeiten bei gleicher riskanter Kapitalanlage eine kleine Lücke aufweisen, d.h. der kleinste Varianzbetrag, die Standardabweichung der Variation. Bei den betrachteten Problemen erfolgte die Auswahl optimaler Lösungen anhand dieser beiden Regeln.

abhängig von der Art der Daten „am Eingang“:

2.1. Zahlen.

2.2. Endlichdimensionale Vektoren.

2.3. Funktionen (Zeitreihen).

2.4. Objekte nicht numerischer Natur.

Die interessanteste Klassifizierung basiert auf den Kontrollproblemen, für die ökonometrische Methoden verwendet werden. Mit diesem Ansatz können Blöcke zugewiesen werden:

3.1. Unterstützen Sie Prognosen und Planungen.

3.2. Verfolgung kontrollierte Parameter und Anomalieerkennung.

3.3. Unterstützung Entscheidungsfindung, usw.

Welche Faktoren bestimmen die Einsatzhäufigkeit bestimmter ökonometrischer Controlling-Instrumente? Wie bei anderen Anwendungen der Ökonometrie gibt es zwei Hauptgruppen von Faktoren – die zu lösenden Aufgaben und die Qualifikation der Fachkräfte.

Bei praktische AnwendungÖkonometrische Methoden im Betrieb des Controllers müssen entsprechend angewendet werden Softwaresysteme. Allgemeine statistische Systeme wie SPSS, Statgraphics, Statistica, ADDA und spezialisierter Statcon, SPC, NADIS, REST(laut Intervalldatenstatistik), Matrixer und viele andere. Masseneinführung von einfach zu bedienenden Softwareprodukte, einschließlich moderner ökonometrischer Werkzeuge zur Analyse spezifischer Wirtschaftsdaten, kann als eines davon angesehen werden effektive Wege Beschleunigung wissenschaftlicher und technischer Fortschritt, Verbreitung modernen ökonometrischen Wissens.

Die Ökonometrie entwickelt sich ständig weiter. Angewandte Forschung führt zu der Notwendigkeit einer tiefergehenden Analyse klassischer Methoden.

Ein gutes Beispiel zur Diskussion sind Methoden zum Testen der Homogenität zweier Proben. Es gibt zwei Aggregate, und wir müssen entscheiden, ob sie unterschiedlich oder gleich sind. Dazu wird jeweils eine Probe entnommen und mit der einen oder anderen statistischen Methode die Homogenität überprüft. Vor etwa 100 Jahren wurde die Student-Methode vorgeschlagen, die auch heute noch weit verbreitet ist. Allerdings weist es eine ganze Reihe von Mängeln auf. Erstens müssen laut Student die Verteilungen der Stichprobenelemente normal (Gauß) sein. Dies ist in der Regel nicht der Fall. Zweitens zielt es nicht darauf ab, die Homogenität im Allgemeinen zu überprüfen (die sogenannte absolute Homogenität, d. h. die Übereinstimmung der Verteilungsfunktionen, die zwei Populationen entsprechen), sondern nur die Gleichheit der mathematischen Erwartungen zu überprüfen. Aber drittens wird zwangsläufig davon ausgegangen, dass die Varianzen für die Elemente der beiden Stichproben übereinstimmen. Die Überprüfung der Varianzgleichheit und insbesondere der Normalität ist jedoch viel schwieriger als die Überprüfung der Gleichheit mathematischer Erwartungen. Daher wird der Student-t-Test normalerweise ohne solche Prüfungen verwendet. Und dann hängen die Schlussfolgerungen, die auf dem Kriterium des Schülers basieren, in der Luft.

Theoretisch fortgeschrittenere Spezialisten greifen auf andere Kriterien zurück, beispielsweise auf den Wilcoxon-Test. Es ist nichtparametrisch, d. h. beruht nicht auf der Annahme der Normalität. Aber es ist nicht ohne Mängel. Es kann nicht zur Überprüfung der absoluten Homogenität (Übereinstimmung der Verteilungsfunktionen zweier Populationen) verwendet werden. Dies kann nur mit dem sogenannten erfolgen. konsistente Kriterien, insbesondere die Smirnov-Kriterien und der Omega-Quadrat-Typ.

Aus praktischer Sicht hat das Smirnov-Kriterium einen Nachteil: Seine Statistiken nehmen nur eine kleine Anzahl von Werten an, seine Verteilung ist auf eine kleine Anzahl von Punkten konzentriert und es ist nicht möglich, die traditionellen Signifikanzniveaus von 0,05 und 0,01 zu verwenden .

Der Begriff „hohe statistische Technologien“. Im Begriff „hohe statistische Technologien“ hat jedes der drei Wörter seine eigene Bedeutung.

„Hoch“ bedeutet wie in anderen Bereichen, dass die Technologie auf modernen Errungenschaften in Theorie und Praxis, insbesondere der Wahrscheinlichkeitstheorie und der angewandten mathematischen Statistik, basiert. Dabei bedeutet „basierend auf modernen wissenschaftlichen Errungenschaften“ erstens, dass die mathematischen Grundlagen der Technologie im Rahmen der jeweiligen wissenschaftlichen Disziplin erst vor relativ kurzer Zeit erlangt wurden, und zweitens, dass die Berechnungsalgorithmen entsprechend entwickelt und begründet wurden es (und sind nicht die sogenannte „Heuristik“). Wenn neue Ansätze und Ergebnisse im Laufe der Zeit nicht dazu zwingen, die Bewertung der Anwendbarkeit und Leistungsfähigkeit der Technologie zu überdenken oder sie durch eine modernere zu ersetzen, wird aus „hochökonometrischer Technologie“ eine „klassische statistische Technologie“. Wie zum Beispiel Methode der kleinsten Quadrate. Hochmoderne statistische Technologien sind also die Früchte der jüngsten Entwicklung wissenschaftliche Forschung. Hier sind es zwei Schlüssel Konzepte- die „Jugend“ der Technologie (auf jeden Fall nicht älter als 50 Jahre und besser nicht älter als 10 oder 30 Jahre) und das Vertrauen auf „hohe Wissenschaft“.

Der Begriff „statistisch“ ist bekannt, hat aber viele Schattierungen. Für den Begriff „Statistik“ gibt es mehr als 200 Definitionen.

Schließlich wird der Begriff „Technologie“ im Zusammenhang mit Statistiken relativ selten verwendet. Die Datenanalyse umfasst typischerweise eine Reihe von Verfahren und Algorithmen, die nacheinander, parallel oder auf komplexere Weise ausgeführt werden. Insbesondere lassen sich folgende typische Stadien unterscheiden:

  • Planung einer statistischen Studie;
  • Organisation der Datenerhebung nach einem optimalen oder zumindest rationalen Programm (Probenahmeplanung, Erstellung). organisatorische Struktur und Auswahl eines Spezialistenteams, Schulung des Personals, das die Daten sammelt, sowie der Datenverantwortlichen usw.);
  • direkte Erhebung von Daten und deren Aufzeichnung auf bestimmten Medien (mit Qualitätskontrolle der Erhebung und Ablehnung fehlerhafter Daten aus Gründen des Fachgebiets);
  • primäre Beschreibung von Daten (Berechnung verschiedener Probenmerkmale, Verteilungsfunktionen, nichtparametrische Dichteschätzungen, Erstellung von Histogrammen, Korrelationsfeldern, verschiedenen Tabellen und Diagrammen usw.),
  • Bewertung bestimmter numerischer oder nichtnumerischer Merkmale und Parameter von Verteilungen (z. B. nichtparametrische Intervallschätzung des Variationskoeffizienten oder Wiederherstellung der Beziehung zwischen Antwort und Faktoren, d. h. Funktionsschätzung),
  • Testen statistischer Hypothesen (manchmal ihrer Ketten – nach dem Testen der vorherigen Hypothese wird entschieden, die eine oder andere nachfolgende Hypothese zu testen),
  • vertiefteres Studium, d.h. Anwendung verschiedener Algorithmen für multivariate statistische Analysen, Diagnose- und Klassifizierungsalgorithmen, Statistik nichtnumerischer Daten und Intervalldaten, Zeitreihenanalyse usw.;
  • Überprüfung der Stabilität der erhaltenen Schätzungen und Rückschlüsse auf zulässige Abweichungen der Ausgangsdaten und der Prämissen der verwendeten probabilistisch-statistischen Modelle, zulässige Transformationen von Messskalen, insbesondere Untersuchung der Eigenschaften von Schätzungen durch die Methode der Stichprobenmultiplikation ;
  • Anwendung der gewonnenen statistischen Ergebnisse für Anwendungszwecke (z. B. zur Diagnose bestimmter Materialien, Erstellung von Prognosen, Auswahl). Investitionsprojekt Finden Sie anhand der vorgeschlagenen Optionen den optimalen Modus für die Umsetzung des technologischen Prozesses und fassen Sie die Ergebnisse der Probenprüfung zusammen technische Geräte usw.),
  • Erstellung von Abschlussberichten, insbesondere für diejenigen, die keine Spezialisten für ökonometrische und statistische Methoden der Datenanalyse sind, einschließlich für das Management – ​​„Entscheidungsträger“.

Eine andere Strukturierung statistischer Technologien ist möglich. Es ist wichtig zu betonen, dass der qualifizierte und effektive Einsatz statistischer Methoden keineswegs ein Test einer einzelnen statistischen Hypothese oder eine Bewertung der Parameter einer bestimmten Verteilung aus einer festen Familie ist. Diese Art von Operationen sind lediglich die Bausteine ​​der statistischen Technologie. Mittlerweile geht es in Lehrbüchern und Monographien zu Statistik und Ökonometrie meist um einzelne Bausteine, aber nicht um die Probleme ihrer Organisation in einer für den Anwendungsbereich vorgesehenen Technologie. Der Übergang von einem statistischen Verfahren zum anderen bleibt im Schatten.

Das Problem der „Verknüpfung“ statistischer Algorithmen erfordert besondere Aufmerksamkeit, da durch die Verwendung des vorherigen Algorithmus häufig die Anwendbarkeitsbedingungen des nachfolgenden Algorithmus verletzt werden. Insbesondere können Beobachtungsergebnisse ihre Unabhängigkeit verlieren, ihre Verteilung kann sich ändern usw.

Beim Testen statistischer Hypothesen sind beispielsweise Signifikanzniveau und Aussagekraft von großer Bedeutung. Methoden zu deren Berechnung und deren Verwendung zum Testen einer einzelnen Hypothese sind in der Regel gut bekannt. Wenn zunächst eine Hypothese getestet wird und dann unter Berücksichtigung der Ergebnisse ihrer Prüfung eine zweite, dann weist das endgültige Verfahren, das auch als Prüfung einer (komplexeren) statistischen Hypothese angesehen werden kann, Merkmale (Signifikanzniveau usw.) auf Potenz), die sich in der Regel nicht einfach durch die Merkmale der beiden Teilhypothesen ausdrücken lässt und daher meist unbekannt ist. Das endgültige Verfahren kann daher nicht als wissenschaftlich fundiert angesehen werden, sondern bezieht sich auf heuristische Algorithmen. Natürlich kann es nach entsprechender Untersuchung, beispielsweise mit der Monte-Carlo-Methode, zu einem der wissenschaftlich fundierten Verfahren der angewandten Statistik werden.

Das Verfahren zur ökonometrischen oder statistischen Datenanalyse ist also eine Information technologischer Prozess , mit anderen Worten, die eine oder andere Informationstechnologie. Von einer Automatisierung des gesamten Prozesses der ökonometrischen (statistischen) Datenanalyse zu sprechen, wäre derzeit leichtsinnig, da es zu viele ungelöste Probleme gibt, die unter Fachleuten für Diskussionen sorgen.

Das gesamte Arsenal derzeit verwendeter statistischer Methoden lässt sich in drei Bereiche unterteilen:

  • hohe statistische Technologien;
  • klassische statistische Technologien,
  • geringe statistische Technologien.

Es muss sichergestellt werden, dass in konkreten Studien nur die ersten beiden Arten von Technologien eingesetzt werden. Gleichzeitig verstehen wir unter klassischen statistischen Technologien Technologien von ehrwürdigem Alter, die ihren wissenschaftlichen Wert und ihre Bedeutung für die moderne statistische Praxis bewahrt haben. Diese sind Methode der kleinsten Quadrate, Kolmogorov, Smirnov-Statistik, Omega-Quadrat, nichtparametrische Spearman- und Kendall-Korrelationskoeffizienten und viele andere.

Wir haben eine Größenordnung weniger Ökonometriker als in den USA und Großbritannien (die American Statistical Association hat mehr als 20.000 Mitglieder). Russland braucht die Ausbildung neuer Fachkräfte – Ökonometriker.

Welche neuen wissenschaftlichen Ergebnisse auch immer erzielt werden, wenn sie den Studierenden unbekannt bleiben, ist eine neue Generation von Forschern und Ingenieuren gezwungen, sie im Alleingang zu meistern oder sie sogar wiederzuentdecken. Etwas grob ausgedrückt kann man sagen: jene Ansätze, Ideen, Ergebnisse, Fakten, Algorithmen, die in Schulungen und dem dazugehörigen Programm eingeflossen sind Lehrmittel- werden von Nachkommen gespeichert und genutzt, diejenigen, die nicht einbezogen werden, verschwinden im Staub der Bibliotheken.

Wachstumspunkte. Da sind fünf aktuelle Entwicklungen, in dem moderne angewandte Statistik entwickelt wird, d.h. fünf „Wachstumspunkte“: Nichtparametrik, Robustheit, Bootstrap, Intervallstatistik, Statistik von Objekten nichtnumerischer Natur. Lassen Sie uns kurz auf diese aktuellen Trends eingehen.

Nichtparametrische oder nichtparametrische Statistiken ermöglichen es Ihnen, statistische Schlussfolgerungen zu ziehen, Verteilungsmerkmale zu bewerten und statistische Hypothesen zu testen, ohne schwach begründete Annahmen, dass die Verteilungsfunktion von Stichprobenelementen Teil einer bestimmten Parameterfamilie ist. Beispielsweise ist die Annahme weit verbreitet, dass Statistiken häufig einer Normalverteilung folgen. Eine Analyse spezifischer Beobachtungsergebnisse, insbesondere von Messfehlern, zeigt jedoch, dass in den allermeisten Fällen reale Verteilungen deutlich von normalen abweichen. Die unkritische Verwendung der Normalitätshypothese führt häufig zu erheblichen Fehlern, beispielsweise bei der Ablehnung von Ausreißern, bei der statistischen Qualitätskontrolle und in anderen Fällen. Daher empfiehlt es sich, nichtparametrische Methoden zu verwenden, bei denen nur sehr geringe Anforderungen an die Verteilungsfunktionen von Beobachtungsergebnissen gestellt werden. Normalerweise wird nur deren Kontinuität angenommen. Mit nichtparametrischen Methoden ist es heute möglich, nahezu die gleiche Bandbreite an Problemen zu lösen, die zuvor mit parametrischen Methoden gelöst wurden.

Der Grundgedanke der Arbeit zur Robustheit (Stabilität): Die Schlussfolgerungen sollten sich bei kleinen Änderungen der Ausgangsdaten und Abweichungen von den Modellannahmen kaum ändern. Hier gibt es zwei Aufgabenkomplexe. Eine besteht darin, die Robustheit gängiger Data-Mining-Algorithmen zu untersuchen. Die zweite ist die Suche nach robusten Algorithmen zur Lösung bestimmter Probleme.

Der Begriff „Robustheit“ selbst hat keine klare Bedeutung. Es ist immer erforderlich, ein bestimmtes probabilistisch-statistisches Modell anzugeben. Allerdings ist das „Verstopfungs“-Modell von Tukey-Huber-Hampel in der Regel nicht von praktischem Nutzen. Der Schwerpunkt liegt auf der „Gewichtung der Enden“, und in realen Situationen werden „Enden abgeschnitten“ durch a priori Einschränkungen der Ergebnisse von Beobachtungen, die beispielsweise mit den verwendeten Messgeräten verbunden sind.

Bootstrap ist ein Zweig der nichtparametrischen Statistik, der auf intensiver Nutzung beruht Informationstechnologien. Die Grundidee besteht darin, „Samples“ zu „multiplizieren“, d. h. bei der Gewinnung einer Reihe von vielen Proben, die denen im Experiment ähneln. Mit diesem Satz können die Eigenschaften verschiedener statistischer Verfahren bewertet werden. Der einfachste Weg„Stichprobenmultiplikation“ besteht darin, ein Beobachtungsergebnis daraus auszuschließen. Wenn wir die erste Beobachtung ausschließen, erhalten wir eine Stichprobe ähnlich der ursprünglichen, jedoch mit einer um 1 reduzierten Größe. Dann geben wir das ausgeschlossene Ergebnis der ersten Beobachtung zurück, schließen aber die zweite Beobachtung aus. Wir erhalten ein zweites Muster, ähnlich dem Original. Dann geben wir das Ergebnis der zweiten Beobachtung zurück und so weiter. Es gibt andere Möglichkeiten, „Samples zu reproduzieren“. Sie können beispielsweise die ursprüngliche Stichprobe verwenden, um die eine oder andere Schätzung der Verteilungsfunktion zu erstellen, und dann statistische Tests verwenden, um eine Reihe von Stichproben aus Elementen zu simulieren in der angewandten Statistik handelt es sich um eine Stichprobe, d.h. eine Sammlung unabhängiger, identisch verteilter Zufallselemente. Was ist die Natur dieser Elemente? In der klassischen mathematischen Statistik sind Stichprobenelemente Zahlen oder Vektoren. Und in der nicht-numerischen Statistik sind Stichprobenelemente Objekte nicht-numerischer Natur, die nicht mit Zahlen addiert und multipliziert werden können. Mit anderen Worten: Objekte nichtnumerischer Natur liegen in Räumen, die keine Vektorstruktur haben.