Methoden zur Entscheidungsfindung im Management. Probabilistische und statistische Entscheidungsmodelle Management-Entscheidungsmethoden

je nachdem, welche Art von Daten „am Eingang“ vorliegen:

2.1. Zahlen.

2.2. Endlichdimensionale Vektoren.

2.3. Funktionen (Zeitreihen).

2.4. Objekte nicht numerischer Natur.

Die interessanteste Einteilung erfolgt nach den Aufgaben des Controllings, zu deren Lösung ökonometrische Methoden eingesetzt werden. Mit diesem Ansatz können Blöcke zugewiesen werden:

3.1. Unterstützung bei Prognosen und Planungen.

3.2. Verfolgung kontrollierte Parameter und Erkennung von Abweichungen.

3.3. Unterstützung Entscheidungsfindung, usw.

Welche Faktoren bestimmen die Häufigkeit des Einsatzes bestimmter ökonometrischer Controlling-Instrumente? Wie bei anderen Anwendungen der Ökonometrie gibt es zwei Hauptgruppen von Faktoren: die zu lösenden Aufgaben und die Qualifikation der Fachkräfte.

Bei praktische Anwendung Um ökonometrische Methoden im Betrieb des Controllers anzuwenden, ist es notwendig, die entsprechenden anzuwenden Softwaresysteme. Allgemeine statistische Systeme wie SPSS, Statgraphics, Statistica, ADDA und spezialisierter Statcon, SPC, NADIS, REST(laut Statistik der Intervalldaten), Matrixer und viele andere. Masseneinführung von einfach zu bedienenden Produkten Softwareprodukte, die moderne ökonometrische Werkzeuge zur Analyse spezifischer Wirtschaftsdaten umfassen, können als eines davon angesehen werden effektive Wege Beschleunigung wissenschaftlicher und technischer Fortschritt, Verbreitung modernen ökonometrischen Wissens.

Die Ökonometrie entwickelt sich ständig weiter. Angewandte Forschung führt zu der Notwendigkeit einer tiefergehenden Analyse klassischer Methoden.

Ein gutes Beispiel zur Diskussion sind Methoden zur Prüfung der Homogenität zweier Proben. Es gibt zwei Aggregate, und es muss entschieden werden, ob sie unterschiedlich oder gleich sind. Dazu wird jeweils eine Probe entnommen und die eine oder andere Methode angewendet. statistische Methode Homogenitätsprüfungen. Vor etwa 100 Jahren wurde die Student-Methode vorgeschlagen, die heute weit verbreitet ist. Allerdings weist es eine ganze Reihe von Mängeln auf. Erstens müssen laut Student die Stichprobenverteilungen normal (Gauß) sein. Dies ist in der Regel nicht der Fall. Zweitens zielt es darauf ab, nicht die Homogenität im Allgemeinen zu überprüfen (die sogenannte absolute Homogenität, d. h. die Übereinstimmung der Verteilungsfunktionen, die zwei Populationen entsprechen), sondern nur die Gleichheit der mathematischen Erwartungen. Aber drittens wird zwangsläufig davon ausgegangen, dass die Varianzen für die Elemente der beiden Stichproben gleich sind. Die Überprüfung der Varianzgleichheit und noch mehr der Normalität ist jedoch viel schwieriger als die Überprüfung der mathematischen Erwartungen. Daher wird der Student-t-Test normalerweise ohne solche Prüfungen angewendet. Und dann hängen die Schlussfolgerungen nach dem Kriterium des Studenten in der Luft.

In der Theorie weiter fortgeschritten, wenden sich Experten anderen Kriterien zu, beispielsweise dem Wilcoxon-Kriterium. Es ist nichtparametrisch, d. h. beruht nicht auf der Annahme der Normalität. Aber er ist nicht ohne Mängel. Es kann nicht zur Überprüfung der absoluten Homogenität (Übereinstimmung der Verteilungsfunktionen zweier Populationen) verwendet werden. Dies kann nur mit Hilfe der sogenannten erfolgen. konsistente Kriterien, insbesondere die Smirnov-Kriterien und der Omega-Quadrat-Typ.

Aus praktischer Sicht hat das Smirnov-Kriterium einen Nachteil: Seine Statistik nimmt nur eine kleine Anzahl von Werten an, seine Verteilung ist auf eine kleine Anzahl von Punkten konzentriert und es ist nicht möglich, die traditionellen Signifikanzniveaus von 0,05 und 0,01 zu verwenden .

Der Begriff „hohe statistische Technologien“. Im Begriff „hohe statistische Technologien“ hat jedes der drei Wörter seine eigene Bedeutung.

„Hoch“ bedeutet wie in anderen Bereichen, dass die Technologie auf modernen Errungenschaften in Theorie und Praxis, insbesondere der Wahrscheinlichkeitstheorie und der angewandten mathematischen Statistik, basiert. Dabei bedeutet „basierend auf modernen wissenschaftlichen Errungenschaften“ erstens, dass die mathematischen Grundlagen der Technologie im Rahmen der jeweiligen wissenschaftlichen Disziplin erst vor relativ kurzer Zeit erlangt wurden und zweitens, dass die Berechnungsalgorithmen in entwickelt und begründet wurden entsprechend (und sind nicht sog. „heuristisch“). Wenn uns neue Ansätze und Ergebnisse im Laufe der Zeit nicht dazu zwingen, die Bewertung der Anwendbarkeit und Leistungsfähigkeit der Technologie zu überdenken und sie durch eine modernere zu ersetzen, wird aus „hochökonometrischer Technologie“ eine „klassische statistische Technologie“. Wie zum Beispiel Methode der kleinsten Quadrate. Hochmoderne statistische Technologien sind also das Ergebnis jüngster ernsthafter wissenschaftlicher Forschung. Hier sind zwei Schlüssel Konzepte- „junge“ Technologie (auf jeden Fall nicht älter als 50 Jahre und besser – nicht älter als 10 oder 30 Jahre) und Vertrauen auf „hohe Wissenschaft“.

Der Begriff „statistisch“ ist bekannt, hat aber viele Bedeutungen. Für den Begriff „Statistik“ sind mehr als 200 Definitionen bekannt.

Schließlich wird der Begriff „Technologie“ im Zusammenhang mit Statistiken relativ selten verwendet. Die Datenanalyse umfasst in der Regel eine Reihe von Verfahren und Algorithmen, die nacheinander, parallel oder in einem komplexeren Schema ausgeführt werden. Insbesondere lassen sich folgende typische Stadien unterscheiden:

  • Planung einer statistischen Studie;
  • Organisation der Datenerhebung nach einem optimalen oder zumindest rationalen Programm (Probenahmeplanung, Erstellung). organisatorische Struktur und Auswahl eines Spezialistenteams, Schulung des Personals, das mit der Datenerfassung befasst ist, sowie der Datenverantwortlichen usw.);
  • direkte Erhebung von Daten und deren Fixierung auf verschiedenen Medien (mit Qualitätskontrolle der Erhebung und Ablehnung fehlerhafter Daten aus Gründen des Fachgebiets);
  • primäre Beschreibung von Daten (Berechnung verschiedener Probenmerkmale, Verteilungsfunktionen, nichtparametrische Dichteschätzungen, Erstellung von Histogrammen, Korrelationsfeldern, verschiedenen Tabellen und Diagrammen usw.),
  • Schätzung bestimmter numerischer oder nichtnumerischer Merkmale und Parameter von Verteilungen (z. B. nichtparametrische Intervallschätzung des Variationskoeffizienten oder Wiederherstellung der Beziehung zwischen Antwort und Faktoren, d. h. Funktionsschätzung),
  • Testen statistischer Hypothesen (manchmal ihrer Ketten – nach dem Testen der vorherigen Hypothese wird entschieden, die eine oder andere nachfolgende Hypothese zu testen),
  • vertiefteres Studium, d.h. die Verwendung verschiedener Algorithmen für multivariate statistische Analysen, Diagnose- und Klassifizierungsalgorithmen, Statistiken nichtnumerischer Daten und Intervalldaten, Zeitreihenanalysen usw.;
  • Überprüfung der Stabilität der erhaltenen Schätzungen und Schlussfolgerungen hinsichtlich der zulässigen Abweichungen der Ausgangsdaten und der Annahmen der verwendeten probabilistisch-statistischen Modelle, der zulässigen Transformationen der Messskalen, insbesondere der Untersuchung der Eigenschaften der Schätzungen durch die Methode der Stichprobenmultiplikation;
  • Anwendung der erhaltenen statistischen Ergebnisse für angewandte Zwecke (z. B. zur Diagnose bestimmter Materialien, zur Erstellung von Vorhersagen, zur Auswahl). Investitionsprojekt der vorgeschlagenen Optionen, Finden des optimalen Modus für die Umsetzung des technologischen Prozesses, Zusammenfassung der Ergebnisse der Testproben technische Geräte usw.),
  • Erstellung von Abschlussberichten, insbesondere für diejenigen, die keine Spezialisten für ökonometrische und statistische Methoden der Datenanalyse sind, einschließlich für das Management – ​​„Entscheidungsträger“.

Eine andere Strukturierung statistischer Technologien ist möglich. Es ist wichtig zu betonen, dass die qualifizierte und effiziente Anwendung statistischer Methoden keineswegs das Testen einer einzelnen statistischen Hypothese oder die Schätzung der Parameter einer bestimmten Verteilung aus einer festen Familie ist. Diese Art Operationen sind lediglich die Bausteine ​​der statistischen Technologie. Mittlerweile geht es in Lehrbüchern und Monographien zu Statistik und Ökonometrie meist um einzelne Bausteine, nicht aber um die Probleme ihrer Organisation in eine für den Anwendungsbereich vorgesehene Technologie. Der Übergang von einem statistischen Verfahren zum anderen bleibt im Schatten.

Das Problem des „Matchings“ statistischer Algorithmen erfordert besondere Aufmerksamkeit, da die Verwendung des vorherigen Algorithmus häufig die Anwendbarkeitsbedingungen für den nächsten verletzt. Insbesondere können Beobachtungsergebnisse ihre Unabhängigkeit verlieren, ihre Verteilung kann sich ändern usw.

Beim Testen statistischer Hypothesen sind beispielsweise das Signifikanzniveau und die Aussagekraft von großer Bedeutung. Die Methoden, sie zu berechnen und zum Testen einer Hypothese zu verwenden, sind in der Regel gut bekannt. Wenn zunächst eine Hypothese getestet wird und dann unter Berücksichtigung der Ergebnisse ihrer Überprüfung die zweite, dann weist das endgültige Verfahren, das auch als Test einer (komplexeren) statistischen Hypothese betrachtet werden kann, Merkmale (Signifikanzniveau) auf und Potenz), die in der Regel nicht einfach durch die Merkmale der beiden Teilhypothesen ausgedrückt werden können und daher normalerweise unbekannt sind. Daher kann das endgültige Verfahren nicht als wissenschaftlich fundiert angesehen werden, sondern gehört zu den heuristischen Algorithmen. Natürlich kann es nach entsprechender Untersuchung, beispielsweise nach der Monte-Carlo-Methode, zu einem der wissenschaftlich fundierten Verfahren der angewandten Statistik werden.

Das Verfahren der ökonometrischen oder statistischen Datenanalyse ist also informativ technologischer Prozess mit anderen Worten, diese oder jene Informationstechnologie. Es wäre derzeit nicht seriös, über eine Automatisierung des gesamten Prozesses der ökonometrischen (statistischen) Datenanalyse zu sprechen, da es zu viele ungelöste Probleme gibt, die unter Fachleuten für Diskussionen sorgen.

Das gesamte Arsenal derzeit verwendeter statistischer Methoden lässt sich in drei Bereiche unterteilen:

  • hohe statistische Technologien;
  • klassische statistische Technologien,
  • geringe statistische Technologien.

Es muss sichergestellt werden, dass in konkreten Studien nur die ersten beiden Arten von Technologien eingesetzt werden.. Gleichzeitig verstehen wir unter klassischen statistischen Technologien Technologien von ehrwürdigem Alter, die ihren wissenschaftlichen Wert und ihre Bedeutung für die moderne statistische Praxis bewahrt haben. Diese sind Methode der kleinsten Quadrate, Statistiken von Kolmogorov, Smirnov, Omega-Quadrat, nichtparametrische Korrelationskoeffizienten von Spearman und Kendall und viele andere.

Wir haben eine Größenordnung weniger Ökonomen als in den Vereinigten Staaten und Großbritannien (die American Statistical Association umfasst mehr als 20.000 Mitglieder). Russland braucht die Ausbildung neuer Fachkräfte – Ökonometriker.

Welche neuen wissenschaftlichen Ergebnisse auch immer erzielt werden, wenn sie den Studierenden unbekannt bleiben, ist eine neue Generation von Forschern und Ingenieuren gezwungen, sie im Alleingang zu meistern oder sie sogar wiederzuentdecken. Etwas vergröbert kann man das so sagen: jene Ansätze, Ideen, Ergebnisse, Fakten, Algorithmen, die in den Schulungen und den entsprechenden enthalten waren Studienführer- werden von Nachkommen gespeichert und genutzt, diejenigen, die sie nicht erhalten haben - verschwinden im Staub der Bibliotheken.

Wachstumspunkte. Weisen Sie fünf zu aktuelle Entwicklungen, in dem moderne angewandte Statistik entwickelt wird, d.h. fünf „Wachstumspunkte“: Nichtparametrik, Robustheit, Bootstrap, Intervallstatistik, Statistik von Objekten nichtnumerischer Natur. Lassen Sie uns kurz auf diese aktuellen Trends eingehen.

Nichtparametrische oder nichtparametrische Statistiken ermöglichen es Ihnen, statistische Schlussfolgerungen zu ziehen, Verteilungsmerkmale zu bewerten und statistische Hypothesen zu testen, ohne schwach begründete Annahmen darüber, dass die Verteilungsfunktion der Stichprobenelemente in der einen oder anderen Parameterfamilie enthalten ist. Beispielsweise ist die Annahme weit verbreitet, dass Statistiken häufig einer Normalverteilung folgen. Eine Analyse der konkreten Beobachtungsergebnisse, insbesondere der Messfehler, zeigt jedoch, dass die realen Verteilungen in den allermeisten Fällen deutlich von den Normalverteilungen abweichen. Die unkritische Verwendung der Normalitätshypothese führt häufig zu erheblichen Fehlern, beispielsweise bei der Ablehnung von Ausreißern von Beobachtungen (Ausreißern), bei der statistischen Qualitätskontrolle und in anderen Fällen. Daher ist es sinnvoll, nichtparametrische Methoden zu verwenden, bei denen nur sehr geringe Anforderungen an die Verteilungsfunktionen der Beobachtungsergebnisse gestellt werden. Normalerweise wird nur deren Kontinuität angenommen. Mit Hilfe nichtparametrischer Methoden ist es heute möglich, nahezu das gleiche Problemspektrum zu lösen, das zuvor mit parametrischen Methoden gelöst wurde.

Die Grundidee der Arbeiten zur Robustheit (Stabilität): Die Schlussfolgerungen sollten sich bei kleinen Änderungen in den Ausgangsdaten und Abweichungen von den Annahmen des Modells kaum ändern. Hier gibt es zwei Bereiche, die Anlass zur Sorge geben. Eine besteht darin, die Robustheit gängiger Datenanalysealgorithmen zu untersuchen. Die zweite ist die Suche nach robusten Algorithmen zur Lösung bestimmter Probleme.

Der Begriff „Robustheit“ allein hat keine eindeutige Bedeutung. Es ist immer erforderlich, ein bestimmtes probabilistisch-statistisches Modell anzugeben. Gleichzeitig ist das „Verstopfungs“-Modell von Tukey-Huber-Hampel in der Regel nicht von praktischem Nutzen. Es orientiert sich an der „Gewichtung der Enden“, und in realen Situationen werden die „Enden“ durch a priori Einschränkungen der Beobachtungsergebnisse, die beispielsweise mit den verwendeten Messgeräten verbunden sind, abgeschnitten.

Bootstrap ist ein Zweig der nichtparametrischen Statistik, der auf dem intensiven Einsatz von Informationstechnologie basiert. Die Hauptidee besteht darin, „die Stichproben zu multiplizieren“, d. h. bei der Gewinnung einer Reihe von vielen Proben, die denen im Experiment ähneln. Mit diesem Satz können die Eigenschaften verschiedener statistischer Verfahren ausgewertet werden. Der einfachste Weg„Reproduktion der Stichprobe“ besteht darin, dass ein Ergebnis der Beobachtung aus der Stichprobe ausgeschlossen wird. Wenn wir die erste Beobachtung ausschließen, erhalten wir eine Stichprobe ähnlich der ursprünglichen, jedoch mit einem um 1 reduzierten Volumen. Dann geben wir das ausgeschlossene Ergebnis der ersten Beobachtung zurück, schließen aber die zweite Beobachtung aus. Wir erhalten ein zweites Muster, das dem Original ähnelt. Dann geben wir das Ergebnis der zweiten Beobachtung zurück und so weiter. Es gibt andere Möglichkeiten, Proben zu „multiplizieren“. Beispielsweise ist es möglich, die eine oder andere Schätzung der Verteilungsfunktion aus der Ausgangsstichprobe zu erstellen und dann mithilfe der Methode statistischer Tests eine Reihe von Stichproben von Elementen zu modellieren. in der angewandten Statistik handelt es sich um eine Stichprobe, d.h. eine Menge unabhängiger, identisch verteilter Zufallselemente. Was ist die Natur dieser Elemente? In der klassischen mathematischen Statistik sind die Elemente einer Stichprobe Zahlen oder Vektoren. Und in der nicht-numerischen Statistik sind die Elemente der Stichprobe Objekte nicht-numerischer Natur, die nicht mit Zahlen addiert und multipliziert werden können. Mit anderen Worten: Objekte nichtnumerischer Natur liegen in Räumen, die keine Vektorstruktur haben.

Entscheidungsmethoden unter Risikobedingungen werden auch im Rahmen der sogenannten statistischen Entscheidungstheorie entwickelt und begründet. Die statistische Entscheidungstheorie ist die Theorie des Dirigierens statistische Beobachtungen, Verarbeitung dieser Beobachtungen und deren Verwendung. Wie Sie wissen, besteht die Aufgabe der Wirtschaftsforschung darin, die Natur des Wirtschaftsobjekts zu verstehen und den Mechanismus der Beziehung zwischen seinen wichtigsten Variablen aufzudecken. Ein solches Verständnis ermöglicht die Entwicklung und Umsetzung der notwendigen Maßnahmen zur Verwaltung dieses Objekts, bzw Wirtschaftspolitik. Hierzu sind aufgabenadäquate Methoden erforderlich, die die Art und Spezifität der Wirtschaftsdaten berücksichtigen, die als Grundlage für qualitative und quantitative Aussagen über den untersuchten Wirtschaftsgegenstand oder das untersuchte Wirtschaftsphänomen dienen.

Alle Wirtschaftsdaten sind quantitative Merkmale beliebiger Wirtschaftsobjekte. Sie entstehen unter dem Einfluss vieler Faktoren, von denen nicht alle einer externen Kontrolle unterliegen. Unkontrollierbare Faktoren können zufällige Werte aus einer Wertemenge annehmen und dadurch die Zufälligkeit der von ihnen ermittelten Daten bewirken. Der stochastische Charakter von Wirtschaftsdaten erfordert für ihre Analyse und Verarbeitung den Einsatz spezieller, ihnen adäquater statistischer Methoden.

Eine quantitative Bewertung des unternehmerischen Risikos, unabhängig vom Inhalt einer bestimmten Aufgabe, ist in der Regel mit Methoden der mathematischen Statistik möglich. Die Hauptwerkzeuge dieser Schätzmethode sind Varianz, Standardabweichung und Variationskoeffizient.

Anwendungen nutzen in großem Umfang generische Konstrukte, die auf Maßen für die Variabilität oder Wahrscheinlichkeit riskanter Zustände basieren. Also, finanzielle Risiken, verursacht durch Schwankungen des Ergebnisses um den Erwartungswert, beispielsweise Effizienz, wird anhand der Varianz bzw. der erwarteten absoluten Abweichung vom Mittelwert geschätzt. Bei Money-Management-Problemen ist die Wahrscheinlichkeit eines Einkommensverlusts oder -ausfalls im Vergleich zur vorhergesagten Option ein übliches Maß für den Grad des Risikos.

Um die Größe des Risikos (Risikograd) einzuschätzen, konzentrieren wir uns auf die folgenden Kriterien:

  • 1) durchschnittlicher Erwartungswert;
  • 2) Schwankung (Variabilität) des möglichen Ergebnisses.

Für eine statistische Stichprobe

Wo Xj - Erwartungswert für jeden Beobachtungsfall (/" = 1, 2, ...), n, - Anzahl der Beobachtungsfälle (Häufigkeit) des Wertes n:, x=E - durchschnittlicher Erwartungswert, st - Varianz,

V - Variationskoeffizient, wir haben:

Betrachten Sie das Problem der Risikobewertung für Geschäftsverträge. LLC „Interproduct“ beschließt, einen Vertrag über die Lieferung von Lebensmitteln von einer der drei Stützpunkte abzuschließen. Nachdem Daten über den Zeitpunkt der Zahlung von Waren durch diese Basen gesammelt wurden (Tabelle 6.7), ist es nach der Risikobewertung erforderlich, beim Abschluss eines Vertrags über die Lieferung von Produkten die Basis auszuwählen, die die Waren in kürzester Zeit bezahlt .

Tabelle 6.7

Zahlungsbedingungen in Tagen

Anzahl der Beobachtungsfälle P

PS

(x-x)

(x-x ) 2

(x-x) 2 S

Für die erste Basis, basierend auf den Formeln (6.4.1):

Für zweite Basis

Für die dritte Basis

Der Variationskoeffizient für die erste Basis ist am kleinsten, was auf die Zweckmäßigkeit des Abschlusses eines Vertrags über die Lieferung von Produkten mit dieser Basis hinweist.

Die betrachteten Beispiele zeigen, dass das Risiko eine mathematisch ausgedrückte Verlustwahrscheinlichkeit aufweist, die auf statistischen Daten basiert und mit einer recht hohen Genauigkeit berechnet werden kann. Bei der Wahl der akzeptablen Lösung wurde die Regel der optimalen Ergebniswahrscheinlichkeit angewendet, die darin besteht, dass aus den möglichen Lösungen eine ausgewählt wird, bei der die Ergebniswahrscheinlichkeit für den Unternehmer akzeptabel ist.

In der Praxis wird die Anwendung der Regel der optimalen Ergebniswahrscheinlichkeit üblicherweise mit der Regel der optimalen Ergebnisvariabilität kombiniert.

Wie Sie wissen, wird die Schwankung von Indikatoren durch deren Varianz, Standardabweichung und Variationskoeffizient ausgedrückt. Der Kern der Regel der optimalen Volatilität des Ergebnisses besteht darin, dass von den möglichen Lösungen eine ausgewählt wird, bei der die Gewinn- und Verlustwahrscheinlichkeiten für den gleichen riskanten Kapitaleinsatz eine kleine Lücke aufweisen, d. h. der kleinste Wert der Varianz, die Standardabweichung der Variation. Bei den betrachteten Problemen erfolgte die Auswahl optimaler Lösungen anhand dieser beiden Regeln.

Das Senden Ihrer guten Arbeit an die Wissensdatenbank ist ganz einfach. Nutzen Sie das untenstehende Formular

Studierende, Doktoranden und junge Wissenschaftler, die die Wissensbasis in ihrem Studium und ihrer Arbeit nutzen, werden Ihnen sehr dankbar sein.

Veröffentlicht am http://www.allbest.ru/

[Text eingeben]

Einführung

1. Wahrscheinlichkeitstheorie und mathematische Statistik bei der Entscheidungsfindung

1.1 Wie Wahrscheinlichkeit und Statistik verwendet werden

1.2 Anwendungsbeispiele der Wahrscheinlichkeitstheorie und der mathematischen Statistik

1.3 Bewertungsziele

1.4 Was ist „mathematische Statistik“?

1.5 Kurz zur Geschichte der mathematischen Statistik

1.6 Wahrscheinlichkeitsstatistische Methoden und Optimierung

2. Typische praktische Probleme der probabilistisch-statistischen Entscheidungsfindung und Methoden zu ihrer Lösung

2.1 Statistik und angewandte Statistik

2.2 Aufgaben der statistischen Analyse der Genauigkeit und Stabilität technologischer Prozesse und Produktqualität

2.3 Probleme der eindimensionalen Statistik (Statistik von Zufallsvariablen)

2.4 Multivariate statistische Analyse

2.5 Statistik zufälliger Prozesse und Zeitreihen

2.6 Statistik nicht numerischer Objekte

3. Anwendung probabilistisch-statistischer Entscheidungsmethoden zur Lösung wirtschaftlicher Probleme

Abschluss

Verweise

Einführung

Wahrscheinlichkeitsstatistische Entscheidungsmethoden kommen dann zum Einsatz, wenn die Wirksamkeit der getroffenen Entscheidungen von Faktoren abhängt, bei denen es sich um Zufallsvariablen handelt, für die die Gesetze der Wahrscheinlichkeitsverteilung und andere statistische Merkmale bekannt sind. Darüber hinaus kann jede Entscheidung zu einem der vielen möglichen Ergebnisse führen, und jedes Ergebnis hat eine bestimmte Eintrittswahrscheinlichkeit, die berechnet werden kann. Charakterisierende Indikatoren Problemsituation, werden auch mit probabilistischen Merkmalen beschrieben. Bei solchen Entscheidungsproblemen läuft der Entscheider immer Gefahr, das falsche Ergebnis zu erhalten, an dem er sich orientiert, indem er auf der Grundlage der gemittelten statistischen Merkmale von Zufallsfaktoren die optimale Entscheidung trifft, d.h. die Entscheidung wird unter Risikobedingungen getroffen .

In der Praxis kommen häufig probabilistische und statistische Methoden zum Einsatz, wenn Schlussfolgerungen aus Stichprobendaten auf die gesamte Grundgesamtheit übertragen werden (z. B. von einer Stichprobe auf eine ganze Produktcharge). Allerdings sollte in diesem Fall in jeder konkreten Situation zunächst die grundsätzliche Möglichkeit beurteilt werden, ausreichend verlässliche probabilistische und statistische Daten zu erhalten.

Bei der Nutzung der Ideen und Ergebnisse der Wahrscheinlichkeitstheorie und der mathematischen Statistik bei der Entscheidungsfindung ist die Grundlage ein mathematisches Modell, in dem objektive Zusammenhänge wahrscheinlichkeitstheoretisch ausgedrückt werden. Mit Wahrscheinlichkeiten wird in erster Linie die Zufälligkeit beschrieben, die bei Entscheidungen berücksichtigt werden muss. Dabei handelt es sich sowohl um unerwünschte Chancen (Risiken) als auch um attraktive Chancen („glücklicher Zufall“).

Das Wesen probabilistisch-statistischer Entscheidungsmethoden besteht in der Verwendung probabilistischer Modelle, die auf der Schätzung und Prüfung von Hypothesen anhand von Stichprobenmerkmalen basieren.

Die Logik der Verwendung von Stichprobenmerkmalen zur Entscheidungsfindung auf der Grundlage theoretischer Modelle beinhaltet die gleichzeitige Verwendung zweier paralleler Konzeptreihen – derjenigen, die sich auf die Theorie beziehen (ein probabilistisches Modell) und derjenigen, die sich auf die Praxis beziehen (eine Stichprobe von Beobachtungsergebnissen). Beispielsweise entspricht die theoretische Wahrscheinlichkeit der aus der Stichprobe ermittelten Häufigkeit. Der mathematische Erwartungswert (theoretische Reihe) entspricht dem arithmetischen Mittel der Stichprobe (praktische Reihe). Stichprobenmerkmale sind in der Regel Schätzungen theoretischer Merkmale.

Zu den Vorteilen des Einsatzes dieser Methoden gehört die Möglichkeit, verschiedene Szenarien für die Entwicklung von Ereignissen und deren Wahrscheinlichkeiten zu berücksichtigen. Der Nachteil dieser Methoden besteht darin, dass die in den Berechnungen verwendeten Szenariowahrscheinlichkeiten in der Praxis meist nur sehr schwer zu ermitteln sind.

Die Anwendung einer bestimmten probabilistisch-statistischen Entscheidungsmethode besteht aus drei Schritten:

Der Übergang von der wirtschaftlichen, betriebswirtschaftlichen, technologischen Realität zu einem abstrakten mathematisch-statistischen Schema, d.h. Aufbau eines probabilistischen Modells eines Kontrollsystems, eines technologischen Prozesses, eines Entscheidungsverfahrens, insbesondere basierend auf den Ergebnissen der statistischen Kontrolle usw.;

Ein probabilistisches Modell eines realen Phänomens sollte als erstellt betrachtet werden, wenn die betrachteten Größen und die Beziehungen zwischen ihnen durch Wahrscheinlichkeitstheorie ausgedrückt werden. Die Angemessenheit des probabilistischen Modells wird insbesondere durch statistische Methoden zur Hypothesenprüfung nachgewiesen.

Die mathematische Statistik wird je nach Art der zu lösenden Probleme normalerweise in drei Abschnitte unterteilt: Datenbeschreibung, Schätzung und Hypothesentest. Abhängig von der Art der verarbeiteten statistischen Daten wird die mathematische Statistik in vier Bereiche unterteilt:

Ein Beispiel dafür, wann der Einsatz probabilistisch-statistischer Modelle sinnvoll ist.

Bei der Qualitätskontrolle eines Produkts wird eine Probe entnommen, um zu entscheiden, ob die hergestellte Produktcharge den festgelegten Anforderungen entspricht. Basierend auf den Ergebnissen der Probenkontrolle wird ein Rückschluss auf die gesamte Charge gezogen. In diesem Fall ist es sehr wichtig, Subjektivität bei der Bildung der Probe zu vermeiden, d. h. es ist notwendig, dass jede Produkteinheit in der kontrollierten Charge die gleiche Wahrscheinlichkeit hat, in die Probe aufgenommen zu werden. Die Loswahl ist in einer solchen Situation nicht ausreichend objektiv. Daher erfolgt die Auswahl der Produktionseinheiten in der Stichprobe unter Produktionsbedingungen in der Regel nicht per Los, sondern durch spezielle Zufallszahlentabellen oder mit Hilfe von Computer-Zufallszahlengeneratoren.

Bei der statistischen Regulierung technologischer Prozesse auf der Grundlage der Methoden der mathematischen Statistik werden Regeln und Pläne zur statistischen Steuerung von Prozessen entwickelt, die darauf abzielen, Störungen technologischer Prozesse rechtzeitig zu erkennen und Maßnahmen zu deren Korrektur zu ergreifen und die Freisetzung von Produkten zu verhindern, die dies tun nicht den festgelegten Anforderungen genügen. Diese Maßnahmen zielen darauf ab, Produktionskosten und Verluste durch die Lieferung minderwertiger Produkte zu reduzieren. Bei der statistischen Abnahmekontrolle, basierend auf den Methoden der mathematischen Statistik, werden Qualitätskontrollpläne durch Analyse von Proben aus Produktchargen entwickelt. Die Schwierigkeit liegt darin, probabilistisch-statistische Entscheidungsmodelle korrekt aufbauen zu können, auf deren Grundlage die oben gestellten Fragen beantwortet werden können. In der mathematischen Statistik wurden hierfür probabilistische Modelle und Methoden zum Testen von Hypothesen entwickelt.

Darüber hinaus treten in einer Reihe von Management-, Industrie-, Wirtschafts- und Volkswirtschaftssituationen Probleme anderer Art auf – Probleme bei der Schätzung der Merkmale und Parameter von Wahrscheinlichkeitsverteilungen.

Oder bei einer statistischen Analyse der Genauigkeit und Stabilität technologischer Prozesse müssen Qualitätsindikatoren wie der Durchschnittswert des kontrollierten Parameters und der Grad seiner Ausbreitung im betrachteten Prozess bewertet werden. Nach der Wahrscheinlichkeitstheorie empfiehlt es sich, ihren mathematischen Erwartungswert als Durchschnittswert einer Zufallsvariablen und die Varianz, Standardabweichung oder den Variationskoeffizienten als statistisches Merkmal der Streuung zu verwenden. Dies wirft die Frage auf: Wie lassen sich diese statistischen Merkmale anhand von Stichprobendaten schätzen und mit welcher Genauigkeit kann dies erfolgen? In der Literatur gibt es viele ähnliche Beispiele. Sie alle zeigen, wie Wahrscheinlichkeitstheorie und mathematische Statistik eingesetzt werden können Produktionsleitung bei Entscheidungen im Bereich des statistischen Produktqualitätsmanagements.

In bestimmten Anwendungsbereichen kommen sowohl weit verbreitete als auch spezifische probabilistisch-statistische Methoden zum Einsatz. Beispielsweise wird im Bereich des Produktionsmanagements, der sich mit statistischen Methoden des Produktqualitätsmanagements befasst, die angewandte mathematische Statistik (einschließlich der Versuchsplanung) eingesetzt. Mit Hilfe seiner Methoden werden eine statistische Analyse der Genauigkeit und Stabilität technologischer Prozesse sowie eine statistische Qualitätsbewertung durchgeführt. Spezifische Methoden umfassen Methoden der statistischen Akzeptanzkontrolle der Produktqualität, der statistischen Regulierung technologischer Prozesse sowie der Bewertung und Kontrolle der Zuverlässigkeit
usw.

Insbesondere im Produktionsmanagement ist es bei der Optimierung der Produktqualität und der Sicherstellung der Einhaltung von Normen besonders wichtig, statistische Methoden bereits in der Anfangsphase des Produktlebenszyklus anzuwenden, d. h. in der Phase der Forschungsvorbereitung experimenteller Designentwicklungen (Entwicklung vielversprechender Anforderungen an Produkte, Vorentwurf, Leistungsbeschreibung für experimentelle Designentwicklung). Dies ist auf die begrenzten Informationen zurückzuführen, die in der Anfangsphase des Produktlebenszyklus verfügbar sind, und auf die Notwendigkeit, die technischen Möglichkeiten und die wirtschaftliche Situation für die Zukunft vorherzusagen.

Die gebräuchlichsten probabilistisch-statistischen Methoden sind Regressionsanalyse, Faktorenanalyse, Varianzanalyse, statistische Methoden zur Risikobewertung, Szenariomethode usw. Der Bereich der statistischen Methoden, der sich der Analyse statistischer Daten nichtnumerischer Natur widmet, gewinnt immer mehr an Bedeutung. Messergebnisse zu qualitativen und heterogenen Merkmalen. Eine der Hauptanwendungen der Statistik von Objekten nichtnumerischer Natur ist die Theorie und Praxis von Expertenbewertungen im Zusammenhang mit der Theorie statistischer Entscheidungen und Abstimmungsprobleme.

Die Rolle einer Person bei der Lösung von Problemen mit den Methoden der Theorie statistischer Entscheidungen besteht darin, das Problem zu formulieren, d. h. das reale Problem in das entsprechende Modell zu bringen, die Wahrscheinlichkeiten von Ereignissen anhand statistischer Daten zu bestimmen und auch genehmigen Sie die resultierende optimale Lösung.

1. Wahrscheinlichkeitstheorie und mathematische Statistik bei der Entscheidungsfindung

1.1 Wie Wahrscheinlichkeit verwendet wirdund mathematische Statistik

Diese Disziplinen sind die Grundlage probabilistisch-statistischer Entscheidungsmethoden. Um ihren mathematischen Apparat nutzen zu können, ist es notwendig, Entscheidungsprobleme in Form probabilistisch-statistischer Modelle auszudrücken. Die Anwendung einer bestimmten probabilistisch-statistischen Entscheidungsmethode besteht aus drei Schritten:

Der Übergang von der wirtschaftlichen, betriebswirtschaftlichen, technologischen Realität zu einem abstrakten mathematisch-statistischen Schema, d.h. Aufbau eines probabilistischen Modells eines Kontrollsystems, eines technologischen Prozesses, eines Entscheidungsverfahrens, insbesondere auf der Grundlage der Ergebnisse der statistischen Kontrolle usw.

Durchführung von Berechnungen und Gewinnung von Schlussfolgerungen mit rein mathematischen Mitteln im Rahmen eines probabilistischen Modells;

Interpretation mathematischer und statistischer Schlussfolgerungen in Bezug auf eine reale Situation und Treffen einer angemessenen Entscheidung (z. B. über die Konformität oder Nichtübereinstimmung der Produktqualität mit festgelegten Anforderungen, die Notwendigkeit einer Anpassung des technologischen Prozesses usw.), insbesondere Schlussfolgerungen (zum Anteil fehlerhafter Produkteinheiten in einer Charge, zu einer bestimmten Form der Verteilungsgesetze kontrollierter Parameter des technologischen Prozesses usw.).

Die mathematische Statistik nutzt die Konzepte, Methoden und Ergebnisse der Wahrscheinlichkeitstheorie. Betrachten wir die Hauptprobleme beim Aufbau probabilistischer Entscheidungsmodelle in wirtschaftlichen, betriebswirtschaftlichen, technologischen und anderen Situationen. Für den aktiven und korrekten Einsatz normativ-technischer und instruktiv-methodischer Dokumente zu probabilistisch-statistischen Methoden der Entscheidungsfindung sind Vorkenntnisse erforderlich. Daher ist es notwendig zu wissen, unter welchen Bedingungen dieses oder jenes Dokument angewendet werden sollte, welche Ausgangsinformationen für seine Auswahl und Anwendung erforderlich sind, welche Entscheidungen auf der Grundlage der Ergebnisse der Datenverarbeitung getroffen werden sollten usw.

1.2 Anwendungsbeispiele der Wahrscheinlichkeitstheorieund mathematische Statistik

Betrachten wir einige Beispiele, bei denen probabilistisch-statistische Modelle ein gutes Werkzeug zur Lösung von Management-, Industrie-, Wirtschafts- und Volkswirtschaftsproblemen sind. So heißt es zum Beispiel im Roman von A. N. Tolstoi „Durch die Qualen gehen“ (Bd. 1): „Die Werkstatt gibt 23 Prozent der Ehe, man behält diese Zahl“, sagte Strukow zu Iwan Iljitsch.

Es stellt sich die Frage, wie diese Worte im Gespräch der Fabrikleiter zu verstehen sind, da eine Produktionseinheit nicht zu 23 % fehlerhaft sein kann. Es kann entweder gut oder defekt sein. Vielleicht meinte Strukov, dass eine große Charge etwa 23 % fehlerhafte Einheiten enthält. Dann stellt sich die Frage: Was bedeutet „ungefähr“? Angenommen, 30 von 100 getesteten Produktionseinheiten erweisen sich als fehlerhaft, oder von 1000 - 300, oder von 100.000 - 30.000 usw., sollte Strukov der Lüge beschuldigt werden?

Oder ein anderes Beispiel. Die Münze, die als Los verwendet wird, muss „symmetrisch“ sein, d. h. Beim Werfen sollte im Durchschnitt in der Hälfte der Fälle das Wappen herausfallen und in der Hälfte der Fälle das Gitter (Schwänze, Zahl). Aber was bedeutet „durchschnittlich“? Wenn man in jeder Serie viele Serien mit jeweils 10 Würfen ausführt, dann wird es oft Serien geben, bei denen viermal eine Münze mit Wappen herausfällt. Bei einer symmetrischen Münze wird dies in 20,5 % der Serie passieren. Und wenn es bei 100.000 Würfen 40.000 Wappen gibt, kann die Münze dann als symmetrisch angesehen werden? Das Entscheidungsverfahren basiert auf der Wahrscheinlichkeitstheorie und der mathematischen Statistik.

Das betrachtete Beispiel scheint möglicherweise nicht ernst genug zu sein. Dies ist jedoch nicht der Fall. Die Zeichnung wird häufig bei der Organisation industrieller Machbarkeitsexperimente verwendet, beispielsweise bei der Verarbeitung der Ergebnisse der Messung des Qualitätsindex (Reibungsmoment) von Lagern in Abhängigkeit von verschiedenen technologischen Faktoren (Einfluss einer Konservierungsumgebung, Methoden zur Vorbereitung von Lagern vor der Messung usw.). Einfluss der Lagerbelastung auf den Messvorgang usw.). P.). Angenommen, es ist notwendig, die Qualität von Lagern in Abhängigkeit von den Ergebnissen ihrer Lagerung in verschiedenen Konservierungsölen zu vergleichen, d. h. in Ölen der Zusammensetzung A und B. Bei der Planung eines solchen Experiments stellt sich die Frage, welche Lager in Ölzusammensetzung A und welche in Ölzusammensetzung B platziert werden sollten, jedoch so, dass Subjektivität vermieden und die Objektivität des Öls sichergestellt wird Entscheidung.

Die Antwort auf diese Frage kann per Losverfahren ermittelt werden. Ein ähnliches Beispiel lässt sich mit der Qualitätskontrolle eines beliebigen Produkts anführen. Um zu entscheiden, ob eine geprüfte Produktcharge den festgelegten Anforderungen entspricht, wird daraus eine Probe entnommen. Basierend auf den Ergebnissen der Probenkontrolle wird ein Rückschluss auf die gesamte Charge gezogen. In diesem Fall ist es sehr wichtig, Subjektivität bei der Bildung der Probe zu vermeiden, d. h. es ist notwendig, dass jede Produkteinheit in der kontrollierten Charge die gleiche Wahrscheinlichkeit hat, in die Probe aufgenommen zu werden. Unter Produktionsbedingungen erfolgt die Auswahl der Produktionseinheiten in der Stichprobe in der Regel nicht per Los, sondern durch spezielle Zufallszahlentabellen oder mit Hilfe von Computer-Zufallszahlengeneratoren.

Ähnliche Probleme bei der Gewährleistung der Objektivität des Vergleichs treten beim Vergleich verschiedener Systeme zur Organisation der Produktion, der Vergütung, bei der Durchführung von Ausschreibungen und Wettbewerben sowie bei der Auswahl von Kandidaten auf offene Posten usw. Überall braucht man eine Lotterie oder ähnliche Verfahren. Lassen Sie uns das am Beispiel der Ermittlung der stärksten und zweitstärksten Mannschaft bei der Organisation eines Turniers nach dem olympischen System erklären (der Verlierer scheidet aus). Lassen Sie das stärkere Team immer über das schwächere gewinnen. Es ist klar, dass die stärkste Mannschaft definitiv Meister wird. Das zweitstärkste Team erreicht das Finale nur dann, wenn es vor dem Finale keine Spiele mit dem zukünftigen Meister hat. Wenn ein solches Spiel geplant ist, dann wird die zweitstärkste Mannschaft das Finale nicht erreichen. Derjenige, der das Turnier plant, kann entweder das zweitstärkste Team vorzeitig aus dem Turnier „schmeißen“ und es im ersten Aufeinandertreffen mit dem Führenden besiegen, oder ihm den zweiten Platz sichern und so Begegnungen mit schwächeren Teams bis zum Finale sicherstellen. Um Subjektivität zu vermeiden, ziehen Sie das Los. Bei einem Turnier mit 8 Mannschaften beträgt die Wahrscheinlichkeit, dass die beiden stärksten Mannschaften im Finale aufeinandertreffen, 4/7. Demnach wird mit einer Wahrscheinlichkeit von 3/7 die zweitstärkste Mannschaft das Turnier vorzeitig verlassen.

Bei jeder Messung von Produkteinheiten (mit einem Messschieber, Mikrometer, Amperemeter usw.) gibt es Fehler. Um herauszufinden, ob systematische Fehler vorliegen, ist es notwendig, wiederholte Messungen an einer Produkteinheit durchzuführen, deren Eigenschaften bekannt sind (z. B. eine Standardprobe). Es ist zu beachten, dass es neben dem systematischen Fehler auch einen zufälligen Fehler gibt.

Daher stellt sich die Frage, wie man aus den Messergebnissen herausfinden kann, ob ein systematischer Fehler vorliegt. Wenn wir nur feststellen, ob der bei der nächsten Messung erhaltene Fehler positiv oder negativ ist, kann dieses Problem auf das vorherige reduziert werden. Vergleichen wir nämlich die Messung mit dem Werfen einer Münze, den positiven Fehler – mit dem Verlust des Wappens, den negativen – mit dem Gitter (ein Nullfehler bei ausreichender Skalenteilung tritt fast nie auf). Dann ist die Überprüfung der Abwesenheit eines systematischen Fehlers gleichbedeutend mit der Überprüfung der Symmetrie der Münze.

Der Zweck dieser Überlegungen besteht darin, das Problem der Überprüfung der Abwesenheit eines systematischen Fehlers auf das Problem der Überprüfung der Symmetrie einer Münze zu reduzieren. Die obige Überlegung führt zum sogenannten „Zeichenkriterium“ in der mathematischen Statistik.

Bei der statistischen Regulierung technologischer Prozesse auf der Grundlage der Methoden der mathematischen Statistik werden Regeln und Pläne zur statistischen Steuerung von Prozessen entwickelt, die darauf abzielen, Störungen technologischer Prozesse rechtzeitig zu erkennen und Maßnahmen zu deren Korrektur zu ergreifen und die Freisetzung von Produkten zu verhindern, die dies tun nicht den festgelegten Anforderungen genügen. Diese Maßnahmen zielen darauf ab, Produktionskosten und Verluste durch die Lieferung minderwertiger Produkte zu reduzieren. Bei der statistischen Abnahmekontrolle, basierend auf den Methoden der mathematischen Statistik, werden Qualitätskontrollpläne durch Analyse von Proben aus Produktchargen entwickelt. Die Schwierigkeit liegt darin, probabilistisch-statistische Entscheidungsmodelle korrekt aufbauen zu können, auf deren Grundlage die oben gestellten Fragen beantwortet werden können. In der mathematischen Statistik wurden hierfür probabilistische Modelle und Methoden zum Testen von Hypothesen entwickelt, insbesondere Hypothesen, dass der Anteil fehlerhafter Produktionseinheiten einer bestimmten Zahl p0 entspricht, beispielsweise p0 = 0,23 (erinnern Sie sich an die Worte von Strukov aus der Roman von A. N. Tolstoi).

1.3 Bewertungsziele

In einer Reihe von Management-, Industrie-, Wirtschafts- und Volkswirtschaftssituationen treten Probleme anderer Art auf – Probleme bei der Schätzung der Merkmale und Parameter von Wahrscheinlichkeitsverteilungen.

Betrachten Sie ein Beispiel. Lassen Sie eine Charge von N-Elektrolampen zur Steuerung kommen. Aus dieser Charge wurde zufällig eine Stichprobe von n elektrischen Lampen ausgewählt. Es stellen sich eine Reihe natürlicher Fragen. Wie lässt sich aus den Ergebnissen der Prüfung der Musterelemente die durchschnittliche Lebensdauer elektrischer Lampen ermitteln und mit welcher Genauigkeit lässt sich diese Kenngröße abschätzen? Wie verändert sich die Genauigkeit, wenn eine größere Probe entnommen wird? Bei wie vielen Stunden T kann garantiert werden, dass mindestens 90 % der elektrischen Lampen T oder mehr Stunden halten?

Angenommen, beim Testen einer Stichprobe von n elektrischen Lampen stellte sich heraus, dass X elektrische Lampen defekt waren. Dann stellen sich folgende Fragen. Welche Grenzwerte können für die Anzahl D fehlerhafter elektrischer Lampen in einer Charge, für den Fehlergrad D/N usw. angegeben werden?

Oder bei einer statistischen Analyse der Genauigkeit und Stabilität technologischer Prozesse müssen Qualitätsindikatoren wie der Durchschnittswert des kontrollierten Parameters und der Grad seiner Ausbreitung im betrachteten Prozess bewertet werden. Nach der Wahrscheinlichkeitstheorie empfiehlt es sich, ihren mathematischen Erwartungswert als Durchschnittswert einer Zufallsvariablen und die Varianz, Standardabweichung oder den Variationskoeffizienten als statistisches Merkmal der Streuung zu verwenden. Dies wirft die Frage auf: Wie lassen sich diese statistischen Merkmale anhand von Stichprobendaten schätzen und mit welcher Genauigkeit kann dies erfolgen? Es gibt viele ähnliche Beispiele. Hier galt es zu zeigen, wie Wahrscheinlichkeitstheorie und mathematische Statistik im Produktionsmanagement bei Entscheidungen im Bereich des statistischen Produktqualitätsmanagements eingesetzt werden können.

1.4 Was ist „mathematische Statistik“?

Unter Mathematischer Statistik versteht man „ein Teilgebiet der Mathematik, das sich mit mathematischen Methoden zum Sammeln, Systematisieren, Verarbeiten und Interpretieren statistischer Daten sowie deren Nutzung für wissenschaftliche oder praktische Schlussfolgerungen befasst.“ Die Regeln und Verfahren der mathematischen Statistik basieren auf der Wahrscheinlichkeitstheorie, die es ermöglicht, die Genauigkeit und Zuverlässigkeit der in jedem Problem gewonnenen Schlussfolgerungen auf der Grundlage des verfügbaren statistischen Materials zu bewerten. Zugleich handelt es sich bei statistischen Daten um Informationen über die Anzahl der Objekte in einer mehr oder weniger umfangreichen Sammlung, die bestimmte Merkmale aufweisen.

Abhängig von der Art der zu lösenden Probleme wird die mathematische Statistik normalerweise in drei Abschnitte unterteilt: Datenbeschreibung, Schätzung und Hypothesentest.

Abhängig von der Art der verarbeiteten statistischen Daten wird die mathematische Statistik in vier Bereiche unterteilt:

Eindimensionale Statistik (Statistik von Zufallsvariablen), bei der das Ergebnis einer Beobachtung durch eine reelle Zahl beschrieben wird;

Multivariate statistische Analyse, bei der das Ergebnis der Beobachtung eines Objekts durch mehrere Zahlen (Vektor) beschrieben wird;

Statistik zufälliger Prozesse und Zeitreihen, bei denen das Beobachtungsergebnis eine Funktion ist;

Statistik von Objekten nicht numerischer Natur, bei der das Ergebnis einer Beobachtung nicht numerischer Natur ist, beispielsweise eine Menge (eine geometrische Figur), eine Ordnung oder das Ergebnis einer Messung durch ein qualitatives Attribut.

Historisch gesehen waren einige Bereiche der Statistik von Objekten nicht numerischer Natur (insbesondere Probleme bei der Schätzung des Prozentsatzes fehlerhafter Produkte und der Prüfung von Hypothesen darüber) und eindimensionale Statistiken die ersten, die auftauchten. Der mathematische Apparat ist für sie einfacher, daher demonstrieren sie an ihrem Beispiel meist die Grundgedanken der mathematischen Statistik.

Nur solche Datenverarbeitungsmethoden, d. h. Mathematische Statistiken sind evidenzbasiert und basieren auf probabilistischen Modellen relevanter realer Phänomene und Prozesse. Es geht um Modelle des Konsumverhaltens, der Entstehung von Risiken, der Funktionsweise technologische Ausrüstung, Erhalt der Versuchsergebnisse, des Krankheitsverlaufs usw. Ein probabilistisches Modell eines realen Phänomens sollte als erstellt betrachtet werden, wenn die betrachteten Größen und die Beziehungen zwischen ihnen durch Wahrscheinlichkeitstheorie ausgedrückt werden. Übereinstimmung mit dem probabilistischen Modell der Realität, d.h. Ihre Angemessenheit wird insbesondere mit Hilfe statistischer Methoden zur Überprüfung von Hypothesen nachgewiesen.

Unglaubliche Datenverarbeitungsmethoden sind explorativ und können nur in der vorläufigen Datenanalyse eingesetzt werden, da sie es nicht ermöglichen, die Genauigkeit und Zuverlässigkeit der auf der Grundlage begrenzten statistischen Materials gewonnenen Schlussfolgerungen zu beurteilen.

Probabilistische und statistische Methoden sind überall dort anwendbar, wo es möglich ist, ein probabilistisches Modell eines Phänomens oder Prozesses zu erstellen und zu untermauern. Ihr Einsatz ist zwingend erforderlich, wenn Schlussfolgerungen aus Stichprobendaten auf die gesamte Grundgesamtheit übertragen werden (z. B. von einer Stichprobe auf eine ganze Produktcharge).

In bestimmten Anwendungsbereichen kommen sowohl weit verbreitete als auch spezifische probabilistisch-statistische Methoden zum Einsatz. Beispielsweise wird im Bereich des Produktionsmanagements, der sich mit statistischen Methoden des Produktqualitätsmanagements befasst, die angewandte mathematische Statistik (einschließlich der Versuchsplanung) eingesetzt. Mit Hilfe seiner Methoden werden eine statistische Analyse der Genauigkeit und Stabilität technologischer Prozesse sowie eine statistische Qualitätsbewertung durchgeführt. Spezifische Methoden umfassen Methoden der statistischen Akzeptanzkontrolle der Produktqualität, der statistischen Regulierung technologischer Prozesse, der Bewertung und Kontrolle der Zuverlässigkeit usw.

Angewandte probabilistisch-statistische Disziplinen wie die Zuverlässigkeitstheorie und die Warteschlangentheorie sind weit verbreitet. Der Inhalt der ersten davon geht aus dem Titel hervor, die zweite befasst sich mit der Untersuchung von Systemen wie einer Telefonzentrale, die Anrufe zu zufälligen Zeiten entgegennimmt – den Anforderungen von Teilnehmern, die Nummern auf ihren Telefonen wählen. Die Dauer der Zustellung dieser Anforderungen, d.h. Auch die Gesprächsdauer wird durch Zufallsvariablen modelliert. Einen großen Beitrag zur Entwicklung dieser Disziplinen leistete das korrespondierende Mitglied der Akademie der Wissenschaften der UdSSR A.Ya. Chinchin (1894–1959), Akademiker der Akademie der Wissenschaften der Ukrainischen SSR B.V. Gnedenko (1912–1995) und andere einheimische Wissenschaftler.

1.5 Kurz zur Geschichte der mathematischen Statistik

Die mathematische Statistik als Wissenschaft beginnt mit den Werken des berühmten deutschen Mathematikers Carl Friedrich Gauß (1777-1855), der auf der Grundlage der Wahrscheinlichkeitstheorie die Methode der kleinsten Quadrate untersuchte und begründete, die er 1795 entwickelte und auf die Verarbeitung anwendete astronomischer Daten (um die Umlaufbahn des Kleinplaneten Ceres zu klären). Eine der beliebtesten Wahrscheinlichkeitsverteilungen, die Normalverteilung, wird oft nach ihm benannt, und in der Theorie der Zufallsprozesse werden Gaußsche Prozesse hauptsächlich untersucht.

IN Ende des 19. Jahrhunderts V. - Anfang des 20. Jahrhunderts. Einen wichtigen Beitrag zur mathematischen Statistik leisteten englische Forscher, vor allem K. Pearson (1857-1936) und R. A. Fisher (1890-1962). Insbesondere entwickelte Pearson den Chi-Quadrat-Test zum Testen statistischer Hypothesen, und Fisher entwickelte die Varianzanalyse, die Theorie der Experimentplanung und die Maximum-Likelihood-Methode zum Schätzen von Parametern.

In den 30er Jahren des 20. Jahrhunderts. der Pole Jerzy Neumann (1894-1977) und der Engländer E. Pearson entwickelt allgemeine Theorie Prüfung statistischer Hypothesen und sowjetischer Mathematiker Akademiker A.N. Kolmogorov (1903-1987) und korrespondierendes Mitglied der Akademie der Wissenschaften der UdSSR N.V. Smirnov (1900-1966) legten den Grundstein für die nichtparametrische Statistik. In den vierziger Jahren des zwanzigsten Jahrhunderts. Der Rumäne A. Wald (1902-1950) entwickelte die Theorie der konsistenten statistischen Analyse.

Die mathematische Statistik entwickelt sich derzeit rasant weiter. So lassen sich in den letzten 40 Jahren vier grundlegend neue Forschungsbereiche unterscheiden:

Entwicklung und Implementierung mathematischer Methoden zur Planung von Experimenten;

Entwicklung von Statistiken über Objekte nichtnumerischer Natur als unabhängige Richtung in angewandter mathematischer Statistik;

Entwicklung statistischer Methoden, die gegenüber kleinen Abweichungen vom verwendeten Wahrscheinlichkeitsmodell resistent sind;

Weit verbreitete Entwicklung von Arbeiten zur Erstellung von Computersoftwarepaketen zur statistischen Datenanalyse.

1.6 Wahrscheinlichkeitsstatistische Methoden und Optimierung

Der Optimierungsgedanke durchdringt die moderne angewandte mathematische Statistik und andere statistische Methoden. Nämlich Methoden der Versuchsplanung, der statistischen Akzeptanzkontrolle, der statistischen Kontrolle technologischer Prozesse usw. Andererseits sorgen Optimierungsformulierungen in der Entscheidungstheorie, beispielsweise der angewandten Theorie der Optimierung von Produktqualität und Standardanforderungen, für eine weite Verbreitung von Wahrscheinlichkeitsstatistische Methoden, vorwiegend angewandte mathematische Statistik.

Insbesondere im Produktionsmanagement ist es bei der Optimierung von Produktqualität und Standardanforderungen besonders wichtig, statistische Methoden in der Anfangsphase des Produktlebenszyklus anzuwenden, d. h. in der Phase der Forschungsvorbereitung experimenteller Designentwicklungen (Entwicklung vielversprechender Anforderungen an Produkte, Vorentwurf, Leistungsbeschreibung für experimentelle Designentwicklung). Dies ist auf die begrenzten Informationen zurückzuführen, die in der Anfangsphase des Produktlebenszyklus verfügbar sind, und auf die Notwendigkeit, die technischen Möglichkeiten und die wirtschaftliche Situation für die Zukunft vorherzusagen. Statistische Methoden sollten in allen Phasen der Lösung eines Optimierungsproblems angewendet werden – bei der Skalierung von Variablen, der Entwicklung mathematischer Modelle für die Funktionsweise von Produkten und Systemen, der Durchführung technischer und wirtschaftlicher Experimente usw.

Bei Optimierungsproblemen, einschließlich der Optimierung von Produktqualität und Normanforderungen, werden alle Bereiche der Statistik genutzt. Nämlich Statistik von Zufallsvariablen, multivariate statistische Analyse, Statistik von Zufallsprozessen und Zeitreihen, Statistik von Objekten nichtnumerischer Natur. Die Wahl einer statistischen Methode zur Analyse spezifischer Daten sollte gemäß den Empfehlungen erfolgen.

2. Typische praktische Probleme der Wahrscheinlichkeitstheorieatistische Entscheidungsfindungund Methoden zu ihrer Lösung

2.1 Statistik und angewandte Statistik

Unter Angewandter Statistik versteht man einen Teil der mathematischen Statistik, der sich den Methoden der Verarbeitung realer statistischer Daten sowie den entsprechenden mathematischen und mathematischen Methoden widmet Software. Daher werden rein mathematische Probleme nicht in die angewandte Statistik einbezogen.

Unter statistischen Daten versteht man numerische oder nichtnumerische Werte der kontrollierten Parameter (Merkmale) der Untersuchungsobjekte, die als Ergebnis von Beobachtungen (Messungen, Analysen, Tests, Experimente etc.) einer bestimmten Anzahl gewonnen werden der Merkmale für jede in die Studie einbezogene Einheit. Methoden zur Gewinnung statistischer Daten und Stichprobengrößen werden auf der Grundlage der Formulierung eines konkreten angewandten Problems auf der Grundlage der Methoden der mathematischen Theorie der Experimentplanung festgelegt.

Das Ergebnis der Beobachtung xi des untersuchten Merkmals .., n, wobei n die Stichprobengröße ist).

Die Ergebnisse der Beobachtungen x1, x2,…, xn, wobei xi das Ergebnis der Beobachtung der i-ten Stichprobeneinheit oder die Ergebnisse von Beobachtungen für mehrere Stichproben ist, werden mit der Aufgabenstellung entsprechenden Methoden der angewandten Statistik verarbeitet. Sie werden normalerweise verwendet analytische Methoden, d.h. Methoden, die auf numerischen Berechnungen basieren (Objekte nicht numerischer Natur werden durch Zahlen beschrieben). In einigen Fällen ist die Verwendung möglich grafische Methoden(visuelle Analyse).

2.2 Aufgaben der statistischen Analyse der Genauigkeit und Stabilität technologischer Prozesse und Produktqualität

Statistische Methoden werden insbesondere zur Analyse der Genauigkeit und Stabilität technologischer Prozesse und der Produktqualität eingesetzt. Ziel ist es, Lösungen zu erarbeiten, die das effiziente Funktionieren technologischer Einheiten gewährleisten und die Qualität und Wettbewerbsfähigkeit der Produkte verbessern. Statistische Methoden sollten in allen Fällen verwendet werden, in denen es auf der Grundlage der Ergebnisse einer begrenzten Anzahl von Beobachtungen erforderlich ist, die Gründe für die Verbesserung oder Verschlechterung der Genauigkeit und Stabilität technologischer Geräte zu ermitteln. Unter der Genauigkeit des technologischen Prozesses wird die Eigenschaft des technologischen Prozesses verstanden, die die Nähe der tatsächlichen und nominalen Werte der Parameter der hergestellten Produkte bestimmt. Unter der Stabilität des technologischen Prozesses wird die Eigenschaft des technologischen Prozesses verstanden, die die Konstanz der Wahrscheinlichkeitsverteilungen für seine Parameter über einen bestimmten Zeitraum ohne äußere Eingriffe bestimmt.

Die Ziele der Anwendung statistischer Methoden zur Analyse der Genauigkeit und Stabilität technologischer Prozesse und der Produktqualität in den Phasen Entwicklung, Produktion und Betrieb (Verbrauch) von Produkten sind insbesondere:

* Ermittlung tatsächlicher Indikatoren für Genauigkeit und Stabilität des technologischen Prozesses, der Ausrüstung oder der Produktqualität;

* Feststellung der Übereinstimmung der Produktqualität mit den Anforderungen der behördlichen und technischen Dokumentation;

* Überprüfung der Einhaltung der technologischen Disziplin;

* Untersuchung zufälliger und systematischer Faktoren, die zum Auftreten von Mängeln führen können;

* Identifizierung von Produktions- und Technologiereserven;

* Begründung technische Standards und Produktzulassungen

* Auswertung der Testergebnisse von Prototypen zur Konkretisierung der Anforderungen an Produkte und Standards dafür;

* Begründung der Wahl der technologischen Ausrüstung sowie der Mess- und Prüfinstrumente;

* Vergleich verschiedener Produktmuster;

* Begründung des Ersatzes der kontinuierlichen Kontrolle durch statistische;

* Ermittlung der Möglichkeit der Einführung statistischer Methoden des Produktqualitätsmanagements usw.

Um die oben genannten Ziele zu erreichen, verschiedene Methoden Beschreibungen von Daten, Bewertung und Prüfung von Hypothesen. Lassen Sie uns Beispiele für Problemstellungen geben.

2.3 Probleme der eindimensionalen Statistik (Statistik von Zufallsvariablen)

Der Vergleich der mathematischen Erwartungen wird in Fällen durchgeführt, in denen die Übereinstimmung zwischen den Qualitätsindikatoren der hergestellten Produkte und der Referenzprobe hergestellt werden muss. Dies ist die Aufgabe, die Hypothese zu testen:

H0: M(X) = m0,

wobei m0 der Wert ist, der der Referenzprobe entspricht; X ist eine Zufallsvariable, die die Ergebnisse von Beobachtungen simuliert. Abhängig von der Formulierung des probabilistischen Situationsmodells und der Alternativhypothese erfolgt der Vergleich mathematischer Erwartungen entweder mit parametrischen oder nichtparametrischen Methoden.

Ein Varianzvergleich wird durchgeführt, wenn es darum geht, den Unterschied zwischen der Streuung des Qualitätsindikators und der nominalen Streuung festzustellen. Dazu wird die Hypothese getestet:

Nicht weniger wichtig als die Probleme beim Testen von Hypothesen sind die Probleme bei der Parameterschätzung. Sie werden, ebenso wie die Aufgaben zum Testen von Hypothesen, je nach verwendetem Wahrscheinlichkeitsmodell der Situation in parametrische und nichtparametrische unterteilt.

Bei parametrischen Schätzproblemen wird ein probabilistisches Modell angewendet, nach dem die Ergebnisse der Beobachtungen x1, x2, ..., xn als Realisierungen von n unabhängigen Zufallsvariablen mit einer Verteilungsfunktion F(x;u) betrachtet werden. Dabei ist und ein unbekannter Parameter, der im Parameterraum liegt und durch das verwendete Wahrscheinlichkeitsmodell gegeben ist. Die Aufgabe der Schätzung besteht darin, Punktschätzungen und Konfidenzgrenzen (oder Konfidenzbereiche) für den Parameter und zu bestimmen.

Der Parameter und ist entweder eine Zahl oder ein Vektor einer festen endlichen Dimension. Für eine Normalverteilung ist u = (m, y2) also ein zweidimensionaler Vektor, für eine Binomialverteilung ist u = p eine Zahl und für eine Gammaverteilung
und = (a, b, c) ist ein 3D-Vektor und so weiter.

In der modernen mathematischen Statistik gibt es eine Reihe von gängige Methoden Bestimmung von Schätzungen und Konfidenzgrenzen – die Methode der Momente, die Maximum-Likelihood-Methode, die Methode der einstufigen Schätzungen, die Methode der stabilen (robusten) Schätzungen, die Methode der unvoreingenommenen Schätzungen usw.

Werfen wir einen kurzen Blick auf die ersten drei davon.

Die Momentenmethode basiert auf der Verwendung von Ausdrücken für die Momente der betrachteten Zufallsvariablen hinsichtlich der Parameter ihrer Verteilungsfunktionen. Schätzungen der Momentenmethode werden erhalten, indem in Funktionen, die Parameter als Momente ausdrücken, Beispielmomente anstelle theoretischer Momente eingesetzt werden.

Bei der Maximum-Likelihood-Methode, die hauptsächlich von R.A. Fisher entwickelt wurde, wird als Schätzung des Parameters und der Wert von u* verwendet, für den die sogenannte Likelihood-Funktion maximal ist

f(x1, u) f(x2, u) … f(xn, u),

wobei x1, x2,…, xn die Ergebnisse von Beobachtungen sind; f(x, u) ist ihre Verteilungsdichte, abhängig vom zu schätzenden Parameter u.

Maximum-Likelihood-Schätzer sind im Allgemeinen effizient (oder asymptotisch effizient) und weisen eine geringere Varianz auf als die Methode der Momentenschätzer. In einigen Fällen werden die Formeln dafür explizit ausgeschrieben (Normalverteilung, Exponentialverteilung ohne Verschiebung). Um sie zu finden, ist es jedoch häufiger erforderlich, ein System transzendentaler Gleichungen (Weibull-Gnedenko-Verteilungen, Gamma) numerisch zu lösen. In solchen Fällen ist es ratsam, nicht Maximum-Likelihood-Schätzungen zu verwenden, sondern andere Arten von Schätzungen, vor allem einstufige Schätzungen.

Bei nichtparametrischen Schätzproblemen wird ein probabilistisches Modell verwendet, bei dem die Ergebnisse der Beobachtungen x1, x2,…, xn als Realisierungen von n unabhängigen Zufallsvariablen mit der Verteilungsfunktion F(x) betrachtet werden. Gesamtansicht. F(x) ist nur erforderlich, um bestimmte Bedingungen wie Kontinuität, das Vorhandensein mathematischer Erwartungen und Streuung usw. zu erfüllen. Solche Bedingungen sind nicht so streng wie die Bedingung der Zugehörigkeit zu einer bestimmten parametrischen Familie.

Bei einer nichtparametrischen Formulierung werden entweder die Eigenschaften einer Zufallsvariablen (mathematischer Erwartungswert, Varianz, Variationskoeffizient) oder deren Verteilungsfunktion, Dichte usw. geschätzt. Somit ist der arithmetische Stichprobenmittelwert aufgrund des Gesetzes der großen Zahlen eine konsistente Schätzung der mathematischen Erwartung M(X) (für jede Verteilungsfunktion F(x) der Ergebnisse von Beobachtungen, für die die mathematische Erwartung besteht). Mit Hilfe des zentralen Grenzwertsatzes werden asymptotische Vertrauensgrenzen bestimmt

(M(X))H = , (M(X))B = .

wo g - Vertrauensniveau, – Quantil der Ordnung der Standardnormalverteilung N(0;1) mit Null-Mathematikerwartung und Einheitsvarianz, – arithmetisches Mittel der Stichprobe, s – Stichprobenstandardabweichung. Der Begriff „asymptotische Konfidenzgrenzen“ bedeutet, dass die Wahrscheinlichkeiten

P((M(X))H< M(X)}, P{(M(X))B >M(X)),

P((M(X))H< M(X) < (M(X))B}

neigen dazu bzw. r für n > ?, sind aber im Allgemeinen nicht gleich diesen Werten für endliches n. In der Praxis liefern asymptotische Konfidenzgrenzen eine ausreichende Genauigkeit für n in der Größenordnung von 10.

Das zweite Beispiel einer nichtparametrischen Schätzung ist die Verteilungsfunktionsschätzung. Nach dem Satz von Glivenko ist die empirische Verteilungsfunktion Fn(x) eine konsistente Schätzung der Verteilungsfunktion F(x). Wenn F(x) eine stetige Funktion ist, dann werden basierend auf dem Satz von Kolmogorov die Konfidenzgrenzen für die Verteilungsfunktion F(x) wie folgt angegeben:

(F(x))Н = max , (F(x))B = min ,

Dabei ist k(r,n) das Ordnungsquantil der Verteilung der Kolmogorov-Statistik für den Stichprobenumfang n (denken Sie daran, dass die Verteilung dieser Statistik nicht von F(x) abhängt).

Die Regeln zur Bestimmung von Schätzungen und Konfidenzgrenzen im parametrischen Fall basieren auf der parametrischen Verteilungsfamilie F(x;u). Bei der Verarbeitung realer Daten stellt sich die Frage: Entsprechen diese Daten dem akzeptierten Wahrscheinlichkeitsmodell? Diese. statistische Hypothese, dass die Ergebnisse von Beobachtungen eine Verteilungsfunktion aus der Familie (F(x; u), u) für einige u = u0 haben? Solche Hypothesen werden als „Goodness-of-Fit“-Hypothesen bezeichnet, und die Kriterien für ihre Überprüfung werden als „Goodness-of-Fit“-Hypothesen bezeichnet.

Wenn der wahre Wert des Parameters u = u0 bekannt ist und die Verteilungsfunktion F(x; u0) stetig ist, wird häufig der auf Statistiken basierende Kolmogorov-Test verwendet, um die Hypothese der Güte der Anpassung zu testen.

wobei Fn(x) die empirische Verteilungsfunktion ist.

Wenn der wahre Wert des Parameters u0 unbekannt ist, beispielsweise beim Testen der Hypothese über die Normalität der Verteilung von Beobachtungsergebnissen (d. h. bei der Prüfung, ob diese Verteilung zur Familie der Normalverteilungen gehört), werden manchmal Statistiken verwendet

Sie unterscheidet sich von der Kolmogorov-Statistik Dn dadurch, dass anstelle des wahren Wertes des Parameters u0 dessen Schätzung u* eingesetzt wird.

Die Verteilung der Statistik Dn(u*) unterscheidet sich stark von der Verteilung der Statistik Dn. Betrachten Sie als Beispiel eine Normalitätsprüfung, wenn u = (m, y2) und u* = (, s2). Für diesen Fall sind die Quantile der Verteilungen der Statistiken Dn und Dn(u*) in Tabelle 1 angegeben. Somit unterscheiden sich die Quantile um etwa das 1,5-fache.

Tabelle 1 – Statistikquantile Dn und Dn(u*) beim Testen der Normalität

Bei der primären Verarbeitung statistischer Daten besteht eine wichtige Aufgabe darin, die Ergebnisse von Beobachtungen zu eliminieren, die aufgrund grober Fehler und Fehler entstanden sind. Wenn Sie beispielsweise Gewichtsdaten (in Kilogramm) von Neugeborenen anzeigen, kann neben den Zahlen 3.500, 2.750, 4.200 auch die Zahl 35,00 erscheinen. Es ist klar, dass dies ein Fehler ist und bei einer fehlerhaften Eingabe eine falsche Zahl erhalten wurde - das Komma wurde um ein Zeichen verschoben, als Ergebnis der Beobachtung wurde das Ergebnis der Beobachtung fälschlicherweise um das Zehnfache erhöht.

Statistische Methoden zum Ausschluss von Ausreißern basieren auf der Annahme, dass solche Beobachtungen Verteilungen aufweisen, die sich deutlich von den untersuchten unterscheiden, und dass sie daher aus der Stichprobe ausgeschlossen werden sollten.

Protozoen Wahrscheinlichkeitsmodell Ist. Unter der Nullhypothese werden die Ergebnisse von Beobachtungen als Realisierungen unabhängiger identisch verteilter Zufallsvariablen X1,X2 , Xn mit der Verteilungsfunktion F(x) betrachtet. Unter der Alternativhypothese sind X1, X2, Dann, mit einer Wahrscheinlichkeit nahe 1 (genauer gesagt tendiert sie zu 1, wenn die Stichprobengröße wächst),

Xn = max ( X1, X2 , Xn) = Xmax ,

diese. Bei der Beschreibung der Daten sollte Xmax als möglicher grober Fehler berücksichtigt werden. Der kritische Bereich hat die Form

W \u003d (x: x\u003e d).

Der kritische Wert d = d(b, n) wird abhängig vom Signifikanzniveau b und der Stichprobengröße n aus der Bedingung gewählt

P(Xmax > d | H0) = b (1)

Bedingung (1) entspricht für großes n und kleines b dem Folgenden:

Wenn die Verteilungsfunktion der Ergebnisse der Beobachtungen F(x) bekannt ist, dann wird der kritische Wert d aus Beziehung (2) ermittelt. Wenn beispielsweise F(x) bis auf die Parameter bekannt ist, weiß man, dass F(x) dies ist normale Funktion Verteilung werden dann auch die Regeln zum Testen der betrachteten Hypothese entwickelt.

Allerdings ist die Form der Verteilungsfunktion der Beobachtungsergebnisse oft nicht absolut genau und nicht bis auf die Parameter bekannt, sondern nur mit einem gewissen Fehler. Dann wird Beziehung (2) praktisch unbrauchbar, da ein kleiner Fehler bei der Bestimmung von F(x), wie gezeigt werden kann, zu einem großen Fehler bei der Bestimmung des kritischen Werts d aus Bedingung (2) und bei einem festen d die Signifikanz führt Das Niveau des Kriteriums kann erheblich vom Nominalwert abweichen.

In einer Situation, in der keine vollständigen Informationen über F(x) vorliegen, der mathematische Erwartungswert M(X) und die Varianz y2 = D(X) der Ergebnisse der Beobachtungen X1, X2, Xn jedoch bekannt sind, gelten daher nichtparametrische Ablehnungsregeln basierend auf der Tschebyscheff-Ungleichung verwendet werden. Mit dieser Ungleichung finden wir den kritischen Wert d = d(b, n) so dass

dann ist die Beziehung (3) erfüllt, wenn

Durch Tschebyschews Ungleichung

Damit (4) erfüllt ist, reicht es daher aus, die rechten Seiten der Formeln (4) und (5) gleichzusetzen, d. h. Bestimmen Sie d aus der Bedingung

Die auf dem durch Formel (6) berechneten kritischen Wert von d basierende Ablehnungsregel verwendet die minimalen Informationen über die Verteilungsfunktion F(x) und schließt daher nur Beobachtungen aus, die sehr weit von der Hauptmasse entfernt sind. Mit anderen Worten, der durch Beziehung (1) gegebene Wert von d1 ist normalerweise viel kleiner als der durch Beziehung (6) gegebene Wert von d2.

2.4 Multivariate statistische Analyse

Die multivariate statistische Analyse wird verwendet, um die folgenden Probleme zu lösen:

* Untersuchung der Beziehung zwischen Merkmalen;

* Klassifizierung von Objekten oder Merkmalen durch Vektoren;

* Reduzierung der Dimension des Merkmalsraums.

In diesem Fall ist das Ergebnis von Beobachtungen ein Vektor von Werten einer festen Anzahl quantitativer und manchmal qualitativer Merkmale, die in einem Objekt gemessen werden. Ein quantitatives Zeichen ist ein Zeichen einer beobachteten Einheit, das direkt durch eine Zahl und eine Maßeinheit ausgedrückt werden kann. Ein quantitatives Attribut steht im Gegensatz zu einem qualitativen – einem Attribut einer beobachteten Einheit, das durch Zuordnung zu einer von zwei oder mehr bedingten Kategorien bestimmt wird (wenn es genau zwei Kategorien gibt, wird das Attribut alternativ genannt). Die statistische Analyse qualitativer Merkmale ist Teil der Statistik nichtnumerischer Objekte. Quantitative Zeichen werden in Zeichen unterteilt, die in den Skalen Intervalle, Verhältnisse, Differenzen und Absolutwerte gemessen werden.

Und qualitativ - an den in der Namensskala und der Ordinalskala gemessenen Zeichen. Datenverarbeitungsmethoden sollten mit den Skalen übereinstimmen, in denen die betrachteten Merkmale gemessen werden.

Das Ziel der Untersuchung der Beziehung zwischen Merkmalen besteht darin, die Existenz einer Beziehung zwischen Merkmalen nachzuweisen und diese Beziehung zu untersuchen. Mithilfe der Korrelationsanalyse wird die Existenz eines Zusammenhangs zwischen zwei Zufallsvariablen X und Y nachgewiesen. Wenn die gemeinsame Verteilung von .

Mithilfe der Regressionsanalyse wird die funktionale Abhängigkeit des quantitativen Merkmals Y von den quantitativen Merkmalen x(1), x(2), ..., x(k) untersucht. Diese Abhängigkeit wird Regression oder kurz Regression genannt. Das einfachste probabilistische Modell der Regressionsanalyse (im Fall von k = 1) verwendet als Ausgangsinformation eine Reihe von Paaren von Beobachtungsergebnissen (xi, yi), i = 1, 2, … , n, und hat die Form

yi = axi + b + ei, i = 1, 2, … , n,

wobei ei Beobachtungsfehler sind. Manchmal wird angenommen, dass es sich bei ei um unabhängige Zufallsvariablen mit derselben Normalverteilung N(0, y2) handelt. Da die Verteilung von Beobachtungsfehlern in der Regel vom Normalwert abweicht, empfiehlt es sich, das Regressionsmodell in einer nichtparametrischen Formulierung zu betrachten, d. h. für eine beliebige Verteilung von ei.

Die Hauptaufgabe der Regressionsanalyse besteht darin, die unbekannten Parameter a und b abzuschätzen, die die lineare Abhängigkeit von y von x bestimmen. Zur Lösung dieses Problems wird die 1794 von K. Gauss entwickelte Methode der kleinsten Quadrate verwendet, d.h. Finden Sie Schätzungen unbekannter Modellparameter a und b aus der Bedingung der Minimierung der Quadratsumme

für die Variablen a und b.

Mithilfe der Varianzanalyse wird der Einfluss qualitativer Merkmale auf eine quantitative Variable untersucht. Angenommen, es gäbe k Stichproben von Messergebnissen quantitativer Indikator die Qualität der auf k Maschinen hergestellten Produkteinheiten, d.h. eine Menge von Zahlen (x1(j), x2(j), … , xn(j)), wobei j die Maschinennummer, j = 1, 2, …, k und n die Stichprobengröße ist. In einer gängigen Formulierung der Varianzanalyse wird davon ausgegangen, dass die Messergebnisse unabhängig sind und in jeder Stichprobe eine Normalverteilung N(m(j), y2) mit derselben Varianz aufweisen.

Überprüfung der Gleichmäßigkeit der Produktqualität, d.h. fehlenden Einfluss der Maschinennummer auf die Produktqualität, kommt es darauf an, die Hypothese zu testen

H0: m(1) = m(2) = … = m(k).

In der Dispersionsanalyse wurden Methoden zum Testen solcher Hypothesen entwickelt.

Die Hypothese H0 wird gegen die Alternativhypothese H1 getestet, wonach mindestens eine der angegebenen Gleichungen nicht erfüllt ist. Die Überprüfung dieser Hypothese basiert auf der folgenden von R.A. Fisher angegebenen „Varianzzerlegung“:

wobei s2 die Stichprobenvarianz in der gepoolten Stichprobe ist, d. h.

Somit spiegelt der erste Term auf der rechten Seite der Formel (7) die gruppeninterne Streuung wider. Schließlich ist die Intergruppenvarianz,

Der Bereich der angewandten Statistik im Zusammenhang mit Varianzerweiterungen des Typs Formel (7) wird als Varianzanalyse bezeichnet. Betrachten Sie als Beispiel für ein Problem der Varianzanalyse die Prüfung der obigen Hypothese H0 unter der Annahme, dass die Messergebnisse unabhängig sind und in jeder Stichprobe eine Normalverteilung N(m(j), y2) mit derselben Varianz vorliegen. Wenn H0 wahr ist, hat der erste Term auf der rechten Seite der Formel (7), dividiert durch y2, eine Chi-Quadrat-Verteilung mit k(n-1) Freiheitsgraden, und der zweite Term, dividiert durch y2, hat ebenfalls eine Chi-Quadrat-Verteilung mit k(n-1) Freiheitsgraden eine Chi-Quadrat-Verteilung, jedoch mit ( k-1) Freiheitsgraden, und der erste und zweite Term sind als Zufallsvariablen unabhängig. Also die Zufallsvariable

hat eine Fisher-Verteilung mit (k-1) Zähler-Freiheitsgraden und k(n-1) Nenner-Freiheitsgraden. Die Hypothese H0 wird akzeptiert, wenn F< F1-б, и отвергается в противном случае, где F1-б - квантиль порядка 1-б распределения Фишера с указанными числами степеней свободы. Такой выбор критической области определяется тем, что при Н1 величина F безгранично увеличивается при росте объема выборок n. Значения F1-б берут из соответствующих таблиц.

Es wurden nichtparametrische Methoden zur Lösung klassischer Probleme der Dispersionsanalyse, insbesondere zum Testen der Hypothese H0, entwickelt.

Die nächste Art multivariater statistischer Analyseprobleme sind Klassifizierungsprobleme. Sie sind grundsätzlich dreigeteilt andere Art- Diskriminanzanalyse, Clusteranalyse, Gruppierungsprobleme.

Die Aufgabe der Diskriminanzanalyse besteht darin, eine Regel zu finden, um ein beobachtetes Objekt einer der zuvor beschriebenen Klassen zuzuordnen. In diesem Fall werden Objekte in einem mathematischen Modell mithilfe von Vektoren beschrieben, deren Koordinaten das Ergebnis der Beobachtung einer Reihe von Merkmalen für jedes Objekt sind. Klassen werden entweder direkt in mathematischen Begriffen oder anhand von Trainingsbeispielen beschrieben. Ein Trainingsmuster ist ein Beispiel, bei dem für jedes Element angegeben wird, zu welcher Klasse es gehört.

...

Ähnliche Dokumente

    Geschichte der Ökonometrie und angewandten Statistik. Angewandte Statistik in nationale Wirtschaft. Wachstumspunkte. Nichtparametrische Statistik. Die Statistik von Objekten nichtnumerischer Natur ist Teil der angewandten Statistik.

    Zusammenfassung, hinzugefügt am 01.08.2009

    Strukturkomponenten der deterministischen Komponente. Das Hauptziel der statistischen Analyse von Zeitreihen. Extrapolationsprognose wirtschaftlicher Prozesse. Identifizierung anomaler Beobachtungen sowie die Erstellung von Zeitreihenmodellen.

    Hausarbeit, hinzugefügt am 11.03.2014

    Statistische Modelle der Entscheidungsfindung. Beschreibung von Modellen mit bekannter Wahrscheinlichkeitsverteilung des Zustands der Umwelt. Rücksichtnahme die einfachste Schaltung dynamischer Entscheidungsprozess. Durchführung der Berechnung der Wahrscheinlichkeit einer Unternehmensänderung.

    Kontrollarbeiten, hinzugefügt am 07.11.2011

    Statistische Methoden zur Analyse eindimensionaler Zeitreihen, Lösung von Analyse- und Prognoseproblemen, Darstellung des Diagramms des untersuchten Indikators. Kriterien zur Identifizierung der Komponenten der Reihe, zum Testen der Hypothese über die Zufälligkeit der Reihe und die Werte der Standardfehler.

    Kontrollarbeiten, hinzugefügt am 13.08.2010

    Die Rolle statistischer Methoden bei einer objektiven Bewertung der quantitativen und qualitativen Merkmale des Managementprozesses. Einsatz von Qualitätstools bei der Analyse von Prozessen und Produktparametern. Diskrete Zufallsvariablen. Wahrscheinlichkeitstheorie.

    Hausarbeit, hinzugefügt am 11.01.2015

    mathematische Theorie optimale Entscheidungsfindung. Tabellarische Simplex-Methode. Formulierung und Lösung des dualen Problems der linearen Programmierung. Mathematisches Modell Transportaufgabe. Analyse der Machbarkeit der Herstellung von Produkten im Unternehmen.

    Kontrollarbeiten, hinzugefügt am 13.06.2012

    Allgemeine, selektive Bevölkerung. Methodische Grundlagen Wahrscheinlichkeitsstatistische Analyse. MathCad-Funktionen zur Lösung von Problemen der mathematischen Statistik. Lösen von Problemen in MS Excel mithilfe von Formeln und Verwendung des Menüs „Datenanalyse“.

    Hausarbeit, hinzugefügt am 20.01.2014

    Berechnung der Kostenhöhe für den Produktionsplan. Koeffizienten der linearen Gleichung der Paarregression. Merkmale der grafischen Interpretation der Ergebnisse. Entwicklung wirtschaftlicher Prozesse. Merkmale der ökonometrischen Modellierung von Zeitreihen.

    Test, hinzugefügt am 22.02.2011

    Grundelemente der ökonometrischen Analyse von Zeitreihen. Analyseaufgaben und deren Erstbearbeitung. Lösung von Problemen der kurz- und mittelfristigen Prognose von Zeitreihenwerten. Methoden zum Ermitteln der Parameter der Trendgleichung. Methode der kleinsten Quadrate.

    Kontrollarbeiten, hinzugefügt am 03.06.2009

    Elementare Konzepte über zufällige Ereignisse, Mengen und Funktionen. Numerische Eigenschaften von Zufallsvariablen. Arten der Asymmetrie von Verteilungen. Statistische Auswertung der Verteilung von Zufallsvariablen. Lösung von Problemen der strukturparametrischen Identifizierung.

Analytische Methoden basieren auf der Arbeit des Managers mit einer Reihe analytischer Abhängigkeiten. Die den Zusammenhang zwischen den Bedingungen der ausgeführten Aufgabe und ihrem Ergebnis in Form von Formeln, Diagrammen usw. bestimmen.

Statistische Methoden basieren auf der Nutzung von Informationen über bewährte Praktiken der Vergangenheit bei der Entwicklung der SD-Akzeptanz. Diese Methoden werden durch das Sammeln, Verarbeiten und Analysieren statistischer Daten mithilfe statischer Modellierung implementiert. Solche Methoden können sowohl in der Entwicklungsphase als auch in der Phase der Lösungsauswahl eingesetzt werden.

Mit mathematischen Methoden können Sie die beste Lösung nach den optimalen Kriterien berechnen. Dazu wird die gewünschte Situation in den Computer eingegeben, das Ziel und die Kriterien eingegeben. Ein Computer entwickelt, basierend auf einer mathematischen Beziehung, entweder ein neues oder wählt ein passendes aus.

18 Aktivierende Methoden zur Entscheidungsfindung im Management

Brainstorming ist eine Methode zur Gruppendiskussion über ein Problem, die auf nichtanalytischem Denken basiert.

1) Die Phase der Ideengenerierung ist von der Phase der Kritik getrennt;

2) In der Phase der Ideengenerierung ist jegliche Kritik untersagt; absurde Ideen werden akzeptiert.

3) Alle Ideen werden schriftlich festgehalten;

4) In dieser Phase wählen Kritiker 3-4 Ideen aus, die als Alternativen in Betracht gezogen werden können.

Die Methode „Fragen und Antworten“ basiert auf der vorläufigen Zusammenstellung einer Reihe von Fragen, auf die sich Antworten bilden können neuer Ansatz zur Lösung des Problems.

Methode „5 Warum“

Fünf „Warum?“ ist ein wirksames Tool, das mithilfe von Fragen die einem bestimmten Problem zugrunde liegenden Ursache-Wirkungs-Beziehungen untersucht, kausale Faktoren identifiziert und die Grundursache ermittelt. Wenn wir die Logik in Richtung „Warum?“ betrachten, offenbaren wir nach und nach die gesamte Kette sukzessive miteinander verbundener Kausalfaktoren, die das Problem beeinflussen.

Aktionsplan

Bestimmen Sie das spezifische Problem, das gelöst werden soll.

Einigung über die Formulierung des betrachteten Problems erzielen.

Wenn man nach einer Lösung für ein Problem sucht, sollte man vom Endergebnis (Problem) ausgehen und rückwärts (zur Grundursache hin) arbeiten und sich fragen, warum das Problem auftritt.

Schreiben Sie die Antwort unter die Aufgabe.

Wenn die Antwort die Ursache des Problems nicht aufdeckt, stellen Sie die Frage „Warum?“ erneut. und schreibe unten eine neue Antwort.

Die Frage „Warum?“ muss wiederholt werden, bis die Grundursache des Problems offensichtlich wird.

Wenn die Antwort das Problem löst und die Gruppe damit einverstanden ist, wird anhand der Antwort eine Entscheidung getroffen.

Die „spieltheoretische Methode“ basiert auf der Schaffung eines Mensch-Maschine-Systems zur Lösungsentwicklung. Traditionelle Treffen waren der Vorreiter. Normalerweise bei solchen Treffen, wirtschaftlicher, sozialer Natur. und spezialisierte Lösungen. Die Interessen der Teilnehmer sind oft unterschiedlich und das Spektrum der Themen breit gefächert. Eine qualitative Weiterentwicklung der Meetingmethodik war die Einführung des Entwicklungsprozesses von SD, künstlicher Intelligenz in Form eines Computermodells.

Das Computermodell der Organisation umfasst:

1) Referenzdaten (zu Lieferanten, Verbrauchern);

2) Simulationsmodelle des Unternehmens

3) Methoden der wirtschaftlichen Berechnung und Prognose

4) Informationen über Lösungen in ähnlichen Situationen.

Dadurch sind Meetings produktiver. Ein solches Treffen kann in mehreren Sitzungen des Spiels stattfinden: In einer Sitzung geben alle Teilnehmer ihre Anforderungen ein, nachdem sie am Computer verarbeitet wurden. Erlässt eine bestimmte Entscheidung, die erneut besprochen und angepasst werden kann. Dies kann so lange dauern, bis eine gemeinsame Entscheidung getroffen wird oder bis eine Entscheidung abgelehnt wird.

Und folgt auf „gerechte Lügen“ und „offensichtliche Lügen“, die Benjamin Disraeli zugeschrieben werden, dem vierzigsten und zweiundvierzigsten (Zeiträume fallen in die 2. Hälfte des 19. Jahrhunderts) Premierminister Großbritanniens. Allerdings wird in unserer Zeit die von Mark Twain beworbene Urheberschaft von Disraeli geleugnet. Aber wie dem auch sei, viele Experten wiederholen diesen Satz weiterhin in ihren Werken oder deren Hauptinhalt sind die Methoden der statistischen Analyse. In der Regel klingt es wie ein Witz, in dem nur ein Bruchteil eines Witzes steckt ...

Statistik ist ein bestimmter Wissenszweig, der das Verfahren zum Sammeln, Analysieren und Interpretieren großer Datenmengen, sowohl qualitativer als auch quantitativer Art, beschreibt. Es betrifft verschiedene wissenschaftliche oder praktische Lebensbereiche. Angewandte Statistiken helfen beispielsweise bei der Auswahl der richtigen statistischen Methode zur Verarbeitung aller Arten von Daten zur Analyse. Juristische Arbeiten im Bereich Straftaten und deren Kontrolle. Mathematical entwickelt mathematische Methoden, die es Ihnen ermöglichen, die erhaltenen Informationen zu systematisieren und für praktische oder wissenschaftliche Zwecke zu nutzen. Demografische Daten beschreiben Muster Bei Abfragestatistiken geht es eher um Linguisten und das Internet.

Der Einsatz statistischer Methoden reicht mindestens bis ins 5. Jahrhundert v. Chr. zurück. Eine der frühesten Aufzeichnungen enthält ein Buch aus dem 9. Jahrhundert n. Chr. e. Arabischer Philosoph, Arzt, Mathematiker und Musiker Al-Kindi. Er gab detaillierte Beschreibung wie man die Frequenzanalyse (Histogramm) verwendet. Die neuen Chroniken stammen aus dem 14. Jahrhundert und beschreiben die Geschichte von Florenz. Sie gelten als eines der ersten positiven statistischen Werke der Geschichte. Sie wurden vom Florentiner Bankier Giovanni Villani zusammengestellt und enthalten zahlreiche Informationen über Bevölkerung, Regierung, Handel, Bildung und religiöse Stätten.

Der frühe Einsatz von Statistiken wird durch den Wunsch des Staates bestimmt, eine demografisch und wirtschaftlich sinnvolle Politik aufzubauen. Sein Anwendungsbereich wurde im frühen 19. Jahrhundert um die Sammlung und Analyse von Daten im Allgemeinen erweitert. Dieses Wissensgebiet wird heute in großem Umfang von Behörden, Wirtschafts-, Natur- und Sozialwissenschaften genutzt. Seine mathematischen Grundlagen, deren Bedarf sich aus dem Studium des Glücksspiels ergab, wurden bereits im 17. Jahrhundert mit der Entwicklung der Wahrscheinlichkeitstheorie durch französische Mathematiker und Pierre de Fermat gelegt. Die Statistik wurde erstmals um 1794 von Carl Friedrich Gauß beschrieben.

Schnell und nachhaltiges Wachstum Die Rechenleistung hatte ab der zweiten Hälfte des 20. Jahrhunderts einen erheblichen Einfluss auf die Entwicklung der angewandten Statistik. Die Computerrevolution hat einen neuen Schwerpunkt auf ihre experimentellen und empirischen Komponenten gelegt. Ab sofort verfügbar große Menge Sowohl allgemeine als auch spezielle Programme, mit denen Sie jede statistische Methode problemlos in der Praxis anwenden können, seien es Kontrollkarten, Histogramme, Checklisten, Schichtungsmethoden, Ishikawa-Diagramme oder Pareto-Analysen.

Statistiken sind heute eines der wichtigsten Instrumente für die effektive Führung eines Unternehmens und die Organisation der Produktion. Es ermöglicht Ihnen, Schwankungstrends zu verstehen und zu messen, was zu einer verbesserten Prozesskontrolle sowie einer verbesserten Produkt- und Servicequalität führt. So treffen beispielsweise Manager, die statistische Qualitäten nutzen, in der Regel fundierte Entscheidungen, wodurch das Management effizient arbeitet und die erwarteten Ergebnisse bringt. Daher ist die Statistik in diesem Fall das wichtigste und vielleicht einzige zuverlässige Instrument.

Die Fähigkeit, eine statistische Methode auszuwählen und richtig anzuwenden, ermöglicht es Ihnen, zuverlässige Schlussfolgerungen zu ziehen und diejenigen, denen die Analysedaten zur Verfügung gestellt werden, nicht in die Irre zu führen. Daher sollte die häufige Erwähnung der alten Aussage über die 3 Grade der Lüge durch Fachleute als Warnung vor Irrtümern betrachtet werden, die irreführen und die Grundlage bilden können Entscheidungen getroffen mit verheerenden Folgen.