Métodos de soluciones estadísticas. Modelos probabilísticos y estadísticos de toma de decisiones II planificación temática

2. DESCRIPCIÓN DE LAS INCERTIDUMBRES EN LA TEORÍA DE LA TOMA DE DECISIONES

2.2. Métodos probabilísticos y estadísticos para describir incertidumbres en la teoría de la decisión.

2.2.1. Teoría de la probabilidad y estadística matemática en la toma de decisiones.

¿Cómo se utilizan la teoría de la probabilidad y la estadística matemática? Estas disciplinas son la base de la probabilidad. métodos de estadística Toma de decisiones. Para utilizar su aparato matemático, es necesario expresar los problemas de toma de decisiones en términos de modelos estadístico-probabilísticos. La aplicación de un método específico de toma de decisiones estadístico-probabilístico consta de tres etapas:

La transición de la realidad económica, de gestión y tecnológica a un esquema matemático y estadístico abstracto, es decir. construcción de un modelo probabilístico de un sistema de control, proceso tecnológico, procedimiento de toma de decisiones, en particular basado en los resultados del control estadístico, etc.

Realizar cálculos y sacar conclusiones utilizando medios puramente matemáticos en el marco de un modelo probabilístico;

Interpretación de conclusiones matemáticas y estadísticas en relación con una situación real y toma de una decisión adecuada (por ejemplo, sobre el cumplimiento o incumplimiento de la calidad del producto con los requisitos establecidos, la necesidad de ajustar el proceso tecnológico, etc.), en particular, conclusiones (sobre la proporción de unidades defectuosas de producto en un lote, sobre la forma específica de las leyes de distribución de los parámetros controlados del proceso tecnológico, etc.).

La estadística matemática utiliza los conceptos, métodos y resultados de la teoría de la probabilidad. Consideremos las principales cuestiones de la construcción de modelos probabilísticos de toma de decisiones en situaciones económicas, de gestión, tecnológicas y de otro tipo. Para el uso activo y correcto de documentos reglamentarios, técnicos e instructivos sobre métodos probabilísticos y estadísticos de toma de decisiones, se requieren conocimientos previos. Así, es necesario saber en qué condiciones se debe utilizar un documento en particular, qué información inicial es necesaria para su selección y aplicación, qué decisiones se deben tomar en función de los resultados del procesamiento de datos, etc.

Ejemplos de aplicación Teoría de la probabilidad y estadística matemática. Consideremos varios ejemplos de probabilismo. modelos estadísticos son una buena herramienta para resolver problemas de gestión, producción, económicos y económicos nacionales. Así, por ejemplo, en la novela de A. N. Tolstoi "Caminando entre el tormento" (vol. 1) se dice: "el taller produce el veintitrés por ciento de los rechazos, usted se atiene a esta cifra", le dijo Strukov a Iván Ilich.

Surge la pregunta de cómo entender estas palabras en la conversación de los directores de fábrica, ya que una unidad de producción no puede tener un 23% de defectos. Puede ser bueno o defectuoso. Strukov probablemente quiso decir que un lote de gran volumen contiene aproximadamente un 23% de unidades de producción defectuosas. Entonces surge la pregunta: ¿qué significa “aproximadamente”? Si 30 de 100 unidades de producción probadas resultan defectuosas, o de 1.000 a 300, o de 100.000 a 30.000, etc., ¿se debería acusar a Strukov de mentir?

U otro ejemplo. La moneda utilizada como lote debe ser “simétrica”, es decir al lanzarlo, en promedio, en la mitad de los casos debería aparecer el escudo de armas y en la mitad de los casos, un hash (cruz, número). ¿Pero qué significa "en promedio"? Si realizas muchas series de 10 lanzamientos en cada serie, a menudo encontrarás series en las que la moneda sale como un escudo de armas 4 veces. Para una moneda simétrica, esto sucederá en el 20,5% de las tiradas. Y si después de 100.000 lanzamientos quedan 40.000 escudos, ¿se puede considerar simétrica la moneda? El procedimiento de toma de decisiones se basa en la teoría de la probabilidad y la estadística matemática.

El ejemplo en cuestión puede no parecer lo suficientemente serio. Sin embargo, no lo es. El sorteo se utiliza ampliamente en la organización de experimentos técnicos y económicos industriales, por ejemplo, al procesar los resultados de medir el indicador de calidad (par de fricción) de los rodamientos dependiendo de diversos factores tecnológicos (la influencia del entorno de conservación, métodos de preparación de los rodamientos antes de la medición). , la influencia de las cargas de los rodamientos durante el proceso de medición, etc.). P.). Digamos que es necesario comparar la calidad de los rodamientos en función de los resultados de su almacenamiento en diferentes aceites de conservación, es decir, en aceites de composición A Y EN. Al planificar un experimento de este tipo, surge la pregunta de qué cojinetes se deben colocar en el aceite de la composición. A, y cuáles - en la composición del aceite EN, pero de forma que se evite la subjetividad y se asegure la objetividad de la decisión tomada.

La respuesta a esta pregunta se puede obtener mediante sorteo. Se puede dar un ejemplo similar con el control de calidad de cualquier producto. Para decidir si el lote controlado de productos cumple o no con los requisitos establecidos, se selecciona una muestra del mismo. A partir de los resultados del control de muestras se llega a una conclusión sobre todo el lote. En este caso, es muy importante evitar la subjetividad al momento de formar una muestra, es decir, es necesario que cada unidad de producto del lote controlado tenga la misma probabilidad de ser seleccionada para la muestra. En condiciones de producción, la selección de unidades de producto para la muestra generalmente no se lleva a cabo por lote, sino mediante tablas especiales de números aleatorios o mediante sensores de números aleatorios por computadora.

Problemas similares a la hora de garantizar la objetividad de la comparación surgen al comparar varios esquemas de organización de la producción, remuneración, durante licitaciones y concursos, y al seleccionar candidatos para puestos vacantes etcétera. En todas partes necesitamos un sorteo o procedimientos similares. Expliquemos con el ejemplo de identificar al equipo más fuerte y al segundo más fuerte al organizar un torneo según el sistema olímpico (el perdedor queda eliminado). Que el equipo más fuerte siempre derrote al más débil. Está claro que el equipo más fuerte definitivamente será el campeón. El segundo equipo más fuerte llegará a la final si y sólo si no ha jugado ningún partido con el futuro campeón antes de la final. Si se planifica un partido así, el segundo equipo más fuerte no llegará a la final. Quien planifica el torneo puede "eliminar" antes de lo previsto al segundo equipo más fuerte del torneo, enfrentándolo con el líder en el primer encuentro, o proporcionarle el segundo lugar asegurándole encuentros con equipos más débiles hasta el final. final. Para evitar subjetividades se realiza un sorteo. Para un torneo de 8 equipos, la probabilidad de que los dos mejores equipos se enfrenten en la final es 4/7. En consecuencia, con una probabilidad de 3/7, el segundo equipo más fuerte abandonará el torneo antes de tiempo.

Cualquier medición de unidades de producto (mediante pie de rey, micrómetro, amperímetro, etc.) contiene errores. Para saber si existen errores sistemáticos, es necesario realizar mediciones repetidas de una unidad de producto cuyas características se conocen (por ejemplo, una muestra estándar). Cabe recordar que además del error sistemático, también existe el error aleatorio.

Por tanto, surge la pregunta de cómo saber a partir de los resultados de la medición si existe un error sistemático. Si sólo observamos si el error obtenido durante la siguiente medición es positivo o negativo, entonces esta tarea se puede reducir a la anterior. De hecho, comparemos una medida con el lanzamiento de una moneda, un error positivo con la pérdida de un escudo de armas, un error negativo con una cuadrícula (casi nunca ocurre un error cero con un número suficiente de divisiones de escala). Entonces comprobar la ausencia de error sistemático equivale a comprobar la simetría de la moneda.

El objetivo de estas consideraciones es reducir el problema de comprobar la ausencia de un error sistemático al problema de comprobar la simetría de una moneda. El razonamiento anterior conduce al llamado "criterio de signo" en estadística matemática.

En la regulación estadística de los procesos tecnológicos, con base en los métodos de la estadística matemática, se desarrollan reglas y planes para el control estadístico de los procesos, encaminados a la detección oportuna de problemas en los procesos tecnológicos y la toma de medidas para ajustarlos y prevenir la liberación de productos que no cumplir con los requisitos establecidos. Estas medidas tienen como objetivo reducir los costos de producción y las pérdidas por el suministro de unidades de baja calidad. Durante el control estadístico de aceptación, basándose en los métodos de la estadística matemática, se desarrollan planes de control de calidad mediante el análisis de muestras de lotes de productos. La dificultad radica en poder construir correctamente modelos probabilístico-estadísticos de toma de decisiones, a partir de los cuales se puedan responder las preguntas planteadas anteriormente. En estadística matemática, se han desarrollado para este propósito modelos probabilísticos y métodos para probar hipótesis, en particular, hipótesis de que la proporción de unidades de producción defectuosas es igual a un cierto número. página 0, Por ejemplo, página 0= 0,23 (recuerde las palabras de Strukov en la novela de A.N. Tolstoi).

Tareas de evaluación. En una serie de situaciones de gestión, producción, económicas y económicas nacionales, surgen problemas de otro tipo: problemas de evaluación de las características y parámetros de las distribuciones de probabilidad.

Veamos un ejemplo. Deja que un lote de norte lámparas electricas De este lote, una muestra de norte lámparas electricas Surgen una serie de preguntas naturales. ¿Cómo determinar la vida útil promedio de las lámparas eléctricas basándose en los resultados de las pruebas de elementos de muestra y con qué precisión se puede evaluar esta característica? ¿Cómo cambiará la precisión si tomamos una muestra más grande? ¿A qué cantidad de horas? t se puede garantizar que al menos el 90% de las lámparas eléctricas durarán t y mas horas?

Supongamos que al probar un tamaño de muestra norte las lámparas eléctricas resultaron defectuosas X lámparas electricas Entonces surgen las siguientes preguntas. ¿Qué límites se pueden especificar para un número? D bombillas defectuosas en un lote, para el nivel de defecto D/ norte etcétera.?

O, al analizar estadísticamente la precisión y estabilidad de los procesos tecnológicos, es necesario evaluar indicadores de calidad como el valor promedio del parámetro controlado y el grado de dispersión en el proceso considerado. Según la teoría de la probabilidad, es aconsejable utilizar su expectativa matemática como valor medio de una variable aleatoria, y la dispersión, desviación estándar o coeficiente de variación como característica estadística del diferencial. Esto plantea la pregunta: ¿cómo estimar estas características estadísticas a partir de datos de muestra y con qué precisión se puede hacer esto? Hay muchos ejemplos similares que se pueden dar. Aquí era importante mostrar cómo se pueden utilizar la teoría de la probabilidad y la estadística matemática en gestión de la producción a la hora de tomar decisiones en el ámbito de la gestión estadística de la calidad de los productos.

¿Qué es la "estadística matemática"? Se entiende por estadística matemática “una rama de las matemáticas dedicada a los métodos matemáticos de recopilación, sistematización, procesamiento e interpretación de datos estadísticos, así como a su utilización para conclusiones científicas o prácticas. Las reglas y procedimientos de la estadística matemática se basan en la teoría de la probabilidad, la cual nos permite evaluar la exactitud y confiabilidad de las conclusiones obtenidas en cada problema con base en el material estadístico disponible”. En este caso, los datos estadísticos se refieren a información sobre el número de objetos de cualquier colección más o menos extensa que tienen determinadas características.

Según el tipo de problemas que se resuelven, la estadística matemática suele dividirse en tres secciones: descripción de datos, estimación y prueba de hipótesis.

Según el tipo de datos estadísticos procesados, la estadística matemática se divide en cuatro áreas:

Estadística univariada (estadística de variables aleatorias), en la que el resultado de una observación se describe mediante un número real;

Análisis estadístico multivariado, donde el resultado de observar un objeto se describe mediante varios números (vector);

Estadísticas de procesos aleatorios y series de tiempo, donde el resultado de la observación es una función;

Estadísticas de objetos de naturaleza no numérica, en los que el resultado de una observación es de naturaleza no numérica, por ejemplo, es un conjunto (una figura geométrica), un ordenamiento, u obtenido como resultado de una medición basada sobre un criterio cualitativo.

Históricamente, algunas áreas de la estadística de objetos de naturaleza no numérica (en particular, los problemas de estimar la proporción de defectos y probar hipótesis al respecto) y la estadística unidimensional fueron las primeras en aparecer. El aparato matemático les resulta más sencillo, por lo que su ejemplo se suele utilizar para demostrar las ideas básicas de la estadística matemática.

Sólo aquellos métodos de procesamiento de datos, es decir Las estadísticas matemáticas se basan en evidencia, que se basan en modelos probabilísticos de fenómenos y procesos reales relevantes. Estamos hablando de modelos de comportamiento del consumidor, ocurrencia de riesgos, funcionamiento. Equipo tecnológico, obteniendo los resultados del experimento, el curso de la enfermedad, etc. Un modelo probabilístico de un fenómeno real debe considerarse construido si las cantidades consideradas y las conexiones entre ellas se expresan en términos de la teoría de la probabilidad. Correspondencia al modelo probabilístico de la realidad, es decir. su idoneidad se fundamenta, en particular, mediante métodos estadísticos para probar hipótesis.

Los métodos no probabilísticos de procesamiento de datos son exploratorios; solo se pueden utilizar en el análisis preliminar de datos, ya que no permiten evaluar la precisión y confiabilidad de las conclusiones obtenidas sobre la base de material estadístico limitado.

Los métodos probabilísticos y estadísticos son aplicables siempre que sea posible construir y justificar un modelo probabilístico de un fenómeno o proceso. Su uso es obligatorio cuando las conclusiones extraídas de datos de muestra se transfieren a toda la población (por ejemplo, de una muestra a un lote completo de productos).

En áreas de aplicación específicas se utilizan métodos tanto probabilísticos como estadísticos de aplicación general y específicos. Por ejemplo, en la sección de gestión de producción dedicada a métodos estadísticos de gestión de la calidad del producto, se utilizan estadísticas matemáticas aplicadas (incluido el diseño de experimentos). Utilizando sus métodos, se llevan a cabo análisis estadísticos de la precisión y estabilidad de los procesos tecnológicos y evaluación estadística de la calidad. Los métodos específicos incluyen métodos de control estadístico de aceptación de la calidad del producto, regulación estadística de procesos tecnológicos, evaluación y control de confiabilidad, etc.

Las disciplinas probabilísticas y estadísticas aplicadas, como la teoría de la confiabilidad y la teoría de colas, se utilizan ampliamente. El contenido del primero de ellos se desprende del nombre, el segundo se ocupa del estudio de sistemas como una central telefónica que recibe llamadas en momentos aleatorios: las necesidades de los suscriptores que marcan números en sus teléfonos. La duración del servicio de estos requisitos, es decir la duración de las conversaciones también se modela mediante variables aleatorias. El miembro correspondiente de la Academia de Ciencias de la URSS A.Ya. Khinchin (1894-1959), académico de la Academia de Ciencias de la República Socialista Soviética de Ucrania B.V. Gnedenko (1912-1995) y otros científicos nacionales.

Brevemente sobre la historia de la estadística matemática. La estadística matemática como ciencia comienza con los trabajos del famoso matemático alemán Carl Friedrich Gauss (1777-1855), quien, basándose en la teoría de la probabilidad, investigó y justificó el método de mínimos cuadrados, creado por él en 1795 y utilizado para procesar datos astronómicos ( para aclarar la órbita de un pequeño planeta Ceres). Una de las distribuciones de probabilidad más populares, la normal, suele llevar su nombre, y en la teoría de procesos aleatorios el principal objeto de estudio son los procesos gaussianos.

EN finales del XIX v. - principios del siglo 20 Los investigadores ingleses, principalmente K. Pearson (1857-1936) y R. A. Fisher (1890-1962), hicieron importantes contribuciones a la estadística matemática. En particular, Pearson desarrolló la prueba de chi-cuadrado para probar hipótesis estadísticas y Fisher desarrolló el análisis de varianza, la teoría del diseño experimental y el método de máxima verosimilitud para estimar parámetros.

En los años 30 del siglo XX. El polaco Jerzy Neyman (1894-1977) y el inglés E. Pearson desarrollaron teoria general probar hipótesis estadísticas, y los matemáticos soviéticos, el académico A.N. Kolmogorov (1903-1987) y el miembro correspondiente de la Academia de Ciencias de la URSS N.V. Smirnov (1900-1966) sentaron las bases de la estadística no paramétrica. En los años cuarenta del siglo XX. El rumano A. Wald (1902-1950) construyó la teoría del análisis estadístico secuencial.

La estadística matemática se está desarrollando rápidamente en la actualidad. Así, durante los últimos 40 años, se pueden distinguir cuatro áreas de investigación fundamentalmente nuevas:

Desarrollo e implementación métodos matemáticos experimentos de planificación;

Desarrollo de estadísticas de objetos de naturaleza no numérica como dirección independiente en estadística matemática aplicada;

Desarrollo de métodos estadísticos resistentes a pequeñas desviaciones del modelo probabilístico utilizado;

Amplio desarrollo de trabajos de creación de paquetes de software informáticos diseñados para el análisis de datos estadísticos.

Métodos probabilístico-estadísticos y optimización. La idea de optimización impregna la estadística matemática aplicada moderna y otros métodos estadísticos. A saber, métodos de planificación de experimentos, control estadístico de aceptación, regulación estadística de procesos tecnológicos, etc. Por otro lado, las formulaciones de optimización en la teoría de la toma de decisiones, por ejemplo, la teoría aplicada de la optimización de la calidad del producto y los requisitos estándar, prevén la Uso generalizado de métodos estadísticos probabilísticos, principalmente estadística matemática aplicada.

En la gestión de la producción, en particular, al optimizar la calidad del producto y los requisitos estándar, es especialmente importante aplicar métodos estadísticos en la etapa inicial del ciclo de vida del producto, es decir, en la etapa de investigación, preparación de desarrollos de diseños experimentales (desarrollo de requisitos prometedores para productos, diseño preliminar, términos de referencia para desarrollo experimental). Esto se debe a la limitada información disponible en la etapa inicial del ciclo de vida del producto y a la necesidad de predecir las capacidades técnicas y la situación económica para el futuro. Los métodos estadísticos deben utilizarse en todas las etapas de la resolución de un problema de optimización: al escalar variables, desarrollar modelos matemáticos del funcionamiento de productos y sistemas, realizar experimentos técnicos y económicos, etc.

En los problemas de optimización, incluida la optimización de la calidad del producto y los requisitos estándar, se utilizan todas las áreas de la estadística. A saber, estadísticas de variables aleatorias, análisis estadístico multivariado, estadísticas de procesos aleatorios y series de tiempo, estadísticas de objetos de naturaleza no numérica. Es aconsejable seleccionar un método estadístico para analizar datos específicos de acuerdo con las recomendaciones.

Anterior

Enviar su buen trabajo en la base de conocimientos es sencillo. Utilice el siguiente formulario

Los estudiantes, estudiantes de posgrado y jóvenes científicos que utilicen la base de conocimientos en sus estudios y trabajos le estarán muy agradecidos.

Publicado en http://www.allbest.ru/

[Ingrese texto]

Introducción

1. Teoría de la probabilidad y estadística matemática en la toma de decisiones

1.1 Cómo se utilizan la teoría de la probabilidad y la estadística matemática

1.2 Ejemplos de aplicación de la teoría de la probabilidad y la estadística matemática

1.3 Objetivos de la evaluación

1.4 ¿Qué es la “estadística matemática”?

1.5 Brevemente sobre la historia de la estadística matemática.

1.6 Métodos estadístico-probabilísticos y optimización

2. Problemas prácticos típicos de la toma de decisiones estadístico-probabilístico y métodos para resolverlos.

2.1 Estadísticas y estadística aplicada

2.2 Tareas de análisis estadístico de la precisión y estabilidad de los procesos tecnológicos y la calidad del producto.

2.3 Problemas de estadística unidimensional (estadística de variables aleatorias)

2.4 Análisis estadístico multivariado

2.5 Estadísticas de procesos aleatorios y series de tiempo

2.6 Estadísticas de objetos de naturaleza no numérica

3. Aplicación de métodos probabilísticos y estadísticos de toma de decisiones en la resolución de problemas económicos.

Conclusión

Referencias

Introducción

Los métodos probabilístico-estadísticos de toma de decisiones se utilizan en el caso en que la efectividad de las decisiones tomadas depende de factores que son variables aleatorias para las cuales se conocen las leyes de distribución de probabilidad y otras características estadísticas. Además, cada decisión puede conducir a uno de muchos resultados posibles, y cada resultado tiene una cierta probabilidad de ocurrencia, que puede calcularse. Indicadores que caracterizan situación problemática, también se describen utilizando características probabilísticas. En tales tareas de toma de decisiones, el tomador de decisiones siempre corre el riesgo de obtener un resultado que no es hacia el que se orienta al elegir la solución óptima en base a las características estadísticas promediadas de factores aleatorios, es decir, la decisión se toma bajo condiciones de riesgo.

En la práctica, los métodos probabilísticos y estadísticos se utilizan a menudo cuando las conclusiones extraídas de datos de muestra se transfieren a toda la población (por ejemplo, de una muestra a un lote completo de productos). Sin embargo, en cada situación específica, primero se debe evaluar la posibilidad fundamental de obtener datos probabilísticos y estadísticos suficientemente confiables.

Cuando se utilizan las ideas y resultados de la teoría de la probabilidad y la estadística matemática al tomar decisiones, la base es un modelo matemático en el que las relaciones objetivas se expresan en términos de la teoría de la probabilidad. Las probabilidades se utilizan principalmente para describir la aleatoriedad que se debe tener en cuenta al tomar decisiones. Esto se refiere tanto a oportunidades no deseadas (riesgos) como a oportunidades atractivas (“oportunidades de suerte”).

La esencia de los métodos de toma de decisiones estadístico-probabilístico es el uso de modelos probabilísticos basados ​​en la estimación y prueba de hipótesis utilizando características de muestra.

La lógica de utilizar características de la muestra para tomar decisiones basadas en modelos teóricos implica el uso simultáneo de dos series paralelas de conceptos: los relacionados con la teoría (modelo probabilístico) y los relacionados con la práctica (muestreo de resultados de observación). Por ejemplo, la probabilidad teórica corresponde a la frecuencia encontrada en la muestra. La expectativa matemática (series teóricas) corresponde a la media aritmética muestral (series prácticas). Normalmente, las características de la muestra son estimaciones de características teóricas.

Las ventajas de utilizar estos métodos incluyen la capacidad de tener en cuenta varios escenarios para el desarrollo de eventos y sus probabilidades. La desventaja de estos métodos es que los valores de probabilidad de los escenarios utilizados en los cálculos suelen ser muy difíciles de obtener en la práctica.

La aplicación de un método específico de toma de decisiones estadístico-probabilístico consta de tres etapas:

La transición de la realidad económica, de gestión y tecnológica a un esquema matemático y estadístico abstracto, es decir. construcción de un modelo probabilístico de un sistema de control, proceso tecnológico, procedimiento de toma de decisiones, en particular basado en los resultados del control estadístico, etc.;

Un modelo probabilístico de un fenómeno real debe considerarse construido si las cantidades consideradas y las conexiones entre ellas se expresan en términos de la teoría de la probabilidad. La idoneidad del modelo probabilístico se demuestra, en particular, mediante métodos estadísticos para probar hipótesis.

Según el tipo de problema que se resuelve, la estadística matemática suele dividirse en tres secciones: descripción de datos, estimación y prueba de hipótesis. Según el tipo de datos estadísticos procesados, la estadística matemática se divide en cuatro áreas:

Un ejemplo de cuando es recomendable utilizar modelos estadístico-probabilísticos.

Al controlar la calidad de cualquier producto, se selecciona una muestra del mismo para decidir si el lote de productos que se está produciendo cumple con los requisitos establecidos. A partir de los resultados del control de muestras se llega a una conclusión sobre todo el lote. En este caso, es muy importante evitar la subjetividad al momento de formar una muestra, es decir, es necesario que cada unidad de producto del lote controlado tenga la misma probabilidad de ser seleccionada para la muestra. La selección basada en el lote en tal situación no es suficientemente objetiva. Por lo tanto, en condiciones de producción, la selección de unidades de producto para la muestra generalmente no se realiza por lote, sino mediante tablas especiales de números aleatorios o mediante sensores de números aleatorios por computadora.

En la regulación estadística de los procesos tecnológicos, con base en los métodos de la estadística matemática, se desarrollan reglas y planes para el control estadístico de los procesos, encaminados a la detección oportuna de problemas en los procesos tecnológicos y la toma de medidas para ajustarlos y prevenir la liberación de productos que no cumplir con los requisitos establecidos. Estas medidas tienen como objetivo reducir los costos de producción y las pérdidas por el suministro de unidades de baja calidad. Durante el control estadístico de aceptación, basándose en los métodos de la estadística matemática, se desarrollan planes de control de calidad mediante el análisis de muestras de lotes de productos. La dificultad radica en poder construir correctamente modelos probabilístico-estadísticos de toma de decisiones, a partir de los cuales se puedan responder las preguntas planteadas anteriormente. En estadística matemática, se han desarrollado para este propósito modelos probabilísticos y métodos para probar hipótesis.

Además, en una serie de situaciones de gestión, producción, económicas y económicas nacionales, surgen problemas de otro tipo: problemas de evaluación de las características y parámetros de las distribuciones de probabilidad.

O, al analizar estadísticamente la precisión y estabilidad de los procesos tecnológicos, es necesario evaluar indicadores de calidad como el valor promedio del parámetro controlado y el grado de dispersión en el proceso considerado. Según la teoría de la probabilidad, es aconsejable utilizar su expectativa matemática como valor medio de una variable aleatoria, y la dispersión, desviación estándar o coeficiente de variación como característica estadística del diferencial. Esto plantea la pregunta: ¿cómo estimar estas características estadísticas a partir de datos de muestra y con qué precisión se puede hacer esto? Hay muchos ejemplos similares en la literatura. Todos ellos muestran cómo la teoría de la probabilidad y la estadística matemática se pueden utilizar en la gestión de la producción a la hora de tomar decisiones en el campo de la gestión estadística de la calidad del producto.

En áreas de aplicación específicas se utilizan métodos tanto probabilísticos como estadísticos de aplicación general y específicos. Por ejemplo, en la sección de gestión de producción dedicada a métodos estadísticos de gestión de la calidad del producto, se utilizan estadísticas matemáticas aplicadas (incluido el diseño de experimentos). Utilizando sus métodos, se llevan a cabo análisis estadísticos de la precisión y estabilidad de los procesos tecnológicos y evaluación estadística de la calidad. Los métodos específicos incluyen métodos de control estadístico de aceptación de la calidad del producto, regulación estadística de procesos tecnológicos, evaluación y control de confiabilidad.
y etc.

En la gestión de la producción, en particular, al optimizar la calidad del producto y garantizar el cumplimiento de los requisitos estándar, es especialmente importante aplicar métodos estadísticos en la etapa inicial del ciclo de vida del producto, es decir. en la etapa de preparación de la investigación de desarrollos de diseños experimentales (desarrollo de requisitos de productos prometedores, diseño preliminar, especificaciones técnicas para el desarrollo de diseños experimentales). Esto se debe a la limitada información disponible en la etapa inicial del ciclo de vida del producto y a la necesidad de predecir las capacidades técnicas y la situación económica para el futuro.

Los métodos estadísticos probabilísticos más comunes son el análisis de regresión, el análisis factorial, el análisis de varianza, los métodos estadísticos para la evaluación de riesgos, el método de escenarios, etc. El área de los métodos estadísticos dedicada al análisis de datos estadísticos de carácter no numérico, es decir, está adquiriendo cada vez más importancia. resultados de medición basados ​​en características cualitativas y de diferentes tipos. Una de las principales aplicaciones de la estadística de objetos de naturaleza no numérica es la teoría y práctica de las evaluaciones de expertos relacionadas con la teoría de las decisiones estadísticas y los problemas de votación.

El papel de una persona al resolver problemas utilizando los métodos de la teoría de soluciones estadísticas es plantear el problema, es decir, reducir un problema real al estándar correspondiente, determinar las probabilidades de eventos basándose en datos estadísticos y también aprobar la solución óptima resultante.

1. Teoría de la probabilidad y estadística matemática en la toma de decisiones

1.1 Cómo se utiliza la teoría de la probabilidady estadística matemática

Estas disciplinas son la base de los métodos probabilísticos y estadísticos de toma de decisiones. Para utilizar su aparato matemático, es necesario expresar los problemas de toma de decisiones en términos de modelos estadístico-probabilísticos. La aplicación de un método específico de toma de decisiones estadístico-probabilístico consta de tres etapas:

La transición de la realidad económica, de gestión y tecnológica a un esquema matemático y estadístico abstracto, es decir. construcción de un modelo probabilístico de un sistema de control, proceso tecnológico, procedimiento de toma de decisiones, en particular basado en los resultados del control estadístico, etc.

Realizar cálculos y sacar conclusiones utilizando medios puramente matemáticos en el marco de un modelo probabilístico;

Interpretación de conclusiones matemáticas y estadísticas en relación con una situación real y toma de una decisión adecuada (por ejemplo, sobre el cumplimiento o incumplimiento de la calidad del producto con los requisitos establecidos, la necesidad de ajustar el proceso tecnológico, etc.), en particular, conclusiones (sobre la proporción de unidades defectuosas de producto en un lote, sobre la forma específica de las leyes de distribución de los parámetros controlados del proceso tecnológico, etc.).

La estadística matemática utiliza los conceptos, métodos y resultados de la teoría de la probabilidad. Consideremos las principales cuestiones de la construcción de modelos probabilísticos de toma de decisiones en situaciones económicas, de gestión, tecnológicas y de otro tipo. Para el uso activo y correcto de documentos reglamentarios, técnicos e instructivos sobre métodos probabilísticos y estadísticos de toma de decisiones, se requieren conocimientos previos. Así, es necesario saber en qué condiciones se debe utilizar un documento en particular, qué información inicial es necesaria para su selección y aplicación, qué decisiones se deben tomar en función de los resultados del procesamiento de datos, etc.

1.2 Ejemplos de aplicación de la teoría de la probabilidad.y estadística matemática

Consideremos varios ejemplos en los que los modelos estadístico-probabilísticos son una buena herramienta para resolver problemas de gestión, producción, económicos y económicos nacionales. Así, por ejemplo, en la novela de A. N. Tolstoi "Caminando entre el tormento" (vol. 1) se dice: "el taller produce el veintitrés por ciento de los rechazos, usted se atiene a esta cifra", le dijo Strukov a Iván Ilich.

Surge la pregunta de cómo entender estas palabras en la conversación de los directores de fábrica, ya que una unidad de producción no puede tener un 23% de defectos. Puede ser bueno o defectuoso. Strukov probablemente quiso decir que un lote de gran volumen contiene aproximadamente un 23% de unidades de producción defectuosas. Entonces surge la pregunta: ¿qué significa “aproximadamente”? Si 30 de cada 100 unidades de producción probadas resultan defectuosas, o de 1.000 a 300, o de 100.000 a 30.000, etc., ¿es necesario acusar a Strukov de mentir?

U otro ejemplo. La moneda utilizada como lote debe ser “simétrica”, es decir al lanzarlo, en promedio, en la mitad de los casos debería caerse el escudo de armas y en la mitad de los casos, un hash (cruz, número). ¿Pero qué significa "en promedio"? Si realizas muchas series de 10 lanzamientos en cada serie, a menudo encontrarás series en las que la moneda sale como un escudo de armas 4 veces. Para una moneda simétrica, esto sucederá en el 20,5% de las tiradas. Y si después de 100.000 lanzamientos quedan 40.000 escudos, ¿se puede considerar simétrica la moneda? El procedimiento de toma de decisiones se basa en la teoría de la probabilidad y la estadística matemática.

El ejemplo en cuestión puede no parecer lo suficientemente serio. Sin embargo, no lo es. El sorteo se utiliza ampliamente en la organización de experimentos técnicos y económicos industriales, por ejemplo, al procesar los resultados de medir el indicador de calidad (par de fricción) de los rodamientos dependiendo de diversos factores tecnológicos (la influencia del entorno de conservación, métodos de preparación de los rodamientos antes de la medición). , la influencia de las cargas de los rodamientos durante el proceso de medición, etc.). P.). Digamos que es necesario comparar la calidad de los rodamientos en función de los resultados de su almacenamiento en diferentes aceites de conservación, es decir, en aceites de composición A y B. Al planificar un experimento de este tipo, surge la pregunta de qué rodamientos deben colocarse en aceite de composición A y cuáles en aceite de composición B, pero de tal manera que se evite la subjetividad. y asegurar la objetividad de la decisión tomada.

La respuesta a esta pregunta se puede obtener mediante sorteo. Se puede dar un ejemplo similar con el control de calidad de cualquier producto. Para decidir si el lote controlado de productos cumple o no con los requisitos establecidos, se selecciona una muestra del mismo. A partir de los resultados del control de muestras se llega a una conclusión sobre todo el lote. En este caso, es muy importante evitar la subjetividad al momento de formar una muestra, es decir, es necesario que cada unidad de producto del lote controlado tenga la misma probabilidad de ser seleccionada para la muestra. En condiciones de producción, la selección de unidades de producto para la muestra generalmente no se lleva a cabo por lote, sino mediante tablas especiales de números aleatorios o mediante sensores de números aleatorios por computadora.

Problemas similares a la hora de garantizar la objetividad de la comparación surgen al comparar varios esquemas de organización de la producción, remuneración, durante licitaciones y concursos, selección de candidatos para puestos vacantes, etc. En todas partes necesitamos un sorteo o procedimientos similares. Expliquemos con el ejemplo de identificar al equipo más fuerte y al segundo más fuerte al organizar un torneo según el sistema olímpico (el perdedor queda eliminado). Que el equipo más fuerte siempre derrote al más débil. Está claro que el equipo más fuerte definitivamente será el campeón. El segundo equipo más fuerte llegará a la final si y sólo si no ha jugado ningún partido con el futuro campeón antes de la final. Si se planifica un partido así, el segundo equipo más fuerte no llegará a la final. Quien planifica el torneo puede "eliminar" antes de lo previsto al segundo equipo más fuerte del torneo, enfrentándolo con el líder en el primer encuentro, o proporcionarle el segundo lugar asegurándole encuentros con equipos más débiles hasta el final. final. Para evitar subjetividades se realiza un sorteo. Para un torneo de 8 equipos, la probabilidad de que los dos mejores equipos se enfrenten en la final es 4/7. En consecuencia, con una probabilidad de 3/7, el segundo equipo más fuerte abandonará el torneo antes de tiempo.

Cualquier medición de unidades de producto (mediante pie de rey, micrómetro, amperímetro, etc.) contiene errores. Para saber si existen errores sistemáticos, es necesario realizar mediciones repetidas de una unidad de producto cuyas características se conocen (por ejemplo, una muestra estándar). Cabe recordar que además del error sistemático, también existe el error aleatorio.

Por tanto, surge la pregunta de cómo saber a partir de los resultados de la medición si existe un error sistemático. Si sólo observamos si el error obtenido durante la siguiente medición es positivo o negativo, entonces esta tarea se puede reducir a la anterior. De hecho, comparemos una medida con el lanzamiento de una moneda, un error positivo con la pérdida de un escudo de armas y un error negativo con una cuadrícula (casi nunca ocurre un error cero con un número suficiente de divisiones de escala). Entonces comprobar la ausencia de error sistemático equivale a comprobar la simetría de la moneda.

El objetivo de estas consideraciones es reducir el problema de comprobar la ausencia de un error sistemático al problema de comprobar la simetría de una moneda. El razonamiento anterior conduce al llamado "criterio de signo" en estadística matemática.

En la regulación estadística de los procesos tecnológicos, con base en los métodos de la estadística matemática, se desarrollan reglas y planes para el control estadístico de los procesos, encaminados a la detección oportuna de problemas en los procesos tecnológicos y la toma de medidas para ajustarlos y prevenir la liberación de productos que no cumplir con los requisitos establecidos. Estas medidas tienen como objetivo reducir los costos de producción y las pérdidas por el suministro de unidades de baja calidad. Durante el control estadístico de aceptación, basándose en los métodos de la estadística matemática, se desarrollan planes de control de calidad mediante el análisis de muestras de lotes de productos. La dificultad radica en poder construir correctamente modelos probabilístico-estadísticos de toma de decisiones, a partir de los cuales se puedan responder las preguntas planteadas anteriormente. En estadística matemática, se han desarrollado para este propósito modelos probabilísticos y métodos para probar hipótesis, en particular, hipótesis de que la proporción de unidades de producción defectuosas es igual a un cierto número p0, por ejemplo, p0 = 0,23 (recuerde las palabras de Strukov de la novela de A.N. Tolstoi).

1.3 Objetivos de la evaluación

En una serie de situaciones de gestión, producción, económicas y económicas nacionales, surgen problemas de otro tipo: problemas de evaluación de las características y parámetros de las distribuciones de probabilidad.

Veamos un ejemplo. Deje que llegue un lote de N lámparas eléctricas para su inspección. De este lote se seleccionó aleatoriamente una muestra de n lámparas eléctricas. Surgen una serie de preguntas naturales. ¿Cómo determinar la vida útil promedio de las lámparas eléctricas basándose en los resultados de las pruebas de elementos de muestra y con qué precisión se puede evaluar esta característica? ¿Cómo cambiará la precisión si tomamos una muestra más grande? ¿A qué número de horas T se puede garantizar que al menos el 90% de las lámparas eléctricas durarán T o más horas?

Supongamos que al probar una muestra de n lámparas eléctricas, X lámparas eléctricas resultaron defectuosas. Entonces surgen las siguientes preguntas. ¿Qué límites se pueden especificar para el número D de lámparas eléctricas defectuosas en un lote, para el nivel de defecto D/N, etc.?

O, al analizar estadísticamente la precisión y estabilidad de los procesos tecnológicos, es necesario evaluar indicadores de calidad como el valor promedio del parámetro controlado y el grado de dispersión en el proceso considerado. Según la teoría de la probabilidad, es aconsejable utilizar su expectativa matemática como valor medio de una variable aleatoria, y la dispersión, desviación estándar o coeficiente de variación como característica estadística del diferencial. Esto plantea la pregunta: ¿cómo estimar estas características estadísticas a partir de datos de muestra y con qué precisión se puede hacer esto? Hay muchos ejemplos similares que se pueden dar. Aquí era importante mostrar cómo se pueden utilizar la teoría de la probabilidad y la estadística matemática en la gestión de la producción a la hora de tomar decisiones en el campo de la gestión estadística de la calidad del producto.

1.4 ¿Qué es la “estadística matemática”?

Se entiende por estadística matemática “una rama de las matemáticas dedicada a los métodos matemáticos de recopilación, sistematización, procesamiento e interpretación de datos estadísticos, así como a su utilización para conclusiones científicas o prácticas. Las reglas y procedimientos de la estadística matemática se basan en la teoría de la probabilidad, la cual nos permite evaluar la exactitud y confiabilidad de las conclusiones obtenidas en cada problema con base en el material estadístico disponible”. En este caso, los datos estadísticos se refieren a información sobre el número de objetos de cualquier colección más o menos extensa que tienen determinadas características.

Según el tipo de problemas que se resuelven, la estadística matemática suele dividirse en tres secciones: descripción de datos, estimación y prueba de hipótesis.

Según el tipo de datos estadísticos procesados, la estadística matemática se divide en cuatro áreas:

Estadística univariada (estadística de variables aleatorias), en la que el resultado de una observación se describe mediante un número real;

Análisis estadístico multivariado, donde el resultado de observar un objeto se describe mediante varios números (vector);

Estadísticas de procesos aleatorios y series de tiempo, donde el resultado de una observación es una función;

Estadísticas de objetos de naturaleza no numérica, en los que el resultado de una observación es de naturaleza no numérica, por ejemplo, es un conjunto (una figura geométrica), un ordenamiento, u obtenido como resultado de una medición basada sobre un criterio cualitativo.

Históricamente, algunas áreas de la estadística de objetos de naturaleza no numérica (en particular, los problemas de estimar la proporción de defectos y probar hipótesis al respecto) y la estadística unidimensional fueron las primeras en aparecer. El aparato matemático les resulta más sencillo, por lo que su ejemplo se suele utilizar para demostrar las ideas básicas de la estadística matemática.

Sólo aquellos métodos de procesamiento de datos, es decir Las estadísticas matemáticas se basan en evidencia, que se basan en modelos probabilísticos de fenómenos y procesos reales relevantes. Hablamos de modelos de comportamiento del consumidor, aparición de riesgos, funcionamiento de equipos tecnológicos, obtención de resultados experimentales, curso de una enfermedad, etc. Un modelo probabilístico de un fenómeno real debe considerarse construido si las cantidades consideradas y las conexiones entre ellas se expresan en términos de la teoría de la probabilidad. Correspondencia al modelo probabilístico de la realidad, es decir. su idoneidad se fundamenta, en particular, mediante métodos estadísticos para probar hipótesis.

Los métodos no probabilísticos de procesamiento de datos son exploratorios; solo se pueden utilizar en el análisis preliminar de datos, ya que no permiten evaluar la precisión y confiabilidad de las conclusiones obtenidas sobre la base de material estadístico limitado.

Los métodos probabilísticos y estadísticos son aplicables siempre que sea posible construir y justificar un modelo probabilístico de un fenómeno o proceso. Su uso es obligatorio cuando las conclusiones extraídas de datos de muestra se transfieren a toda la población (por ejemplo, de una muestra a un lote completo de productos).

En áreas de aplicación específicas se utilizan métodos tanto probabilísticos como estadísticos de aplicación general y específicos. Por ejemplo, en la sección de gestión de producción dedicada a métodos estadísticos de gestión de la calidad del producto, se utilizan estadísticas matemáticas aplicadas (incluido el diseño de experimentos). Utilizando sus métodos, se llevan a cabo análisis estadísticos de la precisión y estabilidad de los procesos tecnológicos y evaluación estadística de la calidad. Los métodos específicos incluyen métodos de control estadístico de aceptación de la calidad del producto, regulación estadística de procesos tecnológicos, evaluación y control de confiabilidad, etc.

Las disciplinas probabilísticas y estadísticas aplicadas, como la teoría de la confiabilidad y la teoría de colas, se utilizan ampliamente. El contenido del primero de ellos se desprende del nombre, el segundo se ocupa del estudio de sistemas como una central telefónica que recibe llamadas en momentos aleatorios: las necesidades de los suscriptores que marcan números en sus teléfonos. La duración del servicio de estos requisitos, es decir la duración de las conversaciones también se modela mediante variables aleatorias. El miembro correspondiente de la Academia de Ciencias de la URSS A.Ya. Khinchin (1894-1959), académico de la Academia de Ciencias de la República Socialista Soviética de Ucrania B.V. Gnedenko (1912-1995) y otros científicos nacionales.

1.5 Brevemente sobre la historia de la estadística matemática.

La estadística matemática como ciencia comienza con los trabajos del famoso matemático alemán Carl Friedrich Gauss (1777-1855), quien, basándose en la teoría de la probabilidad, investigó y justificó el método de mínimos cuadrados, creado por él en 1795 y utilizado para procesar datos astronómicos ( para aclarar la órbita de un pequeño planeta Ceres). Una de las distribuciones de probabilidad más populares, la normal, suele llevar su nombre, y en la teoría de procesos aleatorios el principal objeto de estudio son los procesos gaussianos.

A finales del siglo XIX. - principios del siglo 20 Los investigadores ingleses, principalmente K. Pearson (1857-1936) y R. A. Fisher (1890-1962), hicieron importantes contribuciones a la estadística matemática. En particular, Pearson desarrolló la prueba de chi-cuadrado para probar hipótesis estadísticas y Fisher desarrolló el análisis de varianza, la teoría del diseño experimental y el método de máxima verosimilitud para estimar parámetros.

En los años 30 del siglo XX. El polaco Jerzy Neumann (1894-1977) y el inglés E. Pearson desarrollaron la teoría general de la prueba de hipótesis estadísticas, y los matemáticos soviéticos, el académico A.N. Kolmogorov (1903-1987) y el miembro correspondiente de la Academia de Ciencias de la URSS N.V. Smirnov (1900-1966) sentaron las bases de la estadística no paramétrica. En los años cuarenta del siglo XX. El rumano A. Wald (1902-1950) construyó la teoría del análisis estadístico secuencial.

La estadística matemática se está desarrollando rápidamente en la actualidad. Así, durante los últimos 40 años, se pueden distinguir cuatro áreas de investigación fundamentalmente nuevas:

Desarrollo e implementación de métodos matemáticos para la planificación de experimentos;

Desarrollo de estadísticas de objetos de naturaleza no numérica como dirección independiente en estadística matemática aplicada;

Desarrollo de métodos estadísticos resistentes a pequeñas desviaciones del modelo probabilístico utilizado;

Amplio desarrollo de trabajos de creación de paquetes de software informáticos diseñados para el análisis de datos estadísticos.

1.6 Métodos estadístico-probabilísticos y optimización

La idea de optimización impregna la estadística matemática aplicada moderna y otros métodos estadísticos. A saber, métodos de planificación de experimentos, control estadístico de aceptación, regulación estadística de procesos tecnológicos, etc. Por otro lado, las formulaciones de optimización en la teoría de la toma de decisiones, por ejemplo, la teoría aplicada de la optimización de la calidad del producto y los requisitos estándar, prevén la Uso generalizado de métodos estadísticos probabilísticos, principalmente estadística matemática aplicada.

En la gestión de la producción, en particular, al optimizar la calidad del producto y los requisitos estándar, es especialmente importante aplicar métodos estadísticos en la etapa inicial del ciclo de vida del producto, es decir, en la etapa de preparación de la investigación de desarrollos de diseños experimentales (desarrollo de requisitos de productos prometedores, diseño preliminar, especificaciones técnicas para el desarrollo de diseños experimentales). Esto se debe a la limitada información disponible en la etapa inicial del ciclo de vida del producto y a la necesidad de predecir las capacidades técnicas y la situación económica para el futuro. Los métodos estadísticos deben utilizarse en todas las etapas de la resolución de un problema de optimización: al escalar variables, desarrollar modelos matemáticos del funcionamiento de productos y sistemas, realizar experimentos técnicos y económicos, etc.

En los problemas de optimización, incluida la optimización de la calidad del producto y los requisitos estándar, se utilizan todas las áreas de la estadística. A saber, estadísticas de variables aleatorias, análisis estadístico multivariado, estadísticas de procesos aleatorios y series de tiempo, estadísticas de objetos de naturaleza no numérica. Es aconsejable seleccionar un método estadístico para analizar datos específicos de acuerdo con las recomendaciones.

2. Problemas prácticos típicos de probabilidad-sttoma de decisiones atísticay métodos para resolverlos

2.1 Estadísticas y estadística aplicada

Se entiende por estadística aplicada la parte de la estadística matemática dedicada a los métodos de procesamiento de datos estadísticos reales, así como los correspondientes métodos matemáticos y software. Por tanto, los problemas puramente matemáticos no se incluyen en la estadística aplicada.

Se entiende por datos estadísticos los valores numéricos o no numéricos de los parámetros controlados (signos) de los objetos en estudio, que se obtienen como resultado de observaciones (mediciones, análisis, pruebas, experimentos, etc.) de un determinado número de señales para cada unidad incluida en el estudio. Los métodos para la obtención de datos estadísticos y tamaños de muestra se establecen a partir de la formulación de un problema aplicado específico basado en los métodos de la teoría matemática de la planificación de experimentos.

El resultado de la observación xi de la característica estudiada X (o un conjunto de características estudiadas X) de la yi-ésima unidad de muestreo refleja las propiedades cuantitativas y/o cualitativas de la unidad encuestada con el número i (aquí i = 1, 2, . .., n, donde n es el tamaño de la muestra).

Los resultados de las observaciones x1, x2,…, xn, donde xi es el resultado de la observación de la i-ésima unidad de muestreo, o los resultados de las observaciones de varias muestras, se procesan utilizando métodos de estadística aplicada correspondientes a la tarea. Normalmente utilizado métodos analíticos, es decir. métodos basados ​​​​en cálculos numéricos (los objetos de naturaleza no numérica se describen mediante números). En algunos casos, está permitido utilizar métodos gráficos(análisis visual).

2.2 Tareas de análisis estadístico de la precisión y estabilidad de los procesos tecnológicos y la calidad del producto.

Los métodos estadísticos se utilizan, en particular, para analizar la precisión y estabilidad de los procesos tecnológicos y la calidad de los productos. El objetivo es preparar soluciones que aseguren el funcionamiento eficaz de las unidades tecnológicas y mejoren la calidad y competitividad de los productos fabricados. Los métodos estadísticos deben utilizarse en todos los casos en que, a partir de los resultados de un número limitado de observaciones, sea necesario establecer las razones de la mejora o deterioro de la precisión y estabilidad de los equipos tecnológicos. La precisión de un proceso tecnológico se entiende como una propiedad de un proceso tecnológico que determina la proximidad de los valores reales y nominales de los parámetros del producto fabricado. La estabilidad de un proceso tecnológico se entiende como una propiedad de un proceso tecnológico que determina la constancia de las distribuciones de probabilidad de sus parámetros durante un determinado período de tiempo sin intervención externa.

Los objetivos de la aplicación de métodos estadísticos para analizar la precisión y estabilidad de los procesos tecnológicos y la calidad de los productos en las etapas de desarrollo, producción y operación (consumo) de los productos son, en particular:

* determinación de indicadores reales de precisión y estabilidad del proceso tecnológico, equipo o calidad del producto;

* establecer el cumplimiento de la calidad del producto con los requisitos de la documentación técnica y reglamentaria;

* comprobar el cumplimiento de la disciplina tecnológica;

* estudio de factores aleatorios y sistemáticos que pueden provocar defectos;

* identificación de reservas de producción y tecnología;

* justificación estándares técnicos y aprobaciones de productos;

* evaluación de los resultados de las pruebas de prototipos al justificar los requisitos y estándares del producto para ellos;

* justificación de la elección de equipos tecnológicos e instrumentos de medición y prueba;

* comparación de varias muestras de productos;

* justificación para sustituir el control continuo por el control estadístico;

* identificar la posibilidad de introducir métodos estadísticos para la gestión de la calidad del producto, etc.

Para lograr los objetivos anteriores, utilice varios métodos describir datos, evaluar y probar hipótesis. Demos ejemplos de planteamientos de problemas.

2.3 Problemas de estadística unidimensional (estadística de variables aleatorias)

La comparación de expectativas matemáticas se realiza en los casos en que es necesario establecer la correspondencia de los indicadores de calidad del producto fabricado y la muestra de referencia. Esta es la tarea de probar la hipótesis:

H0: M(X) = m0,

donde m0 es el valor correspondiente a la muestra de referencia; X es una variable aleatoria que modela los resultados de las observaciones. Dependiendo de la formulación del modelo probabilístico de la situación y la hipótesis alternativa, la comparación de expectativas matemáticas se realiza mediante métodos paramétricos o no paramétricos.

La comparación de dispersiones se realiza cuando es necesario establecer la diferencia entre la dispersión de un indicador de calidad y el nominal. Para ello, probamos la hipótesis:

No menos importantes que los problemas de probar hipótesis son los problemas de estimación de parámetros. Ellos, al igual que los problemas de prueba de hipótesis, se dividen en paramétricos y no paramétricos según el modelo probabilístico de la situación utilizado.

En los problemas de estimación paramétrica se adopta un modelo probabilístico, según el cual los resultados de las observaciones x1, x2,..., xn se consideran realizaciones de n variables aleatorias independientes con una función de distribución F(x;u). Aquí y hay un parámetro desconocido que se encuentra en el espacio de parámetros especificado por el modelo probabilístico utilizado. La tarea de estimación consiste en determinar estimaciones puntuales y límites de confianza (o región de confianza) para el parámetro y.

El parámetro y es un número o un vector de dimensión finita fija. Entonces, para una distribución normal y = (m, y2) es un vector bidimensional, para una distribución binomial y = p es un número, para una distribución gamma
y = (a, b, c) es un vector tridimensional, etc.

En la estadística matemática moderna, una serie de métodos comunes determinación de estimaciones y límites de confianza: método de momentos, método de máxima verosimilitud, método de estimación de un paso, método de estimación estable (robusto), método de estimación insesgado, etc.

Veamos brevemente los tres primeros.

El método de los momentos se basa en el uso de expresiones para los momentos de las variables aleatorias consideradas a través de los parámetros de sus funciones de distribución. Las estimaciones del método de los momentos se obtienen sustituyendo momentos muestrales en lugar de momentos teóricos en funciones que expresan parámetros en términos de momentos.

En el método de máxima verosimilitud, desarrollado principalmente por R.A. Fisher, el valor u* para el cual la llamada función de verosimilitud es máxima se toma como estimación del parámetro u

f(x1, u) f(x2, u) … f(xn, u),

donde x1, x2,…, xn son los resultados de las observaciones; f(x, u) es su densidad de distribución, dependiendo del parámetro u, que debe estimarse.

Los estimadores de máxima verosimilitud tienden a ser eficientes (o asintóticamente eficientes) y tienen menos varianza que los estimadores del método de momentos. En algunos casos, las fórmulas para ellos están escritas explícitamente (distribución normal, distribución exponencial sin desplazamiento). Sin embargo, lo más frecuente es que para encontrarlos sea necesario resolver numéricamente un sistema de ecuaciones trascendentales (distribuciones de Weibull-Gnedenko, gamma). En tales casos, es aconsejable utilizar no estimaciones de máxima verosimilitud, sino otros tipos de estimaciones, principalmente estimaciones de un solo paso.

En problemas de estimación no paramétrica se adopta un modelo probabilístico, en el que los resultados de las observaciones x1, x2,..., xn se consideran realizaciones de n variables aleatorias independientes con una función de distribución F(x) vista general. Solo se requiere que F(x) cumpla ciertas condiciones como la continuidad, la existencia de expectativa matemática y dispersión, etc. Estas condiciones no son tan estrictas como la condición de pertenecer a una determinada familia paramétrica.

En el entorno no paramétrico, se estiman las características de una variable aleatoria (expectativa matemática, dispersión, coeficiente de variación) o su función de distribución, densidad, etc. Así, en virtud de la ley de los grandes números, la media aritmética muestral es una estimación consistente de la expectativa matemática M(X) (para cualquier función de distribución F(x) de resultados de observación para la cual existe la expectativa matemática). Utilizando el teorema del límite central, se determinan los límites de confianza asintóticos.

(M(X))H = , (M(X))B = .

donde g - probabilidad de confianza, - cuantil del orden de la distribución normal estándar N(0;1) con expectativa matemática cero y varianza unitaria, - media aritmética muestral, s - desviación estándar muestral. El término "límites de confianza asintóticos" significa que las probabilidades

P((M(X))H< M(X)}, P{(M(X))B >M(X)),

P((M(X))H< M(X) < (M(X))B}

tienden a, y r, respectivamente, para n > ?, pero, en términos generales, no son iguales a estos valores para n finito. En la práctica, los límites de confianza asintóticos proporcionan suficiente precisión para n de orden 10.

El segundo ejemplo de estimación no paramétrica es la estimación de la función de distribución. Según el teorema de Glivenko, la función de distribución empírica Fn(x) es una estimación consistente de la función de distribución F(x). Si F(x) es una función continua, entonces, según el teorema de Kolmogorov, los límites de confianza para la función de distribución F(x) se especifican en la forma

(F(x))Н = máx, (F(x))B = mín,

donde k(r,n) es el cuantil de orden r de la distribución del estadístico de Kolmogorov para un tamaño de muestra n (recordemos que la distribución de este estadístico no depende de F(x)).

Las reglas para determinar estimaciones y límites de confianza en el caso paramétrico se basan en la familia paramétrica de distribuciones F(x;u). Al procesar datos reales surge la pregunta: ¿corresponden estos datos al modelo probabilístico aceptado? Aquellos. ¿Hipótesis estadística de que los resultados de la observación tienen una función de distribución de la familia (F(x;u) y U) para algún u = u0? Estas hipótesis se denominan hipótesis de acuerdo y los criterios para probarlas se denominan criterios de acuerdo.

Si se conoce el valor verdadero del parámetro u = u0, la función de distribución F(x; u0) es continua, entonces la prueba de Kolmogorov, basada en estadística, se usa a menudo para probar la hipótesis de bondad de ajuste.

donde Fn(x) es la función de distribución empírica.

Si se desconoce el verdadero valor del parámetro u0, por ejemplo, al probar la hipótesis sobre la normalidad de la distribución de los resultados de la observación (es decir, al probar si esta distribución pertenece a la familia de distribuciones normales), a veces se utilizan estadísticas.

Se diferencia del estadístico Dn de Kolmogorov en que en lugar del valor real del parámetro u0 se sustituye su estimación u*.

La distribución del estadístico Dn(u*) es muy diferente de la distribución del estadístico Dn. Como ejemplo, considere una prueba de normalidad cuando u = (m, y2) y u* = (, s2). Para este caso, los cuantiles de las distribuciones de los estadísticos Dn y Dn(u*) se dan en la Tabla 1. Por tanto, los cuantiles difieren aproximadamente 1,5 veces.

Tabla 1 - Cuantiles de las estadísticas Dn y Dn(y*) al verificar la normalidad

Durante el procesamiento inicial de datos estadísticos, una tarea importante es excluir los resultados de observación obtenidos como resultado de errores graves y omisiones. Por ejemplo, al visualizar datos sobre el peso (en kilogramos) de los niños recién nacidos, junto con los números 3.500, 2.750, 4.200, puede aparecer el número 35,00. Está claro que esto es un error y se obtuvo un número erróneo debido a una grabación errónea: el punto decimal se desplazó un signo, como resultado, el resultado de la observación se incrementó por error 10 veces.

Los métodos estadísticos para excluir valores atípicos se basan en el supuesto de que dichas observaciones tienen distribuciones que difieren marcadamente de las que se están estudiando y, por lo tanto, deben excluirse de la muestra.

El modelo probabilístico más simple es este. Bajo la hipótesis nula, los resultados de la observación se consideran realizaciones de variables aleatorias independientes X1, X2, Xn distribuidas idénticamente con la función de distribución F(x). Bajo la hipótesis alternativa, X1, X2, Xn-1 son los mismos que bajo la hipótesis nula, y Xn corresponde al error bruto y tiene una función de distribución G(x) = F(x - c), donde c es grande. Luego, con una probabilidad cercana a 1 (más precisamente, tendiendo a 1 a medida que aumenta el tamaño de la muestra),

Xn = máx (X1, X2, Xn) = Xmáx,

aquellos. Al describir datos, Xmax debe considerarse como un posible error garrafal. La región crítica tiene la forma

Ш = (x: x > d).

El valor crítico d = d(b,n) se elige dependiendo del nivel de significancia by el tamaño de la muestra n de la condición

P(Xmáx > d | H0) = b (1)

La condición (1) es equivalente a lo siguiente para n grande y b pequeña:

Si se conoce la función de distribución de los resultados de la observación F(x), entonces el valor crítico d se encuentra a partir de la relación (2). Si se conoce F(x) hasta los parámetros, por ejemplo, se sabe que F(x) - función normal distribución, entonces también se han desarrollado reglas para probar la hipótesis bajo consideración.

Sin embargo, a menudo la forma de la función de distribución de los resultados de las observaciones no se conoce con absoluta precisión ni con la exactitud de los parámetros, sino sólo con cierto error. Entonces la relación (2) se vuelve prácticamente inútil, ya que un pequeño error en la determinación de F(x), como se puede mostrar, conduce a un gran error en la determinación del valor crítico d de la condición (2), y para un d fijo el nivel de La importancia del criterio puede diferir significativamente de la nominal.

Por lo tanto, en una situación en la que no existe información completa sobre F(x), pero se conocen la expectativa matemática M(X) y la varianza y2 = D(X) de los resultados de observación X1, X2, Xn, se basan reglas de rechazo no paramétricas. Se puede utilizar la desigualdad de Chebyshev. Usando esta desigualdad, encontramos el valor crítico d = d(b,n) tal que

entonces la relación (3) se cumplirá si

Por la desigualdad de Chebyshev

por lo tanto, para que se cumpla (4), es suficiente igualar los lados derechos de las fórmulas (4) y (5), es decir determinar d a partir de la condición

La regla de rechazo, basada en el valor crítico d calculado mediante la fórmula (6), utiliza información mínima sobre la función de distribución F(x) y, por lo tanto, excluye sólo resultados observacionales que están muy alejados del resto. En otras palabras, el valor de d1 dado por la relación (1) suele ser mucho menor que el valor de d2 dado por la relación (6).

2.4 Análisis estadístico multivariado

El análisis estadístico multivariado se utiliza para resolver los siguientes problemas:

* estudio de la dependencia entre signos;

* clasificación de objetos o características especificadas por vectores;

* reducir la dimensión del espacio característico.

En este caso, el resultado de las observaciones es un vector de valores de un número fijo de características cuantitativas y, a veces, cualitativas medidas en un objeto. Una característica cuantitativa es una característica de una unidad observable que puede expresarse directamente mediante un número y una unidad de medida. Una característica cuantitativa se contrasta con una característica cualitativa: una característica de una unidad observada, determinada por la asignación a una de dos o más categorías condicionales (si hay exactamente dos categorías, entonces la característica se llama alternativa). El análisis estadístico de características cualitativas forma parte de las estadísticas de objetos de naturaleza no numérica. Las características cuantitativas se dividen en características medidas en las escalas de intervalos, proporciones, diferencias y absolutas.

Y los cualitativos, para características medidas en una escala de nombres y una escala ordinal. Los métodos de procesamiento de datos deben ser consistentes con las escalas en las que se miden las características en cuestión.

Los objetivos del estudio de la dependencia entre características son demostrar la existencia de una conexión entre características y estudiar esta conexión. Para demostrar la existencia de una conexión entre dos variables aleatorias X e Y, se utiliza el análisis de correlación. Si la distribución conjunta de X e Y es normal, entonces las conclusiones estadísticas se basan en el coeficiente de correlación lineal de la muestra; en otros casos, se utilizan los coeficientes de correlación de rangos de Kendall y Spearman, y para las características cualitativas, se utiliza la prueba de chi-cuadrado.

El análisis de regresión se utiliza para estudiar la dependencia funcional del rasgo cuantitativo Y de los rasgos cuantitativos x(1), x(2), ..., x(k). Esta dependencia se llama regresión o, para abreviar, regresión. El modelo probabilístico más simple de análisis de regresión (en el caso de k = 1) utiliza como información inicial un conjunto de pares de resultados de observación (xi, yi), i = 1, 2,…, n, y tiene la forma

yi = axi + b + ei, i = 1, 2,…, n,

donde ei son errores de observación. A veces se supone que ei son variables aleatorias independientes con la misma distribución normal N(0, y2). Dado que la distribución de los errores de observación suele ser diferente de la normal, es aconsejable considerar el modelo de regresión en una formulación no paramétrica, es decir, con una distribución arbitraria de ei.

La tarea principal del análisis de regresión es estimar los parámetros desconocidos a y b, que definen la dependencia lineal de y con respecto a x. Para resolver este problema se utiliza el método de mínimos cuadrados, desarrollado por K. Gauss en 1794, es decir encontrar estimaciones de los parámetros desconocidos del modelo a y b a partir de la condición de minimizar la suma de cuadrados

por las variables a y b.

El análisis de varianza se utiliza para estudiar la influencia de características cualitativas sobre una variable cuantitativa. Por ejemplo, sean k muestras de resultados de medición. indicador cuantitativo Calidad de las unidades de producto producidas en k máquinas, es decir. un conjunto de números (x1(j), x2(j),…, xn(j)), donde j es el número de máquina, j = 1, 2,…, k y n es el tamaño de la muestra. En una formulación común de análisis de varianza, se supone que los resultados de las mediciones son independientes y en cada muestra tienen una distribución normal N(m(j), y2) con la misma varianza.

Comprobar la uniformidad de la calidad del producto, es decir. ausencia de influencia del número de máquina en la calidad del producto, se reduce a probar la hipótesis

H0: m(1) = m(2) = … = m(k).

El análisis de varianza ha desarrollado métodos para probar tales hipótesis.

La hipótesis H0 se contrasta con la hipótesis alternativa H1, según la cual al menos una de las igualdades especificadas no se cumple. La prueba de esta hipótesis se basa en la siguiente "descomposición de la varianza" especificada por R. A. Fisher:

donde s2 es la varianza muestral en la muestra agrupada, es decir

Por tanto, el primer término del lado derecho de la fórmula (7) refleja la dispersión intragrupo. Finalmente, hay varianza intergrupal,

El área de la estadística aplicada asociada con expansiones de varianza como la fórmula (7) se llama análisis de varianza. Como ejemplo de un problema de análisis de varianza, considere probar la hipótesis anterior H0 bajo el supuesto de que los resultados de la medición son independientes y en cada muestra tienen una distribución normal N(m(j), y2) con la misma varianza. Si H0 es verdadera, el primer término del lado derecho de la fórmula (7), dividido por y2, tiene una distribución chi-cuadrado con k(n-1) grados de libertad, y el segundo término, dividido por y2, también tiene una distribución chi-cuadrado, pero con (k-1) grados de libertad, siendo el primer y segundo término independientes como variables aleatorias. Por lo tanto la variable aleatoria

tiene una distribución de Fisher con (k-1) grados de libertad del numerador y k(n-1) grados de libertad del denominador. Se acepta la hipótesis H0 si F< F1-б, и отвергается в противном случае, где F1-б - квантиль порядка 1-б распределения Фишера с указанными числами степеней свободы. Такой выбор критической области определяется тем, что при Н1 величина F безгранично увеличивается при росте объема выборок n. Значения F1-б берут из соответствующих таблиц.

Se han desarrollado métodos no paramétricos para resolver problemas clásicos de análisis de varianza, en particular, probar la hipótesis H0.

El siguiente tipo de problemas de análisis estadístico multivariado son los problemas de clasificación. Se dividen en tres fundamentalmente varios tipos- análisis discriminante, análisis de conglomerados, problemas de agrupación.

La tarea del análisis discriminante es encontrar una regla para clasificar un objeto observado en una de las clases descritas anteriormente. En este caso, los objetos se describen en un modelo matemático utilizando vectores cuyas coordenadas son el resultado de observar una serie de características en cada objeto. Las clases se describen directamente en términos matemáticos o utilizando muestras de capacitación. Un conjunto de entrenamiento es una muestra de cada elemento del cual se indica a qué clase pertenece.

...

Documentos similares

    Historia de la econometría y estadística aplicada. Estadística aplicada en economía nacional. Puntos de crecimiento. Estadísticas no paramétricas. La estadística de objetos de naturaleza no numérica forma parte de la estadística aplicada.

    resumen, añadido el 08/01/2009

    Componentes estructurales del componente determinista. El objetivo principal del análisis estadístico de series temporales. Previsión de extrapolación de procesos económicos. Identificación de observaciones anómalas, así como construcción de modelos de series temporales.

    trabajo del curso, añadido el 11/03/2014

    Modelos estadísticos de toma de decisiones. Descripción de modelos con distribución de probabilidad conocida del estado del medio ambiente. Consideración el esquema más simple proceso dinámico de toma de decisiones. Realización de un cálculo de la probabilidad de modificación de la empresa.

    prueba, añadido el 07/11/2011

    Métodos estadísticos para analizar series temporales unidimensionales, resolver problemas de análisis y previsión, trazar una gráfica del indicador en estudio. Criterios para identificar componentes de series, probar la hipótesis sobre la aleatoriedad de la serie y los valores de los errores estándar.

    prueba, agregada el 13/08/2010

    El papel de los métodos estadísticos en la evaluación objetiva de las características cuantitativas y cualitativas del proceso de gestión. Uso de herramientas de calidad en el análisis de procesos y parámetros de producto. Variables aleatorias discretas. Teoría de probabilidad.

    trabajo del curso, añadido el 11/01/2015

    Teoría matemática toma de decisiones óptima. Método tabular simplex. Formulación y solución de un problema de programación lineal dual. Modelo matemático problema de transporte. Análisis de la viabilidad de la producción en la empresa.

    prueba, añadido el 13/06/2012

    Población muestral general. Base metodológica análisis probabilístico-estadístico. Funciones de MathCad diseñadas para resolver problemas de estadística matemática. Resolver problemas en MS Excel usando fórmulas y usando el menú "Análisis de datos".

    trabajo del curso, añadido el 20/01/2014

    Cálculo del importe de los costes del plan de producción. Coeficientes de una ecuación lineal de regresión pareada. Características de la interpretación gráfica de resultados. Desarrollo de procesos económicos. Características de la modelización econométrica de series temporales.

    prueba, agregada el 22/02/2011

    Elementos básicos del análisis econométrico de series temporales. Tareas de análisis y su procesamiento inicial. Resolución de problemas de predicción de valores de series temporales a corto y medio plazo. Métodos para encontrar los parámetros de la ecuación de tendencia. Método de mínimos cuadrados.

    prueba, añadido el 03/06/2009

    Conceptos elementales sobre eventos, cantidades y funciones aleatorias. Características numéricas de variables aleatorias. Tipos de asimetría de distribución. Evaluación estadística de la distribución de variables aleatorias. Resolución de problemas de identificación estructural-paramétrica.

¿Cómo se utilizan los enfoques, ideas y resultados de la teoría de la probabilidad y la estadística matemática en la toma de decisiones?

La base es un modelo probabilístico de un fenómeno o proceso real, es decir. un modelo matemático en el que las relaciones objetivas se expresan en términos de teoría de probabilidad. Las probabilidades se utilizan principalmente para describir las incertidumbres que deben tenerse en cuenta al tomar decisiones. Esto se refiere tanto a oportunidades no deseadas (riesgos) como a oportunidades atractivas (“oportunidades de suerte”). A veces, la aleatoriedad se introduce deliberadamente en una situación, por ejemplo, al realizar sorteos, seleccionar aleatoriamente unidades para el control, realizar loterías o realizar encuestas a los consumidores.

La teoría de la probabilidad permite utilizar una probabilidad para calcular otras de interés para el investigador. Por ejemplo, usando la probabilidad de obtener un escudo de armas, puedes calcular la probabilidad de que en 10 lanzamientos de moneda obtengas al menos 3 escudos de armas. Este cálculo se basa en un modelo probabilístico, según el cual los lanzamientos de moneda se describen mediante un patrón de ensayos independientes; además, el escudo de armas y las marcas son igualmente posibles y, por lo tanto, la probabilidad de cada uno de estos eventos es igual. a ½. Un modelo más complejo es aquel que considera comprobar la calidad de una unidad de producción en lugar de tirar una moneda al aire. El modelo probabilístico correspondiente se basa en el supuesto de que el control de calidad de varias unidades de producción se describe mediante un esquema de pruebas independiente. A diferencia del modelo de lanzamiento de moneda, es necesario introducir un nuevo parámetro: la probabilidad p de que una unidad de producción sea defectuosa. El modelo quedará completamente descrito si suponemos que todas las unidades de producción tienen la misma probabilidad de ser defectuosas. Si la última suposición es incorrecta, entonces aumenta el número de parámetros del modelo. Por ejemplo, se puede suponer que cada unidad de producción tiene su propia probabilidad de ser defectuosa.

Analicemos un modelo de control de calidad con una probabilidad de defecto p común para todas las unidades de producción. Para “llegar al número” al analizar el modelo, es necesario reemplazar p con algún valor específico. Para ello, es necesario ir más allá del modelo probabilístico y recurrir a los datos obtenidos durante el control de calidad.

La estadística matemática resuelve el problema inverso en relación con la teoría de la probabilidad. Su objetivo es, a partir de los resultados de las observaciones (mediciones, análisis, pruebas, experimentos), obtener conclusiones sobre las probabilidades que subyacen al modelo probabilístico. Por ejemplo, basándose en la frecuencia de aparición de productos defectuosos durante la inspección, se pueden sacar conclusiones sobre la probabilidad de que se produzcan defectos (consulte el teorema de Bernoulli más arriba).

A partir de la desigualdad de Chebyshev, se sacaron conclusiones sobre la correspondencia de la frecuencia de aparición de productos defectuosos con la hipótesis de que la probabilidad de defecto toma un cierto valor.

Así, la aplicación de la estadística matemática se basa en un modelo probabilístico de un fenómeno o proceso. Se utilizan dos series paralelas de conceptos: los relacionados con la teoría (modelo probabilístico) y los relacionados con la práctica (muestreo de resultados de observación). Por ejemplo, la probabilidad teórica corresponde a la frecuencia encontrada en la muestra. La expectativa matemática (series teóricas) corresponde a la media aritmética muestral (series prácticas). Como regla general, las características de la muestra son estimaciones de las teóricas. Al mismo tiempo, las cantidades relacionadas con series teóricas "están en la cabeza de los investigadores", se relacionan con el mundo de las ideas (según el antiguo filósofo griego Platón) y no están disponibles para mediciones directas. Los investigadores sólo disponen de datos de muestra con los que intentan establecer las propiedades de un modelo teórico probabilístico que les interesa.

¿Por qué necesitamos un modelo probabilístico? El hecho es que sólo con su ayuda las propiedades establecidas a partir del análisis de una muestra específica pueden transferirse a otras muestras, así como a toda la llamada población general. El término "población" se utiliza para referirse a un conjunto grande pero finito de unidades que se están estudiando. Por ejemplo, aproximadamente la totalidad de todos los residentes de Rusia o la totalidad de todos los consumidores de café instantáneo en Moscú. El objetivo de las encuestas sociológicas o de marketing es transferir declaraciones obtenidas de una muestra de cientos o miles de personas a poblaciones de varios millones de personas. En el control de calidad, un lote de productos actúa como una población general.

Para transferir conclusiones de una muestra a una población más grande se requieren algunos supuestos sobre la relación de las características de la muestra con las características de esta población más grande. Estos supuestos se basan en un modelo probabilístico apropiado.

Por supuesto, es posible procesar datos de muestra sin utilizar uno u otro modelo probabilístico. Por ejemplo, puede calcular una media aritmética muestral, contar la frecuencia de cumplimiento de determinadas condiciones, etc. Sin embargo, los resultados del cálculo se relacionarán solo con una muestra específica; transferir las conclusiones obtenidas con su ayuda a cualquier otra población es incorrecto. Esta actividad a veces se denomina "análisis de datos". En comparación con los métodos estadístico-probabilísticos, el análisis de datos tiene un valor educativo limitado.

Por tanto, el uso de modelos probabilísticos basados ​​en la estimación y prueba de hipótesis utilizando características de la muestra es la esencia de los métodos estadístico-probabilísticos de toma de decisiones.

Destacamos que la lógica de utilizar características muestrales para la toma de decisiones basadas en modelos teóricos implica el uso simultáneo de dos series paralelas de conceptos, uno de los cuales corresponde a modelos probabilísticos y el segundo a datos muestrales. Desafortunadamente, en una serie de fuentes literarias, generalmente obsoletas o escritas con espíritu de receta, no se hace ninguna distinción entre características teóricas y muestrales, lo que lleva a los lectores a confusión y errores en el uso práctico de los métodos estadísticos.

Los métodos para tomar decisiones en condiciones de riesgo también se desarrollan y justifican en el marco de la llamada teoría de las decisiones estadísticas. La teoría de la decisión estadística es una teoría de la conducción. observaciones estadísticas, procesando estas observaciones y utilizándolas. Como se sabe, la tarea de la investigación económica es comprender la naturaleza de un objeto económico y revelar el mecanismo de relación entre sus variables más importantes. Esta comprensión nos permite desarrollar e implementar Medidas necesarias para la gestión de esta instalación, o política económica. Para hacer esto, necesitamos métodos adecuados a la tarea que tengan en cuenta la naturaleza y especificidad de los datos económicos que sirven como base para declaraciones cualitativas y cuantitativas sobre el objeto o fenómeno económico que se estudia.

Cualquier dato económico representa características cuantitativas de cualquier objeto económico. Se forman bajo la influencia de muchos factores, no todos los cuales son accesibles al control externo. Los factores incontrolables pueden tomar valores aleatorios de algún conjunto de valores y, por lo tanto, hacer que los datos que definen sean aleatorios. La naturaleza estocástica de los datos económicos requiere el uso de métodos estadísticos especiales y adecuados para su análisis y procesamiento.

La evaluación cuantitativa del riesgo empresarial, independientemente del contenido de una tarea específica, es posible, por regla general, utilizando métodos de estadística matemática. Las principales herramientas de este método de evaluación son la dispersión, la desviación estándar y el coeficiente de variación.

Los diseños típicos basados ​​en medidas de variabilidad o probabilidad de condiciones de riesgo se utilizan ampliamente en las aplicaciones. Así, los riesgos financieros causados ​​por fluctuaciones en el resultado alrededor del valor esperado, por ejemplo, la eficiencia, se evalúan utilizando la dispersión o la desviación absoluta esperada del promedio. En los problemas de gestión de capital, una medida común del grado de riesgo es la probabilidad de pérdidas o pérdida de ingresos en comparación con la opción prevista.

Para evaluar la magnitud del riesgo (grado de riesgo), nos centraremos en los siguientes criterios:

  • 1) valor esperado promedio;
  • 2) fluctuación (variabilidad) del posible resultado.

Para muestreo estadístico

Dónde xj - valor esperado para cada caso de observación (/" = 1, 2,...), l, - número de casos de observación (frecuencia) valor l:, x=E - valor esperado promedio, st - varianza,

V - coeficiente de variación, tenemos:

Consideremos el problema de evaluar el riesgo en virtud de contratos comerciales. Interproduct LLC decide celebrar un acuerdo para el suministro de productos alimenticios desde una de tres bases. Habiendo recopilado datos sobre las condiciones de pago de los bienes por estas bases (Cuadro 6.7), es necesario, después de evaluar el riesgo, seleccionar la base que pague los bienes en el menor tiempo posible al celebrar un contrato para el suministro de productos. .

Tabla 6.7

Condiciones de pago en días

Número de casos observados PAG

caballos de fuerza

(xx)

(x-x ) 2

(x-x) 2p

Para la primera base, según las fórmulas (6.4.1):

para segunda base

para tercera base

El coeficiente de variación de la primera base es el más pequeño, lo que indica la conveniencia de celebrar un contrato de suministro de productos con esta base.

Los ejemplos considerados muestran que el riesgo tiene una probabilidad de pérdida expresada matemáticamente, que se basa en datos estadísticos y puede calcularse con un grado bastante alto de precisión. Al elegir la solución más aceptable se utilizó la regla de probabilidad óptima del resultado, que consiste en elegir entre las posibles soluciones aquella en la que la probabilidad del resultado sea aceptable para el emprendedor.

En la práctica, la aplicación de la regla de probabilidad óptima de un resultado suele combinarse con la regla de variabilidad óptima del resultado.

Como se sabe, la variabilidad de los indicadores se expresa por su dispersión, desviación estándar y coeficiente de variación. La esencia de la regla de fluctuación óptima del resultado es que de las posibles soluciones se selecciona aquella en la que las probabilidades de ganar y perder para la misma inversión arriesgada de capital tengan una brecha pequeña, es decir la cantidad más pequeña de varianza, la desviación estándar de la variación. En los problemas considerados, la elección de las soluciones óptimas se realizó utilizando estas dos reglas.

dependiendo del tipo de datos “en la entrada”:

2.1. Números.

2.2. Vectores de dimensión finita.

2.3. Funciones (series de tiempo).

2.4. Objetos de naturaleza no numérica.

La clasificación más interesante se basa en aquellos problemas de control para los que se utilizan métodos econométricos. Con este enfoque, se pueden asignar bloques:

3.1. Apoyar la previsión y la planificación.

3.2. Seguimiento parámetros controlados y detección de anomalías.

3.3. Apoyo Toma de decisiones, y etc.

¿Qué factores determinan la frecuencia de uso de determinadas herramientas de control econométrico? Como ocurre con otras aplicaciones de la econometría, existen dos grupos principales de factores: las tareas que se resuelven y las calificaciones de los especialistas.

En aplicación práctica métodos econométricos en la operación del controlador, es necesario aplicar métodos sistemas de software. Sistemas estadísticos generales como SPSS, Estadística, Estadística, ADDA y más especializados Statcon, SPC, NADIS, DESCANSO(según las estadísticas de datos de intervalo), matriz y muchos otros. Introducción masiva de fácil de usar. productos de software, incluidas las herramientas econométricas modernas para analizar datos económicos específicos, pueden considerarse como uno de formas efectivas aceleración progreso científico y tecnológico, difusión del conocimiento econométrico moderno.

La econometría está en constante evolución.. La investigación aplicada conduce a la necesidad de un análisis más profundo de los métodos clásicos.

Un buen ejemplo para discutir son los métodos para probar la homogeneidad de dos muestras. Hay dos agregados y debemos decidir si son diferentes o iguales. Para ello se toma una muestra de cada uno de ellos y se utiliza uno u otro método estadístico para comprobar la homogeneidad. Hace unos 100 años se propuso el método de Student, que todavía se utiliza ampliamente en la actualidad. Sin embargo, tiene muchas deficiencias. En primer lugar, según Student, las distribuciones de los elementos muestrales deben ser normales (gaussianas). Por regla general, este no es el caso. En segundo lugar, su objetivo no es comprobar la homogeneidad en general (la llamada homogeneidad absoluta, es decir, la coincidencia de funciones de distribución correspondientes a dos poblaciones), sino sólo comprobar la igualdad de las expectativas matemáticas. Pero, en tercer lugar, se supone necesariamente que las varianzas de los elementos de las dos muestras coinciden. Sin embargo, comprobar la igualdad de varianzas, y especialmente la normalidad, es mucho más difícil que la igualdad de expectativas matemáticas. Por lo tanto, la prueba t de Student suele utilizarse sin realizar dichas comprobaciones. Y luego quedan en el aire las conclusiones basadas en el criterio de Student.

Los especialistas más avanzados teóricamente recurren a otros criterios, por ejemplo, la prueba de Wilcoxon. Es no paramétrico, es decir No se basa en el supuesto de normalidad. Pero no está exento de defectos. No se puede utilizar para comprobar la homogeneidad absoluta (coincidencia de funciones de distribución correspondientes a dos poblaciones). Esto solo se puede hacer utilizando el llamado. criterios consistentes, en particular, los criterios de Smirnov y el tipo omega cuadrado.

Desde un punto de vista práctico, el criterio de Smirnov tiene una desventaja: sus estadísticas toman solo una pequeña cantidad de valores, su distribución se concentra en una pequeña cantidad de puntos y no es posible utilizar los niveles de significancia tradicionales de 0,05 y 0,01. .

El término "altas tecnologías estadísticas". En el término “altas tecnologías estadísticas”, cada una de las tres palabras tiene su propio significado.

"Alto", como en otras áreas, significa que la tecnología se basa en logros modernos de la teoría y la práctica, en particular, la teoría de la probabilidad y la estadística matemática aplicada. Al mismo tiempo, "basado en logros científicos modernos" significa, en primer lugar, que la base matemática de la tecnología en el marco de la disciplina científica pertinente se obtuvo hace relativamente poco tiempo y, en segundo lugar, que los algoritmos de cálculo se desarrollaron y justificaron de acuerdo con (y no son las llamadas "heurísticas"). Con el tiempo, si los nuevos enfoques y resultados no obligan a reconsiderar la evaluación de la aplicabilidad y capacidades de la tecnología o reemplazarla por una más moderna, la "alta tecnología econométrica" ​​se convierte en "tecnología estadística clásica". Como método de mínimos cuadrados. Entonces, las altas tecnologías estadísticas son el fruto de recientes y serios investigación científica. Hay dos aquí conceptos clave- la “juventud” de la tecnología (en cualquier caso, no más de 50 años, y mejor, no más de 10 o 30 años) y la dependencia de la “alta ciencia”.

El término “estadístico” es familiar, pero tiene muchos matices. Existen más de 200 definiciones del término "estadística".

Por último, el término “tecnología” se utiliza relativamente raramente en relación con las estadísticas. El análisis de datos normalmente implica una serie de procedimientos y algoritmos realizados de forma secuencial, en paralelo o de una manera más compleja. En particular, se pueden distinguir las siguientes etapas típicas:

  • planificar un estudio estadístico;
  • organizar la recopilación de datos de acuerdo con un programa óptimo o al menos racional (planificación del muestreo, creación estructura organizativa y selección de un equipo de especialistas, formación del personal que recogerá los datos, así como de los responsables del tratamiento, etc.);
  • recogida directa de datos y su registro en determinados soportes (con control de calidad de la recogida y rechazo de datos erróneos por motivos del área temática);
  • descripción primaria de los datos (cálculo de diversas características de la muestra, funciones de distribución, estimaciones de densidad no paramétricas, construcción de histogramas, campos de correlación, varias tablas y diagramas, etc.),
  • evaluación de determinadas características y parámetros de distribución numéricos o no numéricos (por ejemplo, estimación de intervalo no paramétrica del coeficiente de variación o restauración de la relación entre la respuesta y los factores, es decir, estimación de funciones),
  • probar hipótesis estadísticas (a veces sus cadenas; después de probar la hipótesis anterior, se toma la decisión de probar una u otra hipótesis posterior),
  • estudio más profundo, es decir aplicación de diversos algoritmos para análisis estadístico multivariado, algoritmos de diagnóstico y clasificación, estadísticas de datos no numéricos y de intervalo, análisis de series temporales, etc.;
  • comprobar la estabilidad de las estimaciones obtenidas y las conclusiones sobre las desviaciones permisibles de los datos iniciales y las premisas de los modelos estadístico-probabilísticos utilizados, las transformaciones admisibles de las escalas de medición, en particular, el estudio de las propiedades de las estimaciones mediante el método de multiplicación de muestras. ;
  • aplicación de los resultados estadísticos obtenidos para fines aplicados (por ejemplo, para diagnosticar materiales específicos, hacer pronósticos, seleccionar proyecto de inversión a partir de las opciones propuestas, encontrar el modo óptimo para implementar el proceso tecnológico, resumiendo los resultados de las muestras de prueba. dispositivos tecnicos y etc.),
  • preparación de informes finales, en particular destinados a quienes no son especialistas en métodos econométricos y estadísticos de análisis de datos, incluidos los directivos: "tomadores de decisiones".

Es posible otra estructuración de tecnologías estadísticas. Es importante enfatizar que el uso calificado y efectivo de métodos estadísticos no es de ninguna manera una prueba de una hipótesis estadística individual o una evaluación de los parámetros de una distribución determinada de una familia fija. Este tipo de Las operaciones son sólo los componentes básicos de la tecnología estadística. Mientras tanto, los libros de texto y las monografías sobre estadística y econometría suelen hablar de componentes básicos individuales, pero no analizan los problemas de organizarlos en una tecnología destinada a un uso aplicado. La transición de un procedimiento estadístico a otro permanece en la sombra.

El problema de "unir" algoritmos estadísticos requiere una consideración especial, ya que como resultado del uso del algoritmo anterior, a menudo se violan las condiciones de aplicabilidad del siguiente. En particular, los resultados de las observaciones pueden dejar de ser independientes, su distribución puede cambiar, etc.

Por ejemplo, al probar hipótesis estadísticas, el nivel de significancia y el poder son de gran importancia. Los métodos para calcularlos y utilizarlos para probar una única hipótesis suelen ser bien conocidos. Si primero se prueba una hipótesis y luego, teniendo en cuenta los resultados de su prueba, una segunda, entonces el procedimiento final, que también puede considerarse como la prueba de alguna hipótesis estadística (más compleja), tiene características (nivel de significancia y potencia) que, por regla general, no pueden expresarse simplemente en términos de las características de las dos hipótesis componentes y, por lo tanto, suelen ser desconocidas. Por lo tanto, el procedimiento final no puede considerarse científicamente fundamentado, sino que se refiere a algoritmos heurísticos. Por supuesto, después de un estudio apropiado, por ejemplo, utilizando el método de Monte Carlo, puede convertirse en uno de los procedimientos con base científica de la estadística aplicada.

Entonces, el procedimiento para el análisis de datos econométricos o estadísticos es una información. proceso tecnológico , es decir, una u otra tecnología de la información. En la actualidad, sería frívolo hablar de automatizar todo el proceso de análisis de datos econométricos (estadísticos), ya que hay demasiados problemas sin resolver que provocan discusiones entre especialistas.

Todo el arsenal de métodos estadísticos utilizados actualmente se puede dividir en tres corrientes:

  • altas tecnologías estadísticas;
  • tecnologías estadísticas clásicas,
  • tecnologías estadísticas bajas.

Es necesario garantizar que sólo los dos primeros tipos de tecnologías se utilicen en estudios específicos.. Al mismo tiempo, por tecnologías estadísticas clásicas nos referimos a tecnologías de época venerable que han conservado su valor científico y su importancia para la práctica estadística moderna. Estos son método de mínimos cuadrados, Kolmogorov, estadísticas de Smirnov, omega cuadrado, coeficientes de correlación no paramétricos de Spearman y Kendall y muchos otros.

Tenemos un orden de magnitud menos de econometristas que en Estados Unidos y Gran Bretaña (la Asociación Estadounidense de Estadística tiene más de 20.000 miembros). Rusia necesita la formación de nuevos especialistas: los econometristas.

Cualesquiera que sean los nuevos resultados científicos que se obtengan, si siguen siendo desconocidos para los estudiantes, entonces una nueva generación de investigadores e ingenieros se verá obligada a dominarlos, actuando sola, o incluso redescubrirlos. Para decirlo de manera un tanto aproximada, podemos decir esto: aquellos enfoques, ideas, resultados, hechos, algoritmos que se incluyeron en los cursos de formación y los correspondientes. material didáctico- son guardados y utilizados por los descendientes, los que no están incluidos desaparecen en el polvo de las bibliotecas.

Puntos de crecimiento. Hay cinco tendencias actuales, en el que se desarrollan estadísticas aplicadas modernas, es decir cinco “puntos de crecimiento”: no paramétricos, robustez, bootstrap, estadísticas de intervalo, estadísticas de objetos de naturaleza no numérica. Analicemos brevemente estas tendencias actuales.

Las estadísticas no paramétricas o no paramétricas le permiten sacar conclusiones estadísticas, evaluar características de distribución y probar hipótesis estadísticas sin suposiciones débilmente fundamentadas de que la función de distribución de los elementos muestrales es parte de una familia paramétrica particular. Por ejemplo, existe la creencia generalizada de que las estadísticas suelen seguir una distribución normal. Sin embargo, un análisis de resultados de observación específicos, en particular de los errores de medición, muestra que en la gran mayoría de los casos las distribuciones reales difieren significativamente de las normales. El uso acrítico de la hipótesis de normalidad a menudo conduce a errores significativos, por ejemplo, al rechazar valores atípicos, durante el control de calidad estadístico y en otros casos. Por lo tanto, es aconsejable utilizar métodos no paramétricos en los que sólo se imponen requisitos muy débiles a las funciones de distribución de los resultados observacionales. Generalmente sólo se supone su continuidad. Hasta la fecha, utilizando métodos no paramétricos es posible resolver casi la misma gama de problemas que antes se resolvían mediante métodos paramétricos.

La idea principal del trabajo sobre robustez (estabilidad): las conclusiones deberían cambiar poco con pequeños cambios en los datos iniciales y desviaciones de los supuestos del modelo. Aquí hay dos conjuntos de tareas. Uno es estudiar la solidez de los algoritmos comunes de minería de datos. El segundo es la búsqueda de algoritmos robustos para resolver determinados problemas.

El término “robustez” en sí no tiene un significado claro. Siempre es necesario especificar un modelo estadístico-probabilístico específico. Sin embargo, el modelo de “obstrucción” de Tukey-Huber-Hampel no suele ser útil en la práctica. Se centra en "pesar las colas" y, en situaciones reales, "las colas se cortan" mediante restricciones a priori en los resultados de las observaciones asociadas, por ejemplo, con los instrumentos de medición utilizados.

Bootstrap es una rama de la estadística no paramétrica que se basa en un uso intensivo. tecnologías de la información. La idea principal es “multiplicar muestras”, es decir en la obtención de un conjunto de muchas muestras parecidas a las obtenidas en el experimento. Con este conjunto, se pueden evaluar las propiedades de varios procedimientos estadísticos. La forma más sencilla La “multiplicación de muestra” consiste en excluir de ella un resultado de observación. Excluimos la primera observación, obtenemos una muestra similar a la original, pero con un tamaño reducido en 1. Luego devolvemos el resultado excluido de la primera observación, pero excluimos la segunda observación. Obtenemos una segunda muestra, similar a la original. Luego devolvemos el resultado de la segunda observación y así sucesivamente. Hay otras formas de "reproducir muestras". Por ejemplo, puede utilizar la muestra original para construir una u otra estimación de la función de distribución y luego utilizar pruebas estadísticas para simular una serie de muestras de elementos. en estadística aplicada es una muestra, es decir una colección de elementos aleatorios independientes distribuidos idénticamente. ¿Cuál es la naturaleza de estos elementos? En la estadística matemática clásica, los elementos muestrales son números o vectores. Y en las estadísticas no numéricas, los elementos muestrales son objetos de naturaleza no numérica que no se pueden sumar ni multiplicar por números. En otras palabras, los objetos de naturaleza no numérica se encuentran en espacios que no tienen una estructura vectorial.