Probabilidad

Definición

La probabilidad  es la medida de la probabilidad de que ocurra un evento. La probabilidad se cuantifica como un número entre 0 y 1, donde, en términos generales, 0 indica imposibilidad y 1 indica certeza. Cuanto mayor sea la probabilidad de un evento, más probable es que ocurra el evento. Un ejemplo simple es arrojar una moneda justa (imparcial). Como la moneda es justa, los dos resultados ("cabezas" y "colas") son igualmente probables; la probabilidad de "cabezas" es igual a la probabilidad de "colas"; y dado que no hay otros resultados posibles, la probabilidad de "cabeza" o "cruz" es 1/2 (que también se puede escribir como 0.5 o 50%).
A estos conceptos se les ha dado una formalización matemática axiomática en teoría de probabilidades, que se usa ampliamente en áreas de estudio como matemáticas, estadística, finanzas, juegos de azar, ciencia (en particular física), inteligencia artificial / aprendizaje automático, informática, teoría de juegos, y filosofía para, por ejemplo, sacar conclusiones sobre la frecuencia esperada de los eventos. La teoría de la probabilidad también se usa para describir la mecánica subyacente y las regularidades de los sistemas complejos.

Interpretaciones

Cuando se trata de experimentos que son aleatorios y bien definidos en un entorno puramente teórico (como lanzar una moneda justa), las probabilidades se pueden describir numéricamente por el número de resultados deseados dividido por el número total de todos los resultados. Por ejemplo, tirar una moneda justa dos veces producirá resultados de "cabeza-cabeza", "cabeza-cola", "cabeza-cola" y "cola-cola". La probabilidad de obtener un resultado de "head-head" es 1 de 4 resultados o 1/4 o 0.25 (o 25%). Sin embargo, en lo que se refiere a la aplicación práctica, existen dos categorías principales de interpretaciones de  probabilidad , cuyos partidarios poseen diferentes puntos de vista sobre la naturaleza fundamental de la probabilidad:
  1. Los Objectivistas asignan números para describir algún estado objetivo o físico. La versión más popular de la probabilidad objetiva es la probabilidad frecuentista, que afirma que la probabilidad de un evento aleatorio denota la  frecuencia relativa de ocurrencia  del resultado de un experimento al repetir el experimento. Esta interpretación considera que la probabilidad es la frecuencia relativa "a largo plazo" de los resultados. Una modificación de esto es la probabilidad de propensión, que interpreta la probabilidad como la tendencia de algún experimento a producir un cierto resultado, incluso si se realiza solo una vez.
  2. Los subjetivistas asignan números por probabilidad subjetiva, es decir, como un grado de creencia. El grado de creencia se ha interpretado como "el precio al que comprarías o venderías una apuesta que paga 1 unidad de utilidad si E, 0 si no es E". La versión más popular de la probabilidad subjetiva es la probabilidad bayesiana, que incluye el conocimiento experto y los datos experimentales para generar probabilidades. El conocimiento experto está representado por alguna distribución de probabilidad previa (subjetiva). Estos datos se incorporan en una función de verosimilitud. El producto de la probabilidad previa y la probabilidad, normalizada, da como resultado una distribución de probabilidad posterior que incorpora toda la información conocida hasta la fecha. Según el teorema del acuerdo de Aumann, los agentes bayesianos cuyas creencias previas son similares terminarán con creencias posteriores similares. Sin embargo,

Etimología

La palabra  probabilidad  deriva del latín  probabilitas , que también puede significar "probidad", una medida de la autoridad de un testigo en un caso legal en Europa, y a menudo correlacionada con la nobleza del testigo. En cierto sentido, esto difiere mucho del significado moderno de la  probabilidad , que, en contraste, es una medida del peso de la evidencia empírica, y se llega desde el razonamiento inductivo y la inferencia estadística.

Historia

El estudio científico de la probabilidad es un desarrollo moderno de las matemáticas. El juego muestra que ha habido un interés en cuantificar las ideas de probabilidad por milenios, pero las descripciones matemáticas exactas surgieron mucho más tarde. Hay razones para el lento desarrollo de las matemáticas de la probabilidad. Mientras que los juegos de azar proporcionaron el ímpetu para el estudio matemático de la probabilidad,   las supersticiones de los apostadores todavía oscurecen los problemas fundamentales .

Christiaan Huygens probablemente publicó el primer libro sobre la probabilidad
Según Richard Jeffrey, "Antes de mediados del siglo XVII, el término 'probable' (latín  probabilis ) significaba que  podía aprobarse , y se aplicaba en ese sentido, inequívocamente, a la opinión y a la acción. Una acción u opinión probable era una como personas sensatas se comprometerían o mantendrían, dadas las circunstancias ". Sin embargo, en contextos legales especialmente, 'probable' también podría aplicarse a proposiciones para las cuales había buena evidencia.

Gerolamo Cardano
El polímata italiano del siglo XVI Gerolamo Cardano demostró la eficacia de definir las probabilidades como la proporción de resultados favorables a desfavorables (lo que implica que la probabilidad de un evento está dada por la relación de resultados favorables al número total de resultados posibles). Aparte de la obra elemental de Cardano, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) dio el tratamiento científico más antiguo conocido del tema. Ars Conjectandi de Jakob Bernoulli   (póstumo, 1713) y Doctrine of Chances  (1718) de Abraham de Moivre  trataron el tema como una rama de las matemáticas. Véase The Emergence of Probability de Ian Hacking   y James Franklin's La ciencia de la conjetura  para las historias del desarrollo temprano del mismo concepto de probabilidad matemática.
La teoría de los errores se remonta a la Opera Miscellanea de Roger Cotes   (póstuma, 1722), pero una memoria preparada por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría a la discusión de los errores de observación. La reimpresión (1757) de esta memoria establece los axiomas de que los errores positivos y negativos son igualmente probables, y que ciertos límites asignables definen el rango de todos los errores. Simpson también analiza los errores continuos y describe una curva de probabilidad.
Las dos primeras leyes de error que se propusieron se originaron con Pierre-Simon Laplace. La primera ley fue publicada en 1774 y establecía que la frecuencia de un error podría expresarse como una función exponencial de la magnitud numérica del error, sin tener en cuenta el signo. La segunda ley del error fue propuesta en 1778 por Laplace y declaró que la frecuencia del error es una función exponencial del cuadrado del error. La segunda ley de error se llama distribución normal o ley de Gauss. "Es difícil históricamente atribuir esa ley a Gauss, quien a pesar de su conocida precocidad probablemente no había hecho este descubrimiento antes de los dos años".
Daniel Bernoulli (1778) introdujo el principio del producto máximo de las probabilidades de un sistema de errores concurrentes.

Carl Friedrich Gauss
Adrien-Marie Legendre (1805) desarrolló el método de mínimos cuadrados, y lo introdujo en su  Nouvelles méthodes pour la détermination des orbites des comètes ( Nuevos métodos para determinar las órbitas de los cometas ). Ignorando la contribución de Legendre, un escritor irlandés-americano, Robert Adrain, editor de "The Analyst" (1808), primero dedujo la ley de la facilidad del error,
donde   es una constante que depende de la precisión de la observación, y   es un factor de escala que asegura que el área bajo la curva es igual a 1. Dio dos pruebas, la segunda es esencialmente la misma que la de John Herschel (1850). Gauss dio la primera prueba que parece haberse conocido en Europa (la tercera después de la de Adrain) en 1809. Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826) y Hagen (1837) ofrecieron pruebas adicionales. ), Friedrich Bessel (1838), WF Donkin (1844, 1856) y Morgan Crofton (1870). Otros colaboradores fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) para  r , el error probable de una sola observación, es bien conocida.
En el siglo XIX, los autores de la teoría general incluían Laplace, Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De Morgan y George Boole mejoraron la exposición de la teoría.
Andrey Markov introdujo la noción de cadenas de Markov (1906), que desempeñó un papel importante en la teoría de los procesos estocásticos y sus aplicaciones. La moderna teoría de la probabilidad basada en la teoría de la medida fue desarrollada por Andrey Kolmogorov (1931).
En el lado geométrico (ver geometría integral), los colaboradores de  The Educational Times  fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson y Artemas Martin).

Teoría

Al igual que otras teorías, la teoría de la probabilidad es una representación de sus conceptos en términos formales, es decir, en términos que pueden considerarse por separado de su significado. Estos términos formales son manipulados por las reglas de las matemáticas y la lógica, y cualquier resultado se interpreta o traduce nuevamente al dominio del problema.
Ha habido al menos dos intentos exitosos de formalizar la probabilidad, concretamente la formulación de Kolmogorov y la formulación de Cox. En la formulación de Kolmogorov (ver espacio de probabilidad), los conjuntos se interpretan como eventos y la probabilidad misma como una medida en una clase de conjuntos. En el teorema de Cox, la probabilidad se toma como primitiva (es decir, no se analiza más) y se hace hincapié en construir una asignación coherente de valores de probabilidad para las proposiciones. En ambos casos, las leyes de probabilidad son las mismas, a excepción de los detalles técnicos.
Existen otros métodos para cuantificar la incertidumbre, como la teoría de Dempster-Shafer o la teoría de la posibilidad, pero esos son esencialmente diferentes y no son compatibles con las leyes de la probabilidad, como se suele entender.

Aplicaciones

La teoría de la probabilidad se aplica en la vida cotidiana en la evaluación y el modelado de riesgos. La industria y los mercados de seguros utilizan la ciencia actuarial para determinar los precios y tomar decisiones comerciales. Los gobiernos aplican métodos probabilísticos en la regulación ambiental, el análisis del derecho (teoría de la confiabilidad del envejecimiento y la longevidad) y la regulación financiera.
Un buen ejemplo del uso de la teoría de la probabilidad en el comercio de acciones es el efecto de la probabilidad percibida de cualquier conflicto generalizado en Medio Oriente sobre los precios del petróleo, que tienen efectos dominantes en la economía en general. Una evaluación de un comerciante de productos básicos de que una guerra es más probable puede enviar los precios de esa mercancía hacia arriba o hacia abajo, y señala a otros comerciantes de esa opinión. En consecuencia, las probabilidades no se evalúan de forma independiente ni necesariamente de manera muy racional. La teoría de las finanzas del comportamiento surgió para describir el efecto de ese pensamiento grupal sobre los precios, sobre las políticas y sobre la paz y el conflicto.
Además de la evaluación financiera, la probabilidad se puede utilizar para analizar las tendencias en biología (por ejemplo, diseminación de enfermedades) y en ecología (p. Ej., Cuadrados biológicos de Punnett). Al igual que con las finanzas, la evaluación de riesgos se puede utilizar como una herramienta estadística para calcular la probabilidad de que ocurran eventos no deseados y puede ayudar a implementar protocolos para evitar el encuentro con tales circunstancias. La probabilidad se usa para diseñar juegos de azar para que los casinos puedan obtener un beneficio garantizado y, a la vez, otorgar pagos a los jugadores que sean lo suficientemente frecuentes como para alentar el juego continuo.
El descubrimiento de métodos rigurosos para evaluar y combinar las evaluaciones de probabilidad ha cambiado la sociedad. Es importante para la mayoría de los ciudadanos comprender cómo se realizan las evaluaciones de probabilidad y cómo contribuyen a las decisiones.
Otra aplicación significativa de la teoría de la probabilidad en la vida cotidiana es la fiabilidad. Muchos productos de consumo, como los automóviles y los productos electrónicos de consumo, usan la teoría de la confiabilidad en el diseño del producto para reducir la probabilidad de fallas. La probabilidad de falla puede influir en las decisiones de un fabricante sobre la garantía de un producto.
El modelo de lenguaje de caché y otros modelos de lenguaje estadístico que se usan en el procesamiento del lenguaje natural son también ejemplos de aplicaciones de la teoría de la probabilidad.

Tratamiento matemático

Considere un experimento que puede producir una serie de resultados. La colección de todos los resultados posibles se denomina espacio de muestra del experimento. El conjunto de potencia del espacio muestral se forma considerando todas las diferentes colecciones de resultados posibles. Por ejemplo, lanzar un dado puede producir seis resultados posibles. Una colección de resultados posibles da un número impar en los dados. Por lo tanto, el subconjunto {1,3,5} es un elemento del conjunto de potencia del espacio de muestra de los dados. Estas colecciones se llaman "eventos". En este caso, {1,3,5} es el evento en el que el dado cae en algún número impar. Si los resultados que realmente ocurren caen en un evento dado, se dice que ocurrió el evento.
Una probabilidad es una forma de asignar a cada evento un valor entre cero y uno, con el requisito de que el evento esté compuesto por todos los resultados posibles (en nuestro ejemplo, el evento {1,2,3,4,5,6}) es asignado un valor de uno. Para calificar como probabilidad, la asignación de valores debe cumplir el requisito de que si observa una colección de eventos mutuamente excluyentes (eventos sin resultados comunes, por ejemplo, los eventos {1,6}, {3} y {2, 4} son mutuamente excluyentes), la probabilidad de que al menos uno de los eventos ocurra viene dada por la suma de las probabilidades de todos los eventos individuales.
La probabilidad de un suceso  A  se escribe como  ,  o  Esta definición matemática de probabilidad puede extenderse a infinitos espacios de muestra, e incluso espacios de muestra incontables, utilizando el concepto de medida.
Lo  opuesto  o  complemento  de un evento  A  es el evento [no  A ] (es decir, el evento de  A  no ocurre), a menudo denotado como  , o  su probabilidad viene dada por  P (no  A ) = 1 -  P ( A ) . Como ejemplo, la posibilidad de no tirar un seis en un dado de seis caras es  1 - (posibilidad de lanzar un seis)  . Ver evento complementario para un tratamiento más completo.
Si dos eventos  A  y  B  ocurren en una sola ejecución de un experimento, esto se llama intersección o probabilidad conjunta de  A  y  B , denotado como  .

Eventos independientes

Si dos eventos,  A  y  B  son independientes, entonces la probabilidad conjunta es
por ejemplo, si se lanzan dos monedas, la posibilidad de que ambas sean cabezas es  .

Eventos mutuamente excluyentes

Si el evento  A  o el evento  B  nunca se producen en una sola ejecución de un experimento, entonces se denominan eventos mutuamente excluyentes.
Si dos eventos son mutuamente excluyentes, entonces la probabilidad de que  ambos  ocurran se denota como  .
Si dos eventos son mutuamente excluyentes, entonces la probabilidad de  que  ocurra se denota como  .
Por ejemplo, la probabilidad de tirar un 1 o 2 en un dado de seis caras es 

No eventos mutuamente excluyentes

Si los eventos no son mutuamente excluyentes, entonces
Por ejemplo, cuando se extrae una sola carta al azar de una baraja de cartas normal, la posibilidad de obtener una carta de corazón o cara (J, Q, K) (o una que sea ambas) es , debido a las 52 cartas de un naipe.  el mazo 13 son corazones, 12 son cartas faciales y 3 son ambos: aquí las posibilidades incluidas en los "3 que son ambos" están incluidas en cada uno de los "13 corazones" y las "12 cartas faciales", pero solo deben contarse una vez .

La probabilidad condicional

La probabilidad condicional  es la probabilidad de un suceso  A , dada la aparición de algún otro evento  B . La probabilidad condicional se escribe  , y se lee "la probabilidad de  A , dado  B ". Está definido por
Si   luego   está formalmente indefinido por esta expresión. Sin embargo, es posible definir una probabilidad condicional para algunos eventos de probabilidad cero utilizando un álgebra σ de tales eventos (como los que surgen de una variable aleatoria continua).
Por ejemplo, en una bolsa de 2 bolas rojas y 2 bolas azules (4 bolas en total), la probabilidad de tomar una bola roja es  sin embargo, al tomar una segunda bola, la probabilidad de que sea una bola roja o una bola azul depende de la bola que se tomó previamente, como, si se toma una bola roja, la probabilidad de volver a coger una bola roja sería   solamente 1 bola roja y 2 bolas azules habrían permanecido.

Probabilidad inversa

En teoría de la probabilidad y aplicaciones,  la regla de Bayes  relaciona las probabilidades de evento   a evento  , antes (antes de) y después (posterior a) condicionamiento en otro evento  Las probabilidades en el   evento   es simplemente la relación de las probabilidades de los dos eventos. Cuando arbitrariamente muchos eventos   son de interés, no solo dos, la regla puede reformularse ya que  posterior es proporcional a la probabilidad de tiempos anteriores ,   donde el símbolo de proporcionalidad significa que el lado izquierdo es proporcional a (es decir, equivale a un tiempo constante) la mano derecha lado como   varía, para fijo o dado  (Lee, 2012; Bertsch McGrayne, 2012). De esta forma, se remonta a Laplace (1774) y a Cournot (1843); ver Fienberg (2005). Ver Probabilidad inversa y la regla de Bayes.

Resumen de probabilidades


Resumen de probabilidades
EventoProbabilidad
UN
No un
A o B
A y B
Un B dado

Relación con aleatoriedad y probabilidad en mecánica cuántica

En un universo determinista, basado en conceptos newtonianos, no habría probabilidad si se conocieran todas las condiciones (el demonio de Laplace), (pero hay situaciones en las que la sensibilidad a las condiciones iniciales excede nuestra capacidad de medirlas, es decir, conocerlas). En el caso de una rueda de ruleta, si se conoce la fuerza de la mano y el período de esa fuerza, el número en el que la bola se detendrá sería una certeza (aunque como cuestión práctica, esto probablemente solo sería cierto para ruleta que no había sido nivelada exactamente - como se reveló el Newtonian Casino de Thomas A. Bass). Esto también asume el conocimiento de la inercia y la fricción de la rueda, el peso, la suavidad y la redondez de la bola, las variaciones en la velocidad de la mano durante el giro y demás. Una descripción probabilística puede ser, por lo tanto, más útil que la mecánica newtoniana para analizar el patrón de resultados de repetidos roles de una ruleta. Los físicos se enfrentan a la misma situación en la teoría cinética de los gases, donde el sistema, aunque determinista en principio , es tan complejo (con el número de moléculas típicamente el orden de magnitud de la constante de Avogadro  6.02 × 10 ) que solo es factible una descripción estadística de sus propiedades.
La teoría de la probabilidad es requerida para describir los fenómenos cuánticos. Un descubrimiento revolucionario de la física de principios del siglo XX fue el carácter aleatorio de todos los procesos físicos que ocurren a escalas subatómicas y se rigen por las leyes de la mecánica cuántica. La función de onda objetivo evoluciona de manera determinista pero, de acuerdo con la interpretación de Copenhague, trata con las probabilidades de observar, y el resultado se explica por un colapso de la función de onda cuando se realiza una observación. Sin embargo, la pérdida del determinismo por el bien del instrumentalismo no tuvo la aprobación universal. Albert Einstein hizo una famosa frase en una carta a Max Born: "Estoy convencido de que Dios no juega a los dados". Como Einstein, Erwin Schrödinger, quien descubrió la función de onda, cree que la mecánica cuántica es una aproximación estadística de una realidad determinista subyacente. En algunas interpretaciones modernas de la mecánica estadística de la medición, se invoca la decoherencia cuántica para dar cuenta de la aparición de resultados experimentales subjetivamente probabilísticos.

Obtenido de: https://en.wikipedia.org/wiki/Probability

Contenidos Relacionados de Matemáticas ››