La probabilidad
mide la frecuencia con la que se obtiene un
resultado (o conjunto de resultados) al llevar a cabo un experimento
aleatorio, del que se conocen todos los resultados posibles, bajo
condiciones suficientemente estables. La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física, la matemática, la ciencia y la filosofía
para sacar conclusiones sobre la probabilidad discreta de sucesos
potenciales y la mecánica subyacente discreta de sistemas complejos.
La idea de Probabilidad está íntimamente ligada a la idea de azar y
nos ayuda a comprender nuestras posibilidades de ganar un juego de azar o
analizar las encuestas. Pierre-Simon Laplace
afirmó: "Es notable que una ciencia que comenzó con consideraciones
sobre juegos de azar haya llegado a el objeto más importante del
conocimiento humano". Comprender y estudiar el azar es indispensable,
porque la probabilidad es un soporte necesario para tomar decisiones en
cualquier ámbito.
Según Amanda Dure, "Antes de la mitad del siglo XVII, término 'probable' (en latín probable) significaba aprobable,
y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción.
Una acción u opinión probable era una que las personas sensatas
emprenderían o mantendrían, en las circunstancias."
Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido más temprano al concepto. Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como una rama de las matemáticas. Véase El surgimiento de la probabilidad (The Emergence of Probability) de Ian Hacking para una historia de los inicios del desarrollo del propio concepto de probabilidad matemática.
La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea (póstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson
en 1755 (impresa en 1756) aplicó por primera vez la teoría para la
discusión de errores de observación. La reimpresión (1757) de esta
memoria expone los axiomas de que los errores positivos y negativos son
igualmente probables, y que hay ciertos límites asignables dentro de los
cuales se supone que caen todos los errores; se discuten los errores
continuos y se da una curva de la probabilidad.
La estadística
es una ciencia que estudia la recolección,
análisis e interpretación de datos, ya sea para ayudar en la toma de
decisiones o para explicar condiciones regulares o irregulares de algún
fenómeno o estudio aplicado, de ocurrencia en forma aleatoria o condicional.
Sin embargo estadística es más que eso, en otras palabras es el
vehículo que permite llevar a cabo el proceso relacionado con la
investigación científica.
Es transversal a una amplia variedad de disciplinas, desde la física hasta las ciencias sociales, desde las ciencias de la salud hasta el control de calidad. Se usa para la toma de decisiones en áreas de negocios o instituciones gubernamentales.
La estadística se divide en dos grandes áreas:
- La estadística descriptiva,
se dedica a la descripción, visualización y resumen de datos originados
a partir de los fenómenos de estudio. Los datos pueden ser resumidos
numérica o gráficamente. Ejemplos básicos de parámetros estadísticos son: la media y la desviación estándar. Algunos ejemplos gráficos son: histograma, pirámide poblacional, clústers, entre otros.
- La estadística inferencial, se dedica a la generación de los modelos, inferencias y predicciones asociadas a los fenómenos en cuestión teniendo en cuenta la aleatoriedad de las observaciones. Se usa para modelar patrones en los datos y extraer inferencias acerca de la población bajo estudio. Estas inferencias pueden tomar la forma de respuestas a preguntas si/no (prueba de hipótesis), estimaciones de características numéricas (estimación), pronósticos de futuras observaciones, descripciones de asociación (correlación) o modelamiento de relaciones entre variables (análisis de regresión). Otras técnicas de modelamiento incluyen anova, series de tiempo y minería de datos.
Ambas ramas (descriptiva e inferencial) comprenden la estadística aplicada. Hay también una disciplina llamada estadística matemática,
la que se refiere a las bases teóricas de la materia. La palabra
«estadísticas» también se refiere al resultado de aplicar un algoritmo
estadístico a un conjunto de datos, como en estadísticas económicas, estadísticas criminales, entre otros.