1
Estadística inferencial para las ciencias exactas
Víctor Humberto Maos Núñez, María del Pilar Ríos García, Blanca Flor Robles
Pastor, Maria Peregrina Cruzado Vallejos, Juan Santiago Blas Pérez
© Víctor Humberto Maos Núñez, María del Pilar Ríos García, Blanca Flor Robles
Pastor, Maria Peregrina Cruzado Vallejos, Juan Santiago Blas Pérez, 2025
Primera edición: Agosto, 2025
Editado por:
Editorial Mar Caribe
www.editorialmarcaribe.es
Av. General Flores 547, Colonia, Colonia-Uruguay.
Diseño de portada: Yelia Sánchez Cáceres
Libro electrónico disponible en:
hps://editorialmarcaribe.es/ark:/10951/isbn.9789915698236
Formato: electrónico
ISBN: 978-9915-698-23-6
ARK: ark:/10951/isbn.9789915698236
Atribución/Reconocimiento-
NoComercial 4.0 Internacional:
Editorial Mar Caribe, firmante
795 de 12.08.2024 de la
Declaración de Berlín:
Editorial Mar Caribe-Miembro
de OASPA:
Los autores pueden autorizar al
público en general a reutilizar
sus obras únicamente con fines
no lucrativos, los lectores
pueden utilizar una obra para
generar otra, siempre que se
crédito a la investigación, y
conceden al editor el derecho a
publicar primero su ensayo bajo
los términos de la licencia CC
BY-NC 4.0.
"... Nos sentimos obligados a
abordar los retos de Internet como
medio funcional emergente para la
distribución del conocimiento.
Obviamente, estos avances pueden
modificar significativamente la
naturaleza de la publicación
científica, así como el actual
sistema de garantía de calidad...."
(Max Planck Society, ed. 2003.,
pp. 152-153).
Como miembro de la Open
Access Scholarly Publishing
Association, apoyamos el
acceso abierto de acuerdo con
el código de conducta,
transparencia y mejores
prácticas de OASPA para la
publicación de libros
académicos y de investigación.
Estamos comprometidos con
los s altos estándares
editoriales en ética y
deontología, bajo la premisa de
«Ciencia Abierta en América
Latina y el Carib.
2
Editorial Mar Caribe
Estadística inferencial para las ciencias exactas
Colonia, Uruguay
2025
3
Sobre los autores y la publicación
Víctor Humberto Maos Núñez
hps://orcid.org/0009-0004-6048-2870
Universidad Nacional Toribio Rodríguez de Mendoza
de Amazonas, Perú
María del Pilar Ríos García
hps://orcid.org/0000-0002-0236-6810
Universidad Nacional de Tumbes, Perú
Blanca Flor Robles Pastor
hps://orcid.org/0000-0002-7686-2825
Universidad Nacional Toribio Rodríguez de Mendoza
de Amazonas, Perú
Maria Peregrina Cruzado Vallejos
hps://orcid.org/0000-0001-7809-4711
Universidad César Vallejo, Perú
Juan Santiago Blas Pérez
hps://orcid.org/0000-0002-9741-3164
Universidad Nacional de Tumbes, Perú
Resultado de la investigación del libro:
Publicación original e inédita, cuyo contenido es el resultado de un proceso de investigación
realizado antes de su publicación, ha sido doble ciego de revisión externa por pares, el libro
ha sido seleccionado por su calidad cientíca y porque contribuye signicativamente al área
del conocimiento e ilustra una investigación completamente desarrollada y completada.
Además, la publicación ha pasado por un proceso editorial que garantiza su estandarización
bibliográca y usabilidad.
Sugerencia de citación: Maos, V.H., Ríos, M., Robles, B.F., Cruzado, M.P., y Blas, J.S. (2025).
Estadística inferencial para las ciencias exactas. Colonia del Sacramento: Editorial Mar Caribe.
hps://editorialmarcaribe.es/ark:/10951/isbn.9789915698236
4
Índice
Introducción .............................................................................................. 6
Capítulo I ................................................................................................... 9
Estadística Inferencial: Fundamentos y Aplicaciones en las Ciencias
Exactas ....................................................................................................... 9
1.1 Métodos de estimación .................................................................... 10
1.2 Modelado Estadístico: Análisis e Interpretación de Datos a Través de
Procesos Subyacentes ........................................................................... 15
1.3 Simulación Matemática y Métodos Iterativos: Fundamentos,
Aplicaciones y Análisis Comparativo ................................................... 21
Capítulo II ............................................................................................... 29
Explorando la Probabilidad: Clásica, Empírica, Subjetiva y Axiomática .. 29
2.2 Entendiendo las Heurísticas de Representatividad y Disponibilidad:
Claves para la Toma de Decisiones ....................................................... 37
2.3 Distribuciones de Probabilidad: Binomial, de Poisson y Normal .... 44
Capítulo III .............................................................................................. 53
Explorando las Relaciones Causa-Efecto: Fundamentos y Predicciones en
las Ciencias Exactas .................................................................................. 53
3.1 Introducción a las relaciones causa-efecto en las ciencias exactas .... 53
3.2 Correlación y Causalidad: Entendiendo la Relación entre Datos y
Causas .................................................................................................. 60
3.3 Optimización de Decisiones: Aplicación de Heurísticas Estadísticas
en el Análisis de Datos ......................................................................... 66
Capítulo IV .............................................................................................. 72
Optimización y Eciencia: Un enfoque en la investigación de operaciones
................................................................................................................. 72
4.1 Introducción a los métodos estadísticos en ciencias exactas ............ 72
4.2 Optimización y Eciencia: La Investigación de Operaciones en la
Gestión de Procesos .............................................................................. 79
5
4.3 Optimización Matemática: Explorando el Método Simplex y el
Análisis Numérico ................................................................................ 86
Conclusión ............................................................................................... 94
Bibliografía .............................................................................................. 97
6
Introducción
En las ciencias exactas, donde la precisión y la objetividad son
esenciales, la estadística inferencial transige a los cientícos validar teorías,
analizar resultados experimentales y establecer relaciones entre variables. Sin
la estadística inferencial, los investigación estaría limitada a observaciones
anecdóticas y a conclusiones que podrían no ser representativas de la
realidad. La capacidad de realizar inferencias basadas en muestras reduce el
riesgo de generalizaciones erróneas y proporciona un marco riguroso para la
toma de decisiones fundamentadas, esto en comparación con la estadística
descriptiva.
La diferencia fundamental entre la estadística descriptiva y la
inferencial radica en su propósito y aplicación, la primera se ocupa de resumir
y presentar datos de forma clara y concisa, utilizando medidas como la media,
la mediana, la moda y la desviación estándar, así como grácos y tablas
(estadígrafos). Por otro lado, la estadística inferencial va más allá de la simple
descripción: admite realizar estimaciones y pruebas de hipótesis que pueden
tener implicaciones signicativas para la comprensión y el avance del
conocimiento en diversas disciplinas.
La inferencia estadística se basa en una variedad de métodos que
induce a los investigadores a extraer conclusiones sobre una población a partir
de una muestra. Estos métodos son fundamentales para validar teorías y
realizar predicciones en las ciencias exactas. En este libro, exploraremos
cuatro capítulos clave: Aplicaciones de la estadística inferencial, Probabilidad,
Relaciones Causa-Efecto e Investigación de Operaciones.
7
A través de los capítulos se resalta los fundamentos de la estadística
inferencial, conceptos clave como muestras y poblaciones, errores tipo I y II,
así como intervalos de conanza, decisivos para la correcta interpretación de
los resultados, pues, estos fundamentos facilitan la comprensión de las
limitaciones e incertidumbres inherentes a cualquier análisis estadístico.
Además, se ahonda en los métodos de inferencia estadística, tales como las
pruebas de hipótesis, el análisis de regresión y el análisis de varianza
(ANOVA), para analizar y comprender la variabilidad en los datos.
Un aspecto clave de esta obrar es la asunción de la investigación de
operaciones como enfoque cientíco para la toma de decisiones, que busca
proporcionar soluciones óptimas a problemas complejos mediante el uso de
modelos matemáticos, algoritmos y análisis de datos, representativo del día a
día en las ciencias exactas, cuyo propósito es maximizar o minimizar variables
como costos, tiempos o recursos a través de la formulación de problemas que
reejen situaciones del mundo real.
El objetivo de la investigación, analizar teorías estadísticas, basadas en
la inferencia y el razonamiento deductivo sobre una totalidad, a partir de la
realización del análisis descriptivo; tomando en cuenta la complejidad de los
modelos matemáticos, la necesidad de datos precisos y la resistencia al cambio
que pueden enfrentar universidades y centros de investigación en las mejoras
tangibles dentro de la institucionalidad.
Al integrar la inferencia con la toma de decisiones, modelos
matemáticos y técnicas analíticas, las instituciones pueden identicar cuellos
de botella en sus procesos, optimizar la asignación de recursos y mejorar la
programación de actividades, la programación lineal y la simulación en el
aumento de la rentabilidad, por ejemplo. Por un lado, los modelos
8
matemáticos brindan un marco estructurado que facilita la optimización de
recursos y la planicación estratégica. En tanto, los modelos estadísticos
conllevan a analizar datos históricos y patrones de comportamiento, lo cual es
fundamental para identicar tendencias y hacer predicciones fundamentadas;
sin embargo, el paradigma a romper es la complejidad en la comunicación de
los resultados obtenidos a partir de estos modelos inferenciales.
Los autores consideran de suma importancia la signicancia estadística
y la relevancia práctica de los resultados, es decir, un resultado puede ser
estadísticamente signicativo, pero si no tiene un impacto representativo en
el contexto real, puede no justicar un cambio en la estrategia. Por ende, la
comunicación ecaz de estos hallazgos en los profesionales de la ciencias
exactas también es vital.
9
Capítulo I
Estadística Inferencial: Fundamentos y Aplicaciones en
las Ciencias Exactas
La estadística inferencial busca determinar qué signicados son
consecuentes y, a su vez, ayuda a tomar decisiones basadas en los datos
obtenidos de muestras. A diferencia de la estadística descriptiva, que se limita
a resumir y describir las características de un conjunto de datos, la estadística
inferencial posibilita realizar generalizaciones y conclusiones sobre
poblaciones más amplias a partir de muestras especícas. Esto se logra
mediante el uso de modelos matemáticos y probabilísticos que ayudan a
estimar parámetros desconocidos y a realizar pruebas de hipótesis.
La estadística inferencial se puede denir como el conjunto de técnicas
y procedimientos que posibilitan extraer conclusiones sobre un conjunto más
amplio de datos (población) a partir de un subconjunto representativo
(muestra). Utiliza herramientas como estimaciones, pruebas de hipótesis y
análisis de regresión para inferir patrones y predisposiciones, lo que resulta
esencial en la investigación cientíca y en la toma de decisiones informadas
(Veiga et al., 2020).
La estadística inferencial es particularmente relevante en las ciencias
exactas, como la física, la química y las matemáticas, ya que estas disciplinas
frecuentemente requieren la validación de teorías y modelos a partir de datos
experimentales. La capacidad de hacer inferencias a partir de muestras
posibilita a los cientícos evaluar la efectividad de sus hipótesis, realizar
10
predicciones y establecer relaciones entre variables. En este contexto, la
estadística inferencial no solo contribuye a la validación de experimentos, sino
que al igual impulsa el avance del conocimiento cientíco a través de la
cuanticación y el análisis riguroso de datos. Los objetivos de la estadística
inferencial son múltiples y abarcan diversas áreas de interés. Entre los más
destacados se encuentran:
i. Estimación de parámetros: Determinar valores aproximados de
parámetros poblacionales, como medias y proporciones, a partir de
muestras.
ii. Pruebas de hipótesis: Evaluar la validez de declaraciones sobre
poblaciones mediante el contraste de hipótesis.
iii. Predicción: Utilizar modelos estadísticos para anticipar
comportamientos basados en datos históricos.
iv. Control de calidad: Mejorar procesos y productos mediante el análisis
de datos de calidad y rendimiento.
En teoría, la estadística inferencial es una herramienta poderosa que
posibilita a los cientícos y profesionales de las ciencias exactas realizar
análisis signicativos, apoyándose en datos limitados para inferir y predecir
resultados en poblaciones más amplias. Su correcta aplicación es esencial para
el desarrollo y la validación de teorías en el ámbito cientíco.
1.1 Métodos de estimación
Los métodos de estimación son herramientas esenciales en la
estadística inferencial. La elección entre estimación puntual y por intervalos
dependerá del contexto y los objetivos del análisis. Comprender los errores
asociados con estos métodos es fundamental para interpretar correctamente
los resultados y tomar decisiones informadas en las ciencias exactas. Las
11
pruebas de hipótesis son una herramienta fundamental en la estadística
inferencial, ya que posibilitan a los académicos tomar decisiones informadas
sobre las características de una población basándose en muestras de datos.
Una hipótesis es una armación o suposición que se puede probar
mediante datos; en el contexto de la estadística inferencial, formulamos dos
tipos de hipótesis: la hipótesis nula (H0) y la hipótesis alternativa (H1). La
hipótesis nula es una declaración que sugiere que no hay efecto o diferencia
signicativa en la población, mientras que la hipótesis alternativa propone
que existe un efecto o diferencia (Romaina, 2012). El objetivo de realizar una
prueba de hipótesis es determinar si hay suciente evidencia en nuestros
datos de muestra para rechazar la hipótesis nula en favor de la alternativa.
Existen varios tipos de pruebas de hipótesis, cada una adecuada para
diferentes situaciones y datos:
i. Pruebas de hipótesis paramétricas: Estas pruebas asumen que los datos
siguen una distribución especíca, generalmente la normal.
Ejemplos comunes incluyen la prueba t de Student y la prueba
ANOVA. Estas pruebas son útiles cuando se trabaja con datos que
cumplen con ciertos criterios, como la normalidad y la
homogeneidad de la varianza.
ii. Pruebas de hipótesis no paramétricas: Estas pruebas no requieren
suposiciones sobre la distribución de los datos. Son útiles cuando
se trabaja con datos que no cumplen con los supuestos de las
pruebas paramétricas. Ejemplos incluyen la prueba de Mann-
Whitney y la prueba de Kruskal-Wallis. Estas pruebas son
particularmente valiosas en las ciencias exactas, donde los datos
12
pueden no seguir distribuciones normales debido a la naturaleza de
las medidas.
iii. Pruebas de hipótesis de una cola y dos colas: Una prueba de una cola
examina si hay un efecto en una dirección especíca (en efecto, si
un nuevo método de enseñanza resulta en mejores calicaciones),
mientras que una prueba de dos colas evalúa si hay una diferencia
signicativa en cualquier dirección (en particular, si las
calicaciones son diferentes, ya sea mejores o peores). La elección
entre una prueba de una cola o dos colas depende de la pregunta
de investigación y las hipótesis formuladas.
Al realizar pruebas de hipótesis, es fundamental considerar los errores
que pueden presentarse.
i. Error tipo I (α): Ocurre cuando se rechaza la hipótesis nula cuando
en realidad es verdadera. Este error representa un falso positivo y
es el riesgo que estamos dispuestos a aceptar al establecer un nivel
de signicancia (α), comúnmente jado en 0.05 (Shreer y
Huecker, 2023). Esto signica que hay un 5% de probabilidad de
cometer un error tipo I.
ii. Error tipo II (β): Este error ocurre cuando no se rechaza la hipótesis
nula cuando, de hecho, es falsa. Representa un falso negativo y está
relacionado con la potencia de la prueba, que es la probabilidad de
detectar un efecto real cuando existe. Minimizar el error tipo II
implica aumentar el tamaño de la muestra o elegir un diseño
experimental adecuado (Szucs y Ioannidis, 2017).
Entender estos conceptos y errores es esencial para realizar pruebas de
hipótesis correctamente y para interpretar los resultados en el contexto de las
13
ciencias exactas, donde la precisión y la validez de los hallazgos son
determinante para el avance del conocimiento. La estadística inferencial
desempeña un papel fundamental en diversas disciplinas dentro de las
ciencias exactas, permitiendo a los académicos interpretar datos, realizar
predicciones y validar teorías.
En el ámbito de la física, la estadística inferencial es esencial para
analizar experimentos y validar teorías; la idea central es, en el estudio de
partículas subatómicas, los físicos utilizan métodos estadísticos para
interpretar los datos obtenidos de aceleradores de partículas. La inferencia
estadística posibilita a los académicos estimar parámetros como la masa y la
carga de partículas, así como establecer la existencia de fenómenos como el
bosón de Higgs. Al mismo tiempo, a través de pruebas de hipótesis, los físicos
pueden evaluar la validez de diferentes modelos teóricos, comparando los
resultados experimentales con las predicciones.
La química al igual se benecia enormemente de la estadística
inferencial, especialmente en el análisis de datos experimentales. Lo más
importante, en la química analítica, se utilizan técnicas de estimación para
determinar concentraciones de sustancias en soluciones. Los químicos aplican
intervalos de conanza para evaluar la precisión de sus mediciones y
minimizar el impacto de errores sistemáticos. Asimismo, las pruebas de
hipótesis son utilizadas para validar reacciones químicas y sus condiciones
óptimas, permitiendo a los académicos decidir si los resultados obtenidos son
signicativos o si pudieran ser atribuibles al azar.
En matemáticas, la estadística inferencial se utiliza para desarrollar y
validar teorías relacionadas con la probabilidad y la estadística misma. Los
matemáticos aplican métodos estadísticos para analizar grandes conjuntos de
14
datos y extraer conclusiones sobre fenómenos complejos. Así como, en el
estudio de la teoría de la probabilidad, la inferencia estadística posibilita a los
académicos hacer proyecciones sobre circunstancias basándose en datos
históricos. A su vez, en áreas como la estadística matemática, se desarrollan
modelos que utilizan inferencia para estimar parámetros y construir
distribuciones que describan comportamientos aleatorios.
La estadística inferencial es una herramienta poderosa en las ciencias
exactas, proporcionando un marco para la toma de decisiones informadas y
la validación de teorías. Su aplicación en física, química y matemáticas resalta
su importancia en el avance del conocimiento cientíco y en la solución de
problemas complejos.
En síntesis, la estadística inferencial se erige como una herramienta
fundamental en el ámbito de las ciencias exactas, permitiendo a los
académicos y profesionales tomar decisiones informadas basadas en datos
limitados. A través de métodos de estimación y pruebas de hipótesis, la
estadística inferencial proporciona un marco riguroso para inferir
propiedades de poblaciones a partir de muestras, lo que resulta esencial en
disciplinas como la física, la química y las matemáticas (Veiga et al., 2020).
La capacidad de realizar estimaciones puntuales y por intervalos, junto
con un entendimiento claro de los errores que pueden surgir durante estos
procesos, es concluyente para asegurar la validez de las conclusiones
obtenidas. Asimismo, el conocimiento sobre los diferentes tipos de pruebas
de hipótesis y la gestión de errores tipo I y tipo II posibilitan a los cientícos
establecer armaciones sólidas y conables sobre sus investigaciones. Las
aplicaciones prácticas en las ciencias exactas demuestran la versatilidad y el
impacto de la estadística inferencial. Desde la conrmación de teorías físicas
15
hasta el análisis de reacciones químicas y la resolución de problemas
matemáticos complejos, su importancia no puede ser subestimada.
1.2 Modelado Estadístico: Análisis e Interpretación de Datos a
Través de Procesos Subyacentes
El modelado estadístico es una herramienta fundamental en el análisis
de datos que posibilita a académicos y analistas interpretar información
compleja de manera comprensible y útil. Este proceso implica la formulación
de un modelo matemático que captura las relaciones entre variables,
buscando entender patrones subyacentes en los datos.
El modelado estadístico se puede denir como el proceso de construir
un modelo matemático que represente un fenómeno observado en el mundo
real, utilizando datos empíricos (Aymerich y Albarracín, 2022). Este modelo
se basa en supuestos y estructuras matemáticas que posibilitan realizar
inferencias, predicciones y tomar decisiones informadas. La esencia del
modelado radica en abstraer la complejidad del mundo real en una
representación simplicada que conserve las características esenciales del
fenómeno estudiado.
La importancia del modelado estadístico radica en su capacidad para
proporcionar una comprensión más profunda de los datos. El modelado
posibilita a los académicos identicar relaciones signicativas entre variables,
evaluar el impacto de diferentes factores y hacer predicciones sobre
circunstancias. Esto es especialmente relevante en campos como la
investigación cientíca, donde los modelos estadísticos pueden ayudar a
validar hipótesis, y en la economía, donde se utilizan para prever
propensiones del mercado.
16
A través de una revisión de los fundamentos del modelado, tipos de
modelos y supuestos necesarios, así como una discusión sobre la evaluación
y validación de modelos, se pretende ofrecer una visión integral de esta
disciplina. Además, se presentarán ejemplos prácticos de aplicaciones en
diversas áreas como la investigación cientíca, la economía y la salud pública,
lo que permitirá resaltar la versatilidad y relevancia del modelado estadístico
en la interpretación de datos. Por ende, se abordarán los desafíos actuales y
las inclinaciones futuras en el campo del modelado estadístico, brindando una
perspectiva sobre la evolución de esta herramienta esencial en el análisis de
datos.
El modelado estadístico es una herramienta clave en la interpretación
y análisis de datos. Para construir modelos efectivos que representen
adecuadamente los procesos subyacentes, es decisivo comprender sus
fundamentos.
i. Modelos lineales: Los modelos lineales son aquellos en los que la
relación entre las variables independientes y la variable
dependiente se representa mediante una función lineal. Un ejemplo
clásico de esto es la regresión lineal simple, donde se busca ajustar
una línea recta a un conjunto de datos. Estos modelos son
apreciados por su simplicidad y facilidad de interpretación, aunque
pueden no capturar adecuadamente relaciones complejas entre
variables.
ii. Modelos no lineales: A diferencia de los modelos lineales, los modelos
no lineales posibilitan relaciones más complejas entre las variables.
Estos modelos pueden incluir funciones cuadráticas, cúbicas o
exponenciales, entre otras. Son particularmente útiles en
situaciones donde los efectos de las variables independientes no son
17
constantes a lo largo del rango de la variable dependiente. Ahora
bien, su interpretación puede ser más complicada y a menudo
requieren técnicas de estimación más sosticadas.
iii. Modelos de series temporales: Este tipo de modelos se utiliza para
analizar datos que se recogen a lo largo del tiempo. Los modelos de
series temporales, como el ARIMA (AutoRegressive Integrated
Moving Average), posibilitan capturar patrones de
comportamiento en datos secuenciales, como estacionalidades. Son
ampliamente utilizados en campos como la economía y la
meteorología, donde las predicciones futuras se basan en
observaciones pasadas.
iv. Normalidad de los errores: Uno de los supuestos clave en muchos
modelos estadísticos es que los errores (la diferencia entre los
valores observados y los valores predichos por el modelo) siguen
una distribución normal. Este supuesto es fundamental para
garantizar la validez de las inferencias estadísticas realizadas a
partir del modelo.
v. Independencia de las observaciones: Para que los resultados de un
modelo estadístico sean precisos, las observaciones deben ser
independientes entre sí. La dependencia entre observaciones puede
llevar a estimaciones sesgadas y a una interpretación errónea de los
resultados.
vi. Homoscedasticidad: Este término se reere a la igualdad de la
varianza de los errores a lo largo de todas las observaciones. Si la
varianza de los errores cambia a medida que la variable
independiente varía (un fenómeno conocido como
18
heteroscedasticidad), esto puede afectar negativamente la precisión
del modelo y sus inferencias.
vii. Criterios de ajuste: Existen diferentes criterios que se utilizan para
evaluar qué tan bien se ajusta un modelo a los datos. Algunos de
los más comunes son el R-cuadrado, que mide la proporción de la
variabilidad en la variable dependiente que se explica por el
modelo, y el criterio de información de Akaike (AIC), que penaliza
modelos más complejos para evitar el sobreajuste.
viii. Validación cruzada: Este método implica dividir los datos en
conjuntos de entrenamiento y prueba. Se construye el modelo
utilizando el conjunto de entrenamiento y se evalúa su rendimiento
en el conjunto de prueba. La validación cruzada es esencial para
garantizar que el modelo generalice bien a nuevos datos en lugar
de ajustarse únicamente a los datos de entrenamiento.
ix. Análisis de residuos: El análisis de residuos implica examinar las
diferencias entre los valores observados y los valores predichos por
el modelo. Un patrón aleatorio en los residuos sugiere que el
modelo es apropiado, mientras que patrones sistemáticos pueden
indicar que el modelo no captura adecuadamente la relación entre
las variables.
Los fundamentos del modelado estadístico son esenciales para la
correcta interpretación y análisis de datos, por ende, comprender los tipos de
modelos, los supuestos subyacentes y los métodos de evaluación posibilita a
los analistas construir modelos más robustos y precisos, facilitando la toma
de decisiones basadas en datos (Batanero, 2001).
El modelado estadístico no solo es una herramienta teórica, sino que
también tiene numerosas aplicaciones prácticas en diversas disciplinas. Su
19
capacidad para analizar y prever procedimientos a partir de datos lo convierte
en un recurso invaluable en múltiples campos. En el ámbito de la
investigación cientíca, el modelado estadístico es fundamental para la
interpretación de datos experimentales y observacionales. Los cientícos
utilizan modelos estadísticos para establecer relaciones entre variables,
probar hipótesis y generalizar resultados a partir de muestras limitadas. Por
ejemplo, en estudios de biología, los modelos pueden ayudar a entender la
relación entre la dosis de un fármaco y su efecto sobre un organismo,
permitiendo a los académicos identicar la dosis óptima que maximiza el
benecio terapéutico minimizando efectos adversos. Al mismo tiempo, en la
ecología, el modelado estadístico se utiliza para predecir el impacto de
cambios ambientales sobre poblaciones de especies, contribuyendo así a la
conservación de la biodiversidad.
En el ámbito económico y nanciero, el modelado estadístico es
esencial para la toma de decisiones informadas. Los economistas utilizan
modelos para analizar tendencias en datos económicos, lo que les posibilita
realizar pronósticos sobre el crecimiento económico, la inación y el
desempleo. En particular, los modelos econométricos son utilizados para
estimar la relación entre variables como el consumo y la renta, ayudando a los
formuladores de políticas a diseñar estrategias que fomenten el crecimiento.
En nanzas, los modelos de regresión y los modelos de series temporales son
herramientas comunes para predecir precios de activos, evaluar riesgos y
optimizar carteras de inversión. La capacidad de simular diferentes escenarios
económicos posibilita a las empresas y a los inversores tomar decisiones más
acertadas y estratégicas.
El modelado estadístico juega un papel relevante en la salud pública,
especialmente en la vigilancia y control de enfermedades. Los epidemiólogos
20
utilizan modelos para comprender la propagación de enfermedades
infecciosas y evaluar el impacto de intervenciones de salud pública, como la
vacunación o el distanciamiento social (Gawande et al., 2025). Conviene
destacar, los modelos SEIR (Susceptibles, Expuestos, Infectados y
Recuperados) son utilizados para predecir el curso de epidemias y ayudar a
los responsables de la salud a planicar recursos. Además, en el análisis de
datos clínicos, el modelado estadístico posibilita evaluar la efectividad de
tratamientos y medicamentos, ofreciendo información vital para la toma de
decisiones clínicas. En tanto, el modelado estadístico es una herramienta
esencial que contribuye a mejorar la salud de las poblaciones y a optimizar los
recursos en el sector sanitario.
En síntesis, las aplicaciones del modelado estadístico son vastas y
variadas, abarcando desde la investigación cientíca hasta la economía y la
salud pública. El modelado estadístico se ha consolidado como una
herramienta esencial en la interpretación y análisis de datos. Desde los
modelos lineales hasta los no lineales y los modelos de series temporales, cada
tipo ofrece una perspectiva única que puede adaptarse a diversas aplicaciones
en campos como la investigación cientíca, la economía y la salud pública.
Además, hemos discutido los supuestos fundamentales que sustentan estos
modelos, así como las técnicas de evaluación que garantizan su robustez y
validez.
A pesar de los avances signicativos en el campo del modelado
estadístico, aún existen desafíos que los analistas de datos deben enfrentar.
Entre los principales problemas es la gestión de datos faltantes y la
heterogeneidad en los conjuntos de datos, que pueden afectar la precisión de
los modelos. Asimismo, la complejidad creciente de los datos, especialmente
con la llegada de grandes volúmenes de información y datos no
21
estructurados, plantea nuevas dicultades en la selección y ajuste de modelos.
La interpretación de los resultados de igual modo puede verse afectada por el
sobreajuste, donde un modelo se adapta demasiado a los datos de
entrenamiento, perdiendo su capacidad predictiva en datos no vistos.
La integración de técnicas de aprendizaje automático y la inteligencia
articial con métodos estadísticos tradicionales está revolucionando la forma
en que se analizan los datos. Estas tecnologías posibilitan la identicación
automática de patrones y relaciones complejas, lo cual es especialmente útil
en contextos donde los datos se generan a gran velocidad.
Igualmente, el enfoque en la transparencia y la interpretabilidad de los
modelos se está volviendo cada vez más trascendental, especialmente en áreas
como la salud pública y la justicia social, donde las decisiones basadas en
datos pueden tener un impacto signicativo en la vida de las personas. El
modelado estadístico sigue siendo un pilar fundamental en el análisis de
datos, y sus aplicaciones continúan expandiéndose y vuelve cada vez más
impulsado por la información. Con la evolución de las tecnologías y los
métodos, el futuro del modelado estadístico promete ser emocionante, lleno
de oportunidades para mejorar la comprensión y el uso de datos en diversas
disciplinas.
1.3 Simulación Matemática y Métodos Iterativos: Fundamentos,
Aplicaciones y Análisis Comparativo
La simulación matemática es una herramienta poderosa que posibilita
modelar y analizar sistemas complejos a través de representaciones
matemáticas. Al emplear ecuaciones y algoritmos, los académicos y
profesionales pueden replicar el comportamiento de un sistema real,
22
proporcionando así un entorno seguro para experimentar y prever resultados
sin los riesgos asociados a la manipulación directa de los sistemas físicos.
La simulación matemática se puede denir como el proceso de diseñar
un modelo matemático que represente un sistema o fenómeno del mundo real
y utilizar dicho modelo para realizar experimentos computacionales. Estos
experimentos posibilitan observar el comportamiento del sistema bajo
diversas condiciones y realizar análisis que serían difíciles o imposibles de
llevar a cabo en situaciones reales (Villa, 2007). En este sentido, la simulación
actúa como un laboratorio virtual donde se pueden explorar diferentes
escenarios y validar teorías.
La simulación matemática desempeña un papel trascendente en la
resolución de problemas en múltiples disciplinas, como la ingeniería, la
economía, la biología y la física, entre otras. Posibilita a los académicos y
profesionales tomar decisiones informadas basadas en datos simulados,
optimizar procesos y prever el impacto de cambios en las variables del
sistema. Además, la simulación facilita la visualización de resultados
complejos, lo que contribuye a una mejor comprensión de los fenómenos
estudiados.
La historia de la simulación matemática se remonta a mediados del
siglo XX, cuando el desarrollo de las computadoras permitió a los cientícos
y matemáticos realizar cálculos complejos que antes eran inviables. Entre los
hitos más signicativos en este campo está la creación del método "Monte
Carlo" en la década de 1940, que introdujo técnicas de simulación estocástica
para resolver problemas en física y estadística. Desde entonces, la simulación
matemática ha evolucionado signicativamente, incorporando avances en
algoritmos, potencia de cálculo y técnicas de visualización, lo que ha
23
ampliado su aplicación y ecacia en la investigación y la industria. Hoy en
día, la simulación matemática es una herramienta esencial en la toma de
decisiones y la innovación, permitiendo abordar desafíos cada vez más
complejos.
La simulación matemática a menudo enfrenta problemas complejos
que requieren soluciones precisas y ecientes, en este contexto, los métodos
iterativos se han convertido en herramientas fundamentales para abordar este
tipo de desafíos. Los métodos iterativos son técnicas computacionales que
posibilitan encontrar soluciones aproximadas a problemas matemáticos,
especialmente en situaciones donde las soluciones exactas son difíciles de
obtener. Para Condado (2000), la esencia de un método iterativo radica en su
capacidad para renar progresivamente una estimación inicial mediante una
serie de pasos repetitivos o iteraciones, hasta que se alcanza un nivel de
precisión aceptable.
Una de las características más notables de los métodos iterativos es su
exibilidad; estos métodos pueden aplicarse a una amplia variedad de
problemas, desde sistemas de ecuaciones lineales hasta problemas de
optimización no lineales. A su vez, los métodos iterativos suelen ser más
ecientes en términos computacionales, ya que pueden requerir menos
recursos que los métodos directos, especialmente en problemas de gran
escala. Sin embargo, su éxito depende en gran medida de la elección de la
estimación inicial y de la convergencia del método, que no siempre está
garantizada.
i. Método de Jacobi: Este método se utiliza para resolver sistemas de
ecuaciones lineales y se basa en la idea de despejar una variable en
términos de las otras en cada ecuación. A cada iteración, se calcula
24
una nueva aproximación de cada variable utilizando los valores de
la iteración anterior. A pesar de que es sencillo de implementar, el
método de Jacobi puede ser lento en la convergencia, y su ecacia
depende de la estructura del sistema de ecuaciones.
ii. Método de Gauss-Seidel: Similar al método de Jacobi, el método de
Gauss-Seidel incluso se emplea para resolver sistemas de
ecuaciones lineales. Ahora bien, a diferencia de Jacobi, este método
utiliza los valores actualizados de las variables dentro de la misma
iteración. Esto suele acelerar la convergencia, pero requiere que los
cálculos se realicen en un orden especíco, lo que puede complicar
su implementación en ciertos contextos.
iii. Método del gradiente conjugado: Este método es particularmente útil
para resolver sistemas de ecuaciones lineales grandes y dispersos.
A diferencia de los métodos anteriores, el método del gradiente
conjugado se basa en la proyección de la solución en el espacio de
los gradientes. Esto lo hace muy eciente para problemas de
optimización, ya que busca minimizar una función objetivo y puede
converger rápidamente incluso en casos donde otros métodos
fallan.
Los métodos iterativos tienen un amplio espectro de aplicaciones en la
simulación matemática, se utilizan en la modelización de fenómenos físicos,
como la dinámica de uidos y la transferencia de calor, así como en la
simulación de procesos industriales y en la optimización de sistemas
complejos. En el ámbito de la ingeniería, estos métodos son fundamentales
para la resolución de problemas estructurales y de diseño, donde la precisión
es esencial.
25
En conjunto, los métodos iterativos se aplican en la inteligencia
articial y el aprendizaje automático, donde se utilizan para entrenar modelos
y optimizar funciones de pérdida. Por ende, la versatilidad y la eciencia de
los métodos iterativos los convierten en herramientas valiosas en el campo de
la simulación matemática, permitiendo a los académicos y profesionales
abordar problemas complejos de manera efectiva y precisa.
La simulación matemática se ha convertido en una herramienta
fundamental en diversas disciplinas, desde la ingeniería hasta las ciencias
sociales. Pese a, como cualquier técnica, presenta tanto ventajas como
desventajas que deben ser consideradas al momento de decidir su aplicación.
i. Modelado de sistemas complejos: La simulación matemática posibilita
representar y analizar sistemas complejos que son difíciles de
estudiar a través de métodos analíticos tradicionales. Esto es
especialmente útil en campos como la meteorología, la economía y
la biología, donde las interacciones entre múltiples variables
pueden ser intrincadas.
ii. Experimentación segura: A través de la simulación, es posible realizar
experimentos en un entorno controlado sin los riesgos asociados a
la experimentación en el mundo real. Esto posibilita a los
académicos probar hipótesis y escenarios sin las consecuencias
potencialmente adversas de un experimento físico.
iii. Optimización de recursos: La simulación puede ayudar a identicar
la mejor manera de utilizar recursos limitados, lo que resulta en una
mayor eciencia y reducción de costos. Esto es especialmente
relevante en industrias como la manufactura y la logística.
iv. Predicciones precisas: Al utilizar modelos matemáticos avanzados, la
simulación puede ofrecer predicciones más precisas sobre el
26
comportamiento futuro de un sistema. Esto es esencial en la toma
de decisiones, ya que posibilita anticipar problemas y
oportunidades.
v. Visualización y comunicación: Las simulaciones pueden incluir
visualizaciones grácas que facilitan la comprensión de datos
complejos. Esto es particularmente valioso para comunicar
resultados a partes interesadas no técnicas, lo que puede mejorar la
colaboración y la toma de decisiones.
vi. Requerimientos computacionales: Entre los principales inconvenientes
de la simulación matemática es la alta demanda de recursos
computacionales. Las simulaciones complejas pueden requerir
tiempo signicativo de procesamiento y grandes cantidades de
memoria, lo que puede limitar su accesibilidad para algunos
usuarios.
vii. Dependencia de modelos: La precisión de una simulación depende en
gran medida de la calidad del modelo matemático utilizado. Si el
modelo no reeja adecuadamente la realidad del sistema que se está
simulando, los resultados pueden ser engañosos o incorrectos.
viii. Dicultades en la validación: Validar un modelo de simulación puede
ser complicado, especialmente si no se dispone de datos sucientes
o adecuados para comparar. Esto puede generar dudas sobre la
abilidad de los resultados obtenidos.
ix. Costo de desarrollo: Crear y mantener simulaciones matemáticas
efectivas puede ser costoso y requerir un personal altamente
calicado. Esto puede ser una barrera para instituciones con
recursos limitados.
27
x. Simplicaciones necesarias: Para que una simulación sea
computacionalmente manejable, a menudo es necesario simplicar
ciertos aspectos del sistema. Estas simplicaciones pueden
conducir a la omisión de variables importantes y, por lo tanto,
afectar la validez de los resultados.
En comparación con otros métodos de análisis, como el análisis
estadístico o el enfoque analítico, la simulación matemática ofrece un enfoque
más exible y adaptativo. Mientras que los métodos analíticos pueden ser más
rápidos y menos exigentes en términos de recursos, suelen estar limitados a
sistemas que se pueden describir mediante ecuaciones cerradas. Por otro lado,
la simulación proporciona una forma de explorar sistemas dinámicos
complejos que no pueden ser modelados fácilmente de otra manera.
Si bien la simulación matemática presenta numerosas ventajas que la
hacen valiosa en la resolución de problemas complejos, todavía es importante
tener en cuenta sus limitaciones y los requisitos necesarios para su
implementación efectiva. La elección de utilizar simulación matemática debe
basarse en un análisis cuidadoso de estas ventajas y desventajas en el contexto
especíco de cada problema.
Los métodos iterativos, como el método de Jacobi, el método de Gauss-
Seidel y el método del gradiente conjugado, se destacan por su capacidad para
abordar problemas que, de otro modo, serían intratables mediante técnicas
analíticas, estos métodos no solo facilitan la obtención de soluciones
aproximadas, sino que asimismo optimizan el uso de recursos
computacionales, lo que es trascendente en el procesamiento de los datos y la
complejidad de los modelos que están en constante transformación (Figueroa
y Carrera, 2012).
28
A pesar de sus numerosas ventajas, es importante reconocer las
limitaciones de la simulación matemática y los métodos iterativos. La
precisión de los resultados puede depender en gran medida de la calidad de
los modelos y de las condiciones iniciales elegidas. Además, la interpretación
de los resultados obtenidos requiere un análisis cuidadoso para evitar errores
de juicio.
En comparación con otros métodos de análisis, la simulación
matemática ofrece una exibilidad y un enfoque práctico que pueden ser muy
valiosos en contextos donde la teoría pura puede resultar insuciente. Por otra
parte, es fundamental que los académicos y profesionales se mantengan
críticos y conscientes de las limitaciones inherentes a estas técnicas.
La simulación matemática y los métodos iterativos son instrumentos
potentes que, si se utilizan adecuadamente, pueden abrir nuevas puertas en
la investigación y la práctica profesional. Su continua evolución y adaptación
a nuevas problemáticas aseguran que seguirán siendo relevantes en la
búsqueda de soluciones a los desafíos del futuro.
29
Capítulo II
Explorando la Probabilidad: Clásica, Empírica,
Subjetiva y Axiomática
La probabilidad se ocupa del análisis de fenómenos inciertos, su
estudio se ha convertido en un pilar en diversas disciplinas, desde la
estadística y la economía hasta la física y la ingeniería. La capacidad de medir
y predecir la incertidumbre es esencial donde las circunstancias son, en su
mayoría, aleatorias y no siempre predecibles.
La probabilidad, medida numérica que cuantica la posibilidad de que
ocurra un evento especíco, oscila entre 0 y 1, donde 0 indica que el evento es
imposible y 1 indica que es seguro. En términos más formales, la probabilidad
de un evento \(A\) se puede expresar como \(P(A)\), donde \(P\) representa
la función de probabilidad. Esta noción posibilita a cientícos, académicos y
tomadores de decisiones evaluar riesgos, hacer predicciones y establecer
inferencias basadas en datos observados.
La probabilidad desempeña un papel decisivo en la ciencia, ya que
proporciona un marco para entender y manejar la incertidumbre inherente a
la investigación cientíca. Desde la formulación de hipótesis hasta la
interpretación de resultados experimentales, la probabilidad ayuda a los
cientícos a evaluar la validez de sus teorías y a tomar decisiones informadas
(Huircan y Carmona, 2019). Además, en campos como la biología, la economía
y la meteorología, la probabilidad es esencial para modelar fenómenos
complejos y para hacer proyecciones sobre conductas. Se pretende resaltar la
30
relevancia de la probabilidad como una ciencia exacta que, a pesar de su
naturaleza incierta, proporciona herramientas valiosas para la comprensión y
predicción de circunstancias en el mundo que nos rodea.
La probabilidad clásica se fundamenta en la idea de que todos los
resultados posibles de un experimento aleatorio son igualmente probables.
Esta concepción se basa en la noción de que, en determinadas condiciones,
podemos calcular la probabilidad de un evento especíco utilizando la
relación entre el número de resultados favorables y el número total de
resultados posibles. En el contexto de la probabilidad clásica, la probabilidad
de un evento \(A\) se dene como:
\[
P(A) = \frac{n(A)}{n(S)}
\]
donde \(n(A)\) es el número de resultados favorables al evento \(A\) y
\(n(S)\) es el número total de resultados posibles en el espacio muestral
\(S\). Este enfoque es particularmente útil en escenarios donde los resultados
son nitos y equitativos, como lanzar un dado o una moneda.
Los axiomas de la probabilidad clásica se basan en tres principios
fundamentales: la probabilidad de cualquier evento es un número entre 0 y 1,
la probabilidad del evento seguro es 1, y la probabilidad de la unión de
circunstancias mutuamente excluyentes es la suma de sus probabilidades
individuales (Dimitrov, 2021). Un ejemplo clásico de probabilidad se puede
observar en el lanzamiento de un dado. Un dado justo tiene seis caras, lo que
signica que el espacio muestral \(S\) tiene seis resultados posibles: \{1, 2, 3,
4, 5, 6\}. Si queremos calcular la probabilidad de obtener un número par,
31
identicamos los resultados favorables: \{2, 4, 6\}. Así, la probabilidad de
obtener un número par es:
\[
P(\text{par}) = \frac{3}{6} = \frac{1}{2}
\]
Otro ejemplo es el lanzamiento de una moneda. Dado que una moneda
tiene dos caras (cara y cruz), el espacio muestral es \(S = \{\text{cara},
\text{cruz}\}\). Si deseamos calcular la probabilidad de obtener cara,
tenemos:
\[
P(\text{cara}) = \frac{1}{2}
\]
Estos ejemplos ilustran cómo la probabilidad clásica posibilita realizar
cálculos simples y efectivos en situaciones controladas. A pesar de su utilidad,
la probabilidad clásica presenta ciertas limitaciones. En primer lugar, su
aplicación se restringe a situaciones donde todos los resultados son
igualmente probables. Ahora bien, en la vida real, muchos circunstancias no
se ajustan a este modelo. En efecto, no todas las monedas son justas, y los
dados pueden estar sesgados, lo que complica la estimación de
probabilidades.
A su vez, la probabilidad clásica no maneja adecuadamente la
incertidumbre inherente en situaciones donde hay información incompleta o
sesgos en los datos. En tales casos, es más apropiado recurrir a la probabilidad
empírica o a métodos basados en la subjetividad y los axiomas. La
32
probabilidad clásica proporciona un enfoque fundamental para entender y
calcular probabilidades en situaciones simples y controladas. Empero, es
esencial reconocer sus limitaciones y considerar otros enfoques cuando se
trata de circunstancias más complejos y realistas.
La probabilidad empírica se reere a la estimación de la probabilidad
de un evento basado en la observación y la recopilación de datos reales en
lugar de depender únicamente de modelos teóricos. Esta forma de
probabilidad se fundamenta en la experiencia y en la evidencia obtenida a
través de experimentos o estudios observacionales (Sánchez et al., 2018).
La probabilidad empírica se representa como el cociente entre el
número de veces que ocurre un evento y el número total de ensayos
realizados. Matemáticamente, se puede expresar como:
\[ P(E) = \frac{n(E)}{n(T)} \]
donde \( P(E) \) es la probabilidad empírica del evento \( E \), \( n(E) \) es
el número de veces que ocurre el evento \( E \), y \( n(T) \) es el total de
ensayos o experimentos realizados. Esta denición resalta el carácter práctico
de la probabilidad empírica, ya que se basa en la recolección de datos y en la
observación directa de fenómenos.
Los métodos para recopilar datos en el contexto de la probabilidad
empírica pueden variar considerablemente dependiendo del campo de
estudio y del tipo de circunstancias que se estén analizando. Algunos de los
métodos más comunes incluyen:
i. Experimentos Controlados: En estos experimentos, se manipulan
variables para observar el efecto en el evento de interés. Así como,
en un experimento para evaluar la efectividad de un nuevo
33
medicamento, se pueden observar los resultados en un grupo de
pacientes en comparación con un grupo de control.
ii. Estudios Observacionales: En situaciones donde no se pueden realizar
experimentos controlados, se pueden llevar a cabo estudios
observacionales donde se registran los circunstancias tal como
ocurren en la naturaleza. Lo más importante, se pueden observar
las tasas de accidentes de tráco en una ciudad durante un año.
iii. Encuestas y Cuestionarios: Se pueden utilizar encuestas para
recopilar datos sobre opiniones, lo que posibilita estimar
probabilidades basadas en las respuestas de una muestra
representativa de la población.
iv. Registro Histórico: La revisión de datos históricos y registros
posibilita calcular probabilidades basadas en circunstancias
pasados. En el caso de, el análisis de datos meteorológicos a lo largo
de los años puede ayudar a predecir la probabilidad de lluvia en
una determinada época del año.
A diferencia de la probabilidad clásica, que se basa en suposiciones
teóricas y modelos ideales, la probabilidad empírica se centra en la realidad
observable. Mientras que la probabilidad clásica asume que todos los
resultados son igualmente probables en un espacio de muestra dado, la
probabilidad empírica toma en cuenta las variaciones y los sesgos que pueden
surgir en situaciones del mundo real.
Conviene destacar, al lanzar un dado justo, la probabilidad clásica de
obtener un seis es \( \frac{1}{6} \). Sin embargo, si se lanza un dado de manera
empírica y se observa que, tras un gran número de lanzamientos, el seis
aparece con menor frecuencia debido a un desgaste del dado, la probabilidad
empírica se ajustará a esta realidad observada, reejando un valor diferente.
34
La probabilidad empírica es una herramienta fundamental para la
toma de decisiones en situaciones de incertidumbre, ya que proporciona una
estimación más realista y contextualizada de las probabilidades basadas en
datos concretos y observaciones directas (Sanabria y Nuñez, 2017). Esta
metodología es especialmente valiosa en campos como la biología, la
economía y la psicología, donde la complejidad de los sistemas a menudo
desafía los modelos puramente teóricos.
La probabilidad subjetiva se reere a la percepción individual de la
probabilidad de que ocurra un evento. A diferencia de la probabilidad clásica
y empírica, que se basan en datos y frecuencias objetivas, la probabilidad
subjetiva se fundamenta en las creencias, experiencias previas y
conocimientos personales del individuo. Este enfoque es particularmente útil
en situaciones donde la información es limitada o incierta, permitiendo a los
individuos formar juicios sobre la probabilidad de circunstancias basados en
su propio criterio. Hay que hacer notar, un inversor puede evaluar la
probabilidad de éxito de una nueva empresa basándose en su experiencia en
el sector y la información que ha recopilado, si bien no exista un conjunto de
datos históricos que respalde su evaluación.
La probabilidad axiomática, por su parte, se basa en un conjunto de
axiomas matemáticos que establecen las reglas fundamentales sobre cómo se
debe calcular y entender la probabilidad. Este enfoque fue formalizado por el
matemático ruso Andrey Kolmogorov en la década de 1930, quien denió la
probabilidad de un evento en términos de un espacio muestral y asignó
valores numéricos a los circunstancias de acuerdo con ciertas propiedades.
Los tres axiomas principales de Kolmogorov son:
a. La probabilidad de cualquier evento es un número no negativo.
35
b. La probabilidad del espacio muestral completo es igual a 1.
c. Para cualquier conjunto de circunstancias mutuamente excluyentes, la
probabilidad de su unión es igual a la suma de sus probabilidades
individuales.
Estos axiomas proporcionan un marco riguroso y coherente para el
análisis probabilístico, permitiendo la realización de cálculos precisos y la
deducción de propiedades adicionales de la probabilidad. Ambos enfoques,
la probabilidad subjetiva y la axiomática, encuentran aplicaciones en diversas
áreas. La probabilidad subjetiva es común en campos como la toma de
decisiones, la economía del comportamiento y la psicología, donde las
percepciones individuales juegan un papel concluyente. Así como, en la
evaluación de riesgos nancieros, los analistas pueden usar juicios subjetivos
para determinar la probabilidad de quiebras o fracasos de inversión,
especialmente cuando carecen de datos sucientes.
Por otro lado, la probabilidad axiomática es fundamental en la teoría
de la probabilidad y en la estadística, proporcionando las bases necesarias
para desarrollar modelos matemáticos que pueden ser aplicados en campos
como la ingeniería, la ciencia de datos y la biología. A través de la
probabilidad axiomática, es posible realizar inferencias estadísticas, construir
modelos predictivos y analizar fenómenos complejos de manera metódica.
Tanto la probabilidad subjetiva como la axiomática ofrecen perspectivas
valiosas sobre cómo los individuos y las comunidades interpretan y manejan
la incertidumbre, cada una con su propio conjunto de herramientas y
aplicaciones que enriquecen nuestra comprensión del mundo y de los
circunstancias que nos rodean.
36
La probabilidad clásica, fundamentada en la teoría de los
circunstancias equiprobables, ofrece un marco teórico sólido, a pesar de que
limitado a situaciones especícas. Por otro lado, la probabilidad empírica
enfatiza la importancia de la observación y la recolección de datos en la
estimación de probabilidades, lo que la hace más adaptable a fenómenos del
mundo real. La probabilidad subjetiva, que se basa en la interpretación
personal de la información y la experiencia, y la probabilidad axiomática, que
establece un conjunto de reglas y principios para su análisis, demuestran la
diversidad de enfoques que pueden ser utilizados para abordar la
incertidumbre en diferentes contextos.
La incertidumbre es un componente inherente a cualquier análisis
probabilístico. Reconocer y entender esta incertidumbre es esencial no solo en
el ámbito cientíco, sino asimismo en la toma de decisiones cotidianas. La
probabilidad nos proporciona herramientas para cuanticar y gestionar esta
incertidumbre, permitiéndonos hacer predicciones más informadas y tomar
decisiones más racionales. Desde el lanzamiento de una moneda hasta la
predicción de circunstancias complejos en campos como la meteorología o la
economía, la probabilidad se convierte en un aliado fundamental en la
búsqueda de respuestas ante lo desconocido.
La probabilidad La combinación de probabilidad clásica, empírica,
subjetiva y axiomática enaltece el entendimiento de los fenómenos aleatorios,
y de igual modo dota de una mayor capacidad para enfrentar los desafíos que
la incertidumbre presenta. En última instancia, es a través de la probabilidad
que podemos navegar con mayor conanza en la representatividad, pero,
siempre habrá un grado de incertidumbre.
37
2.2 Entendiendo las Heurísticas de Representatividad y
Disponibilidad: Claves para la Toma de Decisiones
Las heurísticas son atajos mentales que las personas utilizan para
simplicar la toma de decisiones y resolver problemas de manera rápida y
eciente. Estas estrategias cognitivas posibilitan que los individuos procesen
información compleja sin necesidad de realizar un análisis exhaustivo,
facilitando así la toma de decisiones en situaciones donde el tiempo es
limitado o la información es incompleta. Sin embargo, a pesar de su utilidad,
las heurísticas al igual pueden conducir a errores sistemáticos o sesgos en el
juicio.
En un entorno donde la cantidad de información disponible es
abrumadora, las heurísticas posibilitan que los individuos se concentren en
los aspectos más relevantes de una situación. No obstante, esta simplicación
incluso puede dar lugar a decisiones subóptimas, ya que las heurísticas
pueden llevar a conclusiones inexactas o sesgadas.
El estudio de las heurísticas comenzó a ganar atención en la psicología
y la economía en la cada de 1970, gracias a los trabajos pioneros de Daniel
Kahneman y Amos Tversky. Sus investigaciones desaaron la noción de que
los seres humanos son tomadores de decisiones racionales y lógicos,
mostrando en su lugar que la toma de decisiones a menudo está inuenciada
por factores psicológicos y cognitivos; a través de sus experimentos,
Kahneman y Tversky identicaron varias heurísticas, entre las que destacan
la heurística de representatividad y la heurística de disponibilidad (Pascale y
Pascale, 2007). Estas contribuciones no solo transformaron nuestra
comprensión de la psicología del juicio, sino que encima tuvieron un impacto
38
signicativo en campos como la economía conductual, la política y la salud
pública.
La heurística de representatividad es un principio mental que las
personas utilizan para juzgar la probabilidad de un evento o la pertenencia de
un objeto a una categoría, basándose en su similitud con un prototipo o un
ejemplo típico. En otras palabras, cuando se enfrenta a una situación de
decisión, las personas tienden a evaluar la probabilidad de un resultado al
compararlo con su experiencia previa de lo que es representativo o
característico de una determinada categoría.
Por ejemplo, si alguien escucha sobre un individuo que es introvertido
y amante de la lectura, podría asumir que este individuo es un bibliotecario
antes que un vendedor de seguros, simplemente porque la imagen de un
bibliotecario se alinea más con el estereotipo de una persona introvertida. Esta
tendencia a utilizar la representatividad puede llevar a juicios rápidos, pero a
menudo erróneos, debido a la simplicación excesiva de las categorías.
La heurística de representatividad se maniesta en diversas situaciones
cotidianas. Un ejemplo común es el de los estereotipos de género. Cuando se
encuentra a una mujer que es ingeniera, muchas personas pueden
sorprenderse y dudar de su profesión, ya que desafía el estereotipo de que los
ingenieros son predominantemente hombres. Este uso de la representatividad
no solo afecta la percepción de las capacidades individuales, sino que todavía
puede perpetuar prejuicios.
Otro ejemplo se puede observar en el ámbito de las inversiones. Los
inversores a menudo consideran que una acción que ha tenido un buen
rendimiento en el pasado seguirá teniendo éxito en el futuro, basándose en su
representación de "acción ganadora". Esta mentalidad puede llevar a
39
decisiones nancieras arriesgadas, ignorando factores fundamentales que
pueden afectar el rendimiento futuro de la acción.
El impacto de la heurística de representatividad en el juicio y la toma
de decisiones es signicativo. A menudo, conduce a errores sistemáticos, ya
que las personas pueden pasar por alto información relevante y utilizar un
enfoque simplista basado en analogías. Esto puede resultar en decisiones
sesgadas que no reejan la realidad.
La heurística de representatividad contribuye a la formación de sesgos
cognitivos, como el sesgo de conrmación, donde las personas buscan
información que respalde sus creencias preconcebidas, ignorando datos que
las contradicen. Este fenómeno puede ser especialmente perjudicial en
contextos como el diagnóstico médico, donde los médicos pueden caer en la
trampa de asumir que un paciente con ciertos síntomas pertenece a un grupo
especíco, sin considerar otras posibilidades.
En síntesis, la heurística de representatividad es una herramienta
mental útil en muchos casos, pero de igual modo puede llevar a juicios
erróneos e inexactos. Reconocer su inuencia en nuestras decisiones es
esencial para mejorar nuestro proceso de toma de decisiones y evitar caer en
patrones de pensamiento equivocados. La heurística de disponibilidad es un
principio mental que se utiliza para evaluar la probabilidad de circunstancias
en función de la facilidad con la que se pueden recordar ejemplos relevantes.
Es decir, las personas tienden a juzgar la frecuencia o la probabilidad de un
evento basándose en cuán fácilmente pueden traer a la mente casos similares
o experiencias pasadas. Este proceso cognitivo puede llevar a decisiones
rápidas y, a menudo, efectivas, pero también puede resultar en errores de
juicio si se basa en recuerdos sesgados o poco representativos.
40
La heurística de disponibilidad se maniesta en numerosas situaciones
cotidianas. Lo más importante, tras ver noticias sobre desastres naturales,
como huracanes o terremotos, una persona puede sobrestimar la probabilidad
de que estos circunstancias ocurran en su propia área geográca, simplemente
porque los tiene frescos en la memoria. Otro caso común es la percepción de
riesgo en relación con actividades cotidianas; en particular, después de
escuchar sobre un accidente aéreo, una persona puede desarrollar un miedo
irracional a volar, a pesar de que volar sigue siendo uno de los medios de
transporte más seguros.
Las campañas de marketing a menudo capitalizan esta heurística al
presentar historias o testimonios impactantes que son fácilmente recordables.
En el caso de, un anuncio que muestra cómo un producto ha cambiado la vida
de una persona de forma dramática puede llevar al espectador a creer que
tales resultados son comunes y, por lo tanto, más propensos a comprar el
producto.
La heurística de disponibilidad también inuye signicativamente en
cómo percibimos los riesgos. Las personas tienden a temer más a los peligros
que son más fáciles de recordar, incluso si esos peligros son menos probables.
Así como, el miedo a un ataque de tiburón puede ser desproporcionado en
comparación con el riesgo de accidentes automovilísticos, simplemente
porque los ataques de tiburones son más publicitados y, por lo tanto, más
accesibles en la memoria de las personas.
Este efecto puede tener consecuencias graves en la toma de decisiones,
ya que puede llevar a las personas a evitar situaciones que son en realidad
seguras y a sobrestimar otros riesgos que son menos probables. En el ámbito
de la salud, esto puede traducirse en la adopción de medidas preventivas
41
inecaces o en una falta de atención a los problemas de salud que realmente
requieren intervención, simplemente porque no están presentes en la
narrativa de los medios o en la experiencia personal inmediata. La heurística
de disponibilidad es un fenómeno poderoso que puede moldear nuestras
percepciones y decisiones de formas sutiles pero signicativas, a menudo
llevándonos a actuar de manera que no reeja con precisión la realidad
objetiva.
La heurística de representatividad y la heurística de disponibilidad son
dos mecanismos cognitivos que nos posibilitan simplicar el proceso de toma
de decisiones, pero operan de maneras distintas. Ambas heurísticas nos
ayudan a realizar juicios rápidos, basados en información limitada y
experiencias previas, lo que puede ser útil en situaciones cotidianas donde el
tiempo y la información son escasos. Sin embargo, la heurística de
representatividad se basa en la similitud entre un caso especíco y una
categoría general, mientras que la heurística de disponibilidad se fundamenta
en la facilidad con la que podemos recordar ejemplos o instancias
relacionadas con un tema.
Conviene destacar, si alguien ve un anuncio sobre un nuevo tipo de
fruta exótica y luego es preguntado si cree que esa fruta es saludable, podría
usar la heurística de representatividad al compararla con otras frutas que ya
conoce. En cambio, si el mismo individuo ha escuchado recientemente
noticias sobre los benecios de una dieta rica en frutas, podría utilizar la
heurística de disponibilidad para juzgar la salud de la nueva fruta, basándose
en la información reciente que tiene en mente.
La elección entre utilizar la heurística de representatividad o la de
disponibilidad depende en gran medida del contexto de la decisión que se
42
debe tomar. La heurística de representatividad es más útil cuando se necesita
categorizar un elemento en función de sus características y compararlo con
experiencias pasadas. En concreto, un empleador puede juzgar a un candidato
basándose en cómo se ajusta a su imagen mental del "candidato ideal" para
un puesto especíco.
Por otro lado, la heurística de disponibilidad suele ser más pertinente
cuando se evalúan riesgos o probabilidades basadas en experiencias recientes
o memorables. Lo más importante, después de ver una serie de reportajes
sobre accidentes aéreos, una persona podría sobrestimar el riesgo de volar,
simplemente porque esos incidentes están frescos en su memoria, a pesar de
que volar es estadísticamente más seguro que conducir.
Ambas heurísticas, no obstante útiles, pueden llevar a errores de juicio
y decisiones subóptimas si no se aplican con cuidado. La heurística de
representatividad puede dar lugar a estereotipos y prejuicios, ya que se basa
en generalizaciones que no siempre son precisas. Así como, asumir que
alguien es menos competente en un trabajo especíco porque no encaja en una
imagen preconcebida puede resultar en la pérdida de talento valioso.
Por otro lado, la heurística de disponibilidad puede distorsionar la
percepción de riesgo, llevando a las personas a sobrestimar la probabilidad de
circunstancias que son altamente publicitados o que han tenido un impacto
emocional signicativo, como desastres naturales o crímenes, mientras
subestiman riesgos más comunes pero menos notorios, como enfermedades
crónicas. Comprender las similitudes y diferencias entre estas heurísticas es
relevante para mejorar nuestra toma de decisiones y minimizar los sesgos que
pueden surgir en nuestro pensamiento diario. Al ser conscientes de cuándo y
43
cómo utilizamos estas herramientas cognitivas, podemos hacer juicios más
informados y racionales.
La heurística de representatividad nos posibilita juzgar la probabilidad
de un evento basándonos en lo similar que es a un prototipo o modelo mental
que ya poseemos. Por otro lado, la heurística de disponibilidad se basa en la
facilidad con la que podemos recordar ejemplos o casos relacionados con una
situación, lo que a menudo distorsiona nuestra percepción de la realidad.
Ambos tipos de heurísticas pueden llevarnos a conclusiones erróneas y
afectan signicativamente nuestras decisiones diarias.
Comprender cómo funcionan estas heurísticas es esencial, no solo en el
ámbito de la psicología, sino todavía en la vida cotidiana y en la toma de
decisiones en diversas áreas, como la economía, la política y la salud. Al ser
conscientes de las inuencias que tienen estas heurísticas, podemos trabajar
para mitigar sus efectos negativos, mejorar nuestra capacidad de juicio y
tomar decisiones más informadas. Esto no solo nos benecia a nivel personal,
sino que de igual modo puede tener repercusiones positivas en la sociedad, al
fomentar un pensamiento crítico y un análisis más profundo de la
información que recibimos.
La clave radica en equilibrar la intuición que nos ofrecen estas
heurísticas con un análisis más riguroso y reexivo. Fomentar una mayor
conciencia sobre estas dinámicas cognitivas puede ayudarnos a navegar mejor
en un entorno complejo y a tomar decisiones que, a pesar de que rápidas, sean
más acertadas y fundamentadas. En última instancia, el conocimiento y el
entendimiento de estas heurísticas son pasos claves hacia una toma de
decisiones más consciente y ecaz en nuestras vidas cotidianas.
44
2.3 Distribuciones de Probabilidad: Binomial, de Poisson y
Normal
Las distribuciones de probabilidad son fundamentales en el campo de
la estadística, ya que posibilitan modelar y entender fenómenos aleatorios que
ocurren en la naturaleza y en diversas áreas del conocimiento. Una
distribución de probabilidad describe cómo se distribuyen los valores de una
variable aleatoria, proporcionando un marco para calcular la probabilidad de
que ocurra un resultado especíco en un experimento aleatorio.
En esencia, todas las distribuciones de probabilidad se clasican en dos
grandes categorías: distribuciones discretas y distribuciones continuas. Las
distribuciones discretas, como la binomial y la de Poisson, se utilizan para
variables que toman un número nito o contable de valores. Por otro lado, las
distribuciones continuas, como la normal, están diseñadas para variables que
pueden asumir cualquier valor dentro de un intervalo.
El estudio de las distribuciones de probabilidad es clave no solo para
la teoría estadística, sino encima para la práctica en diversas disciplinas, como
la economía, la psicología, la biología y la ingeniería. A través de estas
distribuciones, los académicos pueden realizar inferencias, evaluar riesgos y
tomar decisiones informadas basadas en datos empíricos. Cada una de las
distribuciones tiene sus propias características, aplicaciones y ejemplos
prácticos que ilustran su utilidad en el análisis de datos y en la modelización
de fenómenos aleatorios.
La distribución binomial es una de las distribuciones de probabilidad
más utilizadas en estadística, especialmente en situaciones donde se desean
modelar circunstancias que tienen dos resultados posibles, conocidos como
"éxito" y "fracaso". Esta distribución se aplica en contextos donde se repite un
45
experimento de manera independiente y se buscan las probabilidades de
obtener un número especíco de éxitos (Feitó et al., 2023).
La distribución binomial describe el número de éxitos en una serie de
\( n \) ensayos independientes, cada uno de los cuales tiene una probabilidad
constante de éxito, denotada como \( p \). Matemáticamente, la probabilidad
de obtener exactamente \( k \) éxitos en \( n \) ensayos se puede calcular
utilizando la fórmula:
\[
P(X = k) = \binom{n}{k} p^k (1-p)^{n-k}
\]
donde \( \binom{n}{k} \) es el coeciente binomial, que representa el número
de formas de elegir \( k \) éxitos de \( n \) ensayos, y está dado por \(
\frac{n!}{k!(n-k)!} \).
Existen varias características importantes de la distribución binomial
que la hacen útil en diversos campos:
i. Número jo de ensayos (n): La distribución se aplica a un número jo
de ensayos, lo que signica que se debe denir cuántas veces se
repetirá el experimento.
ii. Resultados binarios: Cada ensayo tiene solo dos resultados posibles:
éxito o fracaso.
iii. Independencia de ensayos: Los resultados de los ensayos son
independientes entre sí; el resultado de un ensayo no afecta al
siguiente.
iv. Probabilidad constante: La probabilidad de éxito (\( p \)) es constante
en cada ensayo.
46
v. Media y varianza: La media de una distribución binomial se calcula
como \( \mu = n \cdot p \) y la varianza como \( \sigma^2 = n \cdot
p \cdot (1-p) \).
Para ilustrar cómo se aplica la distribución binomial en la práctica,
consideremos algunos ejemplos:
i. Lanzamiento de una moneda: Supongamos que lanzamos una moneda
10 veces y queremos calcular la probabilidad de obtener
exactamente 6 caras. En este caso, \( n = 10 \), \( k = 6 \) y \( p = 0.5
\). Utilizando la fórmula de la distribución binomial, podemos
calcular la probabilidad de este evento.
ii. Calidad de productos: Imaginemos una fábrica que produce
bombillas y sabemos que el 95% de ellas pasan el control de calidad.
Si seleccionamos al azar 20 bombillas, podemos utilizar la
distribución binomial para determinar la probabilidad de que
exactamente 18 de ellas pasen el control.
iii. Encuestas de opinión: En una encuesta, si el 40% de los encuestados
apoya una determinada medida y se entrevista a 50 personas,
podemos calcular la probabilidad de que exactamente 20 personas
estén a favor de la medida.
A través de estos ejemplos, se observa cómo la distribución binomial
posibilita modelar situaciones cotidianas y tomar decisiones basadas en
probabilidades matemáticas. Esto la convierte en una herramienta
fundamental en el análisis estadístico y la inferencia.
La distribución de Poisson es un modelo de probabilidad que describe
la ocurrencia de circunstancias discretos en un intervalo de tiempo o espacio
jo, bajo la condición de que estos circunstancias suceden de manera
47
independiente y con una tasa promedio constante. Se utiliza comúnmente
para modelar fenómenos que ocurren de manera aleatoria, como el número
de llamadas que recibe una central telefónica en una hora, el número de
llegadas de clientes a una tienda en un a, o la cantidad de errores
tipográcos en un texto (Arroyo et al., 2014). La función de probabilidad de la
distribución de Poisson se expresa matemáticamente como:
\[
P(X = k) = \frac{\lambda^k e^{-\lambda}}{k!}
\]
donde \( P(X = k) \) es la probabilidad de que ocurran \( k \) circunstancias,
\( \lambda \) es el número promedio de circunstancias en el intervalo
considerado, \( e \) es la base de los logaritmos naturales, y \( k! \) representa
el factorial de \( k \).
i. Parámetro único: La distribución se precisa completamente por un
único parámetro, \( \lambda \), que representa la media y la
varianza de la distribución. Esto signica que la media y la varianza
son iguales en este modelo.
ii. Independencia de circunstancias: Los circunstancias que se modelan
con esta distribución son independientes entre sí, lo que implica
que la ocurrencia de un evento no afecta la probabilidad de
ocurrencia de otro evento.
iii. Circunstancias raros: La distribución de Poisson es especialmente
útil para representar circunstancias que ocurren con baja frecuencia
en un intervalo dado. La idea central es, la cantidad de accidentes
de tráco en una intersección especíca durante un mes.
48
iv. Soporte discreto: A diferencia de la distribución normal, que es
continua, la distribución de Poisson se aplica únicamente a
variables discretas, es decir, aquellas que pueden tomar valores
enteros no negativos.
La distribución de Poisson tiene un amplio rango de aplicaciones en
diversas áreas:
a. Telecomunicaciones: Se usa para modelar la llegada de llamadas a una
central telefónica, ayudando a dimensionar la infraestructura necesaria
para manejar el tráco de llamadas.
b. Biología: Se aplica en estudios de ecología para contar la cantidad de
especies en un área determinada o para analizar la frecuencia de
mutaciones en un organismo.
c. Ingeniería: En el control de calidad, se utiliza para modelar el número
de defectos en un lote de productos, permitiendo a las empresas
identicar problemas en sus procesos de producción.
d. Finanzas: La distribución de Poisson puede ser útil en la modelización
de circunstancias como el número de defaults en un portafolio de
préstamos.
e. Salud pública: Se emplea para modelar la ocurrencia de enfermedades
raras en poblaciones, ayudando a los académicos y responsables de
políticas de salud a tomar decisiones informadas.
La distribución de Poisson es una herramienta valiosa y versátil en el
análisis de datos aleatorios que involucran circunstancias discretos,
facilitando la comprensión y la predicción de fenómenos en una amplia
variedad de campos.
49
La distribución normal, al igual conocida como distribución gaussiana,
es una de las distribuciones de probabilidad más importantes en el campo de
la estadística y la probabilidad. Se caracteriza por su forma de campana
simétrica, donde la mayoría de los valores se agrupan alrededor de la media,
y la probabilidad de encontrar valores extremos disminuye a medida que nos
alejamos de esta media (Quevedo, 2011). Matemáticamente, se reduce por dos
parámetros: la media (\( \mu \)), que indica el centro de la distribución, y la
desviación estándar (\( \sigma \)), que mide la dispersión de los datos en
torno a la media. La función de densidad de probabilidad de la distribución
normal está dada por la fórmula:
\[
f(x) = \frac{1}{\sigma \sqrt{2\pi}} e^{-\frac{(x - \mu)^2}{2\sigma^2}}
\]
donde \( e \) es la base del logaritmo natural y \( \pi \) es la constante
matemática.
La distribución normal presenta varias características clave que la
hacen única:
i. Simetría: La distribución es simétrica respecto a su media. Esto
signica que el 50% de los valores se encuentran por debajo de la
media y el 50% por encima.
ii. Campana: La forma de la gráca de la distribución normal es una
campana, donde la altura y el ancho son determinados por la media
y la desviación estándar.
50
iii. Asintoticidad: Las colas de la distribución se extienden
indenidamente en ambas direcciones, acercándose al eje
horizontal pero nunca tocándolo.
iv. Regla Empírica: Aproximadamente el 68% de los valores se
encuentran dentro de una desviación estándar de la media,
aproximadamente el 95% dentro de dos desviaciones estándar y el
99.7% dentro de tres desviaciones estándar. Esta característica es
conocida como la regla del 68-95-99.7.
La distribución normal es fundamental en estadística por varias
razones:
i. Teorema del Límite Central: Este teorema establece que, bajo ciertas
condiciones, la suma de un número sucientemente grande de
variables aleatorias independientes y distribuidas de manera
idéntica se aproximará a una distribución normal,
independientemente de la forma de la distribución original. Esto
posibilita utilizar la distribución normal como una aproximación en
muchas situaciones prácticas.
ii. Inferencia Estadística: Muchas pruebas estadísticas, como la prueba t
de Student y los intervalos de conanza, se basan en la suposición
de que los datos siguen una distribución normal. Esto facilita el
análisis y la interpretación de datos en diversas disciplinas.
iii. Modelado de Fenómenos Naturales: Muchos fenómenos en la
naturaleza, como las alturas de las personas, los errores de
medición y los resultados de exámenes, tienden a distribuirse de
forma normal. Por lo tanto, la distribución normal se utiliza
ampliamente en ciencias sociales, medicina, ingeniería y economía.
51
iv. Estadística Descriptiva: La distribución normal posibilita resumir y
describir conjuntos de datos de forma efectiva, proporcionando
información valiosa sobre su comportamiento general y dispersión.
La distribución normal no solo es una de las distribuciones más
estudiadas en teoría de probabilidades, sino que también es esencial para la
práctica de la estadística. Su relevancia en el análisis de datos y la inferencia
estadística la convierte en una herramienta invaluable para académicos y
profesionales en diversas áreas.
Las distribuciones de probabilidad son herramientas fundamentales en
el ámbito de la estadística y la investigación, permitiendo a los analistas y
cientícos modelar y entender fenómenos aleatorios que ocurren en diversas
disciplinas. La distribución binomial es esencial cuando se trata de
experimentos con resultados discretos y nitos, donde se evalúan situaciones
de éxito y fracaso en un número jo de ensayos. Su aplicabilidad en ámbitos
como la biología, la economía y la psicología la convierte en una herramienta
valiosa para la toma de decisiones fundamentadas (García et al., 2022).
Por otro lado, la distribución de Poisson es ideal para modelar
circunstancias que ocurren de manera independiente en un intervalo de
tiempo o espacio jo. Su relevancia en campos como la ingeniería, la teoría de
colas y la epidemiología resalta su versatilidad. Posibilita a los académicos
estimar la probabilidad de ocurrencia de circunstancias raros,
proporcionando un marco robusto para el análisis de datos discretos.
La distribución normal, también conocida como la distribución
gaussiana, es una de las más importantes en estadística debido a su presencia
en fenómenos naturales y su relación con el teorema central del límite. Su
forma característica en campana y propiedades matemáticas la hacen
52
indispensable en inferencia estadística, control de calidad y exploración de
datos.
El entendimiento de estas distribuciones no solo ayuda a modelar y
predecir resultados en investigaciones, sino que de igual modo proporciona
un lenguaje común entre cientícos y analistas. La correcta aplicación de estas
herramientas puede llevar a conclusiones más precisas y a una mejor
interpretación de los datos. Así, profundizar en las distribuciones de
probabilidad nos posibilita no solo abordar problemas especícos, sino
asimismo contribuir al avance del conocimiento en múltiples campos del
saber.
53
Capítulo III
Explorando las Relaciones Causa-Efecto: Fundamentos
y Predicciones en las Ciencias Exactas
3.1 Introducción a las relaciones causa-efecto en las ciencias
exactas
Las ciencias exactas, tales como la física y la química, se fundamentan
en la comprensión y el análisis de las relaciones causa-efecto. Estas relaciones
son esenciales para desentrañar los mecanismos que rigen el comportamiento
del mundo natural. En términos sencillos, una relación causa-efecto implica
que un evento (la causa) produce un resultado (el efecto). Este concepto no
solo es crucial para el desarrollo de teorías cientícas, sino que encima es la
base sobre la cual se construyen predicciones y se realizan experimentos.
Desde la antigüedad, los cientícos han buscado comprender cómo las
distintas variables interactúan entre sí. En el ámbito de la física, hay que hacer
notar, las leyes del movimiento de Newton describen cómo las fuerzas
(causas) afectan el movimiento de los objetos (efectos). En la química, las
reacciones entre diferentes sustancias son ejemplos claros de cómo ciertos
reactivos pueden producir productos especícos bajo condiciones
determinadas.
Entender las relaciones causa-efecto no solo posibilita a los cientícos
formular teorías, sino que asimismo les proporciona las herramientas
necesarias para realizar predicciones precisas sobre fenómenos en el tiempo.
Esta capacidad predictiva es fundamental en diversas aplicaciones, desde la
54
ingeniería hasta la meteorología, donde las condiciones actuales posibilitan
anticipar circunstancias como tormentas o sequías.
En esta introducción, nos proponemos explorar en profundidad los
fundamentos de las relaciones causa-efecto, los métodos que se utilizan para
establecerlas y la importancia que tienen en la formulación de predicciones en
las ciencias exactas. A través de este análisis, se evidenciará cómo la
comprensión de estas relaciones no solo enriquece el conocimiento cientíco,
sino que al igual tiene un impacto signicativo en la tecnología y en la vida
cotidiana.
Las relaciones causa-efecto son esenciales para comprender el
funcionamiento del universo en las ciencias exactas, estas relaciones
posibilitan descomponer fenómenos complejos en componentes más simples,
ayudando a los cientícos a identicar patrones y a entender cómo diferentes
variables interactúan entre sí.
La relación causa-efecto es el vínculo en el que un evento (la causa)
produce un cambio en otro evento (el efecto). Para establecer una relación de
este tipo, es decisivo que exista una conexión temporal, donde la causa
preceda al efecto, y que haya una correlación observable entre ambas variables
(Álvarez et al., 2004). Ahora bien, no todas las correlaciones indican
causalidad; es fundamental demostrar que la causa tiene un impacto directo
en el efecto, y esto a menudo se logra a través de la experimentación y el
análisis riguroso.
En el ámbito de la física, un ejemplo clásico de relación causa-efecto es
la ley de la gravitación universal de Newton. Esta ley establece que la fuerza
gravitacional entre dos cuerpos es directamente proporcional al producto de
sus masas e inversamente proporcional al cuadrado de la distancia entre ellos.
55
En este caso, la causa (la masa de los cuerpos y la distancia que los separa)
produce un efecto (la fuerza gravitacional que actúa entre ellos). Otro ejemplo
notable es el principio de acción y reacción, que establece que para cada acción
hay una reacción igual y opuesta. Esto no solo ilustra una relación causa-
efecto, sino que incluso es fundamental para entender el movimiento de los
objetos.
En química, las relaciones causa-efecto son igualmente evidentes. Un
ejemplo claro es la reacción entre un ácido y una base, que resulta en la
formación de agua y una sal. La causa aquí sería la combinación de un ácido
y una base, mientras que el efecto es el producto resultante de la reacción.
Otro caso signicativo es la reacción de combustión, donde la combinación de
un combustible con oxígeno produce dióxido de carbono, agua y energía. En
este contexto, las condiciones de temperatura y presión todavía actúan como
causas que pueden inuir en la velocidad y el resultado de la reacción
química.
Los fundamentos de las relaciones causa-efecto son claves para el
avance del conocimiento en las ciencias exactas. Al entender cómo se
interrelacionan las variables, los cientícos pueden desarrollar teorías,
realizar predicciones y, en última instancia, aplicar este conocimiento en
aplicaciones prácticas en diversas disciplinas. Establecer relaciones causa-
efecto en las ciencias exactas es fundamental para comprender cómo
funcionan los fenómenos naturales. Existen varios métodos que los cientícos
utilizan para identicar y conrmar estas relaciones.
Los experimentos controlados son una de las herramientas más
poderosas para establecer relaciones causa-efecto. En un experimento
controlado, se manipula una variable independiente (la causa) mientras se
56
mantienen constantes todas las demás variables (los efectos). Esto posibilita a
los cientícos observar cómo cambia la variable dependiente en respuesta a la
manipulación de la variable independiente. Para ilustrar, en un experimento
sobre la ley de la gravedad, se puede liberar un objeto desde diferentes alturas
y medir el tiempo que tarda en caer al suelo. Al controlar las condiciones del
experimento, se puede establecer que la altura de la caída es la causa que
afecta el tiempo de caída.
Los modelos estadísticos son otra herramienta fundamental para
establecer relaciones causa-efecto, a través de técnicas de análisis de datos,
estos modelos posibilitan a los cientícos identicar patrones y correlaciones
entre diferentes variables. En particular, en estudios epidemiológicos, los
académicos pueden utilizar modelos estadísticos para analizar la relación
entre la exposición a un contaminante ambiental y la incidencia de
enfermedades. Si bien una correlación no implica necesariamente causalidad,
el uso de modelos estadísticos adecuados puede ayudar a inferir relaciones
causales al controlar por otras variables que podrían inuir en los resultados.
Las simulaciones computacionales se han convertido en un método
esencial en muchas disciplinas cientícas, especialmente en aquellas donde
los experimentos físicos pueden ser difíciles o imposibles de realizar. A través
de modelos matemáticos, los cientícos pueden simular sistemas complejos y
observar cómo las variaciones en una o más variables afectan el
comportamiento general del sistema (Duarte y Fernández, 2005). En el caso
de, en la astrofísica, las simulaciones computacionales se utilizan para
modelar la formación de galaxias y las interacciones entre diferentes cuerpos
celestes. Estas simulaciones no solo posibilitan explorar relaciones causa-
efecto, sino que también pueden generar predicciones sobre actuaciones bajo
diversas condiciones.
57
Los métodos para establecer relaciones causa-efecto son variados y
cada uno tiene sus propias ventajas y limitaciones. La combinación de
experimentos controlados, modelos estadísticos y simulaciones
computacionales proporciona a los cientícos un conjunto robusto de
herramientas para investigar y comprender los fenómenos que rigen nuestro
universo. Las predicciones en las ciencias exactas son fundamentales para el
avance del conocimiento y la aplicación práctica de teorías y modelos. Estas
predicciones se basan en la comprensión de las relaciones causa-efecto, lo que
posibilita no solo explicar fenómenos observados, sino encima anticipar
resultados en situaciones nuevas.
Existen diversas técnicas para realizar predicciones basadas en
relaciones causa-efecto. Entre ellas se encuentran los modelos matemáticos,
que utilizan ecuaciones para representar relaciones entre variables. Por
ejemplo, en física, la segunda ley de Newton establece una relación entre la
fuerza aplicada a un objeto y su aceleración, lo que posibilita predecir el
movimiento de dicho objeto bajo ciertas condiciones.
En química, la cinética de las reacciones se utiliza para predecir la
velocidad a la que ocurren las reacciones en función de la concentración de
reactivos y otros factores. Los modelos computacionales han revolucionado la
capacidad de realizar predicciones, permitiendo simular escenarios complejos
y obtener resultados que serían difíciles de calcular manualmente.
La precisión en las predicciones es concluyente en las ciencias exactas,
ya que estas pueden tener un impacto signicativo en la toma de decisiones.
En campos como la ingeniería, la medicina y la economía, una predicción
errónea puede resultar en fallos estructurales, tratamientos inadecuados o
pérdidas nancieras. Por lo tanto, es vital que los cientícos y analistas
58
utilicen métodos robustos para validar sus modelos y asegurar que las
relaciones causa-efecto identicadas sean verdaderas y aplicables en un
contexto más amplio.
La meteorología es un campo donde la predicción basada en relaciones
causa-efecto es especialmente evidente. Los meteorólogos utilizan modelos
numéricos que simulan la atmósfera y sus dinámicas, permitiendo realizar
pronósticos del tiempo. Estos modelos se basan en ecuaciones que describen
cómo variables como la temperatura, la presión y la humedad interactúan
entre sí y afectan el clima.
Un ejemplo notable es la predicción de huracanes. A través de la
observación de patrones históricos y la comprensión de las condiciones que
llevan a la formación de estos fenómenos, los meteorólogos pueden anticipar
la trayectoria y la intensidad de un huracán, lo que es determinante para la
preparación y la respuesta ante desastres. La capacidad de prever
circunstancias meteorológicos extremos no solo salva vidas, sino que también
posibilita mitigar daños económicos.
Las predicciones basadas en relaciones causa-efecto son un
componente esencial de las ciencias exactas. A través de técnicas avanzadas y
modelos precisos, los cientícos pueden no solo entender mejor el mundo que
les rodea, sino incluso anticipar y prepararse para circunstancias futuros,
impulsando así el desarrollo de la ciencia y la tecnología. Las relaciones causa-
efecto son fundamentales para la comprensión y el avance de las ciencias
exactas.
En primer lugar, las relaciones causa-efecto proporcionan el marco
conceptual necesario para formular teorías cientícas. Sin una comprensión
clara de cómo un fenómeno afecta a otro, sería imposible desarrollar modelos
59
teóricos robustos que expliquen las observaciones empíricas. Este
entendimiento se traduce en avances signicativos en campos como la física
y la química, donde la identicación de causas y efectos ha llevado a
descubrimientos que transforman nuestra tecnología y nuestra comprensión
del universo.
Además, la capacidad de establecer relaciones causa-efecto es esencial
para la realización de experimentos controlados. Estos experimentos
posibilitan a los cientícos aislar variables y observar cómo los cambios en
una pueden inuir en otra. Sin esta metodología, las conclusiones que
derivamos de nuestros estudios serían mucho menos ables. Por lo tanto, la
investigación basada en relaciones causales no solo es el corazón de la ciencia,
sino que también es el fundamento sobre el cual construimos nuestro
conocimiento.
La importancia de las predicciones basadas en estas relaciones no
puede ser subestimada. La exactitud de las predicciones en ciencias exactas,
como en la meteorología, es un claro ejemplo de cómo un entendimiento
profundo de las relaciones causa-efecto puede tener un impacto directo en la
sociedad. Desde la planicación de actividades diarias hasta la preparación
para desastres naturales, la capacidad de anticipar circunstancias futuros
depende de la identicación precisa de las causas que los generan.
Establecer y comprender las relaciones causa-efecto nos posibilita no
solo explicar el pasado y el presente, sino al igual inuir en el futuro. Al
mejorar nuestra capacidad de hacer predicciones, podemos tomar decisiones
más informadas y efectivas en diversas áreas, desde la medicina hasta la
ingeniería y la política. Las relaciones causa-efecto son el hilo conductor que
60
une la observación, la experimentación y la predicción, siendo un pilar en el
desarrollo del conocimiento cientíco y su aplicación en el mundo real.
3.2 Correlación y Causalidad: Entendiendo la Relación entre
Datos y Causas
En el análisis de datos y la investigación cientíca, los conceptos de
correlación y causalidad son fundamentales para comprender las relaciones
entre variables. No obstante, a menudo se utilizan indistintamente en el
lenguaje cotidiano, es relevante reconocer que representan fenómenos
diferentes. La correlación se reere a la relación estadística entre dos o más
variables, donde un cambio en una variable puede asociarse con un cambio
en otra. En contraste, la causalidad implica una relación más profunda, donde
un evento o variable provoca directamente un cambio en otro.
La confusión entre estos dos términos puede llevar a interpretaciones
erróneas y a conclusiones inexactas; la idea central es, observar que en una
determinada población el aumento de las ventas de helados se correlaciona
con un aumento en la tasa de ahogamientos no signica que la venta de
helados cause ahogamientos. Esta es una ilustración clásica de cómo una
correlación puede surgir de factores externos, como el clima cálido, que afecta
tanto las ventas de helados como las actividades acuáticas. Comprender la
diferencia entre correlación y causalidad no solo es vital para los académicos
y cientícos, sino asimismo para cualquier persona que busque interpretar
datos, orientado hacia la información.
La correlación es una medida estadística que describe la relación entre
dos o más variables; en términos sencillos, se reere a cómo una variable
puede cambiar en relación con otra, esta relación puede ser positiva, negativa
o inexistente, y entenderla es fundamental para el análisis de datos en diversas
61
disciplinas, desde la psicología hasta la economía (Batanero, 2001). Existen
dos tipos principales de correlación: la correlación positiva y la correlación
negativa.
- Correlación positiva: Ocurre cuando a medida que una variable aumenta, la
otra encima tiende a aumentar. Para ilustrar, se puede observar una
correlación positiva entre el nivel de educación y el ingreso; es probable que
a mayor nivel educativo, mayor sea el ingreso de una persona.
- Correlación negativa: Se presenta cuando una variable aumenta mientras
que la otra disminuye. Un ejemplo clásico es la relación entre el tiempo
dedicado al ocio y el estrés; a medida que aumenta el tiempo de ocio, el nivel
de estrés tiende a disminuir.
El coeciente de correlación de Pearson es una de las herramientas más
utilizadas para medir la fuerza y la dirección de la relación lineal entre dos
variables cuantitativas. Este coeciente puede variar entre -1 y 1:
- Un valor de 1 indica una correlación positiva perfecta, lo que signica que
una variable aumenta de manera proporcional a la otra.
- Un valor de -1 indica una correlación negativa perfecta, donde el aumento
de una variable corresponde a la disminución de la otra.
- Un valor de 0 sugiere que no hay relación lineal entre las variables.
El coeciente de correlación de Pearson se calcula utilizando una
fórmula que implica la covarianza de las variables y sus desviaciones
estándar, proporcionando así una medida cuantitativa precisa de la
correlación. Los ejemplos de correlación son abundantes en la vida cotidiana
y en estudios cientícos. En efecto:
62
- En el ámbito de la salud, se ha observado una correlación entre el consumo
de frutas y verduras y el bienestar general; a medida que aumenta la ingesta
de estos alimentos, incluso se observa una mejora en la salud.
- En el ámbito económico, la relación entre el desempleo y el PIB es otro
ejemplo. Generalmente, cuando el PIB crece, la tasa de desempleo tiende a
disminuir, lo que indica una correlación negativa entre ambas variables.
Estos ejemplos ilustran cómo la correlación puede ser utilizada para
hacer inferencias sobre procedimientos e instintos en diversas áreas, a pesar
de que es perentorio recordar que una correlación no implica necesariamente
causalidad.
La causalidad se reere a la relación entre dos circunstancias o
variables en la que uno de ellos provoca o inuye en el otro y a diferencia de
la correlación, que simplemente indica que dos variables están asociadas de
alguna manera, la causalidad implica un sentido de dirección y control, donde
un cambio en una variable (la causa) resulta en un cambio en otra variable (el
efecto). Comprender la causalidad es fundamental en diversas disciplinas,
desde la ciencia y la medicina hasta las ciencias sociales y la economía, ya que
posibilita establecer mecanismos de acción y fundamentar intervenciones
efectivas (Tessler, 2023).
La distinción entre correlación y causalidad es trascendental para una
interpretación adecuada de los datos. Mientras que la correlación puede ser
observada a través de métodos estadísticos que muestran la relación entre dos
variables, la causalidad requiere una comprensión más profunda de los
procesos subyacentes. Por ejemplo, dos variables pueden correlacionarse
debido a la inuencia de un tercer factor (confusión) o simplemente por
coincidencia. La causalidad, en cambio, requiere evidencia más sólida que
63
demuestre que uno de los fenómenos altera efectivamente el otro. Para
determinar que existe una relación causal entre dos variables, se deben
cumplir ciertas condiciones:
i. Temporalidad: La causa debe preceder al efecto en el tiempo. Es decir,
debe demostrarse que el cambio en la variable independiente
ocurre antes del cambio en la variable dependiente.
ii. Covariación: Debe existir una relación observable entre la causa y el
efecto; si la causa cambia, el efecto siempre debe cambiar, a pesar
de que no necesariamente en la misma magnitud o dirección
iii. No confusión: Se debe controlar la inuencia de variables externas
que puedan afectar tanto a la causa como al efecto. Esto ayuda a
eliminar la posibilidad de que la relación observada sea el resultado
de una tercera variable.
iv. Mecanismo explicativo: Debe existir un mecanismo teórico que
explique cómo y por qué la causa inuye en el efecto.
En el ámbito cientíco, los estudios experimentales a menudo se
diseñan para establecer relaciones causales, un ejemplo clásico es el ensayo
clínico que investiga el efecto de un nuevo medicamento. En este tipo de
estudios, los académicos asignan aleatoriamente a los participantes a recibir
el tratamiento o un placebo, lo que posibilita observar si hay cambios
signicativos en la salud de los pacientes que reciben el medicamento en
comparación con aquellos que no lo hacen.
Otro ejemplo se puede encontrar en la investigación sobre el
tabaquismo y el cáncer de pulmón. A través de estudios epidemiológicos, se
ha encontrado que las personas que fuman tienen una mayor incidencia de
cáncer de pulmón, lo que sugiere una relación causal. Aunque la correlación
64
entre fumar y el cáncer es evidente, los estudios también han identicado
mecanismos biológicos que explican cómo los carcinógenos presentes en el
humo del tabaco afectan las células pulmonares, proporcionando así una base
sólida para armar que fumar causa cáncer de pulmón. La confusión entre
correlación y causalidad puede llevar a graves malentendidos en diversos
ámbitos, desde la investigación cientíca hasta la formulación de políticas
públicas.
Conviene destacar, si se observa que en un estudio hay una correlación
positiva entre el consumo de helados y el aumento de crímenes, podría
erróneamente concluirse que consumir helados causa un aumento en la
criminalidad. Empero, esta relación puede ser el resultado de un tercer factor,
como el clima lido, que propicia tanto el consumo de helados como un
incremento en la actividad social, lo que a su vez puede resultar en un
aumento en la delincuencia. Este tipo de malentendidos puede distorsionar la
interpretación de los datos y llevar a conclusiones equivocadas.
La confusión entre correlación y causalidad encima puede afectar la
toma de decisiones en entornos empresariales y gubernamentales. En
particular, si una empresa observa una correlación entre la inversión en
publicidad y el aumento de ventas, puede creer erróneamente que aumentar
el gasto en publicidad es la solución a todos sus problemas de ventas, sin
considerar otros factores que podrían estar inuyendo en este aumento. Esta
interpretación errónea puede resultar en una asignación ineciente de
recursos y, en última instancia, en pérdidas económicas. Asimismo, en el
ámbito gubernamental, políticas públicas basadas en correlaciones
malinterpretadas pueden llevar a la implementación de soluciones inecaces
o incluso perjudiciales.
65
La confusión entre correlación y causalidad resalta la importancia de
llevar a cabo investigaciones rigurosas y bien diseñadas. Para establecer una
relación causal, es fundamental realizar estudios que controlen las variables
confusoras y utilicen métodos estadísticos apropiados. La investigación debe
ser capaz de probar hipótesis de manera que se minimice el riesgo de llegar a
conclusiones erróneas. La educación en metodología de investigación y el uso
de técnicas como los ensayos controlados aleatorios son esenciales para evitar
malentendidos y asegurar que las decisiones se basen en evidencia sólida.
La confusión entre correlación y causalidad puede tener repercusiones
signicativas en la interpretación de datos, la toma de decisiones y la calidad
de la investigación. Es esencial abordar este problema con rigor y atención,
para asegurar que se comprenden correctamente las relaciones entre las
variables en cualquier contexto. La comprensión de la correlación y la
causalidad es fundamental para interpretar correctamente los datos y tomar
decisiones informadas.
La distinción entre correlación y causalidad es determinante en campos
como la investigación cientíca, la economía, la medicina y las ciencias
sociales. Solo a través de un análisis riguroso y metódico podemos establecer
verdaderas relaciones causales, utilizando las condiciones necesarias para su
identicación. La confusión entre estos dos conceptos no solo puede resultar
en errores en la interpretación de datos, sino que al igual puede tener
repercusiones signicativas en la formulación de políticas, la práctica médica
y la dirección de investigaciones a largo plazo.
Es imperativo fomentar una cultura de análisis crítico y escepticismo
saludable frente a los datos. La investigación rigurosa, que incluya diseños
experimentales adecuados y el uso de métodos estadísticos apropiados, es
66
esencial para avanzar en nuestro conocimiento y evitar caer en la trampa de
asumir causalidad donde solo existe correlación.
Si bien la correlación puede ser un indicativo valioso de relaciones
potenciales entre variables, es la causalidad la que proporciona un
entendimiento más profundo y signicativo. Al fortalecer nuestra
comprensión de estos conceptos, no solo mejoramos nuestra capacidad para
interpretar información, sino que incluso contribuimos al desarrollo de un
análisis más consciente y responsable en todas las áreas del conocimiento.
3.3 Optimización de Decisiones: Aplicación de Heurísticas
Estadísticas en el Análisis de Datos
La toma de decisiones es un aspecto fundamental en el análisis de
datos, donde la capacidad de interpretar información de manera efectiva
puede marcar la diferencia entre el éxito y el fracaso. En este contexto, la
heurística estadística se presenta como una herramienta valiosa que facilita y
simplica el proceso de decisión (Villegas, 2019). La heurística, en términos
generales, se reere a estrategias mentales o atajos cognitivos que las personas
utilizan para resolver problemas y tomar decisiones de manera más eciente,
especialmente en situaciones complejas o inciertas.
La heurística estadística es un enfoque que utiliza principios
estadísticos para ayudar a los analistas y tomadores de decisiones a evaluar
datos y formular juicios. Estas estrategias no garantizan resultados óptimos,
pero posibilitan a los individuos procesar información de manera más rápida
y efectiva, lo que es particularmente útil donde los volúmenes de datos son
cada vez más grandes. A través de la aplicación de heurísticas, los analistas
pueden identicar patrones, hacer predicciones y tomar decisiones
informadas sin necesidad de realizar análisis exhaustivos en cada situación.
67
El uso de heurísticas en la toma de decisiones es esencial debido a que
la complejidad de los problemas y la cantidad de información disponible
pueden ser abrumadoras. Las heurísticas posibilitan a los individuos manejar
la incertidumbre y reducir la carga cognitiva asociada con la evaluación de
múltiples variables y posibles resultados. Esto se traduce en decisiones más
rápidas y con un menor riesgo de parálisis por análisis. Sin embargo, es
importante reconocer que, aunque las heurísticas pueden ser útiles, también
pueden llevar a sesgos y errores sistemáticos si no se aplican con cuidado.
En el análisis de datos, donde se busca interpretar grandes volúmenes
de información para identicar directrices y tomar decisiones basadas en
evidencia, la heurística estadística se convierte en un recurso indispensable.
Posibilita a los analistas simplicar procesos complejos, facilitar la
comunicación de resultados y ayudar a los interesados a entender mejor la
información presentada. Al integrar la heurística en el análisis de datos, se
puede mejorar la efectividad en la toma de decisiones, al mismo tiempo que
se fomenta un enfoque crítico hacia la interpretación de los resultados. La
heurística estadística ofrece un marco que combina la teoría estadística con
prácticas de toma de decisiones, proporcionando un enfoque accesible y
práctico para enfrentar la complejidad del análisis de datos. Las heurísticas
estadísticas son atajos mentales que simplican la toma de decisiones y la
evaluación de datos.
La heurística de representatividad se basa en la tendencia a juzgar la
probabilidad de un evento en función de su similitud con un prototipo o
estereotipo preexistente. Para ilustrar, si se describe a un individuo como
introvertido y amante de la lectura, es probable que asumamos que es más
probable que sea bibliotecario que vendedor, a pesar de que las estadísticas
68
pueden indicar que hay más vendedores que bibliotecarios en la población
general.
Una de las principales ventajas de esta heurística es su capacidad para
facilitar decisiones rápidas en situaciones donde la información es
insuciente. Sin embargo, su desventaja radica en que puede llevar a errores
sistemáticos, como la sobreestimación de circunstancias raros o la
subestimación de la probabilidad de circunstancias más comunes, lo que
puede distorsionar la interpretación de los datos.
En el análisis de datos, la heurística de representatividad puede ser útil
para clasicar datos en categorías o grupos basados en características
comunes. No obstante, es trascendente ser consciente de sus limitaciones y
validar las conclusiones con análisis estadísticos más rigurosos para evitar
sesgos. Para Cañavate (2021), la heurística de disponibilidad se reere a la
tendencia a evaluar la probabilidad de un evento basándose en la facilidad
con la que se pueden recordar ejemplos o casos similares. La idea central es,
si una persona ha visto recientemente noticias sobre ataques de tiburones,
puede sobrestimar la probabilidad de ser atacada por uno, simplemente
porque los casos son más accesibles en su memoria.
Esta heurística posibilita tomar decisiones rápidas y ecientes al
aprovechar la información más reciente o memorable. Sin embargo, puede
llevar a una percepción sesgada de la realidad y a una interpretación errónea
de los datos, especialmente si los circunstancias más memorables no son
representativos de la realidad. En análisis de datos, la heurística de
disponibilidad puede inuir en la forma en que se presentan y se interpretan
los resultados. En el caso de, si un análisis se centra únicamente en casos
extremos o circunstancias inusuales, puede dar lugar a conclusiones
69
engañosas. Es fundamental complementar esta heurística con datos s
amplios y representativos.
La heurística de anclaje se reere a la tendencia a depender demasiado
de la primera información que se recibe (el "ancla") al tomar decisiones. En
efecto, si se presenta un precio inicial alto para un producto y luego se ofrece
un descuento, los consumidores tienden a valorar el producto en relación con
el precio inicial, en lugar de considerar su valor real. Esta heurística puede ser
útil en la toma de decisiones, ya que proporciona un punto de referencia.
Ahora bien, su desventaja es que puede llevar a decisiones sesgadas si el ancla
inicial es irrelevante o engañosa, lo que puede distorsionar la percepción de
los datos.
En el análisis de datos, la heurística de anclaje puede ser relevante al
establecer umbrales o límites en la interpretación de resultados. No obstante,
es importante ser consciente de cómo los anclajes pueden inuir en las
decisiones y asegurarse de que se basen en datos sólidos y relevantes. Las
heurísticas estadísticas, aunque útiles, requieren una evaluación cuidadosa en
su aplicación (Alkhars et al., 2019). Es esencial equilibrar la rapidez en la toma
de decisiones con una comprensión crítica de los datos para evitar sesgos y
llegar a conclusiones más precisas. La implementación de heurísticas
estadísticas en la práctica es un proceso que puede optimizar
signicativamente la toma de decisiones en el análisis de datos. Este proceso
implica varias etapas clave que van desde la identicación de problemas hasta
la evaluación de resultados.
El primer paso en la implementación de heurísticas es identicar las
situaciones en las que se requiere tomar decisiones, esto implica un análisis
profundo del contexto en el que se encuentra el tomador de decisiones. Las
70
preguntas clave a considerar incluyen: ¿Qué datos están disponibles? ¿Cuáles
son los objetivos del análisis? ¿Existen incertidumbres o riesgos asociados con
las decisiones? Una identicación clara de los problemas de decisión posibilita
al analista enfocar su atención en las áreas donde las heurísticas pueden ser
más efectivas, facilitando así la selección de la estrategia adecuada.
Una vez que se han identicado los problemas de decisión, el siguiente
paso es seleccionar la heurística que mejor se adapte a la situación especíca.
Cada tipo de heurística estadística tiene sus características, ventajas y
desventajas. Conviene destacar, si se enfrenta a un caso donde la información
reciente y relevante es trascendente, la heurística de disponibilidad podría ser
la más adecuada. Por otro lado, si se necesita tomar decisiones basadas en
patrones o similitudes, la heurística de representatividad podría ser más
efectiva. Es fundamental que el analista considere el contexto y los posibles
sesgos que pueda introducir cada heurística en la interpretación de los datos.
Después de aplicar la heurística seleccionada, es esencial llevar a cabo
una evaluación de los resultados obtenidos. Esto implica analizar la
efectividad de la decisión tomada y revisar si los resultados cumplen con los
objetivos establecidos al inicio del proceso. Si los resultados no son
satisfactorios, es importante realizar ajustes. Esto puede incluir la
reevaluación de la heurística utilizada, la incorporación de más datos, o
incluso la revisión de las suposiciones subyacentes que guían la toma de
decisiones. La retroalimentación constante y la adaptación son clave para
mejorar la precisión y la efectividad del análisis de datos en el futuro.
La implementación de heurísticas estadísticas en la práctica es un
proceso dinámico que requiere atención cuidadosa en cada una de sus etapas.
Al identicar problemas de decisión, seleccionar la heurística adecuada y
71
evaluar los resultados, los analistas pueden simplicar la complejidad
inherente en el análisis de datos, facilitando una toma de decisiones más
informada y efectiva.
Sin embargo, es perentorio considerar las implicaciones éticas de la
aplicación de heurísticas en la práctica. Las decisiones basadas en heurísticas
pueden ser susceptibles a sesgos y prejuicios, lo que puede resultar en
conclusiones erróneas y consecuencias no deseadas. Por lo tanto, es
fundamental que los analistas sean conscientes de las limitaciones inherentes
a estas estrategias y se esfuercen por equilibrar la rapidez de la toma de
decisiones con la precisión y la justicia en el análisis de datos.
Entonces, se anticipa que el desarrollo de nuevas heurísticas y la
integración de enfoques interdisciplinares en este campo abrirán nuevas
avenidas para la mejora en la toma de decisiones, fomentando un análisis de
datos más robusto y ético. En síntesis, la heurística estadística no solo es una
herramienta práctica, sino al igual un área de estudio que merece atención
continua y reexión crítica.
72
Capítulo IV
Optimización y Eciencia: Un enfoque en la
investigación de operaciones
4.1 Introducción a los métodos estadísticos en ciencias exactas
Los métodos estadísticos son herramientas fundamentales en las
ciencias exactas, ya que posibilitan a los académicos analizar, interpretar y
presentar datos de manera rigurosa y objetiva. Así, conforme la física, la
química y las matemáticas avanzan en complejidad y en la cantidad de datos
que generan, la estadística se convierte en un componente esencial para la
validación de teorías y la toma de decisiones basadas en evidencia.
En el ámbito de las ciencias exactas, los métodos estadísticos se utilizan
para describir fenómenos, identicar patrones y relaciones, así como realizar
predicciones basadas en datos empíricos. Esto es especialmente relevante en
áreas como la investigación experimental, donde los cientícos deben evaluar
la efectividad de nuevos materiales, procesos o tecnologías. La capacidad de
extraer conclusiones signicativas de los datos recopilados es clave para
avanzar en la comprensión de los principios que rigen el mundo físico.
Además, los métodos estadísticos posibilitan a los académicos manejar
la incertidumbre inherente a cualquier medición o experimento. A través de
técnicas de inferencia estadística, los cientícos pueden hacer
generalizaciones sobre poblaciones más amplias a partir de muestras
limitadas, acomo calcular el grado de conanza en sus conclusiones. Este
aspecto es vital en la validación de hipótesis y en la formulación de teorías
73
que pueden ser probadas y replicadas. Por lo que los métodos estadísticos no
solo proporcionan un marco teórico y práctico para el análisis de datos en las
ciencias exactas, sino que también fomentan un enfoque sistemático y crítico
en la investigación
Los descriptivos estadísticos son herramientas fundamentales para
resumir y analizar conjuntos de datos en las ciencias exactas. A través de ellos,
se puede obtener una visión general de la información, facilitando la
comprensión de patrones.
i. Media: Es el promedio aritmético de un conjunto de valores. Se
calcula sumando todos los valores y dividiendo entre la cantidad
total de datos. La media es muy sensible a valores extremos, lo que
puede distorsionar su representación del conjunto de datos.
ii. Mediana: Es el valor que divide un conjunto de datos ordenado en
dos mitades iguales. Si el número de observaciones es impar, la
mediana es el valor del medio; mientras que si es par, se calcula
como el promedio de los dos valores centrales. La mediana es
menos susceptible a los valores atípicos que la media, lo que la
convierte en una medida útil en distribuciones sesgadas.
iii. Moda: Es el valor que aparece con mayor frecuencia en un conjunto
de datos. Puede haber conjuntos de datos con una única moda
(unimodal), múltiples modas (multimodal) o sin moda (si todos los
valores son únicos). La moda es particularmente útil en datos
categóricos, donde se desea identicar la categoría más común.
Las medidas de dispersión proporcionan información sobre la
variabilidad o dispersión de un conjunto de datos. Conocer la dispersión
ayuda a entender la consistencia de los datos y su posible rango.
74
i. Rango: Es la diferencia entre el valor máximo y el valor mínimo en
un conjunto de datos. A pesar de que es fácil de calcular, el rango
no considera la distribución de los datos intermedios y puede ser
inuenciado por valores extremos.
ii. Varianza: Mide la media de las diferencias al cuadrado entre cada
valor y la media del conjunto de datos. Una varianza alta indica que
los datos están muy dispersos alrededor de la media, mientras que
una varianza baja indica que los datos están más agrupados.
iii. Desviación estándar: Es la raíz cuadrada de la varianza y proporciona
una medida de dispersión en las mismas unidades que los datos
originales. La desviación estándar es ampliamente utilizada, ya que
posibilita evaluar la dispersión de los datos de manera más
intuitiva.
La visualización de datos es una herramienta clave para la
interpretación de los resultados estadísticos. Ayuda a representar
grácamente la información, facilitando la identicación de patrones y
anomalías. Algunas de las técnicas de visualización más comunes incluyen:
i. Histogramas: Son grácos de barras que muestran la frecuencia de
los datos en intervalos especícos. Posibilitan observar la
distribución de los datos y detectar la presencia de sesgos o
agrupaciones.
ii. Diagramas de caja (boxplots): Representan la mediana, los cuartiles y
los valores atípicos de un conjunto de datos. Son útiles para
comparar la dispersión y la tendencia central de diferentes grupos.
iii. Grácos de dispersión: Se utilizan para visualizar la relación entre dos
variables. Posibilitan identicar correlaciones y patrones, siendo
especialmente útiles en el análisis de regresión.
75
iv. Grácos de líneas: Ideales para mostrar cómo una variable cambia a
lo largo del tiempo, los grácos de líneas son muy utilizados en
series temporales y en la presentación de datos secuenciales.
Las medidas descriptivas son esenciales para resumir y comprender los
datos en las ciencias exactas, a través de estas herramientas, los académicos
pueden extraer conclusiones signicativas y formular hipótesis para análisis
más profundos. La inferencia estadística posibilita extraer conclusiones acerca
de una población a partir de una muestra, y en el contexto de las ciencias
exactas, donde los datos suelen ser cuantitativos y precisos, la inferencia
estadística proporciona herramientas para tomar decisiones y hacer
predicciones basadas en la evidencia empírica (Rodríguez y Aguerrea, 2024).
Las pruebas de hipótesis son un procedimiento estadístico que
posibilita evaluar armaciones sobre una población, basándose en datos de
una muestra. Este proceso comienza con la formulación de dos hipótesis: la
hipótesis nula (H0), que generalmente postula que no hay efecto o relación, y
la hipótesis alternativa (H1), que sugiere lo contrario. A través de un conjunto
de métodos, se calcula una estadística de prueba que se compara con un valor
crítico para determinar si se rechaza o no la hipótesis nula. Este enfoque es
fundamental en muchas disciplinas de las ciencias exactas, como la física y la
química, donde se busca validar teorías a partir de experimentos.
Los intervalos de conanza son una herramienta que posibilita estimar
un rango en el cual se espera que se encuentre un parámetro poblacional con
un cierto nivel de conanza. Para ilustrar, si realizamos un experimento y
calculamos un intervalo de conanza del 95% para la media de una población,
podemos armar que hay un 95% de probabilidad de que la verdadera media
se encuentre dentro de ese intervalo. Esta técnica es especialmente útil en las
76
ciencias exactas, donde se desea tener una idea clara de la precisión y la
incertidumbre asociadas con las estimaciones obtenidas a partir de muestras.
El concepto de intervalos de conanza contribuye a una comprensión más
profunda de los resultados experimentales y posibilita a los académicos
comunicar sus hallazgos de manera efectiva.
En el contexto de las pruebas de hipótesis, es trascendental entender
los errores tipo I y tipo II. Un error tipo I ocurre cuando se rechaza
incorrectamente la hipótesis nula cuando en realidad es verdadera, lo que se
asocia a un nivel de signicancia (α) predenido, comúnmente jado en 0.05.
Por otro lado, un error tipo II se presenta cuando no se rechaza la hipótesis
nula cuando en realidad es falsa, lo que está relacionado con la potencia de la
prueba (1 - β). En las ciencias exactas, minimizar estos errores es esencial para
garantizar la validez de los resultados experimentales. Los académicos deben
considerar cuidadosamente el equilibrio entre ambos tipos de errores al
diseñar sus experimentos y al interpretar sus datos.
La inferencia estadística es una herramienta poderosa en las ciencias
exactas, proporcionando un marco para la toma de decisiones informadas y
la validación de teorías. A través de pruebas de hipótesis, intervalos de
conanza y la comprensión de errores, los cientícos pueden interpretar datos
de manera más efectiva y contribuir al avance del conocimiento en sus
respectivas disciplinas.
Los modelos estadísticos son herramientas fundamentales en las
ciencias exactas, ya que posibilitan representar y analizar la relación entre
variables, así como predecir conductas basados en datos observados. La
regresión lineal es uno de los métodos más sencillos y efectivos para modelar
la relación entre una variable dependiente y una o más variables
77
independientes. Su objetivo es encontrar la línea que mejor se ajusta a un
conjunto de datos, minimizando la suma de los cuadrados de las diferencias
entre los valores observados y los valores predichos por el modelo. Este ajuste
se expresa matemáticamente como:
\[ Y = β_0 + β_1X_1 + β_2X_2 + ... + β_nX_n + ε \]
donde \( Y \) es la variable dependiente, \( X_i \) son las variables
independientes, \( β_i \) son los coecientes que representan la inuencia de
cada variable independiente, y \( ε \) es el término de error. La regresión
lineal no solo proporciona una manera de entender las relaciones entre
variables, sino que también posibilita hacer predicciones basadas en nuevos
datos. Su simplicidad y ecacia hacen que sea ampliamente utilizada en
diversas disciplinas, desde la física hasta la economía.
El análisis de varianza (ANOVA) es un método estadístico que se utiliza
para comparar las medias de tres o más grupos y determinar si al menos uno
de los grupos presenta una media signicativamente diferente. ANOVA se
basa en la descomposición de la variabilidad total en variabilidad entre
grupos y variabilidad dentro de los grupos. Esto se puede expresar como:
\[ SST = SSB + SSW \]
donde \( SST \) es la suma total de cuadrados, \( SSB \) es la suma de
cuadrados entre grupos, y \( SSW \) es la suma de cuadrados dentro de los
grupos. Existen diferentes tipos de ANOVA, como el ANOVA de un solo
factor y el ANOVA de dos factores, que posibilitan analizar la inuencia de
uno o más factores sobre la variable dependiente. Este método es
especialmente útil en experimentos controlados donde se desea evaluar el
efecto de distintas condiciones o tratamientos.
78
Los modelos de series temporales son herramientas utilizadas para
analizar datos que se recogen en intervalos de tiempo regulares, estos
modelos son esenciales en campos como la meteorología, la economía y la
ingeniería, donde las decisiones se basan en patrones y predisposiciones a lo
largo del tiempo (Mauricio, 2013). Entre los modelos más comunes se
encuentran el modelo autorregresivo (AR), el modelo de media móvil (MA) y
el modelo autorregresivo integrado de media móvil (ARIMA).
Los modelos de series temporales posibilitan no solo entender la
estructura de los datos a lo largo del tiempo, sino incluso hacer pronósticos
sobre valores. Así como, en la economía, se pueden utilizar para prever el
crecimiento del PIB o la inación. El análisis de componentes estacionales,
directrices y ciclos es fundamental para aplicar estos modelos de manera
efectiva, ayudando a los analistas a tomar decisiones informadas. Los
modelos estadísticos son esenciales para el análisis y la interpretación de
datos en las ciencias exactas. A través de la regresión lineal, el análisis de
varianza y los modelos de series temporales, los académicos pueden obtener
información valiosa sobre las relaciones entre variables y realizar predicciones
que guíen la toma de decisiones en sus respectivos campos.
Los descriptivos estadísticos, que incluyen medidas de tendencia
central y de dispersión, son herramientas esenciales que posibilitan resumir y
visualizar grandes volúmenes de datos de manera efectiva. Estas técnicas no
solo facilitan el entendimiento de la variabilidad y la centralidad de las
observaciones, sino que al igual proporcionan una base sólida para la toma de
decisiones informadas.
La inferencia estadística, a través de pruebas de hipótesis e intervalos
de conanza, posibilita a los cientícos hacer generalizaciones sobre
79
poblaciones a partir de muestras, lo que es vital en la validación de teorías y
en la formulación de nuevas hipótesis. Comprender los errores tipo I y II es
relevante para evaluar la robustez de los resultados y para minimizar el riesgo
de conclusiones erróneas.
Por otro lado, los modelos estadísticos, como la regresión lineal, el
análisis de varianza (ANOVA) y los modelos de series temporales, ofrecen
marcos analíticos poderosos que posibilitan estudiar relaciones complejas y
predecir situaciones. Estas herramientas son especialmente útiles en campos
como la física, la química y la ingeniería, donde el análisis cuantitativo es
indispensable para el avance del conocimiento. La aplicación de métodos
estadísticos en las ciencias exactas no solo enriquece la investigación, sino que
además mejora la precisión y la conabilidad de los resultados. La integración
de estos métodos en la práctica cientíca es, por lo tanto, un componente clave
para el avance del conocimiento y la innovación en el mundo moderno.
4.2 Optimización y Eciencia: La Investigación de Operaciones
en la Gestión de Procesos
La investigación de operaciones (IO) es una disciplina que utiliza
métodos analíticos avanzados para ayudar a tomar mejores decisiones. Ahora
bien, la interpretación de datos es cada vez más complejo y competitivo, por
lo que las instituciones enfrentan la adversidad de optimizar sus recursos y
procesos para maximizar la eciencia y la efectividad. La IO proporciona un
marco sistemático para abordar problemas diversos, desde la logística y la
cadena de suministro hasta la gestión de proyectos y la planicación
nanciera.
Desde sus inicios en la década de 1940, la investigación de operaciones
ha evolucionado y se ha adaptado a las necesidades cambiantes de las
80
industrias. Su enfoque cuantitativo y su capacidad para modelar situaciones
del mundo real la han convertido en una herramienta invaluable para la toma
de decisiones informadas. A través de la aplicación de técnicas matemáticas,
estadísticas y de simulación, la IO posibilita a las instituciones analizar
diferentes escenarios y evaluar las posibles consecuencias de sus decisiones.
En este contexto, la gestión de procesos se benecia enormemente de
la investigación de operaciones. La capacidad de modelar y optimizar
procesos posibilita a las empresas no solo mejorar su rendimiento operativo,
sino asimismo innovar en sus prácticas y adaptarse a las demandas del
mercado. La investigación de operaciones (IO) es una disciplina que utiliza
métodos analíticos avanzados para ayudar a tomar decisiones más
informadas.
La investigación de operaciones se puede denir como el uso de
modelos matemáticos, estadísticas y algoritmos para resolver problemas
complejos en la toma de decisiones. Su objetivo principal es proporcionar un
enfoque sistemático y cuantitativo para analizar problemas, optimizar
recursos y mejorar la eciencia en diversas áreas, desde la producción y la
logística hasta la salud y los servicios nancieros. A través de la modelización
de situaciones reales, la IO busca identicar la mejor solución posible entre un
conjunto de alternativas, considerando restricciones y objetivos especícos.
La investigación de operaciones tiene sus raíces en la Segunda Guerra
Mundial, cuando se organizó un esfuerzo sistemático para resolver problemas
logísticos y tácticos en el campo de batalla. Inicialmente, se centró en la
optimización de recursos militares, pero a medida que avanzaba el tiempo, se
expandió a otras áreas como la industria, la economía y la gestión empresarial
(Bueno y Jácome, 2021). En las décadas siguientes, la IO ha evolucionado
81
signicativamente, integrando técnicas de programación lineal, simulación,
teoría de colas y análisis de redes, entre otros. Hoy en día, el ámbito de la
investigación de operaciones se ha diversicado aún s, incorporando
herramientas de inteligencia articial y aprendizaje automático.
Entre las metodologías más comunes de la investigación de
operaciones se destacan:
i. Programación Lineal: Utilizada para resolver problemas de
optimización en los que se busca maximizar o minimizar una
función objetivo, sujeto a restricciones lineales. Es especialmente
útil en la asignación de recursos limitados.
ii. Simulación: Posibilita modelar procesos complejos y analizar su
comportamiento bajo diferentes condiciones. Es una herramienta
valiosa para la toma de decisiones en situaciones de incertidumbre.
iii. Teoría de Colas: Estudia las líneas de espera y el comportamiento de
los sistemas de servicio, ayudando a optimizar la gestión de
recursos en entornos donde los clientes llegan de manera aleatoria.
iv. Análisis de Redes: Se centra en la optimización de ujos a través de
redes, siendo aplicable en logística, transporte y
telecomunicaciones.
v. Programación Entera y Mixta: Se utiliza para problemas en los que
algunas o todas las variables de decisión deben tomar valores
enteros, lo cual es común en situaciones de asignación de recursos
discretos.
Estas metodologías, junto con otras técnicas avanzadas, posibilitan a
los profesionales de la investigación de operaciones abordar una amplia gama
de problemas en la gestión de procesos, facilitando la toma de decisiones
82
fundamentadas y ecaces. La investigación de operaciones no solo
proporciona herramientas y métodos para resolver problemas complejos, sino
que al igual ha evolucionado a lo largo del tiempo para adaptarse a las
cambiantes necesidades de las instituciones. La investigación de operaciones
(IO) se ha convertido en una herramienta fundamental para la gestión de
procesos en diversas industrias. Su capacidad para modelar situaciones
complejas y optimizar decisiones ha permitido a las instituciones mejorar su
eciencia y efectividad.
La optimización de recursos es uno de los aspectos más críticos en la
gestión de procesos, así, la investigación de operaciones proporciona modelos
matemáticos y algoritmos que ayudan a las instituciones a asignar sus
recursos limitados de manera más eciente (Ávalos y Cepeda, 2024). Hay que
hacer notar, en la industria manufacturera, las técnicas de programación lineal
pueden utilizarse para determinar la cantidad óptima de cada producto que
se debe fabricar, considerando las restricciones de materiales y tiempo de
producción.
La IO posibilita a las empresas minimizar costos operativos, maximizar
la utilización de activos y mejorar la planicación de la cadena de suministro.
Al aplicar métodos como la simulación y la teoría de colas, las instituciones
pueden anticipar cuellos de botella y ajustar sus operaciones para mantener
un ujo constante y eciente.
El modelado de procesos es otra aplicación esencial de la investigación
de operaciones, a través de la creación de modelos que representan los
procesos de negocio, las instituciones pueden analizar y mejorar sus
operaciones. Los diagramas de ujo, las redes de Petri y los modelos de
83
simulación son solo algunas de las herramientas utilizadas para visualizar y
comprender procesos complejos.
Estos modelos posibilitan a los gerentes identicar ineciencias,
redundancias y áreas de mejora, lo que resulta en una optimización continua
de los procesos. La idea central es, en el ámbito del servicio al cliente, el
modelado de procesos puede ayudar a reducir los tiempos de espera y
mejorar la satisfacción del cliente al identicar los pasos más lentos en la
atención.
La toma de decisiones basada en datos es un enfoque que ha ganado
popularidad en los últimos años, y la investigación de operaciones juega un
papel perentorio en este ámbito. La IO utiliza técnicas analíticas avanzadas
para convertir grandes volúmenes de datos en información accionable. Esto
posibilita a los líderes empresariales tomar decisiones informadas y
estratégicas basadas en evidencias concretas (Bueno y Jácome, 2021).
Las herramientas de análisis predictivo, como los modelos de regresión
y el análisis de series temporales, posibilitan anticipar procederes. En
concreto, las empresas pueden utilizar estos métodos para predecir la
demanda de productos, ajustando así su producción y distribución de manera
proactiva. La integración de la inteligencia articial y el aprendizaje
automático en la IO está llevando la toma de decisiones a un nuevo nivel,
permitiendo a las instituciones adaptarse rápidamente a los cambios en el
mercado y a las preferencias de los consumidores.
Las aplicaciones de la investigación de operaciones en la gestión de
procesos son diversas y efectivas. Desde la optimización de recursos y el
modelado de procesos hasta la toma de decisiones basada en datos, la IO
ofrece herramientas valiosas para mejorar la eciencia operativa y la
84
competitividad de las instituciones en un entorno empresarial en constante
cambio. Al mismo tiempo, surgen directrices que podrían redenir el
panorama de la gestión de procesos en los próximos años.
La dicultad para incorporar variables no cuanticables, como el
comportamiento humano o factores externos imprevistos, puede limitar la
precisión de las soluciones propuestas. La dependencia de datos de calidad es
crítica: la falta de información precisa y actualizada puede llevar a decisiones
subóptimas.
El avance tecnológico está transformando la investigación de
operaciones, ofreciendo nuevas herramientas y metodologías. La inteligencia
articial (IA) y el aprendizaje automático están revolucionando la forma en
que se analizan los datos y se construyen modelos. Estas tecnologías
posibilitan a los analistas de IO manejar grandes volúmenes de datos y
descubrir patrones que antes eran difíciles de identicar. El uso de
simulaciones avanzadas y algoritmos de optimización más sosticados está
facilitando el desarrollo de soluciones más robustas y adaptativas, lo que
promete mejorar signicativamente la gestión de procesos.
La creciente preocupación por la sostenibilidad y el cambio climático
está impulsando una nueva dirección en la investigación de operaciones. Las
instituciones están cada vez más interesadas en implementar prácticas
sostenibles en sus procesos. Aquí, la IO puede jugar un papel fundamental,
ayudando a optimizar el uso de recursos y reducir el desperdicio. Se están
desarrollando modelos que no solo se centran en la eciencia económica, sino
que incluso integran criterios ambientales y sociales. Este enfoque holístico no
solo contribuye a la responsabilidad corporativa, sino que también puede ser
un diferenciador clave en el mercado.
85
Aunque la investigación de operaciones enfrenta desafíos
signicativos, las innovaciones tecnológicas y el enfoque hacia la
sostenibilidad ofrecen oportunidades emocionantes para el futuro. La
capacidad de adaptarse a estos cambios será crucial para que la IO siga siendo
relevante y efectiva en la gestión de procesos.
La investigación de operaciones se presenta como una disciplina
esencial para la gestión de procesos en diversos sectores. Su capacidad para
integrar metodologías analíticas y técnicas de optimización posibilita a las
instituciones no solo mejorar la eciencia de sus operaciones, sino al igual
adaptarse a un entorno empresarial en constante cambio (Bueno y Jácome,
2021). A través de la aplicación de modelos matemáticos y herramientas de
análisis de datos, las empresas pueden tomar decisiones informadas que
maximicen el uso de recursos y mejoren la calidad de sus servicios.
Los desafíos actuales, como la complejidad de los sistemas y la
necesidad de soluciones sostenibles, requieren enfoques más sosticados y
colaborativos. La integración de inteligencia articial y análisis predictivo en
la investigación de operaciones promete abrir nuevas vías para el desarrollo
de modelos más precisos y efectivos, que no solo optimicen procesos, sino que
también contribuyan a un futuro más sostenible.
Por ende, es fundamental que los profesionales en la gestión de
procesos se mantengan actualizados sobre las herramientas emergentes en
investigación de operaciones. Esto les permitirá aprovechar al máximo las
oportunidades desde la interconexión y el dinamismo de los datos recabados.
La investigación de operaciones no solo es una herramienta valiosa, sino una
necesidad estratégica para cualquier organización que busque prosperar en el
competitivo panorama actual.
86
4.3 Optimización Matemática: Explorando el Método Simplex y
el Análisis Numérico
La optimización matemática busca encontrar el mejor resultado,
típicamente el máximo o el mínimo, dentro de un conjunto de restricciones.
En este contexto, el Método Simplex se erige como una herramienta poderosa
y versátil que ha revolucionado la forma en que se abordan problemas de
programación lineal. Desarrollado por George Danig en 1947, este algoritmo
ha desempeñado un papel crucial en la toma de decisiones en diversas
disciplinas, desde la economía hasta la ingeniería y la logística.
La importancia del Método Simplex en la optimización matemática
radica en su capacidad para resolver ecientemente problemas complejos que
involucran múltiples variables y restricciones lineales. En esta línea, el
Método Simplex posibilita a los profesionales identicar la mejor solución
posible, maximizando benecios o minimizando costos, todo dentro de un
marco matemático riguroso.
El impacto del Método Simplex no se limita a aplicaciones teóricas; su
implementación práctica ha transformado industrias enteras. Desde la
asignación de recursos en empresas hasta la planicación de rutas en la
logística de transporte, su versatilidad y ecacia lo han convertido en un
estándar en la optimización. Empero, a pesar de su éxito, el Método Simplex
no es exento de limitaciones y desafíos, lo que ha llevado a la exploración de
nuevas técnicas y enfoques en el campo del análisis numérico. El Método
Simplex es una de las técnicas más poderosas y utilizadas en la optimización
matemática, especialmente en problemas de programación lineal.
El Método Simplex fue desarrollado en 1947 por el matemático
estadounidense George Danig. Danig, quien trabajaba en el desarrollo de
87
técnicas de optimización durante la Segunda Guerra Mundial, creó este
método como una solución a problemas complejos de asignación de recursos.
Desde su introducción, el Método Simplex ha evolucionado y se ha convertido
en una herramienta fundamental en diversas áreas como la economía, la
ingeniería, la logística y la investigación operativa. Su capacidad para resolver
problemas de programación lineal de manera eciente ha llevado a su
adopción en software de optimización y aplicaciones industriales.
El Método Simplex se basa en la geometría de los poliedros. La idea
central es que, en un problema de programación lineal, las soluciones factibles
están representadas por los vértices de un poliedro en un espacio n-
dimensional. El objetivo del Método Simplex es movernos de un vértice a otro
a lo largo de los bordes del poliedro, buscando la solución óptima en el
proceso (Simg y Trigueros, 2022).
i. Problema estándar: El Método Simplex comienza con la formulación
del problema en su forma estándar, que incluye restricciones
lineales y una función objetivo que debe ser maximizada o
minimizada.
ii. Tabla Simplex: Se utiliza una tabla Simplex para organizar y realizar
cálculos iterativos. Esta tabla contiene información sobre las
variables básicas y no básicas, los coecientes de la función objetivo
y las restricciones.
iii. Iteraciones: A través de una serie de iteraciones, el método evalúa las
variables no básicas y decide cuál de ellas debe entrar en la base y
cuál debe salir, con el objetivo de mejorar el valor de la función
objetivo.
88
iv. Criterio de optimalidad: El proceso continúa hasta que se alcanza un
estado donde no se puede mejorar más la función objetivo, lo que
indica que se ha encontrado la solución óptima.
El Método Simplex tiene un amplio rango de aplicaciones en diversas
disciplinas. Algunas de las más comunes incluyen:
- Logística y transporte: Optimización de rutas de transporte, minimización
de costos de distribución y asignación de recursos.
- Producción: Determinación de la cantidad óptima de productos a fabricar
para maximizar benecios o minimizar costos.
- Finanzas: Análisis de carteras de inversión para maximizar el retorno
esperado bajo ciertas restricciones de riesgo.
- Investigación operativa: Solución de problemas complejos en la toma de
decisiones, donde múltiples variables y restricciones deben ser consideradas
simultáneamente.
La versatilidad del Método Simplex y su capacidad para abordar una
variedad de problemas de optimización destacan su relevancia en el campo
de la matemática aplicada y la investigación operativa. Con una comprensión
sólida de sus fundamentos, se pueden explorar aún más sus aplicaciones y el
impacto que tiene en la optimización matemática en general. El análisis
numérico se ocupa de desarrollar, analizar y aplicar algoritmos para resolver
problemas matemáticos mediante aproximaciones numéricas. En el contexto
de la optimización matemática, el análisis numérico juega un papel
trascendental al proporcionar métodos que posibilitan encontrar soluciones a
problemas complejos que, de otro modo, serían intratables analíticamente.
89
El análisis numérico es el estudio de algoritmos que utilizan
aproximaciones numéricas para resolver problemas matemáticos, estos
problemas pueden abarcar desde ecuaciones algebraicas y diferenciales hasta
la optimización de funciones. En optimización matemática, el objetivo es
encontrar el máximo o mínimo de una función sujeta a ciertas restricciones.
Para ello, se emplean diversas técnicas que posibilitan aproximar soluciones,
ya que muchas veces no es posible obtener una solución exacta (Ezquerro,
2012).
Los conceptos básicos del análisis numérico incluyen la convergencia
de algoritmos, la estabilidad numérica y el error de aproximación. La
convergencia se reere a la tendencia de un algoritmo a acercarse a la solución
exacta a medida que se realizan más iteraciones. Por otro lado, la estabilidad
numérica se reere a cómo los errores en los datos de entrada pueden afectar
el resultado nal. Así, el error de aproximación mide la diferencia entre la
solución aproximada y la solución exacta.
Existen varias técnicas de análisis numérico que son particularmente
útiles en el campo de la optimización. Algunas de las más destacadas
incluyen:
i. Métodos de búsqueda: Estos métodos se utilizan para explorar el
espacio de soluciones y encontrar una solución óptima. Ejemplos
incluyen el método de la dicotomía y el método de búsqueda de
Fibonacci.
ii. Métodos de gradiente: Se basan en el cálculo del gradiente de la
función objetivo para encontrar direcciones de mejora. El método
del gradiente descendente es uno de los más conocidos y se utiliza
ampliamente para optimizar funciones no lineales.
90
iii. Métodos de programación cuadrática: Se aplican en problemas de
optimización donde la función objetivo es cuadrática y las
restricciones son lineales. Estos métodos son especialmente útiles
en la optimización de portafolios en nanzas.
iv. Métodos heurísticos: Incluyen técnicas como la programación
genética y el recocido simulado, que son útiles en problemas donde
se busca una solución aproximada en un tiempo razonable,
especialmente en problemas NP-hard.
El Método Simplex es una técnica de optimización que se utiliza
especícamente para resolver problemas de programación lineal. Si bien es
altamente eciente y conable para estos problemas, existen otros métodos
numéricos que pueden ser más adecuados dependiendo de la naturaleza del
problema a resolver. En el caso de, los métodos de gradiente son preferibles
en la optimización de funciones no lineales, donde el Simplex no es aplicable.
Asimismo, los métodos heurísticos ofrecen soluciones rápidas para
problemas complejos donde el Simplex podría ser ineciente debido a la alta
dimensionalidad o la complejidad de las restricciones.
El análisis numérico proporciona un arsenal de herramientas y técnicas
que complementan el Método Simplex en la optimización matemática,
permitiendo a los académicos y profesionales abordar una amplia gama de
problemas de optimización con mayor ecacia. La optimización matemática
ha experimentado un crecimiento signicativo en los últimos años, impulsada
por la necesidad de resolver problemas complejos en diversas áreas, desde la
economía hasta la ingeniería. Sin embargo, este campo enfrenta varios
desafíos que deben ser abordados para avanzar hacia metodologías más
efectivas y ecientes.
91
A pesar de su popularidad y ecacia en la resolución de problemas de
programación lineal, el Método Simplex presenta varias limitaciones. Una de
las principales desventajas es su rendimiento en ciertos tipos de problemas,
especialmente aquellos que tienen un gran número de variables y
restricciones. En situaciones donde se presentan numerosas soluciones
extremas, el Método Simplex puede volverse ineciente, ya que su
desempeño se degrada en problemas de gran escala. El método asume que
todas las funciones son lineales, lo que limita su aplicabilidad a problemas no
lineales. Esta restricción ha llevado a la búsqueda de métodos alternativos que
puedan abordar estos desafíos de manera más efectiva.
El análisis numérico ha evolucionado signicativamente en los últimos
años, dando lugar a nuevas técnicas y algoritmos que complementan y, en
algunos casos, superan las limitaciones del Método Simplex. Entre estas
innovaciones, se destacan los métodos de optimización no lineales, como el
Método de Newton y las técnicas de programación cuadrática; también se han
desarrollado algoritmos basados en inteligencia articial y aprendizaje
automático que posibilitan abordar problemas de optimización de manera
más exible y adaptativa (Suñé et al., 2016). Estas nuevas herramientas
ofrecen la posibilidad de explorar soluciones en espacios de alta
dimensionalidad y han demostrado ser efectivas en la resolución de
problemas complejos que antes eran intratables.
La optimización matemática tiene el potencial de beneciarse
enormemente de la integración de las tecnologías emergentes, la computación
cuántica, así como, promete revolucionar la forma en que se abordan los
problemas de optimización, permitiendo la resolución de problemas
complejos en tiempos signicativamente más cortos. La colaboración
interdisciplinaria entre matemáticos, cientícos de datos e ingenieros puede
92
llevar al desarrollo de nuevos métodos y enfoques que integren mejor las
técnicas de optimización con el análisis de datos y la modelización de sistemas
complejos.
A pesar de que el Método Simplex ha sido fundamental en el desarrollo
de la optimización matemática, es decisivo reconocer sus limitaciones y
explorar nuevas direcciones. Las innovaciones en análisis numérico y el
avance de la tecnología ofrecerán oportunidades emocionantes para abordar
los desafíos actuales en este campo, haciendo que la optimización matemática
sea más accesible y efectiva en la resolución de problemas del mundo real.
El Método Simplex, desarrollado por George Danig en la década de
1940, ha demostrado ser una herramienta poderosa para resolver problemas
de programación lineal, permitiendo a los académicos y profesionales
optimizar recursos de manera eciente y efectiva. Su capacidad para
encontrar soluciones óptimas en situaciones complejas lo ha consagrado como
un pilar en la toma de decisiones en diversas industrias, desde la economía
hasta la ingeniería.
A lo largo de nuestra discusión, hemos revisado los fundamentos del
Método Simplex, incluida su historia y los principios básicos que lo sustentan.
Esto nos ha permitido comprender no solo cómo funciona el método, sino
incluso su aplicabilidad en situaciones del mundo real, donde se requiere una
optimización precisa y rápida. Por otro lado, el análisis numérico se ha
presentado como una disciplina complementaria esencial en la optimización
matemática. A través de técnicas como la interpolación, la integración
numérica y la solución de sistemas de ecuaciones, el análisis numérico
proporciona herramientas robustas para abordar problemas que pueden ser
inabordables mediante métodos analíticos convencionales. Se ha destacado la
93
importancia de la precisión y la estabilidad en los cálculos, elementos claves
para garantizar que las soluciones obtenidas sean conables.
Al comparar el Método Simplex con otros métodos numéricos, se ha
evidenciado que, aunque el Simplex es extremadamente ecaz en problemas
lineales, existen otros enfoques que pueden ser más apropiados en contextos
no lineales o en situaciones con restricciones más complejas. Este análisis
comparativo ha revelado que no existe un "tamaño único" en la optimización
matemática, y la selección del método adecuado depende de las características
especícas del problema a resolver.
No obstante, el Método Simplex presenta limitaciones, especialmente
en problemas de gran escala donde la eciencia computacional se convierte
en un desafío. Las innovaciones recientes en análisis numérico, como el uso
de algoritmos avanzados y técnicas de aprendizaje automático, ofrecen
perspectivas prometedoras para superar estas limitaciones y mejorar aún más
las capacidades de optimización.
La optimización matemática, a través del Método Simplex y el análisis
numérico, sigue siendo un campo dinámico y en evolución. La exploración de
estas herramientas no solo enriquecerá nuestra comprensión teórica, sino que
siempre permitirá su aplicación práctica en la búsqueda de soluciones
óptimas en la vida cotidiana.
94
Conclusión
La investigación cientíca, especialmente en las ciencias exactas, se
enfrenta a problemas complejos que requieren soluciones innovadoras y
ecientes. He aquí, los métodos heurísticos que han emergido como
herramientas valiosas que consienten el control y ajuste de procesos de
manera más efectiva. Sin embargo, utilizan aproximaciones prácticas y no
garantizan una solución óptima, pero son útiles para encontrar soluciones
satisfactorias en un tiempo razonable.
En tanto, la inferencia estadística extrae conclusiones sobre una
población a partir de una muestra representativa, generalizar hallazgos y
tomar decisiones informadas basadas en datos. Este proceso no solo implica
el uso de técnicas estadísticas avanzadas, sino también un entendimiento
profundo de los principios que rigen la variabilidad y la aleatoriedad en los
datos.
A menudo, los métodos heurísticos se utilizan en la fase exploratoria
de la investigación, donde la creatividad y la exibilidad son esenciales; por
ende, la combinación de la inferencia estadística y los métodos heurísticos en
la investigación se orienta hacia una perspectiva más rica y robusta. En
síntesis, la inferencia estadística proporciona un marco riguroso para la
validación de hipótesis, los métodos heurísticos permiten un enfoque más ágil
y adaptable frente a la incertidumbre. Esta sinergia es especialmente valiosa
en campos como la física, la química y la biología, donde los investigadores
enfrentan situaciones multifacéticas.
De la evidencia sobre la investigación documental de este libro, se
desprende que la metodología común es el enfoque iterativo, donde se alterna
95
entre aplicar técnicas heurísticas para generar nuevas ideas y utilizar
herramientas inferenciales para evaluar la validez de estas ideas. Además, en
el ámbito del aprendizaje automático, se observa una sinergia notable entre
ambas vertientes. Los algoritmos de aprendizaje automático con frecuencia
incorporan principios heurísticos para optimizar la selección de
características o la conguración de modelos, mientras que las técnicas
estadísticas se utilizan para evaluar el rendimiento y la precisión de estos
modelos; esta integración ha llevado a avances signicativos en campos como
la predicción del clima y la investigación médica.
La aplicación de esta integración promueve un enfoque exible y
adaptativo en el diseño experimental, lo que puede ser particularmente
benecioso en áreas donde los datos son escasos o difíciles de obtener, es así
como la capacidad de formular hipótesis basadas en la intuición y luego
validarlas mediante métodos estadísticos puede acelerar el descubrimiento y
la innovación, sobre todo desde la cultura de colaboración interdisciplinaria.
En este orden de ideas, es imperativo fomentar una cultura de análisis
crítico y escepticismo saludable frente a los datos y, una investigación
rigurosa, que incluya diseños experimentales adecuados y el uso de métodos
estadísticos apropiados, esencial para avanzar en el conocimiento de las
ciencias exactas y evitar caer en la trampa de asumir causalidad donde solo
existe correlación.
Si bien la correlación puede ser un indicativo valioso de relaciones
potenciales entre variables, es la causalidad la que proporciona un
entendimiento más profundo y signicativo. Por lo tanto, al fortalecer la
comprensión de estos conceptos, no solo mejoramos la capacidad para
96
interpretar información, sino que incluso se contribuye al desarrollo de un
análisis más consciente y responsable en todas las áreas del conocimiento.
Entre los aspectos claves de este compendio, se ahondó en la
investigación de operaciones como disciplina notable para la gestión de
procesos en diversos sectores. Su capacidad para integrar metodologías
analíticas y técnicas de optimización posibilita a las instituciones no solo
mejorar la eciencia de sus operaciones, sino adaptarse a un entorno
empresarial en constante cambio. A través de la aplicación de modelos
matemáticos y herramientas de análisis de datos, la toma de decisiones
informadas maximiza el uso de recursos y mejora la calidad de los servicios.
En conclusión, la complejidad de los sistemas y la necesidad de
soluciones sostenibles, requieren enfoques más sosticados y colaborativos,
es allí donde la integración de inteligencia articial y análisis predictivo en la
investigación de operaciones promete abrir nuevas vías para el desarrollo de
modelos más precisos y efectivos, que no solo optimicen procesos, sino que
también contribuyan a un futuro sostenible. Finalmente, los autores
recomiendan la capacitación continua en análisis estadístico y el enfoque
crítico hacia el uso de heurísticas, fundamentales para garantizar la calidad y
la validez de los resultados de investigación a partir de datos representativos.
97
Bibliografía
AlKhars, M., Evangelopoulos, N., Pavur, R., & Kulkarni, S. (2019). Cognitive
biases resulting from the representativeness heuristic in operations
management: an experimental investigation. Psychology research and behavior
management, 12, 263–276. hps://doi.org/10.2147/PRBM.S193092
Álvarez-Martínez, H., y Pérez-Campos, E. (2004). Causalidad en
medicina. Gaceta médica de México, 140(4), 467-472
Arroyo, I., Bravo M., L.C., Llinás, H., y Muñoz, F.L. (2014). Distribuciones
Poisson y Gamma: Una Discreta y Continua Relación. Prospectiva, 12(1), 99-
107
Ávalos, J.A. y Cepeda, P.M. (2024). Investigación operativa. Ámbito empresarial.
Riobamba: Escuela Superior Politécnica de Chimborazo
Aymerich, À, & Albarracín, L. (2022). Modelización matemática en
actividades estadísticas: Episodios clave para la generación de
modelos. Uniciencia, 36(1), 264-279. hps://dx.doi.org/10.15359/ru.36-1.16
Batanero, C. (2001). Didáctica de la estadística. Granada: Universidad de
Granada
Bueno-Tacuri, A.E., y Jácome-Ortega, M. J. (2021). Gestión de operaciones para
la mejora continua en Organizaciones. Revista Arbitrada Interdisciplinaria
Koinonía, 6(12), 334–365. hps://doi.org/10.35381/r.k.v6i12.1292
Cañavate, P. (24 de agosto de 2021). La heurística de representatividad y los errores
que cometemos en las decisiones económicas. hps://www.esan.edu.pe/conexion-
98
esan/la-heuristica-de-representatividad-y-los-errores-que-cometemos-en-las-
decisiones-economicas
Condado, J.I. (2000). Modelos, métodos numéricos y computadoras. Lima:
Universidad Nacional Mayor de San Marcos
Dimitrov, B. (2021). Los axiomas en mi comprensión a partir de muchos años
de experiencia. Axiomas, 10 (3), 176. hps://doi.org/10.3390/axioms10030176
Duarte, J.E., y Fernández Morales, F. H. (2005). La simulación por computador
en investigación y desarrollo. Tecnura, 8(16), 106-114
Ezquerro, J.A. (2012). Iniciación a los métodos numéricos. Logroño: Universidad
de La Rioja
Feitó Madrigal, D., Portal Boza, M. y Plascencia López, I. (coords.)
(2023). Modelos estadísticos para la investigación cientíca. Aplicaciones en las
áreas económico-administrativas. Comunicación Cientíca. México.
hps://doi.org/10.52501/cc.131
Figueroa, G., y Carrera, L.E. (2012). Métodos Iterativos para Sistemas Lineales
Grandes. (Documento de discusión N°. 5402-1701-0101). Tecnológico de Costa
Rica.
hps://repositoriotec.tec.ac.cr/bitstream/handle/2238/6283/m%C3%A9todos-
iterativos-sistemas-lineales.pdf?sequence=1&isAllowed=y
García-García, J.I., Fernández Coronado, N.A., Arredondo, E.H., & Imilpán
Rivera, I.A. (2022). La distribución binomial: origen histórico y evolución de
sus situaciones problemáticas. Matemáticas , 10 (15), 2680.
hps://doi.org/10.3390/math10152680
99
Huircan, M., y Carmona, K. (2019). Azar y probabilidad. Santiago: Coordinación
Nacional de Educación para Personas Jóvenes y Adultas. Ministerio de
Educación
Mauricio, J.A. (2013). Introducción al análisis de series temporales. Madrid:
Universidad Complutense de Madrid
Pascale, R., y Pascale, G. (2007). toma de decisiones económicas: el aporte
cognitivo en la ruta de Simon, Allais y Tversky y Kahneman. Ciencias
Psicológicas, 1(2), 149-170
Quevedo, F. (2011). Distribución normal. Medwave, 11(5).
hp://doi.org/10.5867/medwave.2011.05.5033
Rodríguez, F.E. & Aguerrea, M. (2024). Statistical Inference in School
Textbooks. An Approach to Statistical Thinking. Uniciencia, 38(1). Available at:
hps://www.revistas.una.ac.cr/index.php/uniciencia/article/view/19135/3096
5
Romaina, J.C. (2012). Estadística experimental. Herramientas para investigación.
Tacna: Universidad Privada de Tacna
Sanabria B.G., & Núñez V.F. (2017). La probabilidad como elemento
orientador de la toma de decisiones. Revista Digital: Matemática, Educación e
Internet, 17(2), 1-13
Sánchez, H., Reyes, C. y Mejía, K. (2018). Manual de términos en investigación
cientíca, tecnológica y humanística. Lima: Universidad Ricardo Palma
Shreer J, y Huecker MR. (2023). Errores de tipo I y tipo II y potencia
estadística. [Actualizado el 13 de marzo de 2023]. En: StatPearls [Internet].
Treasure Island (FL): StatPearls Publishing. Disponible en:
hps://www.ncbi.nlm.nih.gov/books/NBK557530/
100
Simg, R, y Trigueros, M. (2022). El papel de los conceptos geométricos como
base para el aprendizaje del método simplex. Educación matemática, 34(1), 70-
99. hps://doi.org/10.24844/em3401.03
Suñé, A., Fonollosa, J., Fernández, V., y Sallán, J. (2016). Programación lineal:
Métodos cuantitativos para la toma de decisiones. Barcelona: Universidad
Politécnica de Cataluña
Szucs, D., & Ioannidis, J. P.A. (2017). When Null Hypothesis Signicance
Testing Is Unsuitable for Research: A Reassessment. Frontiers in human
neuroscience, 11, 390. hps://doi.org/10.3389/fnhum.2017.00390
Tessler, M. (2023). Análisis multivariante: causalidad, control y
condicionalidad. En: Investigación en ciencias sociales en el mundo árabe y
más allá. SpringerBriefs in Sociology. Springer, Cham.
hps://doi.org/10.1007/978-3-031-13838-6_4
Veiga., N., Otero., L., y Torres., J. (2020). Reexiones sobre el uso de la
estadística inferencial en investigación didáctica. InterCambios. Dilemas y
transiciones de la Educación Superior, 7(2), 94-106.
hps://doi.org/10.2916/inter.7.2.10
Villa-Ochoa, J.A. (2007). La Modelación como Proceso en el Aula de
Matemáticas: Un Marco de Referencia y un Ejemplo. TecnoLógicas, (19), 63-85
Villegas Zamora, D.A. (2019). La importancia de la estadística aplicada para
la toma de decisiones en Marketing. Revista Investigación y Negocios, 12(20), 31-
44
101
De esta edición de “Estadística inferencial para las ciencias exactas”, se
terminó de editar en la ciudad de Colonia del Sacramento en la República
Oriental del Uruguay el 05 de agosto de 2025
102