1
Estadística inferencial para las ciencias sociales
Ricardo Martín Gómez Arce, Blanca Flor Robles Pastor, María del Pilar Ríos García,
Maria Peregrina Cruzado Vallejos, Víctor Humberto Maos Núñez, Julio Mariano
Chávez Milla
© Ricardo Martín Gómez Arce, Blanca Flor Robles Pastor, María del Pilar Ríos García,
Maria Peregrina Cruzado Vallejos, Víctor Humberto Maos Núñez, Julio Mariano
Chávez Milla, 2025
Primera edición: Agosto, 2025
Editado por:
Editorial Mar Caribe
www.editorialmarcaribe.es
Av. General Flores 547, Colonia, Colonia-Uruguay.
Diseño de portada: Yelia Sánchez Cáceres
Libro electrónico disponible en:
hps://editorialmarcaribe.es/ark:/10951/isbn.9789915698229
Formato: electrónico
ISBN: 978-9915-698-22-9
ARK: ark:/10951/isbn.9789915698229
Atribución/Reconocimiento-
NoComercial 4.0 Internacional:
Editorial Mar Caribe, firmante
795 de 12.08.2024 de la
Declaración de Berlín:
Editorial Mar Caribe-Miembro
de OASPA:
Los autores pueden autorizar al
público en general a reutilizar
sus obras únicamente con fines
no lucrativos, los lectores
pueden utilizar una obra para
generar otra, siempre que se
crédito a la investigación, y
conceden al editor el derecho a
publicar primero su ensayo bajo
los términos de la licencia CC
BY-NC 4.0.
"... Nos sentimos obligados a
abordar los retos de Internet como
medio funcional emergente para la
distribución del conocimiento.
Obviamente, estos avances pueden
modificar significativamente la
naturaleza de la publicación
científica, así como el actual
sistema de garantía de calidad...."
(Max Planck Society, ed. 2003.,
pp. 152-153).
Como miembro de la Open
Access Scholarly Publishing
Association, apoyamos el
acceso abierto de acuerdo con
el código de conducta,
transparencia y mejores
prácticas de OASPA para la
publicación de libros
académicos y de investigación.
Estamos comprometidos con
los s altos estándares
editoriales en ética y
deontología, bajo la premisa de
«Ciencia Abierta en América
Latina y el Carib.
2
Editorial Mar Caribe
Estadística inferencial para las ciencias sociales
Colonia, Uruguay
2025
3
Sobre los autores y la publicación
Ricardo Martín Gómez Arce
hps://orcid.org/0000-0003-2763-4399
Universidad Nacional de Trujillo, Pe
Blanca Flor Robles Pastor
hps://orcid.org/0000-0002-7686-2825
Universidad Nacional Toribio Rodríguez de
Mendoza de Amazonas, Perú
María del Pilar Ríos García
hps://orcid.org/0000-0002-0236-6810
Universidad Nacional de Tumbes, Perú
Maria Peregrina Cruzado Vallejos
hps://orcid.org/0000-0001-7809-4711
Universidad César Vallejo, Perú
Víctor Humberto Maos Núñez
hps://orcid.org/0009-0004-6048-2870
Universidad Nacional Toribio Rodríguez de Mendoza
de Amazonas, Pe
Julio Mariano Chávez Milla
hps://orcid.org/0000-0002-2335-8457
Universidad Nacional Toribio Rodríguez de
Mendoza de Amazonas, Perú
Resultado de la investigación del libro:
Publicación original e inédita, cuyo contenido es el resultado de un proceso de investigación
realizado antes de su publicación, ha sido doble ciego de revisión externa por pares, el libro
ha sido seleccionado por su calidad cientíca y porque contribuye signicativamente al área
del conocimiento e ilustra una investigación completamente desarrollada y completada.
Además, la publicación ha pasado por un proceso editorial que garantiza su estandarización
bibliográca y usabilidad.
Sugerencia de citación: Gómez, R.M., Robles, B.F., Ríos, M., Cruzado, M.P., Maos, V.H., y
Chávez, J.M. (2025). Estadística inferencial para las ciencias sociales. Colonia del Sacramento:
Editorial Mar Caribe. hps://editorialmarcaribe.es/ark:/10951/isbn.9789915698229
4
Índice
Introducción .............................................................................................. 6
Capítulo I ................................................................................................... 9
Estadística Inferencial en Ciencias Sociales: Fundamentos, Métodos y
Aplicaciones .............................................................................................. 9
1.1 Principios básicos de estadística inferencial .................................... 10
1.2 Evaluación Estadística en Ciencias Sociales: Aplicación de la Prueba
de Bondad de Ajuste Multinomial y la Prueba de Dixon ...................... 15
1.3 Prueba de Cochran-Mantel-Haenszel: Aplicaciones y Relevancia en
las Ciencias Sociales ............................................................................. 24
Capítulo II ............................................................................................... 30
Análisis de Supervivencia en Estudios Demográcos: Metodologías,
Aplicaciones y Futuras Perspectivas ......................................................... 30
2.1 Análisis de Supervivencia en Demografía: Un Estudio Integral ...... 30
2.2 Curvas de Kaplan-Meier: Herramientas Esenciales para el Análisis
de Datos en Ciencias Sociales ............................................................... 36
2.3 Prueba de Rango Logarítmico y la Regresión de Cox: Herramientas
Esenciales para el Análisis en Ciencias Sociales ................................... 42
Capítulo III .............................................................................................. 49
Modelos Dinámicos Poblacionales en Salud Pública: Aplicaciones,
Desafíos y Futuras Perspectivas ............................................................... 49
3.1 Introducción a los modelos dinámicos poblacionales ...................... 49
3.2 Modelado Dinámico Poblacional: Aplicación de Ecuaciones
Diferenciales Ordinarias y Parciales ..................................................... 56
3.3 Sistemas Dinámicos en las Ciencias Sociales: Modelos, Análisis y
Desafíos ............................................................................................... 64
Capítulo IV .............................................................................................. 72
Modelos Descriptivos, Inferenciales y Predictivos en las Ciencias Sociales:
Una Guía para la Investigación y la Toma de Decisiones ......................... 72
4.1 Introducción a los modelos en ciencias sociales .............................. 72
5
4.2 Evaluación de la Normalidad en Ciencias Sociales: Un Análisis de la
Prueba de Shapiro-Wilk y Otras Metodologías .................................... 80
4.3 Estimación de Densidad del Núcleo: Métodos y Aplicaciones en las
Ciencias Sociales .................................................................................. 87
Conclusión ............................................................................................... 95
Bibliografía .............................................................................................. 98
6
Introducción
En el ámbito de las ciencias sociales, la estadística inferencial juega un
papel decisivo, discernir y armar sobre grupos más amplios a partir del
análisis de un subconjunto de estos, esto es especialmente relevante en
disciplinas como la sociología, la psicología, la economía y la educación,
donde a menudo es impracticable o imposible recopilar datos de toda la
población. La capacidad de realizar inferencias válidas a partir de muestras
adecuadamente seleccionadas es esencial para la elaboración de políticas, la
evaluación de programas y la comprensión de fenómenos sociales complejos.
El principio clave de la estadística inferencial es la relación entre la
muestra y la población, pues, la selección adecuada de la muestra es
concluyente, ya que una muestra mal seleccionada puede llevar a
consumaciones erróneas. Existen diversos métodos de muestreo, incluidos el
muestreo aleatorio, el muestreo estraticado y el muestreo por conveniencia,
cada uno con sus ventajas y desventajas en función del tipo de estudio que se
esté llevando a cabo.
A tener en cuenta, distinguir entre estadística descriptiva e inferencial,
la primera se enfoca en la recopilación, organización y presentación de datos
de manera que se facilite su comprensión, utilizando herramientas como
grácos, tablas y medidas de tendencia central. En contraste, la estadística
inferencial se centra en el análisis y la interpretación de los datos. Es decir, si
bien que la primera se limita a describir lo que se observa, la segunda
condesciende en predecir y concluir, basada en evidencias, lo que es vital para
la toma de decisiones informadas en el ámbito social.
7
A través del análisis de datos históricos y actuales, los académicos
consiguen identicar correlaciones y patrones que contribuyen a una mejor
comprensión de fenómenos sociales complejos, como la migración, la
violencia, la tasa de mortalidad o el consumo de sustancias en un espacio
muestral. Mediante que el uso de modelos de regresión, evalúa la relación
entre diferentes variables y predice tendencias en función del tiempo.
A través de los cuatro capítulos que componen el libro: Fundamentos
de la estadística inferencial, análisis de supervivencia en estudios
demográcos, modelos dinámicos y toma de decisiones a partir de lo
inferencial; se esbozan las aplicaciones prácticas de la estadística inferencial
en la investigación social, el análisis de políticas públicas, y el estudio de
tendencias de comportamiento que destacan su relevancia en la comprensión
y mejora de la sociedad. En este sentido, la inferencia no es más que una
competencia indispensable para los investigadores, para abordar preguntas
complejas y contribuir al desarrollo de soluciones basadas en evidencia.
El objetivo de la investigación, evaluar los fundamentos de la
estadística inferencial para el análisis de las ciencias sociales, guía de
investigación y toma de decisiones informadas, con énfasis en tres de los
métodos más utilizados en la inferencia estadística: las pruebas de hipótesis,
los intervalos de conanza, y la regresión y correlación.
Además, se exploran las distribuciones más comunes en inferencia
estadística como la distribución normal, binomial, t de Student, entre otras.
Por lo que se busca trascender en un marco interpretativo y literario de los
resultados basados en datos representativos o no. Por ende, la comprensión
de cómo funcionan estas distribuciones y cómo se aplican en el contexto de la
8
investigación social es clave para cualquier analista de datos en las ciencias
sociales.
9
Capítulo I
Estadística Inferencial en Ciencias Sociales:
Fundamentos, Métodos y Aplicaciones
La estadística inferencial permite a los académicos hacer
generalizaciones y tomar decisiones sobre una población más amplia
basándose en un conjunto limitado de datos. A través de diversas técnicas y
métodos, esta disciplina proporciona las herramientas necesarias para
analizar muestras, estimar parámetros poblacionales y probar hipótesis,
convirtiéndose en un componente esencial dentro del ámbito de las ciencias
sociales.
La estadística inferencial se dene como el proceso de utilizar datos de
una muestra para hacer inferencias o conclusiones sobre una población más
grande. A diferencia de la estadística descriptiva, que se enfoca en resumir y
describir las características de un conjunto de datos, la estadística inferencial
se basa en la teoría de la probabilidad y permite realizar estimaciones,
predicciones y pruebas de hipótesis (Barreto, 2012). Este enfoque es decisivo
en las ciencias sociales, donde las poblaciones pueden ser grandes y
complejas, y donde estudiar a todos los individuos puede ser impracticable o
imposible.
La estadística inferencial desempeña un papel crucial en las ciencias
sociales, ya que muchas investigaciones en este ámbito buscan comprender
fenómenos a partir de muestras representativas. A través de la inferencia
estadística, los académicos pueden extraer conclusiones que no solo son
10
válidas para la muestra estudiada, sino que incluso se pueden generalizar a la
población en su conjunto. Esto es vital para la formulación de políticas, la
evaluación de programas y la comprensión de dinámicas sociales, entre otros
aspectos.
Para entender cómo se utilizan los datos en la investigación, es
fundamental conocer las diferencias entre estadística descriptiva e inferencial.
La estadística descriptiva se centra en la recopilación, presentación y resumen
de datos a través de medidas como la media, la mediana y la desviación
estándar, sin hacer inferencias s allá de los datos observados. En contraste,
la estadística inferencial se adentra en el análisis y la interpretación de los
datos, permitiendo a los académicos aplicar técnicas de muestreo y pruebas
estadísticas para realizar generalizaciones y tomar decisiones informadas
basadas en datos limitados.
1.1 Principios básicos de estadística inferencial
Para comprender cómo se aplica la estadística inferencial en las ciencias
sociales, es fundamental explorar sus principios básicos, que incluyen el
muestreo y la población, la estimación de parámetros y las pruebas de
hipótesis. El muestreo es el proceso mediante el cual se selecciona un
subconjunto de individuos o elementos de una población más grande para
realizar un estudio. La población se reere al conjunto completo de individuos
que comparten características comunes y sobre los cuales se desea obtener
información (López, 2004). En las ciencias sociales, las poblaciones pueden ser
diversas, desde grupos demográcos especícos hasta comunidades enteras.
Existen varios métodos de muestreo, como el muestreo aleatorio
simple, el muestreo estraticado y el muestreo por conveniencia, cada uno
con sus ventajas y desventajas. La elección del método de muestreo inuye
11
directamente en la representatividad de la muestra y, por ende, en la validez
de las inferencias realizadas. Un muestreo adecuado asegura que los
resultados sean generalizables a la población objetivo, lo que es crucial para
la investigación en ciencias sociales.
Una vez que se ha obtenido una muestra, el siguiente paso es estimar
parámetros poblacionales, como la media, la varianza o la proporción. La
estimación puede ser puntual o por intervalo. La estimación puntual
proporciona un único valor como mejor estimación del parámetro, mientras
que la estimación por intervalo ofrece un rango dentro del cual se espera que
se encuentre el parámetro poblacional con un cierto nivel de conanza.
Para ilustrar, si un investigador desea estimar la media de ingresos de
un grupo social especíco, puede calcular la media de ingresos a partir de una
muestra y utilizarla como una estimación puntual. Sin embargo, para
proporcionar un contexto más robusto, el investigador de igual forma podría
calcular un intervalo de conanza, que le permitiría comunicar la
incertidumbre asociada a esa estimación.
Las pruebas de hipótesis son una herramienta fundamental en la
estadística inferencial que autoriza a los académicos evaluar armaciones
sobre la población basándose en los datos de la muestra. Este proceso implica
formular una hipótesis nula (H0), que generalmente representa una
armación de "no efecto" o "no diferencia", y una hipótesis alternativa (H1),
que sugiere lo contrario.
A través de la recolección de datos y el análisis estadístico, los
académicos pueden determinar si hay suciente evidencia en la muestra para
rechazar la hipótesis nula a favor de la alternativa. Esto se realiza mediante el
cálculo de un valor p, que indica la probabilidad de observar los datos si la
12
hipótesis nula es verdadera. Un valor p bajo (comúnmente menor a 0.05)
sugiere que hay evidencia suciente para rechazar la hipótesis nula.
En síntesis, los principios básicos de la estadística inferencial, que
incluyen el muestreo y la población, la estimación de parámetros y las pruebas
de hipótesis, son fundamentales para realizar investigaciones válidas y
signicativas en las ciencias sociales. A través de estos métodos, los
académicos pueden obtener conclusiones más amplias sobre fenómenos
sociales complejos y contribuir al entendimiento de las dinámicas que rigen
las interacciones humanas.
La estadística inferencial ofrece una variedad de métodos analíticos
que consienten a los académicos obtener conclusiones signicativas a partir
de datos muestrales. Estos métodos son fundamentales para el análisis de
datos en ciencias sociales, ya que permiten la generalización de hallazgos a
poblaciones más amplias.
El análisis de regresión es una técnica que acepta examinar la relación
entre una variable dependiente y una o más variables independientes. Este
método es particularmente útil para predecir valores y comprender la
naturaleza de las relaciones entre variables (Hernández, 2012). En las ciencias
sociales, se utiliza para estudiar cómo factores como la educación, el ingreso
y el entorno social pueden inuir en variables como el bienestar, la salud o el
comportamiento de las personas. Existen diferentes tipos de análisis de
regresión, incluyendo la regresión lineal simple y múltiple, así como la
regresión logística, que se emplea cuando la variable dependiente es
categórica.
El análisis de varianza, conocido como ANOVA, es un método
estadístico que permite comparar las medias de tres o más grupos para
13
determinar si existen diferencias signicativas entre ellos. Este enfoque es
esencial en investigaciones sociales donde se busca entender el impacto de
diferentes tratamientos o condiciones en un resultado especíco. Lo más
importante, un investigador podría utilizar ANOVA para evaluar si hay
diferencias en el rendimiento académico entre estudiantes de diferentes
programas educativos. ANOVA se basa en la partición de la variabilidad total
en componentes atribuibles a diferentes fuentes, lo que transige evaluar la
hipótesis nula de que todas las medias son iguales.
Los modelos de efectos mixtos son herramientas poderosas que
combinan efectos jos y aleatorios, permitiendo a los académicos manejar la
complejidad de los datos que involucran múltiples niveles de agrupamiento.
Estos modelos son especialmente útiles en el análisis de datos jerárquicos,
donde las observaciones pueden estar anidadas dentro de grupos, como
estudiantes dentro de escuelas o pacientes dentro de hospitales. En el contexto
de las ciencias sociales, los modelos de efectos mixtos acceden ajustar por
variabilidad entre grupos y, a la vez, evaluar el impacto de variables a nivel
individual. Esto proporciona una comprensión más matizada de las
dinámicas sociales y permite hacer inferencias más robustas.
Los métodos de análisis en estadística inferencial son esenciales para el
desarrollo de investigaciones signicativas en las ciencias sociales. Estos
métodos no solo aprueban a los académicos realizar inferencias sobre
poblaciones a partir de muestras, sino que asimismo facilitan la comprensión
de relaciones complejas entre variables. La elección del método adecuado
dependerá de la naturaleza de los datos y de las preguntas de investigación
planteadas.
14
La estadística inferencial se ha convertido en una herramienta
indispensable en el ámbito de las ciencias sociales. Su capacidad para hacer
generalizaciones sobre una población a partir de una muestra autoriza a los
académicos obtener conclusiones signicativas y fundamentadas. Esto es
especialmente crucial en un campo donde las dinámicas sociales son
complejas y multifacéticas (Veiga et al., 2020). Al aplicar métodos
inferenciales, los académicos pueden identicar tendencias, relaciones y
patrones que serían imposibles de discernir a partir de datos descriptivos
aislados. Por lo tanto, la estadística inferencial no solo dignica el análisis de
fenómenos sociales, sino que todavía proporciona una base sólida para la
formulación de políticas y la toma de decisiones informadas.
A pesar de su importancia, la interpretación de los resultados
obtenidos a través de la estadística inferencial presenta varios desafíos, es
decir, la signicación estadística no siempre implica relevancia práctica; es
crucial que los académicos consideren el contexto social y cultural en el que
se inscriben sus hallazgos. Además, la dependencia de modelos estadísticos
puede llevar a la omisión de variables importantes que afectan los resultados.
Por ello, es fundamental que los académicos mantengan una actitud crítica y
reexiva respecto a sus análisis y estén dispuestos a revisar sus conclusiones
a la luz de nueva evidencia o cambios en el contexto.
Es evidente que la estadística inferencial seguirá evolucionando,
especialmente con el avance de la tecnología y el aumento de la disponibilidad
de datos. El uso de técnicas de análisis más sosticadas, como el aprendizaje
automático y la inteligencia articial, permitirá a los académicos abordar
preguntas complejas de manera más eciente y precisa. Además, la
integración de enfoques interdisciplinarios y la colaboración entre cientícos
sociales y estadísticos será decisivo para enriquecer el análisis de datos y
15
mejorar la validez de las inferencias realizadas. La creciente importancia de la
transparencia y la reproducibilidad en la investigación también impulsará un
cambio hacia prácticas más rigurosas y éticas en la aplicación de la estadística
inferencial.
Las estadística inferencial no solo es esencial para la investigación
social actual, sino que también se encuentra en un punto de inexión que
promete transformar la forma en que entendemos y analizamos el
comportamiento humano y las dinámicas sociales en procesos por venir.
1.2 Evaluación Estadística en Ciencias Sociales: Aplicación de la
Prueba de Bondad de Ajuste Multinomial y la Prueba de Dixon
En el ámbito de las ciencias sociales, las pruebas estadísticas
desempeñan un papel fundamental en la interpretación y análisis de datos.
Estas herramientas aceptan a los académicos evaluar hipótesis, identicar
patrones y realizar inferencias sobre la población a partir de muestras
limitadas. La importancia de las pruebas estadísticas radica en su capacidad
para proporcionar evidencias empíricas que respaldan las teorías y
suposiciones formuladas en investigaciones sociales.
Las pruebas estadísticas son esenciales para garantizar la validez y la
conabilidad de los resultados en las ciencias sociales. A través de estas
pruebas, los académicos pueden determinar si las diferencias observadas en
los datos son signicativas o si podrían ser el resultado del azar. Esto es
especialmente crítico en campos como la sociología, la psicología y la
economía, donde las decisiones basadas en datos pueden tener un impacto
signicativo en políticas públicas y prácticas sociales. Además, las pruebas
estadísticas consienten a los académicos explorar relaciones complejas entre
variables, ayudando a desentrañar la naturaleza de fenómenos sociales.
16
Los objetivos de la investigación en ciencias sociales son diversos y
multidimensionales. En general, buscan comprender procederes, actitudes y
estructuras sociales. A través de métodos cuantitativos, los académicos
pueden formular y probar hipótesis, contribuyendo al desarrollo de teorías
que expliquen fenómenos sociales. Asimismo, los estudios en ciencias sociales
a menudo están orientados a la identicación de problemas sociales, la
evaluación de programas o políticas y la promoción de cambios positivos en
la sociedad. En este contexto, contar con herramientas estadísticas adecuadas
es indispensable para alcanzar resultados signicativos y relevantes.
Dentro de las diversas pruebas estadísticas disponibles, la prueba de
bondad de ajuste multinomial y la prueba de Dixon son dos herramientas
útiles que se aplican en contextos especícos de investigación social. La
prueba de bondad de ajuste multinomial se utiliza para determinar si la
distribución observada de una variable categórica se ajusta a una distribución
teórica esperada, permitiendo a los académicos evaluar hipótesis relacionadas
con la distribución de los datos.
Por otro lado, la prueba de Dixon es especialmente valiosa en la
detección de valores atípicos en un conjunto de datos. En ciencias sociales,
donde los datos pueden estar inuenciados por diversos factores, identicar
y manejar estos valores extremos es crucial para asegurar que los análisis
reejen con precisión la realidad social. Ambas pruebas, no obstante distintas
en su enfoque, proporcionan a los académicos herramientas robustas para el
análisis de datos y la toma de decisiones informadas en sus estudios.
La prueba de bondad de ajuste multinomial es una herramienta
estadística utilizada para determinar si una serie de observaciones categóricas
se ajustan a una distribución teórica especíca. Esta prueba es esencial cuando
17
se trabaja con variables cualitativas que pueden ser clasicadas en más de dos
categorías (Pérez, 2004). A diferencia de la prueba de bondad de ajuste chi-
cuadrado, que se aplica a distribuciones binomiales, la prueba multinomial
transige analizar múltiples categorías simultáneamente.
Tricamente, la prueba se fundamenta en la comparación entre la
frecuencia observada de cada categoría y la frecuencia esperada, que se
calcula según una distribución teórica. Se utiliza la siguiente fórmula para
calcular la estadística de prueba:
\[
X^2 = \sum \frac{(O_i - E_i)^2}{E_i}
\]
donde \( O_i \) representa la frecuencia observada en la categoría \( i \) y \(
E_i \) es la frecuencia esperada. El resultado se compara con una distribución
chi-cuadrado con \( k-1 \) grados de libertad, donde \( k \) es el número de
categorías.
La prueba de bondad de ajuste multinomial es ampliamente utilizada
en las ciencias sociales para analizar datos categóricos. En particular, en
estudios de opinión pública, los académicos pueden desear saber si la
distribución de respuestas a una encuesta se ajusta a una distribución
esperada en función de teorías previas o investigaciones anteriores.
Asimismo, en estudios demográcos, esta prueba puede ayudar a identicar
si las proporciones de diferentes grupos socioeconómicos en una muestra
coinciden con las proporciones en la población general.
Además, en investigaciones sobre comportamiento del consumidor,
esta prueba permite a los analistas vericar si la distribución de preferencias
18
de productos se alinea con las expectativas basadas en datos de mercado
anteriores. La versatilidad de la prueba de bondad de ajuste multinomial la
convierte en una herramienta invaluable para validar hipótesis y teorías en
diversas áreas dentro de las ciencias sociales. Para ilustrar la aplicación de la
prueba de bondad de ajuste multinomial, consideremos un estudio que
investiga las preferencias de los consumidores en cuanto a tipos de bebidas
(agua, refrescos, jugos y té). Supongamos que, en una encuesta de 200
personas, se obtuvieron las siguientes frecuencias observadas:
- Agua: 50
- Refrescos: 70
- Jugos: 40
- Té: 40
Los académicos, basándose en datos de mercado previos, establecen las
siguientes frecuencias esperadas, suponiendo que las preferencias deberían
ser equitativas entre las cuatro opciones:
- Agua: 50
- Refrescos: 50
- Jugos: 50
- Té: 50
Utilizando la fórmula de la estadística de prueba, calculamos \( X^2 \):
\[
X^2 = \frac{(50 - 50)^2}{50} + \frac{(70 - 50)^2}{50} + \frac{(40 - 50)^2}{50} +
\frac{(40 - 50)^2}{50}
19
\]
\[
X^2 = 0 + \frac{400}{50} + \frac{100}{50} + \frac{100}{50} = 0 + 8 + 2 + 2 = 12
\]
Con 3 grados de libertad (4 categorías - 1), el valor crítico de \( X^2 \)
se puede consultar en una tabla de chi-cuadrado. Si el valor calculado de 12
excede el valor crítico, se rechazará la hipótesis nula, sugiriendo que las
preferencias de los consumidores no se ajustan a la distribución esperada. Este
tipo de análisis es crucial para comprender mejor las dinámicas del
comportamiento del consumidor y las tendencias en el mercado, aportando
valiosas percepciones para la toma de decisiones estratégicas en el ámbito
social y comercial.
La prueba de Dixon, también conocida como la prueba del rango de
Dixon o el test de Dixon para la detección de valores atípicos, es un método
estadístico diseñado para identicar observaciones que se desvían
signicativamente del resto de un conjunto de datos. Esta prueba es
particularmente valiosa en el ámbito de las ciencias sociales, donde los datos
pueden verse afectados por errores de medición o por la inuencia de valores
extremos.
La metodología de la prueba de Dixon se basa en el cálculo de un
estadístico que compara la diferencia entre el valor sospechoso y el valor más
cercano del conjunto de datos. Se considera un valor atípico si esta diferencia
es lo sucientemente grande en relación con la dispersión de los datos. La
prueba puede aplicarse tanto a conjuntos de datos pequeños como a grandes,
20
si bien es más efectiva cuando el tamaño de la muestra es reducido
(Mendenhall et al., 2010).
En las ciencias sociales, la prueba de Dixon se utiliza para limpiar los
datos antes de realizar análisis más complejos. En efecto, en estudios de
encuestas, un investigador podría encontrar respuestas que no se alinean con
el comportamiento esperado o con la lógica del contexto social. La
identicación y eliminación de estos valores atípicos puede mejorar la
precisión de los análisis subsecuentes, permitiendo que las conclusiones que
se extraigan sean más representativas de la población estudiada.
Además, esta prueba es útil en la validación de modelos estadísticos,
donde la presencia de valores extremos puede inuir en la estimación de
parámetros y en la inferencia estadística. Por lo tanto, su aplicación es esencial
para garantizar la integridad de los resultados en investigaciones que abordan
temas como la pobreza, la educación, la salud pública y otros fenómenos
sociales.
Para ilustrar la aplicación de la prueba de Dixon, consideremos un
estudio que investiga los niveles de satisfacción laboral entre empleados de
una empresa. Supongamos que, tras la recolección de datos, se obtiene una
serie de puntuaciones de satisfacción en una escala del 1 al 10. Al analizar los
datos, el investigador encuentra una puntuación de 1 que parece anómala en
comparación con las demás, que oscilan entre 6 y 10.
Aplicando la prueba de Dixon, se calcularía la diferencia entre la
puntuación de 1 y la puntuación más cercana, que es 6. Si esta diferencia es
sucientemente signicativa en relación con la variabilidad del conjunto de
datos, la puntuación de 1 se clasicaría como un valor atípico. En este caso, el
investigador podría decidir excluir esta observación del análisis para evitar
21
que afecte la interpretación de los resultados sobre la satisfacción laboral de
los empleados.
Este ejemplo resalta la importancia de la prueba de Dixon en el análisis
de datos sociales, ya que permite a los académicos abordar de manera
sistemática y rigurosa la presencia de valores extremos, asegurando que sus
conclusiones reejen con mayor precisión la realidad social que se estudia. La
prueba de bondad de ajuste multinomial y la prueba de Dixon son
herramientas estadísticas que, pese a que comparten el objetivo de analizar
datos en el contexto de las ciencias sociales, presentan diferencias
fundamentales en su enfoque y aplicación.
La prueba de bondad de ajuste multinomial se utiliza principalmente
para determinar si las proporciones observadas en diferentes categorías de un
conjunto de datos se ajustan a las proporciones esperadas bajo una hipótesis
nula. Es una prueba que evalúa la adecuación de un modelo teórico frente a
los datos empíricos, siendo especialmente útil en situaciones donde las
variables son categóricas y se busca entender la distribución de frecuencias.
En contraste, la prueba de Dixon es una prueba de detección de valores
atípicos, diseñada para identicar anomalías en datos que se distribuyen
normalmente. Su objetivo es asegurar la integridad de los datos antes de
realizar un análisis más profundo, enfocándose en la identicación de puntos
de datos que se desvían signicativamente del resto de la muestra. Mientras
que la prueba multinomial se centra en la relación entre categorías y sus
frecuencias, la prueba de Dixon se ocupa de la calidad de los datos,
asegurando que los resultados obtenidos no estén sesgados por la presencia
de valores atípicos.
22
La elección entre la prueba de bondad de ajuste multinomial y la
prueba de Dixon depende en gran medida del tipo de datos que se están
analizando y de los objetivos especícos de la investigación. La prueba
multinomial es ideal cuando se desea comparar distribuciones observadas con
distribuciones esperadas, especialmente en estudios donde las variables son
categóricas y se busca validar modelos teóricos (Romaina, 2012).
Especícamente, en una investigación sobre preferencias políticas, un
investigador podría utilizar la prueba multinomial para ver si la distribución
de votos se ajusta a lo que se esperaría según encuestas previas.
Por otro lado, la prueba de Dixon resulta s apropiada en situaciones
donde se sospecha que pueden existir valores atípicos que puedan
distorsionar los resultados. La idea central es, en estudios de salud pública,
donde se analizan datos de ingresos o condiciones de salud, la presencia de
un valor atípico puede inuir signicativamente en la media y, por lo tanto,
en las conclusiones del estudio. En tales casos, aplicar la prueba de Dixon
antes de realizar otras pruebas estadísticas es fundamental para garantizar la
validez de los resultados.
Ambas pruebas ofrecen herramientas valiosas para los académicos en
ciencias sociales, cada una con su propia relevancia y aplicación. La prueba
de bondad de ajuste multinomial acepta a los académicos validar teorías y
modelos, lo que es esencial para el avance del conocimiento en el campo. Al
proporcionar evidencia empírica sobre la distribución de datos categóricos,
ayuda a fundamentar decisiones y políticas basadas en esos hallazgos.
Por su parte, la prueba de Dixon juega un papel crucial en el
aseguramiento de la calidad de los datos. En las ciencias sociales, donde los
datos a menudo provienen de encuestas o estudios observacionales, la
23
identicación y gestión de valores atípicos es esencial para garantizar la
abilidad de las conclusiones. La capacidad de detectar y tratar estos valores
atípicos admite a los académicos presentar resultados más robustos y
conables, lo que a su vez fortalece la credibilidad de la investigación en
ciencias sociales. Tanto la prueba de bondad de ajuste multinomial como la
prueba de Dixon son esenciales en el arsenal estadístico de los académicos
sociales, y su correcta aplicación puede tener un impacto signicativo en la
calidad y la validez de las conclusiones obtenidas en estudios sociales.
La aplicación de pruebas estadísticas, como la prueba de bondad de
ajuste multinomial y la prueba de Dixon, juega un papel crucial en la
validación y análisis de datos en las ciencias sociales. La prueba de bondad de
ajuste multinomial permite a los académicos evaluar si un conjunto de datos
se ajusta a una distribución esperada, facilitando la comprensión de patrones
en la conducta social. Por otro lado, la prueba de Dixon se ha destacado como
una herramienta ecaz para identicar y manejar valores atípicos, lo que es
fundamental para mantener la integridad de los análisis en contextos donde
los datos pueden ser susceptibles a anomalías.
Las implicaciones de estas herramientas estadísticas son signicativas
para el campo de las ciencias sociales. Una correcta aplicación de la prueba de
bondad de ajuste multinomial puede ayudar a los académicos a realizar
inferencias más precisas sobre la población estudiada, lo que a su vez puede
inuir en la formulación de políticas y en la comprensión de fenómenos
sociales complejos. Además, el uso de la prueba de Dixon es vital para
asegurar que los resultados obtenidos no se vean distorsionados por valores
extremos, permitiendo así conclusiones más robustas y conables.
24
Es fundamental que los académicos en ciencias sociales continúen
explorando y perfeccionando el uso de estas pruebas estadísticas. Se sugiere
llevar a cabo estudios comparativos que evalúen la ecacia de la prueba de
bondad de ajuste multinomial y la prueba de Dixon en diferentes contextos
sociales y culturales. Asimismo, la integración de estas pruebas en
metodologías mixtas podría ofrecer una perspectiva más holística sobre los
fenómenos estudiados. Por último, se invita a la comunidad académica a
investigar nuevas adaptaciones y combinaciones de estas pruebas para
abordar los desafíos emergentes en el análisis de datos sociales, garantizando
que las herramientas estadísticas evolucionen junto con las complejidades de
la realidad social.
1.3 Prueba de Cochran-Mantel-Haenszel: Aplicaciones y
Relevancia en las Ciencias Sociales
La prueba de Cochran-Mantel-Haenszel (CMH) es una herramienta
estadística que transige evaluar la asociación entre dos variables categóricas
mientras se controla por una o más variables de confusión. Esta prueba es
fundamental en el análisis de datos en contextos donde los académicos desean
determinar si existe una relación signicativa entre las variables de interés,
considerando otras variables que podrían inuir en dicha relación (Yu y
Gastwirth, 2008).
La importancia de la prueba CMH en las ciencias sociales radica en su
capacidad para proporcionar resultados más precisos y conables en estudios
observacionales. En campos como la salud pública, la educación y la
sociología, donde los datos son frecuentemente no experimentales y pueden
estar sujetos a múltiples factores confusos, la prueba CMH ofrece una
25
metodología robusta para desentrañar las complejidades de las relaciones
entre variables.
Los autores buscan a través de este capítulo, proporcionar una visión
integral sobre la prueba de Cochran-Mantel-Haenszel, abordando sus
fundamentos estadísticos, sus diversas aplicaciones en las ciencias sociales y
la relevancia de sus resultados. Lo más resaltante, se destacará cómo esta
prueba puede contribuir a una mejor comprensión de fenómenos sociales
complejos y ofrecer recomendaciones para su uso en investigaciones a corto
plazo.
La prueba de Cochran-Mantel-Haenszel (CMH) es una herramienta
estadística fundamental para el análisis de datos en las ciencias sociales,
especialmente cuando se trata de investigar la asociación entre variables
categóricas mientras se controla por otros factores que podrían inuir en la
relación observada. Para comprender su aplicación y utilidad, es necesario
explorar algunos de sus fundamentos estadísticos.
La asociación se reere a la relación que puede existir entre dos
variables. En el contexto de la prueba CMH, se busca determinar si existe una
asociación signicativa entre una variable independiente y una variable
dependiente, considerando la inuencia de una o más variables confusoras.
Las variables confusoras son aquellas que están relacionadas con ambas
variables de interés y que, si no se controlan, pueden sesgar los resultados del
análisis.
La prueba CMH permite evaluar la asociación entre las variables
mientras se ajusta por estos confusores, lo que resulta en estimaciones más
precisas y robustas. A través de la estraticación, se pueden analizar los datos
en subgrupos que son homogéneos respecto a los confusores, facilitando así
26
una evaluación más clara de la relación entre las variables de interés. La
aplicación de la prueba CMH es particularmente útil en estudios
observacionales donde se puede observar la relación entre variables sin
manipularlas. Para utilizar la prueba de manera efectiva, es importante
cumplir con algunos criterios:
i. Diseño de estudio adecuado: La prueba CMH es más adecuada para
estudios que utilizan diseños de tablas de contingencia, donde se
pueden clasicar las observaciones en varias categorías.
ii. Variables categóricas: Las variables a analizar deben ser categóricas,
lo que signica que se agrupan en categorías discretas (por ejemplo,
sí/no, tratamiento/control).
iii. Independencia de las observaciones: Las observaciones dentro de cada
estrato deben ser independientes entre sí. Esto garantiza que los
resultados reejen adecuadamente la relación entre las variables sin
interferencias de datos relacionados.
La interpretación de los resultados obtenidos mediante la prueba CMH
se basa en el cálculo de un estadístico que compara las proporciones
observadas en diferentes grupos. Un valor p asociado al estadístico permite
determinar si la asociación observada es estadísticamente signicativa.
Generalmente, un valor p menor a 0.05 se considera indicativo de una
asociación signicativa, lo que sugiere que la relación entre las variables no es
producto del azar (Kempf, 2005). Además del valor p, es decisivo considerar
la magnitud de la asociación, que puede evaluarse a través de medidas como
el odds ratio (OR). Esta medida proporciona información sobre la fuerza de la
asociación entre las variables y admite realizar inferencias sobre la naturaleza
de la relación.
27
Los fundamentos estadísticos de la prueba CMH son esenciales para su
correcta aplicación en las ciencias sociales. Comprender el concepto de
asociación, los criterios de aplicación y la interpretación de resultados permite
a los académicos utilizar esta herramienta de manera efectiva, contribuyendo
a la obtención de conclusiones más precisas y signicativas en sus estudios.
La prueba de Cochran-Mantel-Haenszel (CMH) es una herramienta
estadística valiosa que encuentra múltiples aplicaciones en el ámbito de las
ciencias sociales. Su capacidad para controlar confusores y evaluar la
asociación entre variables categóricas en diferentes estratos la convierte en
una opción preferida para investigar fenómenos complejos.
En el campo de la salud pública, la prueba CMH se utiliza
frecuentemente para analizar la relación entre factores de riesgo y resultados
de salud, controlando simultáneamente por variables de confusión. En
particular, se ha aplicado en estudios que investigan la relación entre el
consumo de tabaco y la incidencia de enfermedades respiratorias, donde se
controla por la edad y el sexo de los participantes. Al estraticar los datos en
función de estas variables, los académicos pueden obtener estimaciones más
precisas de la asociación entre el tabaquismo y las enfermedades, lo que
permite una mejor comprensión de los riesgos asociados y la formulación de
políticas de salud más efectivas.
En el ámbito educativo, la prueba CMH ha sido utilizada para evaluar
el impacto de diferentes metodologías de enseñanza en el rendimiento
académico de los estudiantes. Para ilustrar, un estudio podría analizar cómo
el uso de tecnologías digitales inuye en los resultados de aprendizaje,
controlando por factores como el nivel socioeconómico y el entorno escolar.
Esta aplicación transige a los académicos desentrañar las dinámicas complejas
28
que afectan el aprendizaje y desarrollar estrategias pedagógicas más efectivas,
adaptadas a las necesidades de diversos grupos de estudiantes.
La sociología, como disciplina centrada en la comprensión de las
interacciones humanas y las estructuras sociales, se benecia enormemente de
la prueba CMH. Un ejemplo de su aplicación es el análisis de la relación entre
el estatus socioeconómico y la participación en actividades comunitarias. Al
estraticar por variables como la edad y el género, los sociólogos pueden
identicar patrones de comportamiento y participación que podrían pasar
desapercibidos en un análisis más simplista. Esto no solo enaltece el
entendimiento de las dinámicas sociales, sino que también proporciona
información valiosa para la formulación de políticas que fomenten la
inclusión y la cohesión social.
En síntesis, la prueba de Cochran-Mantel-Haenszel ofrece un marco
robusto para el análisis de datos en las ciencias sociales, permitiendo a los
académicos abordar preguntas complejas de manera más efectiva. La prueba
CMH se ha convertido en una herramienta clave para analizar las relaciones
entre variables y avanzar en el conocimiento social.
La prueba de Cochran-Mantel-Haenszel (CMH) se ha establecido como
una herramienta fundamental en el análisis estadístico dentro de las ciencias
sociales. Su capacidad para evaluar la asociación entre variables categóricas,
controlando simultáneamente los efectos de variables confusoras, la convierte
en un recurso invaluable en estudios observacionales (Moral y Valle, 2023). Es
importante resaltar cómo la CMH permite desentrañar patrones complejos en
los datos, ofreciendo una forma robusta de analizar la relación entre variables
en múltiples estratos o grupos. Las aplicaciones en salud pública, educación
29
y sociología demuestran su versatilidad y capacidad para abordar preguntas
de investigación trascendentales en contextos variados.
A pesar de su utilidad, la prueba CMH no está exenta de limitaciones.
En primer lugar, su aplicación requiere que se cumplan ciertos supuestos,
como la independencia de las observaciones y el tamaño adecuado de las
muestras, lo que puede representar un desafío en algunos estudios. Además,
la prueba se enfoca en la asociación entre variables sin proporcionar
información sobre la causalidad, lo que puede llevar a interpretaciones
erróneas si no se considera el contexto completo del estudio. Por último, la
CMH puede verse limitada en su capacidad para manejar variables continuas,
lo que restringe su aplicabilidad en ciertos escenarios.
Para maximizar el potencial de la prueba CMH en futuras
investigaciones, es recomendable que los académicos sigan algunas
directrices. En primer lugar, es crucial realizar un diseño riguroso del estudio
que garantice el cumplimiento de los supuestos estadísticos. Además, se
sugiere complementar la CMH con otros métodos estadísticos que permitan
explorar relaciones causales y el efecto de variables continuas. Por último, se
debe fomentar la capacitación en análisis estadístico entre los académicos de
ciencias sociales, asegurando que comprendan tanto las fortalezas como las
limitaciones de la prueba CMH, para que puedan aplicarla de manera
adecuada y efectiva en sus investigaciones.
La prueba de Cochran-Mantel-Haenszel representa una herramienta
poderosa y relevante en el arsenal estadístico de las ciencias sociales. Su
capacidad para desglosar datos complejos y controlar confusores la posiciona
como un recurso esencial para comprender mejor las dinámicas sociales y
contribuir a la formulación de políticas basadas en evidencia
30
Capítulo II
Análisis de Supervivencia en Estudios Demográcos:
Metodologías, Aplicaciones y Futuras Perspectivas
2.1 Análisis de Supervivencia en Demografía: Un Estudio
Integral
El análisis de supervivencia es una técnica estadística fundamental en
el campo de la demografía y otras disciplinas sociales, utilizada para estudiar
el tiempo hasta que ocurre un evento de interés, como la muerte, el
matrimonio o la enfermedad. A través de este enfoque, los académicos
pueden examinar no solo si un evento sucede, sino de igual forma cuándo
tiene lugar, proporcionando una visión más profunda sobre la dinámica de
las poblaciones y sus características.
El análisis de supervivencia se reere a un conjunto de métodos
estadísticos diseñados para analizar datos donde el resultado de interés es el
tiempo hasta que ocurre un evento especíco. Este campo se originó en la
medicina, donde se utilizaba para estudiar el tiempo hasta la muerte de
pacientes o la aparición de enfermedades (Arribalzaga, 2007). Ahora bien, su
aplicación ha crecido en otras áreas, incluidas la biología, la economía y, por
supuesto, la demografía. En este contexto, el evento de interés puede ser la
mortalidad, el cambio de estado civil, la migración, entre otros.
La relevancia del análisis de supervivencia en la demografía radica en
su capacidad para proporcionar información valiosa sobre la estructura y el
comportamiento de las poblaciones. A través de este análisis, los demógrafos
31
pueden identicar patrones de mortalidad, evaluar la esperanza de vida y
analizar cómo factores como la edad, el género y el nivel socioeconómico
inuyen en la longevidad. Además, el análisis de supervivencia admite el
estudio de cohortes especícas y el seguimiento de cambios en el tiempo, lo
que resulta esencial para la planicación de políticas públicas y la asignación
de recursos.
El análisis de supervivencia se centra en la duración del tiempo hasta
que ocurre un evento de interés, típicamente la muerte, pero asimismo puede
incluir cualquier otro evento, como el fracaso de un tratamiento o la recaída
de una enfermedad. Para llevar a cabo este análisis, existen diversas
metodologías que permiten a los académicos modelar y entender los patrones
de supervivencia en diferentes poblaciones.
Los modelos de regresión de Cox, todavía conocidos como modelos de
riesgos proporcionales de Cox, son una de las herramientas más poderosas en
el análisis de supervivencia. Este enfoque semiparamétrico permite examinar
la relación entre la duración hasta el evento y una o más variables
independientes, sin la necesidad de especicar la forma de la función de
riesgo. Esto signica que los académicos pueden identicar qué factores
aumentan o disminuyen el riesgo de un evento, mientras se controlan otras
variables.
La popularidad del modelo de Cox radica en su exibilidad y
capacidad para manejar datos censurados, es decir, casos en los que el evento
no ha ocurrido durante el periodo de estudio. Lo más importante, en estudios
demográcos, este modelo puede utilizarse para analizar cómo factores como
la edad, el género o el nivel educativo afectan la tasa de mortalidad en
diferentes grupos poblacionales.
32
El análisis de Kaplan-Meier es otra técnica fundamental en el análisis
de supervivencia, especialmente útil para estimar la función de supervivencia
a partir de datos censurados. Esta metodología transige representar
grácamente la probabilidad de supervivencia en el tiempo y es
particularmente valiosa en estudios donde los programas de interés son
relativamente raros.
La curva de supervivencia de Kaplan-Meier se construye a partir de los
tiempos de evento y de censura, proporcionando una visualización clara de
cómo las tasas de supervivencia cambian con el tiempo. Además, permite
realizar comparaciones entre diferentes grupos, utilizando la prueba de log-
rank para evaluar si las diferencias observadas son estadísticamente
signicativas (Errandonea, 2024). Esto es especialmente relevante en el
análisis demográco, donde se pueden comparar tasas de supervivencia entre
diferentes cohortes o condiciones socioeconómicas.
Los métodos paramétricos en el análisis de supervivencia suponen que
la duración hasta el evento sigue una distribución especíca, como la normal,
exponencial o Weibull. Estas metodologías pueden ser particularmente útiles
cuando se tienen razones teóricas o empíricas para creer que los datos se
ajustan a una determinada distribución.
Los modelos paramétricos suelen ser más ecientes que los no
paramétricos cuando se cumplen sus supuestos, ya que pueden proporcionar
estimaciones más precisas y, en algunos casos, permitir la inclusión de
covariables de manera más directa. Aun así, su uso requiere una validación
cuidadosa de los supuestos de distribución, lo que puede ser un desafío en
aplicaciones demográcas donde la naturaleza de los datos puede ser
compleja. Estas metodologías ofrecen herramientas valiosas para comprender
33
y modelar la duración hasta el evento en estudios demográcos, permitiendo
a los académicos extraer conclusiones signicativas sobre los patrones de
supervivencia en diversas poblaciones y contextos.
El análisis de supervivencia ha demostrado ser una herramienta
invaluable en el ámbito de la demografía, permitiendo a los académicos
obtener una comprensión más profunda de diferentes fenómenos
relacionados con la vida y la muerte en las poblaciones.
El análisis de supervivencia es fundamental para el estudio de las tasas
de mortalidad en diversas poblaciones. A través de la utilización de técnicas
como el modelo de regresión de Cox y el análisis de Kaplan-Meier, los
demógrafos pueden estimar la probabilidad de supervivencia en distintos
grupos poblacionales en el tiempo. Esto resulta particularmente útil para
identicar variaciones en la mortalidad según factores como la edad, el género
y el entorno socioeconómico. Así como, se ha observado que las tasas de
mortalidad pueden diferir signicativamente entre regiones urbanas y
rurales, lo que indica la inuencia de la ubicación geográca y las condiciones
de vida sobre la supervivencia.
Otro aspecto relevante del análisis de supervivencia es su aplicación en
el estudio de la longevidad. Los académicos pueden utilizar estas
metodologías para identicar factores que contribuyen a una vida más larga
en diferentes comunidades. A través del análisis de cohortes, se pueden
observar las características comunes de aquellos individuos que alcanzan
edades avanzadas, así como las condiciones de salud y estilos de vida que
prevalecen en estas poblaciones longevas. Este tipo de análisis puede
proporcionar información valiosa para el desarrollo de políticas de salud
34
pública y programas de bienestar que fomenten hábitos de vida saludables y
mejoren la calidad de vida en la vejez.
El análisis de supervivencia también admite examinar el impacto de
factores socioeconómicos en la mortalidad y la longevidad, los estudios que
incorporan variables como el nivel educativo, el ingreso y el acceso a servicios
de salud han revelado que las desigualdades socioeconómicas tienen un
efecto signicativo en la esperanza de vida (Hincapié y Londoño, 2023). Vale
la pena mencionar que las personas con niveles educativos más bajos y tasas
de pobreza más altas también suelen tener tasas de mortalidad más altas.
Este tipo de análisis ayuda a iluminar algunas disparidades en salud;
así que al menos ahora hay hechos, incluso si nuestros líderes no pueden
resistirse a proporcionar un servicio de palabra para la causa de la justicia en
salud pública. Mientras tanto, el análisis de supervivencia puede utilizarse en
muchos casos de estudios demográcos, desde el estudio de las tasas de
mortalidad hasta la comprensión de la longevidad y los factores de impacto
para varios grupos económicos.
Estas aplicaciones son fundamentales para abordar las desigualdades
en salud y mejorar la calidad de vida de las poblaciones. Además, hemos
analizado aplicaciones especícas en estudios demográcos, como la
evaluación de tasas de mortalidad, el análisis de longevidad y el impacto de
factores socioeconómicos. Estos estudios no solo ayudan a comprender mejor
las dinámicas poblacionales, sino que también informan políticas de salud
pública y estrategias de intervención dirigidas a mejorar la calidad de vida y
la esperanza de vida en diferentes contextos socioculturales.
A pesar de los avances en el análisis de supervivencia, persisten varios
retos que limitan su aplicación y efectividad, en muchas regiones, la falta de
35
registros precisos sobre mortalidad y condiciones socioeconómicas diculta
la realización de análisis robustos. Además, la heterogeneidad en las
poblaciones puede complicar la interpretación de los resultados, ya que los
factores que afectan la supervivencia pueden variar signicativamente entre
diferentes grupos demográcos.
Otra dicultad consiste en la sosticación inherente a los modelos
estadísticos empleados en el análisis de supervivencia. Aunque herramientas
como el modelo de Cox son poderosas, requieren un nivel considerable de
conocimiento estadístico y comprensión de los supuestos subyacentes. Esto
puede ser una barrera para los académicos menos experimentados, limitando
la aplicación del análisis de supervivencia en estudios demográcos más
amplios.
Por ende, es esencial que la investigación en análisis de supervivencia
se enfoque en mejorar la calidad de los datos disponibles y en desarrollar
métodos que sean más accesibles para una variedad de académicos. La
integración de tecnologías emergentes, como la inteligencia articial y el
aprendizaje automático, podría ofrecer nuevas perspectivas y enfoques para
el análisis de grandes volúmenes de datos demográcos, permitiendo
identicar patrones complejos que antes eran difíciles de discernir.
Además, se debería fomentar la colaboración interdisciplinaria entre
demógrafos, epidemiólogos, sociólogos y estadísticos para enriquecer el
análisis y la interpretación de los datos. Esto no solo podría mejorar la
comprensión de los factores que afectan la supervivencia de las poblaciones,
sino asimismo contribuir a la formulación de políticas s efectivas que
aborden las desigualdades en salud y bienestar.
36
En tanto, el análisis de supervivencia se presenta como una
herramienta invaluable en la demografía, con un potencial signicativo para
contribuir a la comprensión de los fenómenos poblacionales. Ante los desafíos
demográcos y sociales, es fundamental continuar investigando y mejorando
estas metodologías para que respondan a las nuevas necesidades de la
sociedad.
2.2 Curvas de Kaplan-Meier: Herramientas Esenciales para el
Análisis de Datos en Ciencias Sociales
Las curvas de Kaplan-Meier son una herramienta estadística
fundamental en el análisis de supervivencia, que permite estimar la
probabilidad de que un evento ocurra en el tiempo. Su desarrollo, que se
atribuye a Edward L. Kaplan y Paul Meier en 1958, ha revolucionado la forma
en que los académicos abordan el análisis de datos longitudinales,
especialmente en contextos donde el tiempo hasta la ocurrencia de un evento
es de interés.
En términos simples, la curva de Kaplan-Meier es un gráco que
representa la función de supervivencia de un grupo de individuos ene l
tiempo. Cada punto en la curva reeja la proporción de individuos que han
sobrevivido hasta un tiempo especíco, considerando tanto los eventos
observados como los datos censurados. Este enfoque concede a los
académicos visualizar y analizar la duración hasta que un evento de interés,
como la muerte, un fracaso o cualquier otro desenlace, ocurre en una
población determinada.
La capacidad de manejar datos censurados es una de las principales
ventajas de las curvas de Kaplan-Meier. En muchas investigaciones, no todos
los sujetos de estudio experimentan el evento de interés durante el periodo de
37
observación. En particular, en un estudio sobre la duración de la vida de
pacientes con una enfermedad crónica, algunos pacientes pueden retirarse del
estudio antes de que se produzca el evento. La curva de Kaplan-Meier permite
incluir estos individuos en el análisis, ofreciendo una estimación más precisa
de la función de supervivencia.
En el ámbito de las ciencias sociales, las curvas de Kaplan-Meier se
utilizan para analizar una variedad de fenómenos, desde la duración de la
vida en diferentes poblaciones hasta el tiempo hasta un evento signicativo
en contextos sociales. En efecto, pueden aplicarse en estudios sobre la
duración del desempleo, el tiempo hasta el matrimonio o la estabilidad de
relaciones interpersonales. Su capacidad para comparar grupos de igual
forma las hace útiles en estudios longitudinales, donde se busca entender
cómo diferentes factores pueden inuir en la probabilidad de que ocurra un
evento especíco en el espacio temporal.
El análisis de supervivencia es un enfoque estadístico utilizado para
examinar el tiempo transcurrido hasta que ocurre un evento de interés, como
la muerte, la recuperación de una enfermedad o el fracaso de un producto. En
el contexto de las ciencias sociales, este tipo de análisis permite a los
académicos estudiar fenómenos que dependen del tiempo, como la duración
de matrimonios, la permanencia en el empleo o el tiempo hasta que una
persona se involucra en un comportamiento especíco (Vega, 2019). La
variable principal en el análisis de supervivencia es el "tiempo hasta el
evento", que puede estar sujeto a censura, es decir, situaciones en las que no
se observa el evento para algunos individuos durante el período de estudio.
La curva de Kaplan-Meier es una herramienta visual que representa la
probabilidad de supervivencia temporal. Su cálculo se basa en el principio de
38
que la probabilidad de supervivencia en un tiempo dado es igual a la
probabilidad de supervivencia en el tiempo anterior multiplicada por la
probabilidad de no experimentar el evento en ese momento. La fórmula
general para calcular la probabilidad de supervivencia es:
\[ S(t) = \prod_{i=1}^{n} \left(1 - \frac{d_i}{n_i}\right) \]
donde \( S(t) \) es la probabilidad de supervivencia hasta el tiempo \( t \), \(
d_i \) es el número de eventos que ocurren en el tiempo \( i \), y \( n_i \) es
el número de individuos en riesgo justo antes del tiempo \( i \). Esta fórmula
transige construir la curva de Kaplan-Meier, que se representa grácamente
mostrando la proporción de individuos que sobreviven a través del tiempo.
La interpretación de la curva de Kaplan-Meier es fundamental para la
comprensión de los resultados del análisis de supervivencia. Cada escalón en
la curva representa un evento que ha ocurrido, y la altura de la curva en
cualquier punto del tiempo indica la probabilidad acumulada de
supervivencia hasta ese momento. Una curva que desciende lentamente
indica una mayor probabilidad de supervivencia, mientras que una curva que
desciende rápidamente sugiere una mayor tasa de eventos adversos. Además,
es posible comparar diferentes curvas de Kaplan-Meier para diferentes
grupos, lo que admite evaluar si hay diferencias signicativas en la
supervivencia entre ellos.
Esto es especialmente valioso en estudios sociales donde se busca
entender cómo diferentes factores (como el género, la edad o el nivel
socioeconómico) pueden inuir en la duración de ciertos fenómenos. Las
curvas de Kaplan-Meier han encontrado un lugar destacado en el análisis de
datos en ciencias sociales, ofreciendo herramientas valiosas para entender
39
fenómenos complejos relacionados con el tiempo hasta que ocurre un evento
de interés
El uso indiscutible de las curvas de Kaplan-Meier radica en estudios
demográcos que analizan la mortalidad y la longevidad en diferentes
poblaciones. Estas curvas conceden a los académicos visualizar la
probabilidad de supervivencia de un grupo especíco en periodos
determinados, considerando variables como la edad, el género, el estado
socioeconómico o la ubicación geográca. Especícamente, al estudiar la
esperanza de vida en distintas comunidades, las curvas de Kaplan-Meier
pueden ayudar a identicar desigualdades en la salud y la mortalidad,
proporcionando una base sólida para la formulación de políticas de salud
pública.
Las curvas de Kaplan-Meier incluso son útiles en el análisis de tiempo
hasta el evento en investigaciones sociales, donde el evento puede ser
cualquier cosa desde la nalización de un programa educativo hasta la
deserción escolar o la entrada en el mercado laboral. Estos análisis consienten
a los académicos observar patrones y tendencias en el tiempo que transcurre
hasta que ocurren acontecimientos signicativos, lo que puede ofrecer
información crítica sobre factores que inuyen en el éxito o el fracaso en
contextos sociales (Errandonea, 2024). En efecto, en estudios sobre la violencia
doméstica, las curvas pueden mostrar el tiempo que tarda una ctima en
buscar ayuda, lo que puede ayudar a identicar intervenciones efectivas.
Las curvas de Kaplan-Meier son herramientas poderosas para la
comparación de grupos en estudios longitudinales. Al permitir la
comparación de la supervivencia entre diferentes grupos—lo más importante,
aquellos que han recibido distintas intervenciones o aquellos que provienen
40
de diferentes contextos socioeconómicos—los académicos pueden evaluar la
efectividad de programas especícos o políticas sociales. Esta comparación es
fundamental para entender cómo diferentes factores pueden inuir en la
probabilidad de que ocurra un evento, ya sea positivo o negativo, de manera
temporal.
En suma, las curvas de Kaplan-Meier ofrecen un marco analítico
robusto y exible que se puede aplicar a una variedad de contextos en las
ciencias sociales, permitiendo una exploración más profunda de los factores
que afectan la duración de acontecimientos signicativos en la vida de las
personas y las comunidades. A pesar de su utilidad y popularidad en el
análisis de datos, las curvas de Kaplan-Meier presentan varios desafíos y
limitaciones que los académicos deben considerar al aplicarlas en las ciencias
sociales.
El modelo de Kaplan-Meier se basa en ciertas suposiciones que pueden
no cumplirse en todos los contextos. De las suposiciones más críticas, se hace
referencia a la tasa de riesgo constante por periodos para cada grupo en el
análisis. Esto signica que, con el paso del tiempo, las características que
afectan al evento de interés permanecen prácticamente constantes. Aun así, en
estudios sociales, las dinámicas pueden variar debido a factores externos,
como cambios en políticas sociales o condiciones económicas. Ignorar estas
variaciones puede llevar a conclusiones erróneas.
El manejo de datos censurados es otro desafío importante. En estudios
de supervivencia, los datos censurados se reeren a casos en los que no se ha
observado el evento de interés (por ejemplo, la muerte o la salida de un grupo)
antes de que termine el periodo de estudio. Si bien el modelo de Kaplan-Meier
está diseñado para manejar datos censurados, la forma en que se gestionan
41
estos datos puede afectar la interpretación de los resultados. Si un gran
número de observaciones está censurado, esto puede limitar la capacidad del
análisis para hacer inferencias precisas sobre la población en general.
Denitivamente, la interpretación de los resultados de las curvas de
Kaplan-Meier puede ser compleja. Si bien estas curvas proporcionan una
representación visual clara de la probabilidad de supervivencia en el tiempo,
los académicos deben tener cuidado al comunicar sus hallazgos. Las
diferencias observadas entre grupos pueden no ser estadísticamente
signicativas, y es fundamental contextualizar los resultados dentro del
marco teórico y empírico de la investigación social. Además, la
sobreinterpretación de las curvas puede llevar a malentendidos sobre las
relaciones causales, especialmente si no se considera la inuencia de variables
confusoras.
Pese a que las curvas de Kaplan-Meier son herramientas valiosas para
el análisis de datos en ciencias sociales, es esencial que los académicos sean
conscientes de sus limitaciones y desafíos. Una comprensión profunda de
estas cuestiones puede contribuir a una interpretación más precisa y a una
utilización más efectiva de este método en la investigación social. Las curvas
de Kaplan-Meier han demostrado ser una herramienta valiosa en el ámbito de
las ciencias sociales, permitiendo a los académicos explorar y visualizar datos
relacionados con la duración de acontecimientos críticos y el tiempo hasta la
ocurrencia de ciertos fenómenos.
Con el avance del análisis de datos, las curvas de Kaplan-Meier
incorporan técnicas estadísticas y computacionales novedosas. La
incorporación de modelos más complejos que consideren variables
adicionales y la interacción entre factores puede ofrecer una comprensión más
42
profunda de los fenómenos sociales. Además, la integración de software
avanzado y herramientas de visualización puede facilitar la interpretación de
resultados, haciendo que los hallazgos sean más accesibles para un público
más amplio. La investigación futura podría explorar cómo estas curvas
pueden adaptarse a diferentes contextos culturales y sociales, ampliando así
su aplicabilidad.
En general, las curvas de Kaplan-Meier no solo son esenciales para el
análisis de datos en estudios de salud y epidemiología, sino que su relevancia
se extiende a una amplia gama de disciplinas dentro de las ciencias sociales.
Proporcionan un marco robusto para entender la dinámica del tiempo y la
duración de eventos en poblaciones, permitiendo a los académicos abordar
preguntas complejas sobre la supervivencia y el comportamiento humano. El
uso de herramientas analíticas es clave para guiar políticas y prácticas que
benecien a la sociedad ante retos sociales cambiantes.
2.3 Prueba de Rango Logarítmico y la Regresión de Cox:
Herramientas Esenciales para el Análisis en Ciencias Sociales
La investigación en ciencias sociales enfrenta con frecuencia el desafío
de analizar datos complejos que no se ajustan a los supuestos de las técnicas
estadísticas tradicionales. En este contexto, la prueba de rango logarítmico y
la regresión de Cox emergen como herramientas poderosas que permiten a
los académicos abordar estos desafíos de manera ecaz.
La prueba de rango logarítmico es un método estadístico no
paramétrico utilizado para comparar distribuciones de datos ordinales. A
diferencia de las pruebas paramétricas, que requieren supuestos sobre la
normalidad de los datos, la prueba de rango logarítmico se centra en los
rangos de los datos, lo que la convierte en una opción adecuada para
43
situaciones en las que los datos no cumplen con estos supuestos (Ramírez y
Polack, 2020). Este enfoque permite a los académicos identicar diferencias
signicativas entre grupos, siendo especialmente útil en estudios donde las
variables no son continuas o donde se manejan categorías ordinales.
La regresión de Cox, conocida como modelo de riesgos proporcionales
de Cox, es una técnica estadística utilizada para investigar la relación entre la
duración hasta que ocurre un evento y una o varias variables predictoras. Este
modelo es particularmente útil en estudios de supervivencia, donde el
objetivo es analizar el tiempo que transcurre hasta que se produce un evento
de interés, como la muerte, la recaída de una enfermedad o cualquier otro
evento relevante en el contexto social. La regresión de Cox no asume que la
relación entre el tiempo y las covariables sea lineal, lo que le otorga una gran
exibilidad y la hace adecuada para una amplia variedad de aplicaciones en
ciencias sociales.
La combinación de la prueba de rango logarítmico y la regresión de
Cox ofrece a los académicos en ciencias sociales un conjunto robusto de
herramientas para el análisis de datos. Estas técnicas tienden a revelar ideas
sobre cómo se relacionan las variables, pero también pueden ayudar a
encontrar patrones y tendencias en los datos que no se detectarían utilizando
herramientas más tradicionales. La posibilidad de analizar datos ordinales y
modelar el tiempo hasta el evento es una gran ventaja para muchas
aplicaciones en este campo, donde la comprensión de relaciones complejas es
crucial.
Al emplear estas estrategias, tanto reducen el pseudo del diálogo como
buscan proporcionar un mensaje más preciso y fundamentado para su
disciplina, y un mejor enfoque de toma de decisiones basado en evidencia. La
44
prueba de rango logarítmico ha ganado reconocimiento en el ámbito de las
ciencias sociales debido a su capacidad para abordar y analizar datos
ordinales de manera efectiva.
Entre las aplicaciones más empleadas de la prueba de rango
logarítmico es el análisis de datos ordinales. Este tipo de datos, caracterizado
por tener una jerarquía o un orden, es común en encuestas y estudios sociales
donde se mide la satisfacción, la percepción o la opinión de los individuos. La
prueba permite evaluar si existen diferencias signicativas entre las
distribuciones de dos o más grupos ordinales. En particular, en un estudio
sobre la satisfacción laboral, se puede utilizar la prueba de rango logarítmico
para comparar las respuestas de empleados de diferentes departamentos y
determinar si las diferencias en la satisfacción son estadísticamente
signicativas.
Además de su utilidad en el análisis de datos ordinales, la prueba de
rango logarítmico es ecaz para estudiar la relación entre variables. Permite a
los académicos identicar patrones y correlaciones en datos que no cumplen
con los supuestos de normalidad requeridos por otras pruebas estadísticas
más comunes, como la ANOVA. Conviene destacar, un investigador podría
utilizar la prueba de rango logarítmico para analizar la relación entre el nivel
de educación y la percepción de la calidad de vida en diferentes grupos
socioeconómicos, ayudando a revelar procederes sobre cómo estas variables
interactúan en contextos sociales especícos.
Para ilustrar el impacto de la prueba de rango logarítmico en las
ciencias sociales, se pueden considerar varios ejemplos de investigaciones
recientes. Un estudio podría enfocarse en la evaluación de programas de
intervención social, donde se analizan las respuestas de los participantes antes
45
y después de la intervención. La prueba de rango logarítmico permitiría
determinar si las mejoras en las percepciones son signicativas y si varían
según diferentes características demográcas.
Otro ejemplo sería la investigación sobre actitudes hacia políticas
públicas, donde los académicos podrían utilizar la prueba para comparar la
percepción de diferentes grupos sobre la efectividad de una política
especíca. Al analizar los datos de manera ordinal, se pueden obtener
conclusiones más robustas y matizadas acerca de la opinión pública en
relación a temas críticos.
La prueba de rango logarítmico ofrece un enfoque versátil y poderoso
para el análisis de datos en las ciencias sociales, desde la evaluación de la
satisfacción hasta el estudio de relaciones complejas entre variables, sus
aplicaciones son variadas y contribuyen signicativamente a la comprensión
de fenómenos sociales. La regresión de Cox se ha convertido en una
herramienta esencial para académicos que buscan comprender no solo si
ciertos factores tienen un impacto en la ocurrencia de eventos, sino todavía
cuándo ocurren esos acontecimientos en relación con otros factores.
Las principales ventajas de la regresión de Cox esen su capacidad
para modelar el tiempo hasta que se produce un evento, lo que la convierte
en una opción ideal para estudios que implican seguimiento por periodos
determinados (Abd ElHafeez et al., 2021). Para ilustrar, en investigaciones
sobre la duración del desempleo, los académicos pueden utilizar el modelo de
Cox para analizar cómo diferentes variables, como la educación, la edad y la
experiencia laboral, afectan el tiempo que una persona permanece
desempleada antes de encontrar un nuevo trabajo. Este enfoque proporciona
46
no solo una visión sobre la probabilidad de que un evento ocurra, sino
asimismo sobre el momento en que es más probable que suceda.
La regresión de Cox también se utiliza para comparar diferentes
grupos en estudios de supervivencia, lo que es especialmente relevante en
contextos donde se buscan diferencias en la duración de eventos entre
poblaciones. Así como, un estudio que examine la tasa de supervivencia de
pacientes con una enfermedad crónica puede utilizar este modelo para
comparar la efectividad de diferentes tratamientos. Al hacerlo, los académicos
pueden ajustar por diversas covariables, permitiéndoles obtener estimaciones
más precisas sobre cómo las características de los pacientes y los tratamientos
inuyen en la supervivencia.
La interpretación de los coecientes en un modelo de regresión de Cox
es fundamental para entender los riesgos asociados a diferentes variables; en
este modelo, el coeciente de una variable indica la relación entre esa variable
y el riesgo de que ocurra el evento de interés, entonces, un coeciente positivo
sugiere un aumento en el riesgo, mientras que un coeciente negativo indica
una disminución en el riesgo (Córdova y Yurevna, 2019). Esta interpretación
es crucial para los académicos sociales, ya que les concede extraer
conclusiones sobre cómo factores como el nivel socioeconómico, el acceso a
servicios de salud o la educación impactan en el tiempo hasta que ocurre un
evento, ofreciendo información valiosa para la formulación de políticas y la
intervención social.
En síntesis, la regresión de Cox es una herramienta poderosa en el
análisis de datos en las ciencias sociales, proporcionando un marco robusto
para explorar las relaciones entre variables y el tiempo hasta que ocurren
eventos. Su aplicación en estudios de supervivencia y en el modelado de
47
tiempos hasta programas admite a los académicos obtener resultados
signicativos que pueden tener un impacto real en la comprensión y mejora
de situaciones sociales.
La prueba de rango logarítmico y la regresión de Cox son herramientas
estadísticas poderosas que han transformado el análisis de datos en las
ciencias sociales. Estas metodologías consienten abordar la complejidad de los
datos ordinales y de supervivencia, facilitando una comprensión más
profunda de las relaciones entre variables.
La prueba de rango logarítmico se presenta como una técnica ideal
para el análisis de datos que no siguen distribuciones normales, especialmente
en contextos donde las variables son ordinales o donde los supuestos de otras
pruebas estadísticas más comunes no se cumplen. Su capacidad para
identicar patrones y relaciones signicativas en conjuntos de datos
complejos ha demostrado ser invaluable en investigaciones sociales, desde
estudios sobre actitudes hasta análisis de tendencias en poblaciones
especícas.
Por otro lado, la regresión de Cox se destaca en el modelado de tiempos
hasta un evento, convirtiéndose en una herramienta esencial en estudios de
supervivencia. Su enfoque en la comparación de grupos y la interpretación de
coecientes de riesgo ofrece a los académicos una visión clara de cómo
diferentes factores pueden inuir en la probabilidad de que ocurra un evento
de interés en el espacio-tiempo. Este enfoque ha sido fundamental en la
evaluación de intervenciones sociales, la salud pública y otros campos donde
el tiempo hasta un evento es un factor crítico.
Con el avance de las ciencias sociales, es importante que quienes
investigan conozcan y utilicen estas técnicas estadísticas. La capacidad de
48
utilizar adecuadamente la prueba de rango logarítmico y la regresión de Cox
no solo mejorará la calidad de los análisis, sino que también contribuirá a una
interpretación más robusta de los resultados, permitiendo una mejor toma de
decisiones basada en evidencia.
Ahora bien, la combinación de estas herramientas proporciona una
base sólida para el avance del conocimiento en ciencias sociales. Fomentar la
capacitación en estas metodologías y su aplicación en investigaciones a corto
plazo es un paso decisivo para enfrentar los complejos desafíos que presentan
las dinámicas sociales contemporáneas. La integración de técnicas estadísticas
avanzadas en estudios sociales no solo amplía el horizonte del análisis, sino
que incluso enaltece la comprensión de fenómenos, promoviendo así una
sociedad más informada y consciente.
49
Capítulo III
Modelos Dinámicos Poblacionales en Salud Pública:
Aplicaciones, Desafíos y Futuras Perspectivas
3.1 Introducción a los modelos dinámicos poblacionales
Los modelos dinámicos poblacionales son herramientas matemáticas y
computacionales que acceden analizar y predecir el comportamiento de las
poblaciones en un ciclo estacional. Estas herramientas se basan en la
representación de interacciones complejas entre individuos dentro de una
población, así como en la inuencia de factores ambientales y sociales. La
dinámica de estas interacciones puede dar lugar a patrones de crecimiento,
disminución y uctuaciones en la población, así como a la propagación de
enfermedades y a las respuestas ante intervenciones de salud pública.
Los modelos dinámicos poblacionales se caracterizan por su capacidad
para simular cómo las poblaciones cambian con el tiempo, considerando
diversos factores como tasas de natalidad, mortalidad, migración y la
interacción entre diferentes grupos dentro de la población. Estos modelos
pueden ser deterministas, donde se utilizan ecuaciones matemáticas para
predecir resultados especícos, o estocásticos, donde se incorporan elementos
de aleatoriedad para reejar la incertidumbre inherente a los sistemas
biológicos y sociales (Rojas y Araya, 2019).
En el ámbito de la salud pública, los modelos dinámicos poblacionales
son trascendentales para la comprensión y gestión de enfermedades
infecciosas, la planicación de recursos sanitarios y la evaluación de
50
intervenciones de salud. Al ofrecer una representación visual y cuantitativa
de cómo se comportan las poblaciones en respuesta a diferentes factores, estos
modelos transigen a los académicos y responsables de políticas de salud
tomar decisiones informadas que pueden mejorar la salud de la población.
Así como, a través de la simulación de la propagación de enfermedades, se
pueden identicar estrategias efectivas para mitigar brotes y optimizar la
distribución de recursos limitados.
A través de un análisis exhaustivo, se espera proporcionar un marco
que permita entender mejor cómo estos modelos pueden ser utilizados para
mejorar la salud pública y contribuir a la formulación de políticas efectivas.
Además, se discutirán las perspectivas a corto plazo en la investigación y
aplicación de estos modelos, enfatizando la necesidad de una continua
evolución en su desarrollo y uso. Los modelos dinámicos poblacionales han
demostrado ser herramientas fundamentales en el control de enfermedades,
permitiendo a los académicos y responsables de salud pública entender y
predecir la propagación de patógenos, evaluar intervenciones y optimizar
recursos.
La modelización de la propagación de epidemias es una de las
aplicaciones más reconocidas de los modelos dinámicos poblacionales. Estos
modelos permiten simular cómo un patógeno se disemina a través de una
población, tomando en cuenta factores como la tasa de transmisión, la
susceptibilidad de la población y las interacciones sociales. Un ejemplo
destacado es el modelo SIR (Susceptibles, Infectados, Recuperados), que
divide a la población en tres grupos y utiliza ecuaciones diferenciales para
describir el ujo entre estos estados. A través de simulaciones, los académicos
pueden prever picos de infección, identicar grupos de riesgo y evaluar el
51
impacto de diferentes estrategias de control, como el distanciamiento social y
el aislamiento de casos.
Los modelos dinámicos también son esenciales para simular
intervenciones de salud pública, como campañas de vacunación,
implementación de medidas de control de infecciones y programas de
educación comunitaria. Al modelar diferentes escenarios, los responsables de
la salud pueden anticipar cómo estas intervenciones afectarán la propagación
de enfermedades y la salud de la población (Gawande et al., 2025). Hay que
hacer notar, un modelo puede simular la introducción de una vacuna en una
población especíca y predecir la reducción en la incidencia de la enfermedad,
lo que ayuda a tomar decisiones informadas sobre la asignación de recursos y
el diseño de campañas de vacunación.
A través de la modelización, se pueden evaluar no solo la ecacia de
una vacuna en condiciones controladas, sino asimismo su impacto en la
población en general. Esto incluye considerar factores como la cobertura de
vacunación, la duración de la inmunidad y la aparición de variantes del
patógeno. Los modelos aprueban a los académicos analizar cómo diferentes
niveles de cobertura de vacunación pueden afectar la propagación de la
enfermedad y, por lo tanto, informan las políticas de vacunación a nivel
nacional y global.
Las aplicaciones de modelos dinámicos poblacionales en el control de
enfermedades son numerosas y variadas. Desde la comprensión de la
propagación de epidemias hasta la evaluación de intervenciones sanitarias y
la efectividad de vacunas, estos modelos proporcionan información valiosa
que puede guiar las decisiones en salud pública y contribuir a la mejora de la
salud de la población. Empero, para maximizar su utilidad, es fundamental
52
continuar desarrollando estos modelos y adaptarlos a las realidades
cambiantes de las enfermedades y las poblaciones. La planicación de
recursos de salud es fundamental para garantizar que las poblaciones tengan
acceso a la atención médica necesaria. En un contexto de creciente demanda
y limitación de recursos, los modelos dinámicos poblacionales ofrecen
herramientas valiosas para la proyección y gestión de estos recursos.
Los modelos dinámicos poblacionales consienten estimar las
necesidades a mediano plazo de atención médica en función de diversos
factores, como el crecimiento demográco, las tendencias epidemiológicas y
los cambios en el comportamiento de salud de la población. Estos modelos
pueden simular diferentes escenarios, facilitando la anticipación de picos de
demanda, como los que pueden ocurrir durante brotes de enfermedades o en
períodos de crisis, como desastres naturales. Al entender mejor estas
proyecciones, los responsables de la toma de decisiones pueden planicar
adecuadamente la infraestructura de salud, asegurando que haya suciente
personal médico, camas de hospital y suministros disponibles para satisfacer
las necesidades de la población.
Una vez que se han proyectado las necesidades de atención médica, es
esencial optimizar la distribución de los recursos disponibles para maximizar
su efectividad. Los modelos dinámicos pueden ayudar a identicar las áreas
geográcas y demográcas que requieren atención prioritaria. Lo más
importante, mediante el uso de simulaciones, es posible determinar la
ubicación más efectiva para nuevos centros de salud o la asignación de
recursos a diferentes programas de salud pública. Esta optimización no solo
mejora el acceso a la atención médica, sino que también contribuye a una
utilización más eciente de los recursos, reduciendo el desperdicio y
mejorando los resultados de salud en la población.
53
La evaluación económica es un componente crítico en la planicación
de recursos de salud. Los modelos dinámicos poblacionales autorizan realizar
análisis de costos y benecios al simular el impacto de diferentes
intervenciones de salud pública y la asignación de recursos. Estos análisis
ayudan a los responsables de la formulación de políticas a comprender el
retorno de la inversión en diferentes programas y a priorizar aquellos que
ofrecen el mayor benecio para la salud a un costo razonable. Al integrar
datos sobre costos, ecacia y resultados de salud, los modelos pueden
informar decisiones sobre la nanciación y la implementación de programas
de salud, lo que resulta en un sistema de salud más sostenible y efectivo.
Los modelos dinámicos poblacionales son herramientas esenciales en
la planicación de recursos de salud, permitiendo proyecciones precisas,
optimización en la distribución de recursos y análisis económicos. Al utilizar
estos modelos, los sistemas de salud pueden adaptarse mejor a las
necesidades cambiantes de la población, garantizando que se brinde atención
adecuada y oportuna a todos (Fiveable, 2025).
Los modelos requieren información precisa y actualizada sobre la
población, la incidencia de enfermedades, las tasas de mortalidad y otros
factores relevantes. A pesar de, en muchas regiones, especialmente en países
en desarrollo, los datos pueden ser escasos, incompletos o sesgados. Esto
puede llevar a resultados imprecisos y a decisiones de salud pública que no
se basan en la mejor evidencia disponible. Además, la falta de estandarización
en la recopilación de datos puede dicultar la comparación entre diferentes
estudios y contextos.
La incertidumbre es inherente a cualquier modelo predictivo, y los
modelos dinámicos poblacionales no son una excepción. Las proyecciones
54
realizadas a partir de estos modelos pueden variar signicativamente en
función de los supuestos utilizados y de las variables incluidas en el análisis.
Factores como cambios en el comportamiento humano, la aparición de nuevas
variantes de patógenos o la implementación de políticas de salud pública
pueden alterar drásticamente los resultados esperados. Esta incertidumbre
puede complicar la toma de decisiones, ya que los responsables de la salud
pública deben considerar no solo los resultados más probables, sino todavía
los escenarios alternativos que podrían surgir.
Cada población presenta características únicas que pueden inuir en la
efectividad de los modelos dinámicos. Factores sociodemográcos, culturales,
económicos y ambientales pueden afectar la propagación de enfermedades y
la respuesta a intervenciones de salud pública. Por lo tanto, un modelo que
funcione bien en un contexto especíco puede no ser aplicable en otro. La
adaptación de modelos a las particularidades locales requiere un profundo
conocimiento de la población en cuestión y una calibración cuidadosa de los
parámetros del modelo. Sin esta adaptación, el riesgo de implementar
estrategias inecaces o incluso perjudiciales aumenta considerablemente.
No obstante, los modelos dinámicos poblacionales son herramientas
valiosas en la salud pública, es crucial reconocer y abordar sus desafíos y
limitaciones. La calidad de los datos, la incertidumbre en las proyecciones y
la necesidad de contextualización son aspectos clave que deben ser
considerados para maximizar la efectividad de estos modelos en la toma de
decisiones de salud pública.
Estos modelos no solo conceden una comprensión más profunda de la
propagación de enfermedades y los factores que inuyen en la salud
poblacional, sino que también sirven como herramientas clave para la
55
planicación y optimización de recursos sanitarios. Desde la simulación de
intervenciones hasta la evaluación de la efectividad de las vacunas, los
modelos dinámicos ofrecen un marco robusto para informar decisiones
críticas en salud pública. Sin embargo, incluso hemos identicado desafíos
signicativos, como la calidad de los datos, la incertidumbre inherente a las
proyecciones y la necesidad de adaptar los modelos a contextos locales
especícos.
La investigación continua en el campo de los modelos dinámicos
poblacionales es esencial para mejorar su precisión y aplicabilidad. El avance
tecnológico y el mayor acceso a datos acceden mejorar los modelos para
representar con mayor precisión las complejas interacciones humanas y los
factores sociales que inuyen en la salud. Además, la colaboración entre
académicos, responsables de políticas y profesionales de la salud será
fundamental para garantizar que los modelos desarrollados sean prácticos y
útiles en la toma de decisiones. La formación de redes interdisciplinarias y la
promoción de programas de capacitación en modelado poblacional pueden
contribuir a un uso más efectivo de estas herramientas en el corto plazo. Para
maximizar el impacto de los modelos dinámicos en la salud pública, se
recomienda lo siguiente:
i. Fomentar la inversión en infraestructura de datos que garantice la calidad
y la accesibilidad de la información necesaria para el modelado.
ii. Promover la adaptación de los modelos a las realidades locales, asegurando
que se consideren factores como la cultura, la economía y el sistema de
salud en cada contexto.
iii. Implementar un enfoque de evaluación continua que permita ajustar los
modelos y las intervenciones en función de los resultados observados.
56
iv. Establecer canales de comunicación efectivos entre académicos y
responsables políticos para que los modelos y sus hallazgos se traduzcan
en acciones concretas y efectivas en la salud pública.
Los modelos dinámicos poblacionales representan una herramienta
poderosa en la lucha por mejorar la salud de las poblaciones. Con una
investigación y aplicación adecuadas, tienen el potencial de transformar la
manera en que enfrentamos los desafíos en salud blica, promoviendo un
enfoque más proactivo y basado en evidencias en la gestión de la salud a nivel
global.
3.2 Modelado Dinámico Poblacional: Aplicación de Ecuaciones
Diferenciales Ordinarias y Parciales
El estudio de las dinámicas poblacionales es fundamental para
comprender cómo cambian las poblaciones de organismos vivos y cómo
interactúan con su entorno, en un periodo determinado. En este contexto, las
ecuaciones diferenciales emergen como herramientas matemáticas esenciales
que permiten modelar este tipo de fenómenos (Miranda, 2014). Estas
ecuaciones describen la relación entre una variable y sus tasas de cambio, lo
que resulta particularmente útil para representar el crecimiento, la interacción
y la regulación de las poblaciones.
Las ecuaciones diferenciales se clasican en dos grandes categorías: las
ecuaciones diferenciales ordinarias (EDO) y las ecuaciones diferenciales
parciales (EDP). Mientras que las EDO se centran en funciones de una sola
variable, las EDP abordan situaciones en las que las variables dependen de
múltiples factores, como el tiempo y el espacio. Esta distinción es crucial, ya
que la elección entre una u otra puede inuir signicativamente en la
precisión y aplicabilidad de los modelos desarrollados.
57
El modelado poblacional a través de ecuaciones diferenciales no solo
permite predecir el crecimiento de poblaciones, sino que asimismo facilita el
análisis de fenómenos como la competencia entre especies, la depredación, la
migración y la propagación de enfermedades. Además, estos modelos pueden
integrarse con datos empíricos para ajustar las predicciones y mejorar la
comprensión de las dinámicas ecológicas.
Las ecuaciones diferenciales ordinarias (EDO) son herramientas
matemáticas fundamentales para describir cómo las cantidades cambian en
función de una variable independiente, generalmente el tiempo. En el
contexto del modelado poblacional, las EDO consienten representar la
dinámica de las poblaciones a través de relaciones que vinculan la tasa de
cambio de la población con su tamaño actual. Esto resulta crucial para
entender y predecir el comportamiento de las poblaciones bajo diferentes
condiciones ambientales y factores externos. Una EDO es una ecuación que
involucra funciones desconocidas de una variable independiente y sus
derivadas. En términos generales, una EDO de primer orden puede
expresarse como:
\[ \frac{dy}{dt} = f(t, y) \]
donde \( y \) es la función desconocida, \( t \) es la variable independiente
(usualmente el tiempo), y \( f(t, y) \) es una función que describe cómo cambia
\( y \) en función de \( t \) y de \( y \) mismo. Las EDO pueden clasicarse
según su orden (el número máximo de derivadas que aparecen en la ecuación)
y su grado (la potencia más alta a la que se eleva la derivada).
Las características de las EDO incluyen su capacidad para ser resueltas
mediante métodos analíticos o numéricos, dependiendo de la complejidad de
la función \( f \) y de las condiciones iniciales del problema. Son
58
especialmente útiles en el modelado poblacional porque acceden describir
procesos en los que la tasa de cambio de la población depende directamente
de su tamaño. En el ámbito del crecimiento poblacional, uno de los modelos
más conocidos es el modelo de crecimiento exponencial, que se puede
representar mediante la siguiente EDO:
\[ \frac{dN}{dt} = rN \]
donde \( N \) es la población, \( r \) es la tasa de crecimiento intrínseca, y \(
t \) es el tiempo. Esta ecuación indica que la tasa de cambio de la población es
proporcional al tamaño actual de la población. Al resolver esta EDO, se
obtiene la solución:
\[ N(t) = N_0 e^{rt} \]
donde \( N_0 \) es la población inicial en \( t = 0 \). Este modelo es aplicable
en situaciones donde los recursos son abundantes y las condiciones
ambientales son favorables. Aun así, en entornos donde los recursos son
limitados, el modelo logístico se convierte en una opción más adecuada. Este
se representa como:
\[ \frac{dN}{dt} = rN \left(1 - \frac{N}{K}\right) \]
donde \( K \) es la capacidad de carga del medio ambiente. Este modelo
muestra un rápido crecimiento poblacional al inicio, que se ralentiza y se
estabiliza al acercarse a la capacidad de carga. Las EDO también se utilizan en
modelos más complejos dentro de la ecología, como la predación y la
competencia entre especies. Un ejemplo clásico es el modelo de Lotka-
Volterra, que describe la dinámica de poblaciones de depredadores y presas.
Las EDO en este modelo son:
Para la presa:
59
\[ \frac{dX}{dt} = \alpha X - \beta XY \]
Para el depredador:
\[ \frac{dY}{dt} = \delta XY - \gamma Y \]
donde \( X \) representa la población de presas, \( Y \) la población de
depredadores, y \( \alpha, \beta, \delta, \gamma \) son parámetros que
describen las tasas de crecimiento y muerte. Este sistema de EDO permite
estudiar cómo las interacciones entre dos especies afectan sus poblaciones en
un plazo determinado.
Las EDO son fundamentales en el modelado dinámico poblacional,
proporcionando una base sólida para entender y predecir las uctuaciones en
las poblaciones en función del tiempo. Su aplicabilidad en diversos contextos
ecológicos demuestra su versatilidad y relevancia en el estudio de la biología
y la conservación.
Las Ecuaciones Diferenciales Parciales (EDP) son herramientas
matemáticas fundamentales en el análisis de sistemas complejos donde las
variables dependen de múltiples dimensiones. A diferencia de las Ecuaciones
Diferenciales Ordinarias (EDO), que involucran derivadas con respecto a una
sola variable independiente, las EDP describen fenómenos en los que las
funciones dependen de varias variables independientes, lo que las hace
particularmente útiles en el modelado de dinámicas poblacionales que
cambian en el tiempo y el espacio (Mejía et al., 2025).
Una EDP es una ecuación que relaciona una función desconocida de
múltiples variables y sus derivadas parciales. Estas ecuaciones son esenciales
para describir fenómenos que varían no solo en el tiempo, sino también en el
espacio, como la dispersión de una población a través de un bitat. Las
60
propiedades de las EDP incluyen su linealidad, homogeneidad y el orden de
las derivadas parciales involucradas, lo que determina la complejidad del
sistema a modelar. Dado que las EDP pueden ser de distintos tipos (elípticas,
hiperbólicas y parabólicas), la elección del tipo adecuado es crucial para la
precisión y utilidad del modelo.
Las EDP son especialmente valiosas en el estudio de dinámicas
poblacionales porque permiten modelar situaciones donde las interacciones
entre individuos y su entorno son complejas. Un ejemplo signicativo es el
modelo de difusión de una población en un área geográca, donde se pueden
observar fenómenos como la migración y la competencia por recursos.
Además, las EDP pueden ser utilizadas para modelar la propagación de
enfermedades en poblaciones, donde la tasa de infección puede depender no
solo del tiempo, sino también de la ubicación espacial de los individuos.
Otro campo importante es el estudio de la dinámica de poblaciones en
ecosistemas que presentan variaciones espaciales y temporales, como en el
caso de especies en peligro de extinción o ecosistemas que responden a
cambios climáticos. La modelización de estas dinámicas a menudo requiere
de EDP para captar adecuadamente las interacciones entre las especies y su
entorno.
La resolución de EDP puede ser un desafío, dado que no siempre se
dispone de soluciones analíticas. Ahora bien, existen métodos numéricos que
conceden abordar estas ecuaciones de manera efectiva. Técnicas como el
método de elementos nitos, el método de diferencias nitas y
aproximaciones espectrales son comúnmente utilizadas para obtener
soluciones aproximadas en situaciones donde las soluciones exactas son
difíciles de encontrar.
61
En el contexto de modelos ecológicos, la implementación de estas
técnicas numéricas ha permitido a los académicos simular y predecir el
comportamiento de poblaciones bajo diferentes escenarios, como cambios en
el hábitat, introducción de especies invasoras o efectos de la conservación.
Este enfoque ha llevado a una comprensión más profunda de las dinámicas
poblacionales y ha facilitado la toma de decisiones informadas en la gestión
de recursos naturales y conservación de la biodiversidad.
En síntesis, las EDP son herramientas poderosas en el modelado de
dinámicas poblacionales, capaces de capturar la complejidad de las
interacciones en entornos multidimensionales. Su aplicación efectiva
consiente no solo entender mejor las dinámicas actuales, sino todavía
anticipar futuros cambios en las poblaciones y sus hábitats. La modelación de
dinámicas poblacionales es un campo complejo que puede abordarse desde
diferentes perspectivas matemáticas. En este sentido, las Ecuaciones
Diferenciales Ordinarias (EDO) y las Ecuaciones Diferenciales Parciales (EDP)
ofrecen herramientas distintas, cada una con sus propias ventajas y
desventajas.
Las EDO son particularmente útiles en modelos donde se considera
una única variable independiente, como el tiempo, esto las hace idóneas para
representar sistemas poblacionales en los que se busca entender el crecimiento
o decrecimiento de una población en función del tiempo. Entre las principales
ventajas de las EDO es su menor complejidad matemática, lo que autoriza
obtener soluciones analíticas o numéricas con mayor facilidad. Sin embargo,
su principal desventaja es la limitación de su aplicación a fenómenos que no
dependen de múltiples variables independientes o de la interacción espacial
(Contreras y Torres, 2016).
62
Por otro lado, las EDP son capaces de modelar situaciones donde las
dinámicas poblacionales están inuenciadas por múltiples variables, como el
espacio y el tiempo. Esto las convierte en una herramienta poderosa para
comprender fenómenos como la dispersión de especies, la competencia entre
poblaciones o la propagación de enfermedades. Sin embargo, la complejidad
de las EDP encima puede ser una desventaja signicativa; su resolución suele
requerir técnicas avanzadas y, en muchos casos, solo se puede obtener
soluciones numéricas.
Existen situaciones especícas en las que el uso de EDO es más
apropiado que el de EDP. Conviene destacar, en modelos sencillos de
crecimiento poblacional, como el modelo de Malthus o el modelo logístico, las
EDO proporcionan una representación clara y efectiva del crecimiento en
función del tiempo. Estos modelos son útiles en contextos donde se puede
asumir que la población es homogénea y que se encuentra en un entorno
constante, sin variaciones espaciales signicativas. En tales casos, las EDO
permiten realizar predicciones más directas y comprensibles sobre el
comportamiento de la población en función del tiempo.
En contraste, las EDP son más efectivas en situaciones que implican
procesos espaciales o interacciones complejas entre diferentes poblaciones.
Para ilustrar, en el estudio de la migración de especies, donde las dinámicas
poblacionales están inuenciadas por la distribución geográca y las
interacciones con otras especies en distintos hábitats, las EDP admiten
modelar estas variaciones de forma más precisa. Otro caso relevante es el
modelado de enfermedades infecciosas, donde la propagación puede
depender tanto del tiempo como de la ubicación geográca de los individuos.
En estos escenarios, las EDP proporcionan un marco más adecuado para
capturar la complejidad del fenómeno.
63
La elección entre EDO y EDP en el contexto del modelado poblacional
depende de la naturaleza del fenómeno que se desea estudiar. Mientras que
las EDO ofrecen simplicidad y claridad en contextos unidimensionales, las
EDP destacan en situaciones que requieren una comprensión más profunda
de las interacciones espaciales y temporales. La capacidad de combinar ambos
enfoques puede ser, a menudo, la clave para obtener modelos más robustos y
representativos de las dinámicas poblacionales en la naturaleza.
El modelado dinámico poblacional es una herramienta fundamental en
la ecología y en las ciencias biológicas en general, ya que permite comprender
y predecir el comportamiento de las poblaciones en ciclos. Las ecuaciones
diferenciales, tanto ordinarias como parciales, ofrecen un marco matemático
robusto para captar la complejidad de las interacciones biológicas y
ambientales que inuyen en el crecimiento y la dinámica de las poblaciones.
Las Ecuaciones Diferenciales Ordinarias (EDO) se han demostrado
particularmente ecaces para modelar sistemas donde la interacción entre las
poblaciones se limita a cambios en el tiempo, como en el caso del crecimiento
exponencial o logístico de una especie en un entorno donde no hay
variaciones espaciales signicativas. Su simplicidad en términos de resolución
y su capacidad para ofrecer predicciones claras las convierte en una opción
preferida en muchas aplicaciones iniciales de modelado poblacional.
Por otro lado, las Ecuaciones Diferenciales Parciales (EDP) son
indispensables cuando se considera la variabilidad espacial en la dinámica
poblacional. Estas ecuaciones permiten no solo modelar el crecimiento
poblacional a través del tiempo, sino incluso capturar la dispersión, la
interacción entre diferentes especies y la inuencia de factores ambientales
que varían en el espacio. En situaciones donde las poblaciones no están
64
distribuidas uniformemente o donde las interacciones entre individuos y su
entorno son complejas, las EDP son la herramienta más adecuada.
La elección entre EDO y EDP depende del contexto especíco del
problema de modelado. Mientras que las EDO son ideales para modelos más
simples y directos, las EDP ofrecen la exibilidad necesaria para abordar
escenarios más complejos y realistas. La comprensión de las ventajas y
desventajas de cada tipo de ecuación consiente a los académicos y ecologistas
seleccionar el enfoque más ecaz para sus estudios (Tenorio et al., 2013). El
avance cientíco y las nuevas técnicas aseguran que las ecuaciones
diferenciales sigan siendo clave para modelar dinámicas poblacionales y
enfrentar los retos de la biología y conservación.
3.3 Sistemas Dinámicos en las Ciencias Sociales: Modelos,
Análisis y Desafíos
Los sistemas dinámicos son estructuras complejas que evolucionan en
el tiempo, caracterizadas por la interacción de múltiples componentes que
pueden inuirse mutuamente. En el contexto de las ciencias sociales, estos
sistemas condescienden modelar y comprender fenómenos como el
comportamiento humano, las relaciones sociales y la dinámica de grupos. La
creciente complejidad social exige herramientas para entender sus dinámicas
internas.
Desde una perspectiva matemática y computacional, los sistemas
dinámicos se estudian a través de ecuaciones que representan las relaciones
entre las variables involucradas. Estas ecuaciones pueden ser lineales o no
lineales, y su análisis proporciona información valiosa sobre cómo los cambios
en un componente del sistema pueden afectar a otros, así como al sistema en
su conjunto. Esta capacidad de modelar interacciones complejas es
65
particularmente relevante en las ciencias sociales, donde los fenómenos no
suelen ser aislados, sino que están imbricados en una red de inuencias
recíprocas.
Un aspecto fundamental de los sistemas dinámicos es su naturaleza
temporal; es decir, que no solo se estudian los estados de un sistema en un
momento dado, sino que también se considera cómo esos estados cambian
con el tiempo. Esto permite explorar patrones de comportamiento, ciclos de
retroalimentación y otras dinámicas que son esenciales para entender
fenómenos sociales como la difusión de innovaciones, la propagación de
movimientos sociales y las dinámicas económicas.
A través de ejemplos especícos en economía y sociología, se ilustrará
cómo estos modelos pueden proporcionar una visión s profunda de la
realidad social y ayudar a abordar problemas complejos. Así, se establecerá
un marco de referencia para comprender la dinámica de sistemas en contextos
sociales, así como sus implicaciones y desafíos en el análisis y la toma de
decisiones.
Los modelos de sistemas dinámicos son herramientas fundamentales
en el estudio de fenómenos complejos en las ciencias sociales. Estos modelos
autorizan representar y comprender cómo varían las interacciones entre
distintos elementos a lo largo del tiempo. Un modelo de sistema dinámico es
una representación matemática que describe cómo las variables de un sistema
interactúan y cambian con el tiempo. Estas representaciones pueden ser tanto
continuas, utilizando ecuaciones diferenciales, como discretas, a través de
ecuaciones en diferencias. Las características más destacadas de estos
modelos incluyen:
66
i. Temporalidad: Los modelos se centran en el cambio temporal, lo que
transige observar mo las decisiones y programas pasados
inuyen en el presente.
ii. Interconexión: Los modelos reejan la interdependencia entre
diferentes variables, subrayando que un cambio en una parte del
sistema puede tener efectos en otras.
iii. No linealidad: Muchos sistemas sociales son inherentemente no
lineales, lo que signica que las relaciones entre variables no
siempre son proporcionales o predecibles.
En economía, los modelos de sistemas dinámicos han sido
ampliamente utilizados para analizar y prever comportamientos de mercado,
ciclos económicos y el impacto de políticas. Por ejemplo:
- Modelo de Solow: Este modelo de crecimiento económico ilustra cómo la
acumulación de capital, el crecimiento de la población y el progreso
tecnológico inuyen en el crecimiento a largo plazo de una economía. A través
de ecuaciones diferenciales, se puede analizar cómo las variaciones en la tasa
de ahorro afectan el nivel de producción y el consumo en series temporales.
- Modelos de equilibrio general: Estos modelos analizan cómo diferentes
mercados interactúan entre sí, considerando la oferta y la demanda en
múltiples sectores. Permiten evaluar el impacto de cambios en políticas
scales o monetarias y cómo estos afectan a toda la economía.
En sociología, los modelos de sistemas dinámicos se utilizan para
entender fenómenos como la difusión de innovaciones, el comportamiento
colectivo y la dinámica de grupos sociales. Algunos ejemplos son:
- Modelo de difusión: Este tipo de modelo se utiliza para estudiar cómo las
nuevas ideas o tecnologías se propagan a través de una población. Los
67
modelos pueden simular la adopción de innovaciones, teniendo en cuenta
factores como la inuencia social y la comunicación entre individuos.
- Modelos de dinámica de poblaciones: Estos modelos analizan cómo las
tasas de natalidad, mortalidad y migración afectan la estructura demográca
de una sociedad. Acceden prever cambios en la población y su impacto en la
economía y en la política social.
Los modelos de sistemas dinámicos son esenciales para el análisis de
fenómenos complejos en las ciencias sociales, proporcionando un marco
teórico que facilita la comprensión de las interacciones y cambios por periodos
determinados. El análisis de la dinámica de sistemas es una herramienta
crucial para comprender cómo interactúan diferentes variables en contextos
sociales, económicos y políticos. A través de este análisis, se pueden explorar
las relaciones complejas y no lineales que caracterizan a las dinámicas
sociales, lo que consiente a los académicos y tomadores de decisiones obtener
una visión más clara de los fenómenos en estudio.
Los métodos de análisis cuantitativo son esenciales para el estudio de
sistemas dinámicos, ya que permiten medir y evaluar las relaciones entre
variables a través de datos numéricos. Estos métodos incluyen el uso de
ecuaciones diferenciales, modelos estadísticos y análisis de series temporales.
En el contexto de las ciencias sociales, el análisis cuantitativo puede ayudar a
identicar tendencias, patrones y correlaciones en datos sociales, económicos
y demográcos. Hay que hacer notar, mediante el uso de modelos
econométricos, los académicos pueden examinar cómo las políticas
económicas afectan el crecimiento del empleo o el ingreso de diferentes
grupos sociales. La capacidad de estos métodos para manejar grandes
68
volúmenes de datos y realizar predicciones es fundamental para el desarrollo
de modelos precisos y útiles.
La simulación es otra herramienta poderosa en el análisis de la
dinámica de sistemas y asiente a los académicos crear modelos
computacionales que imitan el comportamiento de sistemas reales por
periodos. Por lo que, es posible explorar cómo diferentes variables interactúan
y cómo los cambios en una parte del sistema pueden afectar al todo (Izquierdo
et al., 2008). Existen diversas plataformas y software que facilitan la
simulación de sistemas complejos, como Vensim o Stella. Estas herramientas
son particularmente útiles en ciencias sociales, donde los sistemas a menudo
son intrínsecamente complejos y están sujetos a la inuencia de múltiples
factores. Para ilustrar, en el ámbito de la sociología, se pueden simular
interacciones sociales para entender fenómenos como la difusión de
innovaciones o la propagación de movimientos sociales.
La interpretación de los resultados obtenidos a través del análisis y la
simulación es un paso crítico en el estudio de sistemas dinámicos; no solo se
trata de observar patrones y tendencias, sino de comprender qué signican en
el contexto social, económico o político en el que se inscriben. Es fundamental
que los académicos sean cuidadosos al interpretar los resultados, ya que los
modelos son simplicaciones de la realidad y pueden no capturar todas las
complejidades del sistema observado. Además, es importante comunicar los
hallazgos de manera clara y accesible, de modo que los tomadores de
decisiones y otros actores relevantes puedan utilizar la información de
manera efectiva. La colaboración entre académicos, responsables de políticas
y la sociedad civil puede enriquecer el proceso interpretativo y fomentar la
aplicación práctica de los resultados.
69
El análisis de la dinámica de sistemas proporciona herramientas
valiosas para entender y abordar problemas complejos en las ciencias sociales.
A través de métodos cuantitativos, simulaciones y una interpretación
cuidadosa de los resultados, los académicos pueden ofrecer estrategias
signicativas que contribuyan a la formulación de políticas más efectivas y a
la comprensión de los fenómenos sociales en toda su complejidad. El estudio
de los sistemas dinámicos en las ciencias sociales ofrece un marco valioso para
entender la complejidad de las interacciones humanas y sociales. Empero, este
enfoque también presenta diversas implicaciones y desafíos que deben ser
considerados por los académicos y tomadores de decisiones.
Los fenómenos sociales son inherentemente complejos y
multifacéticos, lo que puede dicultar la creación de modelos que capturen
adecuadamente todas las variables y relaciones pertinentes. La selección de
parámetros y la calibración de modelos son procesos que requieren un
profundo entendimiento del sistema en estudio. Además, los modelos pueden
volverse obsoletos rápidamente debido a cambios en el contexto social, lo que
plantea la necesidad de actualizaciones continuas y de una evaluación crítica
de su validez en un tiempo determinado.
Los modelos de sistemas dinámicos pueden inuir signicativamente
en la toma de decisiones a nivel político, económico y social. Sin embargo, la
interpretación de los resultados puede ser problemática. Los decisores
pueden verse tentados a conar excesivamente en las predicciones de un
modelo sin considerar sus limitaciones. Esto puede llevar a la implementación
de políticas inecaces o incluso perjudiciales. Por lo tanto, es crucial que los
responsables de la formulación de políticas comprendan no solo los
resultados de los modelos, sino también las suposiciones y las incertidumbres
70
que los acompañan. La integración de la experiencia cualitativa con el análisis
cuantitativo puede ayudar a mitigar este riesgo.
El avance de los sistemas dinámicos en ciencias sociales abre nuevas
áreas de investigación para comprender mejor las dinámicas sociales. En
efecto, la incorporación de herramientas de inteligencia articial y aprendizaje
automático en la modelación de sistemas dinámicos promete mejorar la
capacidad predictiva y la adaptabilidad de los modelos. Además, la
exploración de la intersección entre sistemas dinámicos y otros enfoques
interdisciplinarios, como la teoría de redes y la dinámica de sistemas
complejos, puede ofrecer nuevas perspectivas sobre cómo entender y abordar
problemas sociales contemporáneos.
Si bien el uso de sistemas dinámicos en las ciencias sociales presenta
numerosos benecios, encima plantea desafíos signicativos que requieren
atención cuidadosa. La capacidad de modelar y analizar dinámicas complejas
puede transformar la forma en que entendemos la sociedad, siempre y cuando
se reconozcan y se aborden las limitaciones inherentes a este enfoque.
Los sistemas dinámicos ofrecen un marco robusto y versátil para
comprender y analizar fenómenos complejos en las ciencias sociales. A través
de la formalización de interacciones y la representación de variables en
modelos matemáticos, se autoriza una exploración más profunda de
dinámicas sociales, económicas y comportamentales. Los modelos de
sistemas dinámicos no solo contribuyen a la interpretación de datos históricos,
sino que también facilitan la simulación de escenarios a mediano plazo, lo que
resulta invaluable en la formulación de políticas y en la toma de decisiones
estratégicas (Ramírez y Juárez, 2009).
71
Ahora bien, como se ha discutido, el uso de estos modelos no está
exento de desafíos. La complejidad inherente a los sistemas sociales, la
disponibilidad y calidad de los datos, así como la necesidad de validar los
modelos ante la incertidumbre, representan obstáculos signicativos.
Además, la interpretación de los resultados requiere un enfoque crítico y
multidisciplinario, dado que las soluciones propuestas a menudo tienen
implicaciones éticas y sociales que no pueden ser pasadas por alto.
Es evidente que la investigación en este campo debe centrarse en
mejorar la precisión y la aplicabilidad de los modelos de sistemas dinámicos.
La integración de técnicas avanzadas de análisis de datos, como el aprendizaje
automático y la inteligencia articial, podría abrir nuevas vías para abordar
problemas sociales complejos. Asimismo, fomentar la colaboración entre
disciplinas permitirá una comprensión más holística de las dinámicas en
juego.
En general, los sistemas dinámicos en las ciencias sociales no solo son
una herramienta poderosa para el análisis y la predicción, sino incluso un
punto de partida para un diálogo más amplio sobre cómo interactúan los
diversos factores en nuestras sociedades. La continua exploración y
renamiento de estos modelos es esencial para enfrentar y construir un
escenario más informado y sostenible.
72
Capítulo IV
Modelos Descriptivos, Inferenciales y Predictivos en
las Ciencias Sociales: Una Guía para la Investigación y
la Toma de Decisiones
4.1 Introducción a los modelos en ciencias sociales
En el campo de las ciencias sociales, los modelos desempeñan un papel
fundamental en la comprensión y análisis de fenómenos complejos que
afectan a las sociedades. Funcionan como representaciones simplicadas de
la realidad, permitiendo a los académicos captar dinámicas que, de otro
modo, serían difíciles de observar. La creación y utilización de modelos es
esencial para abordar cuestiones sociales, ya que facilitan la formulación de
hipótesis, la identicación de patrones y la predicción de tendencias a
mediano plazo.
La importancia de los modelos en la investigación radica en su
capacidad para traducir situaciones sociales complejas en términos más
manejables. Al hacerlo, ofrecen un marco para la interpretación de datos y la
construcción de teorías. Aun así, esta simplicación no está exenta de desafíos;
los modelos pueden inuir en la manera en que se entienden y abordan los
problemas sociales. Por lo tanto, es crucial que los académicos sean
conscientes de las limitaciones inherentes a cada tipo de modelo.
A través de un análisis detallado de cada uno de estos enfoques, se
pretende proporcionar una visión integral de cómo los modelos contribuyen
a la investigación y al conocimiento en este ámbito. Además, se discutirán las
73
aplicaciones prácticas de estos modelos, así como sus respectivas limitaciones
y posibilidades de mejora.
Los modelos descriptivos en ciencias sociales son herramientas que
permiten representar y resumir características y patrones observables de un
fenómeno social, sin buscar establecer relaciones causales. Su principal
objetivo es proporcionar un entendimiento claro de la realidad a través de la
recolección y análisis de datos (Canales, 2006). Estos modelos se centran en la
descripción de los hechos tal como se presentan, facilitando la identicación
de tendencias, patrones en grupos o poblaciones.
Entre las características de los modelos descriptivos, se destacan su
capacidad para organizar y presentar información de manera clara y
comprensible, así como su utilidad para generar hipótesis y preguntas de
investigación. No pretenden hacer predicciones ni inferencias más allá de lo
que los datos observados pueden revelar, lo que los convierte en una base
esencial para cualquier análisis más profundo.
Un ejemplo clásico de un modelo descriptivo es el uso de estadísticas
demográcas para describir la composición de una población en términos de
edad, género, nivel educativo y estado civil. Estos datos pueden ser
presentados mediante grácos, tablas y mapas, permitiendo a los académicos
visualizar y comunicar la información de manera efectiva.
Otro ejemplo es el análisis de encuestas de opinión pública, donde se
recopilan datos sobre las actitudes y preferencias de los ciudadanos respecto
a diversos temas, como la política, la economía o la salud. Los resultados de
estas encuestas se presentan en forma de porcentajes y promedios, lo que
consiente una interpretación rápida de las tendencias en la opinión pública.
74
Además, los modelos descriptivos todavía se aplican en estudios de
comportamiento del consumidor, donde se analizan patrones de compra y
preferencias de los clientes en función de variables demográcas y
socioeconómicas. Esto ayuda a las empresas y organizaciones a comprender
mejor a su audiencia y a adaptar sus estrategias de marketing.
A pesar de su utilidad, los modelos descriptivos presentan ciertas
limitaciones, este es, que no condescienden establecer relaciones de causa y
efecto, lo que signica que no pueden explicar por qué ocurren ciertos
fenómenos. Esto puede llevar a interpretaciones erróneas si se asume que la
descripción de un fenómeno implica necesariamente un entendimiento de sus
causas subyacentes.
Además, los modelos descriptivos dependen en gran medida de la
calidad y la representatividad de los datos utilizados. Si los datos son
incompletos o sesgados, las conclusiones derivadas de estos modelos pueden
ser engañosas. Por último, es importante señalar que los modelos descriptivos
pueden limitarse a un contexto especíco, lo que podría dicultar la
generalización de los hallazgos a otras poblaciones o situaciones.
En síntesis, los modelos descriptivos son fundamentales para la
investigación en ciencias sociales, ya que permiten una comprensión inicial y
detallada de los fenómenos sociales. A pesar de, es crucial combinarlos con
otros enfoques, como los modelos inferenciales y predictivos, para obtener
una visión más completa y robusta de la realidad social.
Los modelos inferenciales son herramientas estadísticas que admiten a
los académicos hacer generalizaciones sobre una población a partir de una
muestra representativa. Estos modelos se basan en la teoría de la probabilidad
y buscan establecer relaciones y patrones entre variables, lo que permite la
75
formulación de hipótesis y la validación de teorías existentes. A diferencia de
los modelos descriptivos, que simplemente describen características
observadas, los modelos inferenciales asienten hacer armaciones más
robustas y fundamentadas sobre la dinámica social, lo cual es fundamental en
el ámbito de las ciencias sociales (Veiga et al., 2020).
Existen diversas técnicas estadísticas que se enmarcan dentro de los
modelos inferenciales. Entre las más comunes se encuentran la regresión
lineal y múltiple, que autorizan explorar la relación entre una variable
dependiente y una o más variables independientes. Otras técnicas incluyen el
análisis de varianza (ANOVA), que se utiliza para comparar las medias de tres
o más grupos, y la prueba de chi-cuadrado, que evalúa la asociación entre
variables categóricas. La selección de la técnica adecuada depende de la
naturaleza de los datos y de las preguntas de investigación planteadas.
El uso de intervalos de conanza y pruebas de hipótesis es
fundamental en este contexto, ya que consiente a los académicos determinar
la signicancia estadística de los resultados obtenidos y, por ende, la validez
de las inferencias realizadas. Estos métodos ayudan a mitigar el riesgo de
error al generalizar los hallazgos de la muestra a la población en su conjunto.
Los modelos inferenciales tienen aplicaciones amplias y variadas en la
investigación social. Se utilizan, conviene destacar, en estudios de opinión
pública para inferir las preferencias de un electorado a partir de encuestas; en
investigaciones sobre el impacto de políticas sociales, donde se busca evaluar
los efectos de una intervención en una población especíca; o en estudios de
comportamiento, donde se exploran las relaciones entre variables
sociodemográcas y actitudes.
76
La capacidad de estos modelos para proporcionar conclusiones que
trascienden los datos observados es especialmente valiosa en un campo donde
las dinámicas complejas a menudo requieren un análisis profundo y riguroso.
Sin embargo, es crucial que los académicos reconozcan las limitaciones
inherentes a los modelos inferenciales, como la posibilidad de sesgos en la
selección de muestras o la falta de control sobre variables externas, lo que
puede afectar la validez de las inferencias realizadas.
El uso adecuado de modelos inferenciales, combinado con un diseño
de investigación sólido y una interpretación crítica de los resultados, permite
a los cientícos sociales contribuir con conocimientos valiosos que informen
la práctica y la política en el ámbito social.
Los modelos predictivos son herramientas analíticas que se utilizan
para anticipar resultados basándose en patrones identicados a partir de
datos históricos. Estos modelos se fundamentan en la premisa de que los
sucesos pasados y las tendencias observadas pueden ofrecer información
valiosa para prever conductas en el tiempo. En las ciencias sociales, los
modelos predictivos permiten a los académicos y responsables de políticas
comprender cómo variables especícas pueden inuir en fenómenos sociales,
económicos o culturales.
Entre las características más destacadas de los modelos predictivos es
su capacidad para manejar grandes volúmenes de datos. Con el avance de la
tecnología y el desarrollo de algoritmos de aprendizaje automático, estos
modelos pueden procesar información compleja y extraer patrones que, de
otro modo, podrían pasar desapercibidos. Además, suelen incluir múltiples
variables, lo que les permite capturar la interacción entre diferentes factores y
proporcionar predicciones más precisas. Existen diversas herramientas y
77
algoritmos que se emplean en la construcción de modelos predictivos. Entre
los más comunes se encuentran:
i. Regresión logística: Este método se utiliza principalmente para
predecir resultados binarios y es particularmente útil en estudios
sociales donde se busca determinar la probabilidad de que ocurra
un evento especíco, como la participación electoral o la adopción
de comportamientos saludables (Reyes et al., 2007).
ii. Árboles de decisión: Esta técnica permite dividir los datos en
segmentos basándose en decisiones sucesivas, lo que facilita la
interpretación de los resultados y la identicación de las variables
más relevantes en el proceso de toma de decisiones.
iii. Redes neuronales: Inspiradas en el funcionamiento del cerebro
humano, las redes neuronales son especialmente ecaces para
manejar datos no lineales y complejos. Se utilizan en aplicaciones
como el análisis de sentimientos en redes sociales o la identicación
de patrones de comportamiento en grandes conjuntos de datos.
iv. Máquinas de soporte vectorial (SVM): Este algoritmo es útil para
clasicar datos y encontrar la mejor línea o hiperplano que separe
diferentes clases de información, siendo aplicable en diversos
contextos sociales, como la segmentación de mercados o la
identicación de grupos de riesgo (Murillo, 2021).
La implementación de modelos predictivos en las ciencias sociales ha
transformado la forma en que se toman decisiones, estos modelos acceden a
los académicos y responsables de políticas anticipar problemas y
oportunidades, facilitando la creación de intervenciones más efectivas y
basadas en evidencia. Especícamente, en el ámbito de la salud pública, los
78
modelos predictivos pueden ayudar a predecir brotes de enfermedades,
permitiendo a las autoridades implementar medidas preventivas a tiempo.
Asimismo, en el campo de la educación, estos modelos pueden
identicar factores que inuyen en el rendimiento académico de los
estudiantes, permitiendo a las instituciones desarrollar estrategias de apoyo
personalizado. Sin embargo, es importante tener en cuenta que las
predicciones no son infalibles y deben interpretarse con cautela. La calidad de
los datos y la elección del modelo adecuado son trascendentales para obtener
resultados ables.
Los modelos predictivos son una herramienta poderosa en las ciencias
sociales, ofreciendo una forma de anticipar y gestionar comportamientos y
tendencias. Su utilización consciente y fundamentada puede marcar la
diferencia en la formulación de políticas y la implementación de estrategias
sociales efectivas.
Cada uno de estos enfoques ofrece herramientas únicas que admiten a
los académicos comprender mejor los fenómenos sociales y formular hipótesis
fundamentadas. Los modelos descriptivos nos proporcionan una visión clara
y detallada de los datos, mientras que los modelos inferenciales nos
consienten hacer generalizaciones y estimaciones basadas en muestras. Por
otro lado, los modelos predictivos, al incorporar técnicas avanzadas de
análisis de datos y algoritmos, ofrecen la posibilidad de anticipar procederes
en contextos sociales complejos. Ahora bien, también hemos identicado las
limitaciones inherentes a cada tipo de modelo, lo que subraya la necesidad de
un enfoque crítico y reexivo en su aplicación.
En primer lugar, la integración de diferentes tipos de modelos puede
enriquecer el análisis y proporcionar una comprensión más matizada de los
79
fenómenos sociales. Al combinar modelos descriptivos con inferenciales y
predictivos, los académicos pueden abordar preguntas complejas y ofrecer
respuestas más robustas y fundamentadas. Además, la creciente
disponibilidad de datos y herramientas tecnológicas abre nuevas
oportunidades para la investigación social, permitiendo la implementación de
modelos más sosticados y adaptativos que reejen la dinámica cambiante de
la sociedad.
Para avanzar en el campo de las ciencias sociales, es esencial fomentar
un enfoque interdisciplinario que combine teorías y métodos de diversas
disciplinas. Se recomienda que los nacientes estudios no solo se centren en el
desarrollo de nuevos modelos, sino encima en la evaluación crítica de los
existentes, considerando su aplicabilidad y limitaciones en contextos
especícos. Asimismo, es fundamental que los académicos se mantengan
actualizados sobre los avances en tecnologías de datos y análisis,
aprovechando herramientas emergentes como la inteligencia articial y el
aprendizaje automático para mejorar la precisión y la efectividad de sus
modelos. Entonces, la colaboración entre académicos, profesionales y
responsables de políticas es clave para garantizar que los hallazgos de la
investigación se traduzcan en decisiones informadas que benecien a la
sociedad en su conjunto.
Los modelos descriptivos, inferenciales y predictivos son pilares
esenciales en el estudio de las ciencias sociales. Su correcta aplicación y
desarrollo son trascendentales para entender y abordar los desafíos sociales
contemporáneos, lo que requiere un compromiso continuo con la
investigación rigurosa y la innovación metodológica.
80
4.2 Evaluación de la Normalidad en Ciencias Sociales: Un
Análisis de la Prueba de Shapiro-Wilk y Otras Metodologías
En el ámbito de la estadística, la normalidad se reere a la distribución
de los datos en una forma que se asemeja a la famosa curva de campana,
conocida como la distribución normal o gaussiana. Este concepto es
fundamental porque muchas técnicas estadísticas, como las pruebas t y el
análisis de varianza (ANOVA), asumen que los datos siguen una distribución
normal. Cuando esta suposición no se cumple, los resultados obtenidos
pueden ser engañosos y conducir a conclusiones erróneas. Por lo tanto,
determinar si un conjunto de datos se ajusta a una distribución normal es un
paso esencial en cualquier análisis estadístico.
La relevancia de las pruebas de normalidad se vuelve aún más crítica
en la investigación social, donde los datos a menudo se recogen a partir de
encuestas, cuestionarios y observaciones. En este campo, la variabilidad y la
heterogeneidad de los datos pueden ser amplias, lo que hace que las
suposiciones sobre la normalidad sean especialmente desaantes. Hay que
hacer notar, en estudios sobre actitudes, características demográcas, los
académicos deben asegurarse de que los métodos estadísticos que utilizan
sean apropiados para la distribución de sus datos. De lo contrario, las
inferencias que se realicen pueden no reejar la realidad social que se intenta
analizar.
La prueba de Shapiro-Wilk es una de las herramientas más utilizadas
para evaluar la normalidad de un conjunto de datos, desarrollada por Samuel
Shapiro y Martin Wilk en 1965, esta prueba se basa en la comparación entre la
distribución de los datos observados y una distribución normal teórica. El
principio fundamental de la prueba es que, si los datos siguen una
81
distribución normal, los valores ordenados de los datos deberían coincidir
estrechamente con los valores esperados de una distribución normal.
El estadístico de la prueba, denotado como W, se calcula a partir de la
relación entre la varianza de las observaciones y la varianza de los residuos
de la regresión lineal ajustada a los datos. Un valor de W cercano a 1 indica
que los datos se distribuyen de manera normal, mientras que valores más
bajos sugieren desviaciones signicativas de la normalidad (Sánchez et al.,
2024).
El procedimiento para aplicar la prueba de Shapiro-Wilk es
relativamente sencillo. Inicialmente, se ordenan los datos en forma ascendente
y se calcula el estadístico de la prueba W. Este cálculo implica los siguientes
pasos:
a. Ordenar los datos: Se disponen los datos de la muestra en orden
ascendente.
b. Calcular la media y la varianza de la muestra.
c. Calcular el estadístico W: Se utiliza la fórmula especíca que incluye
los coecientes de Shapiro-Wilk, que dependen del tamaño de la
muestra y se obtienen de tablas predenidas.
d. Determinar el valor p: A partir del valor W calculado, se obtiene el
valor p correspondiente que se compara con un nivel de signicancia
preestablecido (comúnmente 0.05).
La prueba se puede aplicar a muestras pequeñas (n < 50) y medianas (n
< 2000). Empero, se recomienda tener precaución en muestras muy grandes,
ya que incluso pequeñas desviaciones de la normalidad pueden resultar en
un valor p signicativo. La interpretación de los resultados de la prueba de
Shapiro-Wilk se basa en el valor p obtenido. Si el valor p es menor que el nivel
82
de signicancia elegido (por ejemplo, 0.05), se rechaza la hipótesis nula, lo que
indica que los datos no siguen una distribución normal. Por otro lado, si el
valor p es mayor que el nivel de signicancia, no se puede rechazar la
hipótesis nula y se considera que los datos son consistentes con una
distribución normal.
Es importante tener en cuenta que la prueba de Shapiro-Wilk es
sensible al tamaño de la muestra. En muestras pequeñas, puede no detectar
desviaciones de la normalidad, mientras que en muestras grandes, puede
rechazar la normalidad incluso con pequeñas discrepancias. Por lo tanto, es
recomendable utilizar esta prueba en combinación con métodos grácos,
como histogramas o grácos Q-Q, para obtener una evaluación más completa
de la normalidad de los datos en el contexto de la investigación social. Aparte
de la prueba de Shapiro-Wilk, existen otras pruebas que aceptan evaluar la
normalidad de un conjunto de datos. Cada una de estas pruebas tiene
características únicas que pueden ser más apropiadas en diferentes contextos
de investigación.
La prueba de Kolmogorov-Smirnov (K-S) es una de las pruebas de
normalidad más utilizadas en estadística. Su fundamento se basa en la
comparación entre la función de distribución empírica de la muestra y la
función de distribución acumulativa de una distribución normal teórica. El
método de cálculo implica determinar la máxima diferencia (D) entre estas
dos funciones. Si esta diferencia es mayor que un umbral crítico, se rechaza la
hipótesis nula de que los datos provienen de una distribución normal. El
benecio de la prueba K-S es que se puede aplicar a muestras de cualquier
tamaño, aunque su sensibilidad puede verse afectada en muestras pequeñas.
83
La prueba de Anderson-Darling es otra alternativa que se centra en las
colas de la distribución, lo que la hace especialmente útil en situaciones donde
la normalidad en las colas es crucial, como en la evaluación de riesgos. Esta
prueba es una modicación de la prueba K-S, ya que otorga más peso a las
diferencias en las colas de la distribución. El cálculo de la prueba de
Anderson-Darling implica el uso de una estadística que combina la
discrepancia entre la distribución empírica y la normal teórica,
proporcionando un valor que se compara con valores críticos especícos para
determinar la normalidad. Esta prueba es generalmente más potente que la
K-S, especialmente en muestras pequeñas.
La prueba de Lilliefors es una adaptación de la prueba de Kolmogorov-
Smirnov diseñada especícamente para situaciones en las que la media y la
varianza de la población no son conocidas y deben estimarse a partir de la
muestra. Esto la convierte en una opción valiosa en las ciencias sociales, donde
los datos frecuentemente no cumplen con los supuestos necesarios para
realizar otras pruebas (Sánchez et al., 2024). El método de cálculo es similar al
de la prueba K-S, pero se ajusta para tener en cuenta las estimaciones de la
media y la varianza. La prueba de Lilliefors es particularmente útil para
muestras pequeñas y medianas, y su aplicabilidad en contextos sociales la
convierte en una herramienta esencial para los académicos.
Cada una de estas pruebas de normalidad tiene sus propias ventajas y
limitaciones, lo que las hace adecuadas para diferentes contextos y tamaños
de muestra. La elección de la prueba más adecuada dependerá de las
características especícas de los datos analizados y del objetivo de la
investigación. En el análisis de datos en las ciencias sociales, la elección de la
prueba de normalidad adecuada puede inuir signicativamente en los
resultados y conclusiones de una investigación.
84
i. Prueba de Shapiro-Wilk:
- Ventajas: El punto de partida de la prueba de Shapiro-Wilk es su alta
potencia para detectar desviaciones de la normalidad, especialmente en
muestras pequeñas. Es ampliamente utilizada y aceptada en la comunidad
cientíca.
- Desventajas: Aun así, su principal limitación es que puede ser sensible a la
presencia de valores atípicos, lo que puede afectar su validez. Además, se
recomienda su uso principalmente para muestras de tamaño menor a 2000, ya
que su rendimiento puede decrecer con tamaños de muestra más grandes.
ii. Prueba de Kolmogorov-Smirnov:
- Ventajas: Esta prueba es exible, ya que puede aplicarse no solo para
evaluar la normalidad, sino también para comparar dos distribuciones. Su
simplicidad en el cálculo la convierte en una opción atractiva.
- Desventajas: Sin embargo, puede ser menos potente que la prueba de
Shapiro-Wilk, especialmente en muestras pequeñas. Además, la versión
clásica de esta prueba tiene una menor capacidad para detectar desviaciones
en la cola de la distribución.
iii. Prueba de Anderson-Darling:
- Ventajas: Esta prueba es considerada más robusta que la de Kolmogorov-
Smirnov, ya que pone mayor énfasis en las colas de la distribución. Esto la
hace ideal para detectar desviaciones en situaciones donde los extremos son
críticos.
- Desventajas: No obstante, su complejidad en el cálculo puede ser una
barrera para algunos académicos, y su interpretación puede no ser tan
intuitiva como la de otras pruebas.
85
iv. Prueba de Lilliefors:
- Ventajas: Se basa en la prueba de Kolmogorov-Smirnov, pero está diseñada
especícamente para situaciones donde los parámetros de la distribución no
son conocidos. Esto la hace útil en casos prácticos donde se debe asumir que
la media y la desviación estándar son desconocidas.
- Desventajas: Al igual que la prueba de Kolmogorov-Smirnov, puede tener
limitaciones en la detección de desviaciones en las colas de la distribución.
La elección de la prueba de normalidad adecuada puede depender del
tamaño de la muestra y de las características de los datos, la idea central es, la
prueba de Shapiro-Wilk es preferida en estudios con muestras pequeñas,
mientras que la prueba de Kolmogorov-Smirnov se puede utilizar en
muestras más grandes. La prueba de Anderson-Darling es recomendable
cuando se sospecha que hay desviaciones en las colas, y la prueba de Lilliefors
es adecuada cuando se trabaja con datos donde los parámetros son inciertos.
En investigaciones sociales, como encuestas sobre actitudes o
procedimientos, es común encontrarse con datos que deben ser evaluados por
su normalidad. En particular, un investigador que analiza la distribución de
respuestas en una escala Likert podría optar por la prueba de Shapiro-Wilk
para validar la normalidad de los datos antes de aplicar técnicas paramétricas.
En otro caso, si un sociólogo está comparando dos grupos en términos de
puntajes en una prueba estandarizada, podría utilizar la prueba de
Kolmogorov-Smirnov para determinar si las distribuciones dieren
signicativamente.
La comparación de metodologías para pruebas de normalidad es
crucial para garantizar la validez de los análisis estadísticos en las ciencias
sociales. La correcta selección de la prueba no solo depende de las
86
características de los datos, sino también del objetivo del análisis y del
contexto de la investigación. En el ámbito de las ciencias sociales, la
normalidad de los datos es un supuesto fundamental en muchas técnicas
estadísticas.
En teoría, la selección de la prueba de normalidad adecuada depende
de varios factores, incluyendo el tamaño de la muestra, la naturaleza de los
datos y el contexto de la investigación. La prueba de Shapiro-Wilk, así como,
es altamente efectiva para muestras pequeñas y es preferida en muchas
situaciones debido a su potencia. Sin embargo, investigaciones con muestras
grandes pueden beneciarse de la robustez de la prueba de Kolmogorov-
Smirnov o de la sensibilidad de Anderson-Darling para detectar desviaciones
en las colas de la distribución.
Recomendamos a los académicos que, antes de aplicar cualquier
técnica estadística, realicen una evaluación cuidadosa de la normalidad de sus
datos. Esto no solo mejora la calidad de los resultados, sino que incluso
contribuye a la credibilidad de la investigación social en su conjunto.
Asimismo, es aconsejable complementar el uso de pruebas formales con
métodos grácos, como histogramas o grácos Q-Q, que proporcionan una
visualización intuitiva de la distribución de los datos.
Por último, es importante recordar que, en algunos casos, los datos
pueden no seguir una distribución normal. En tales circunstancias, los
académicos deben estar preparados para considerar enfoques alternativos,
como transformaciones de datos o técnicas estadísticas no paramétricas, que
no dependen de supuestos de normalidad. Al adoptar un enfoque riguroso y
reexivo hacia las pruebas de normalidad, los académicos sociales estarán
87
mejor equipados para tomar decisiones informadas y fundamentadas,
contribuyendo así al avance del conocimiento en sus respectivos campos.
4.3 Estimación de Densidad del Núcleo: Métodos y Aplicaciones
en las Ciencias Sociales
La estimación de densidad del núcleo es una técnica estadística
utilizada para estimar la función de densidad de probabilidad de una variable
aleatoria. Esta metodología se ha convertido en una herramienta fundamental
en diversas disciplinas, incluidas las ciencias sociales, donde la comprensión
de la distribución de los datos es crucial para la interpretación y análisis de
fenómenos sociales complejos (Wang, 2021).
La estimación de densidad del núcleo se basa en la idea de suavizar las
observaciones de datos para crear una representación continua de la
distribución subyacente. En lugar de depender de los métodos tradicionales,
como los histogramas, que pueden ser inuenciados por la elección del ancho
de los intervalos, la estimación de densidad del núcleo utiliza funciones kernel
para asignar un peso a cada observación. Este enfoque autoriza obtener una
visualización más uida y precisa de la distribución de los datos, facilitando
la identicación de patrones y tendencias.
En las ciencias sociales, la estimación de densidad del núcleo es
especialmente valiosa debido a la naturaleza compleja y a menudo no lineal
de los datos que se analizan. Las encuestas, estudios de mercado y otras
investigaciones a menudo generan conjuntos de datos que contienen
variaciones signicativas. La capacidad de estimar la densidad de estos datos
ayuda a los académicos a comprender mejor las dinámicas sociales, las
preferencias de los consumidores y las tendencias demográcas. Además, los
resultados obtenidos mediante esta técnica pueden inuir en la formulación
88
de políticas y en la toma de decisiones estratégicas en contextos sociales y
económicos.
La estimación de densidad es una técnica estadística fundamental en el
análisis de datos, especialmente en las ciencias sociales, donde la
interpretación de la distribución de variables es crucial para entender
tendencias. A criterio de los autores, existen varios métodos para llevar a cabo
esta estimación, cada uno con sus propias características, ventajas y
desventajas:
i. Descripción del método
El método de kernel, o estimación de densidad de kernel (KDE, por sus
siglas en inglés), es una técnica no paramétrica que asiente estimar la función
de densidad de una variable aleatoria. Este método se basa en la idea de
colocar una función de forma (kernel) sobre cada punto de datos en el
conjunto, y luego sumar estas funciones para obtener una estimación suave
de la densidad. Comúnmente se utilizan funciones gaussianas como kernels,
aunque existen otras opciones, como el kernel de Epanechnikov o el de
uniforme.
ii. Ventajas y desventajas
El método de kernel tiene la capacidad de proporcionar una estimación
suave de la densidad sin asumir una forma especíca para la distribución
subyacente. Esto lo hace especialmente útil en situaciones donde la forma de
la distribución no es conocida a priori. A pesar de, una desventaja signicativa
es la elección del ancho de banda, que puede inuir drásticamente en la
estimación. Un ancho de banda demasiado pequeño puede llevar a una
estimación ruidosa, mientras que uno demasiado grande puede ocultar
características importantes de los datos.
89
iii. Aplicaciones en datos sociales
En las ciencias sociales, la estimación de densidad de kernel se ha
utilizado en el análisis de datos de encuestas, donde permite visualizar la
distribución de respuestas a preguntas complejas. También es útil en estudios
de movilidad social, donde se pueden identicar patrones de distribución de
ingresos o riqueza en ciclos establecidos.
iv. Construcción de histogramas
Los histogramas son una de las herramientas más simples y clásicas
para la estimación de densidad. Se construyen dividiendo el rango de los
datos en intervalos (o "bins") y contando el número de observaciones que caen
dentro de cada intervalo. La altura de cada barra en el histograma representa
la frecuencia de los datos en ese rango. Para estimar la densidad, la frecuencia
puede ser normalizada dividiendo por el número total de observaciones y el
ancho del intervalo.
v. Limitaciones del enfoque
A pesar de su simplicidad, el enfoque de histogramas presenta varias
limitaciones. La elección del número de intervalos y su ancho puede afectar
signicativamente la forma del histograma, lo que puede conducir a
interpretaciones erróneas de la distribución de los datos. Además, los
histogramas tienden a ser menos precisos que otros métodos, como el de
kernel, especialmente cuando se trata de conjuntos de datos más pequeños.
vi. Uso en análisis de datos
Los histogramas son útiles en el análisis exploratorio de datos, donde
proporcionan una representación visual rápida de la distribución de
variables. En ciencias sociales, se utilizan frecuentemente para analizar la
90
distribución de respuestas en encuestas, como la edad, el ingreso o la
educación, permitiendo a los académicos identicar patrones y anomalías en
los datos.
vii. Modelos estadísticos comunes
Los métodos paramétricos implican la asunción de una forma
especíca para la distribución de los datos, como la normal, la exponencial o
la binomial. Estos modelos se caracterizan por un conjunto limitado de
parámetros que se estiman a partir de los datos. La estimación de densidad
en este contexto se realiza ajustando el modelo a los datos y utilizando la
función de densidad resultante.
viii. Supuestos y condiciones
Los métodos paramétricos requieren que se cumplan ciertos supuestos
sobre los datos, como la normalidad o la independencia. Si estos supuestos no
son válidos, las estimaciones pueden ser inexactas o engañosas. Por lo tanto,
es crucial realizar pruebas de ajuste y vericar la validez de los supuestos
antes de aplicar estos métodos.
ix. Ejemplos de aplicación
En las ciencias sociales, los métodos paramétricos son ampliamente
utilizados en la modelización de relaciones entre variables, como en estudios
de regresión donde se busca entender el impacto de variables independientes
sobre una variable dependiente. Asimismo, se aplican en análisis de varianza
(ANOVA) para comparar medias entre grupos, lo cual es esencial en
investigaciones sobre políticas sociales y evaluaciones de programas.
La elección del método de estimación de densidad depende del tipo de
datos y del objetivo del análisis. Cada método tiene sus ventajas y desventajas,
91
y su correcta aplicación puede facilitar una comprensión más profunda de las
dinámicas sociales. La estimación de densidad del núcleo (EDK) ha
demostrado ser una herramienta valiosa en diversas áreas de las ciencias
sociales. Su capacidad para proporcionar una representación más precisa de
la distribución de datos permite a los académicos obtener información más
signicativa sobre patrones y tendencias en contextos sociales
x. Interpretación de resultados
La EDK juega un papel crucial en el análisis de encuestas, donde los
académicos necesitan entender la distribución de respuestas en una
población. Al aplicar métodos de estimación de densidad, los analistas
pueden identicar áreas donde las respuestas son más concentradas,
facilitando la interpretación de los resultados. Esto es especialmente útil
cuando los datos contienen una gran cantidad de respuestas discretas que
pueden no reejar adecuadamente la complejidad de las opiniones de los
encuestados.
xi. Casos de estudio relevantes
Un ejemplo notable se encuentra en el análisis de encuestas electorales,
donde la EDK ha sido utilizada para visualizar la distribución de votos en
diferentes regiones. Esto acepta a los analistas identicar patrones geográcos
y segmentar a los votantes según preferencias políticas, lo que a su vez puede
inuir en estrategias de campaña y movilización electoral.
xii. Impacto en decisiones políticas
La capacidad de visualizar y analizar la distribución de respuestas a
través de la EDK puede tener un impacto signicativo en la toma de
decisiones políticas. Los responsables de formular políticas pueden utilizar
92
esta información para entender mejor las necesidades y preocupaciones de los
ciudadanos, y así diseñar iniciativas más efectivas y dirigidas.
xiii. Segmentación de clientes
En el ámbito de la investigación de mercado, la estimación de densidad
del núcleo permite a las empresas segmentar a sus clientes de manera más
precisa. Mediante la identicación de grupos de consumidores con
características similares, las organizaciones pueden adaptar sus productos y
servicios a las necesidades especícas de cada segmento.
xiv. Tendencias de consumo
La EDK encima se emplea para analizar tendencias de consumo,
ayudando a identicar cambios en las preferencias de los consumidores a lo
largo del tiempo. Esto es particularmente relevante en mercados dinámicos,
donde las empresas deben estar atentas a las uctuaciones en la demanda
para mantenerse competitivas.
xv. Optimización de estrategias de marketing
Al utilizar la EDK para comprender mejor la distribución de datos de
clientes, las empresas pueden optimizar sus estrategias de marketing. La idea
central es, al identicar áreas geográcas con una alta concentración de
consumidores potenciales, una empresa puede dirigir sus campañas
publicitarias a esas regiones especícas, maximizando así el retorno de
inversión.
xvi. Distribución de poblaciones
La estimación de densidad del núcleo es fundamental en estudios
demográcos, donde se busca entender la distribución de poblaciones en
distintas áreas. Al aplicar la EDK, los demógrafos pueden visualizar la
93
concentración de residentes en diferentes regiones, lo que les autoriza hacer
inferencias sobre la urbanización, la planicación de servicios públicos y el
desarrollo urbano.
xvii. Análisis de migraciones
La EDK todavía se aplica en el análisis de migraciones, ayudando a los
académicos a rastrear patrones de movimiento poblacional. A través de la
estimación de densidad, se pueden identicar áreas con un alto ujo de
migrantes y comprender las razones detrás de estos movimientos, lo que es
esencial para el desarrollo de políticas migratorias y la planicación regional.
xviii. Proyecciones futuras
Ahora bien, la EDK se utiliza para realizar proyecciones demográcas,
permitiendo a los académicos anticipar cambios en la población en un espacio
temporal. Esto es crucial para la planicación de recursos y servicios, así como
para la formulación de políticas que respondan a las necesidades futuras de
la sociedad. La estimación de densidad del núcleo ofrece aplicaciones
prácticas y signicativas en diversas áreas de las ciencias sociales, desde el
análisis de encuestas hasta la investigación de mercado y estudios
demográcos. Su capacidad para proporcionar representaciones más precisas
de datos permite a los académicos y profesionales tomar mejores decisiones
informadas, contribuyendo así al avance del conocimiento en el ámbito social.
Desde su denición y conceptos básicos hasta su relevancia y
aplicación práctica en diversas áreas, hemos destacado cómo esta
metodología no solo facilita la comprensión de la distribución de datos, sino
que también asiente obtener estrategias valiosas que pueden inuir en
decisiones importantes. La estimación de densidad del núcleo se ha mostrado
como un método poderoso en comparación con otras técnicas tradicionales,
94
como los histogramas, debido a su capacidad para ofrecer una representación
más suave y continua de la distribución de datos. A pesar de sus limitaciones,
los métodos de estimación de densidad, ya sean kernel, histogramas o
paramétricos, aportan una variedad de enfoques que se pueden adaptar a
diferentes contextos y tipos de datos en las ciencias sociales.
Las aplicaciones discutidas, que abarcan desde el análisis de encuestas
hasta la investigación de mercado y estudios demográcos, ilustran la
versatilidad de la estimación de densidad del núcleo. Estos métodos no solo
aceptan a los académicos comprender mejor las tendencias y patrones en los
datos, sino que también tienen un impacto tangible en la formulación de
políticas, estrategias de marketing y proyecciones demográcas.
La estimación de densidad del núcleo se ha consolidado como una
herramienta esencial en la investigación social, ofreciendo un enfoque robusto
para analizar y visualizar datos complejos. La expansión de los datos hará que
estos métodos sean cada vez más relevantes, por lo que la investigación en
esta área se enriquecerá con nuevas técnicas y enfoques que integren la
estimación de densidad con herramientas de aprendizaje automático y
análisis de big data, lo que permitirá a los cientícos sociales abordar
preguntas aún más complejas y relevantes en un mundo en constante cambio.
95
Conclusión
La estadística inferencial se exploró como herramienta fundamental
para el análisis en las ciencias sociales, permitiendo a los investigadores
extraer conclusiones signicativas a partir de muestras limitadas y hacer
generalizaciones sobre poblaciones más amplias. Con base en la evidencia
teórica, se discernió sus principios comprensivos y básicos, como el muestreo,
la estimación de parámetros y las pruebas de hipótesis, los cuales forman la
base del análisis estadístico y métodos de análisis aplicados en este campo,
como el análisis de regresión, el análisis de varianza (ANOVA) y los métodos
no paramétricos, que proporcionan diferentes enfoques para interpretar datos
sociales.
Hoy en día, el uso de técnicas de análisis más sosticadas, como el
aprendizaje automático y la inteligencia articial, en sinergia con la inferencia
y la heurística converge en dar respuesta a problemas complejos de manera
eciente y precisa. Además, la integración de enfoques interdisciplinarios y la
colaboración entre cientícos sociales y estadísticos es decisivo para
enriquecer el análisis de datos y mejorar la validez de las inferencias
realizadas.
Para los autores, la relevancia de las pruebas de normalidad se vuelve
aún más crítica en la investigación social, donde los datos con frecuencia se
recogen a partir de encuestas, cuestionarios y observaciones. Por lo tanto, la
variabilidad y la heterogeneidad de los datos pueden ser amplias, lo que hace
que las suposiciones sobre la normalidad sean especialmente desaantes. Hay
que hacer notar, en estudios sobre actitudes, características demográcas, los
académicos deben asegurarse de que los métodos estadísticos que utilizan
96
sean apropiados para la distribución de sus datos y armación de teorías con
base en la interpretabilidad de los resultados.
Por ende, la comprensión de los resultados obtenidos a través del
análisis y la simulación es un paso crítico en el estudio de sistemas dinámicos;
no solo se trata de observar patrones y tendencias, sino de comprender qué
signican en el contexto social, económico o político en el que se inscriben. Es
decir, explorar patrones de comportamiento, ciclos de retroalimentación y
otras dinámicas que son esenciales para entender fenómenos sociales como la
difusión de innovaciones, la propagación de movimientos sociales y las
dinámicas económicas.
En contexto, es esencial que la investigación social basada en análisis
de supervivencia se enfoque en mejorar la calidad de los datos disponibles y
en desarrollar métodos que sean más accesibles para una variedad de
situaciones. Por lo que la integración de tecnologías emergentes, como la
inteligencia articial y el aprendizaje automático, podría ofrecer nuevas
perspectivas y enfoques para el análisis de grandes volúmenes de datos
demográcos, permitiendo identicar patrones complejos que antes eran
difíciles de discernir.
En conclusión, los fenómenos sociales son inherentemente complejos y
multifacéticos, lo que puede dicultar la creación de modelos que capturen
adecuadamente todas las variables y relaciones pertinentes. He aquí la
utilidad principal de la estadística inferencial plasmada en el libro, pues, la
selección de parámetros y la calibración de modelos son procesos que
requieren un profundo entendimiento del sistema en estudio. En
consecuencia, los modelos pueden volverse obsoletos rápidamente debido a
97
cambios en el contexto social, lo que plantea la necesidad de actualizaciones
continuas y de una evaluación crítica de su validez en un tiempo determinado.
Finalmente. se recomienda estudiar exhaustivamente los principios de
la prueba de Cochran-Mantel-Haenszel (CMH), tratadas en el capítulo uno,
que transige en evaluar la asociación entre dos variables categóricas mientras
se controla por una o más variables de confusión. Esta prueba es fundamental
en el análisis de datos en contextos donde los académicos desean determinar
si existe una relación signicativa entre las variables de interés, considerando
otras variables que podrían inuir en dicha relación.
98
Bibliografía
Abd ElHafeez, S., D'Arrigo, G., Leonardis, D., Fusaro, M., Tripepi, G., &
Roumeliotis, S. (2021). Methods to Analyze Time-to-Event Data: The Cox
Regression Analysis. Oxidative medicine and cellular longevity, 2021, 1302811.
hps://doi.org/10.1155/2021/1302811
Arribalzaga, E.B. (2007). Interpretación de las curvas de supervivencia. Revista
chilena de cirugía, 59(1), 75-83. hps://dx.doi.org/10.4067/S0718-
40262007000100013
Barreto-Villanueva, A. (2012). El progreso de la Estadística y su utilidad en la
evaluación del desarrollo. Papeles de población, 18(73), 241-271
Canales, M. (2006). Metodologías de investigación social. Introducción a los ocios.
Santiago: Lom Ediciones
Contreras, O.F., y Torres, H. (2016). Crecimiento económico y desarrollo social.
Guadalajara: Centro Universitario de Ciencias Sociales y Humanidades de la
Universidad de Guadalajara
Córdova Olivera, P., y Yurevna Nikolaeva, M. (2019). Modelo de Cox
multinivel estraticado con interacción por índice de riqueza para análisis de
riesgo de muerte de niños menores de cinco años - ENDSA 2008. Investigación
& Desarrollo, 19(2), 109-126
Errandonea, G. (2024). Método de Kaplan-Meier. Análisis de supervivencia
por modelado parcial: Una alternativa metodológica para el estudio de las
trayectorias estudiantiles en educación superior. Páginas de Educación, 17(2),
e4115. hps://doi.org/10.22235/pe.v17i2.4115
99
Fiveable. (2025). "3.1 Population growth models Environmental Biology."
Edited by Becky Bahr, Fiveable. hps://library.veable.me/environmental-
biology/unit-3/population-growth-models/study-
guide/dzmDvelH9WIyvT3D
Gawande, M. S., Zade, N., Kumar, P., Gundewar, S., Weerarathna, I. N., &
Verma, P. (2025). The role of articial intelligence in pandemic responses: from
epidemiological modeling to vaccine development. Molecular
biomedicine, 6(1), 1. hps://doi.org/10.1186/s43556-024-00238-3
Hernández, Z. (2012). Métodos de análisis de datos. Logroño: Universidad de
Logroño
Hincapié-Mesa, F.A., y Londoño-Roldán, J.C. (2023). Impacto de la
desigualdad de ingresos en la esperanza de vida y la salud en
Colombia. Revista Cientíca General José María Córdova, 21(42), 429–451.
hps://doi.org/10.21830/19006586.1142
Izquierdo, L.R., Galán, J.M., Santos, J.I., y Del Olmo, R. (2008). Modelado de
sistemas complejos mediante simulación basada en agentes y mediante
dinámica de sistemas. EMPIRIA. Revista de Metodología de las Ciencias
Sociales, (16), 85-112
Kempf Leonard, K. (2005) Encyclopedia of social measurement. Amsterdam,
Miamisburg, OH: Elsevier; ScienceDirect online distributor. Available at:
hps://www.sciencedirect.com/referencework/9780123693983/encyclopedia-
of-social-measurement
Kempf Leonard, K. (2005) Encyclopedia of social measurement. Amsterdam,
Miamisburg, OH: Elsevier; ScienceDirect online distributor. Available at:
100
hps://www.sciencedirect.com/referencework/9780123693983/encyclopedia-
of-social-measurement
López, P.L. (2004). Población muestra y muestreo. Punto Cero, 09(08), 69-74
Mejía, A., Brito, L., Arequipa, E., y Mora, A., (2025). Análisis de Ecuaciones
Diferenciales como Herramienta Fundamental para Entender y Modelar
Sistemas Dinámicos en la Educación Superior: Aplicación en Ingeniería y
Matemáticas Avanzadas. Reincisol, 4(7), 4940-4960.
hps://doi.org/10.59282/reincisol.V4(7)4940-4960
Mendenhall, W., Beaver, R., y Beaver, B. (2010). Introducción a la probabilidad y
estadística. Ciudad de México: Cengage Learning Editores
Miranda, I. (2014). Modelación matemática de la dinámica de poblaciones:
desarrollo histórico y uso práctico en Cuba. Revista de Protección Vegetal, 29(3),
157-167
Moral de la Rubia, J., y Valle, A. (2024). Seasonal variations in city color
preferences incorporating sex and age factors. Journal of Asian Architecture and
Building Engineering, 11(3). hps://doi.org/10.1080/13467581.2024.2366829
Murillo Castañeda, R.A. (2021). Implementación del método máquinas de
soporte vectorial en bases de datos espaciales para análisis de clasicación
supervisada en imágenes de sensores remotos. Revista cartográca, (102), 27-
42.hps://doi.org/10.35424/rcarto.i102.830
Pérez, C. (2004). Técnicas de Análisis Multivariante de Datos. Aplicaciones con
SPSS®. Madrid: Pearson
Ramírez, A., y Polack, A.M. (2020). Estadística inferencial. Elección de una
prueba estadística no paramétrica en investigación cientíca. (2020). Horizonte
101
De La Ciencia, 10(19), 191-
208. hps://doi.org/10.26490/uncp.horizonteciencia.2020.19.597
Ramírez, J.C., y Juárez, D. (2009). La nueva escalada matemática: El impacto
reciente de la teoría de sistemas dinámicos en Economía. Economía mexicana.
Nueva época, 18(1), 71-103
Reyes Rocabado, J., Escobar Flores, C., Duarte Vargas, J., y Ramirez Peradoo,
P. (2007). Una aplicación del modelo de regresión logística en la predicción
del rendimiento estudiantil. Estudios pedagógicos (Valdivia), 33(2), 101-
120. hps://dx.doi.org/10.4067/S0718-07052007000200006
Rojas-Castro, H., y Araya-Crisóstomo, S. (2019). Medidas de conservación ex
situ: Un enfoque metapoblacional a partir del modelo clásico de
Levins. Gayana (Concepción), 83(1), 46-56. hps://dx.doi.org/10.4067/S0717-
65382019000100046
Romaina, J.C. (2012). Estadística experimental. Herramientas para investigación.
Tacna: Universidad Privada de Tacna
Sánchez-Solis, Y., Raqui-Ramirez, C., Huaroc-Ponce, E. y Huaroc-Ponce, N.
(2024). Importancia de Conocer la Normalidad de los Datos Utilizados en los
Trabajos de Investigación por Tesistas. Revista Tecnológica-Educativa Docentes
2.0, 17(2), 404-413. hps://doi.org/10.37843/rted.v17i2.554
Tenorio Villalon, A.F., Martín Caraballo, A.M., Paralera Morales, C., y
Contreras Rubio, I. (2013). Ecuaciones diferenciales y en diferencias aplicadas
a los conceptos económicos y nancieros. Revista de Métodos Cuantitativos para
la Economía y la Empresa, 16, 165-199
102
Vega-Cauich, J.I. (2019). El análisis de supervivencia como técnica para la
evaluación de la validez predictiva en la psicología jurídica. Anuario de
Psicología Jurídica, 29, 1-10. hps://doi.org/10.5093/apj2018a11
Veiga., N., Otero., L., y Torres., J. (2020). Reexiones sobre el uso de la
estadística inferencial en investigación didáctica. InterCambios. Dilemas y
transiciones de la Educación Superior, 7(2), 94-106.
hps://doi.org/10.2916/inter.7.2.10
Wang, Y. (2021). Bivariate kernel density estimation for environmental
contours at two oshore sites. Ships and Oshore Structures, 17(12), 2734–2744.
hps://doi.org/10.1080/17445302.2021.2017163
Yu, B., y Gastwirth, J.L. (2008). Un método para evaluar la sensibilidad de la
prueba de Cochran-Mantel-Haenszel a un factor de confusión no
observado. Transacciones losócas. Serie A, Ciencias matemáticas, físicas y de
ingeniería, 366 (1874), 2377–2388. hps://doi.org/10.1098/rsta.2008.0030
103
De esta edición de “Estadística inferencial para las ciencias sociales”, se
terminó de editar en la ciudad de Colonia del Sacramento en la República
Oriental del Uruguay el 05 de agosto de 2025
104