0
1
Estadística bayesiana, análisis de
componentes principales y factorial
exploratorio aplicado a la
investigación cientíca
transdisciplinaria
Melendez Rosales, Jorge Luis; Aguado Lingan,
Aracelli Mónica; Paz Rubio, Deyanira
Elizabeth; Ponte Valverde, Segundo Ignacio;
Sanchez Farfan, Yeli Sandra; Blanco Napuri
De Martínez, Ana Cristhina; Huaman
Cusihuaman, Julio Cesar
© Melendez Rosales, Jorge Luis; Aguado
Lingan, Aracelli Mónica; Paz Rubio, Deyanira
Elizabeth; Ponte Valverde, Segundo Ignacio;
Sanchez Farfan, Yeli Sandra; Blanco Napuri
De Martínez, Ana Cristhina; Huaman
Cusihuaman, Julio Cesar, 2025
Primera edición (1ra. ed.): Agosto, 2025
Editado por:
Editorial Mar Caribe ®
www.editorialmarcaribe.es
Av. Gral. Flores 547, 70000 Col. del
Sacramento, Departamento de Colonia,
Uruguay.
Diseño de caratula e ilustraciones: Isbelia
Salazar Morote
Libro electrónico disponible en:
hps://editorialmarcaribe.es/ark:/10951/is
bn.9789915698281
Formato: Electrónico
ISBN: 978-9915-698-28-1
ARK: ark:/10951/isbn.9789915698281
DOI: 10.70288/emc.9789915698281
Editorial Mar Caribe (OASPA): Como miembro de la
Open Access Scholarly Publishing Association,
apoyamos el acceso abierto de acuerdo con el código
de conducta, la transparencia y las mejores prácticas
de OASPA para la publicación de libros académicos
y de investigación. Estamos comprometidos con los
más altos estándares editoriales en ética y
deontología, bajo la premisa de «Ciencia Abierta en
América Latina y el Caribe»
Editorial Mar Caribe, rmante 795 de 12.08.2024
de la Declaración de Berlín
"... Nos sentimos obligados a abordar los retos de Internet
como medio funcional emergente para la distribución del
conocimiento. Obviamente, estos avances pueden
modicar signicativamente la naturaleza de la
publicación cientíca, así como el actual sistema de
garantía de calidad...." (Max Planck Society, ed. 2003.,
pp. 152-153).
CC BY-NC 4.0
Los autores pueden autorizar al público en general a
reutilizar sus obras únicamente con nes no
lucrativos, los lectores pueden utilizar una obra para
generar otra, siempre que se crédito a la
investigación, y conceden al editor el derecho a
publicar primero su ensayo bajo los términos de la
licencia CC BY-NC 4.0.
Editorial Mar Caribe se adhiere a la "Recomendación
relativa a la preservación del patrimonio documental,
comprendido el patrimonio digital, y el acceso al
mismo" de la UNESCO y a la Norma Internacional de
referencia para un sistema abierto de información
archivística (OAIS-ISO 14721). Este libro está
preservado digitalmente por ARAMEO.NET.
2
Editorial Mar Caribe
Estadística bayesiana, análisis de componentes
principales y factorial exploratorio aplicado a la
investigación cientíca transdisciplinaria
Colonia, Uruguay
2025
3
Índice
Introducción ......................................................................................... 5
Capítulo I ............................................................................................. 8
Integración de la Estadística Bayesiana, Análisis de Componentes
Principales y Factorial Exploratorio en la Investigación Cientíca
Transdisciplinaria ................................................................................ 8
1.1 Análisis de componentes principales (ACP) y Factorial
Exploratorio (AFE): Fundamentos Teóricos ....................................... 9
1.2 Guía para la Selección de Teorías Bayesianas en Investigación
Cientíca: Criterios y Aplicaciones Multidisciplinarias .................. 13
1.3 El Método de Máxima Verosimilitud y la Factorización de Ejes
Principales (FEP) ............................................................................. 19
Capítulo II .......................................................................................... 25
Hipótesis complejas sobre las relaciones causales o jerárquicas entre
constructos de metodología de investigación transdisciplinaria ......... 25
2.1 Relaciones causales en la investigación transdisciplinaria ......... 26
2.2 Métodos bayesianos en metodología de investigación cientíca 31
2.3 Diagrama de árbol en toma de decisiones y metodología de
investigación cientíca .................................................................... 37
Capítulo III......................................................................................... 44
Estadística bayesiana para validación de instrumentos en investigación
cientíca ............................................................................................. 44
3.1 Aplicaciones en la validación de instrumentos .......................... 46
3.2 Teorema de bayes para la validación de instrumentos de
investigación experimental ............................................................. 49
3.3 Estadística bayesiana para la interpretación de datos clínicos y de
medicina experimental .................................................................... 56
Capítulo IV......................................................................................... 62
4
Extrayendo Constructos: Análisis de Componentes Principales y
Factorial Exploratorio en la Investigación Social y Psicológica ........... 62
4.1 Aplicaciones prácticas del ACP y AFE ........................................ 63
4.2 Análisis de Componentes Principales Aplicada a la Investigación
en Ciencias Sociales ........................................................................ 68
4.3 Rotación ortogonal y oblicua ..................................................... 73
Conclusión ......................................................................................... 79
Bibliografía ........................................................................................ 81
5
Introducción
La investigación transdisciplinaria consiste en colaborar e integrar
distintas disciplinas, acomo el conocimiento de actores no académicos
(como comunidades, profesionales o responsables políticos), para abordar
y resolver problemas complejos del mundo real que una sola disciplina no
puede gestionar por sola. Estos problemas suelen ser multifacéticos,
inciertos y exigir la combinación de datos de diversas fuentes y
naturalezas. Además, las herramientas estadísticas juegan un papel crucial
en la investigación transdisciplinaria, proporcionando capacidades
esenciales para manejar la complejidad y la diversidad de datos en estos
estudios: estadística bayesiana (EB), análisis de componentes principales
(ACP) y análisis factorial exploratorio (AFE).
La estadística bayesiana proporciona un marco de inferencia
robusto, ideal para la investigación transdisciplinaria debido a su
capacidad para incorporar sistemáticamente conocimiento previo (teorías
existentes, resultados de estudios anteriores o incluso el conocimiento
experto de los colaboradores no académicos) en el análisis. Esto es crucial
cuando los datos nuevos son escasos o costosos de obtener, o en campos
donde ya existe una base teórica sólida.
Además, ofrece una manera coherente de cuanticar y actualizar las
creencias sobre los parámetros del modelo a medida que se recopilan
nuevas evidencias (Teorema de Bayes). Los resultados se presentan con
intervalos de credibilidad, que son intuitivamente más interpretables que
los intervalos de conanza frecuentistas, pues reejan directamente la
probabilidad de que un parámetro se encuentre en un rango determinado.
Y facilita la construcción de modelos estadísticos complejos y jerárquicos
que pueden manejar múltiples niveles de variación y diferentes fuentes de
datos simultáneamente, una necesidad común en proyectos
transdisciplinarios que integran datos ecológicos, sociales, económicos,
entre otros.
6
El ACP es principalmente una técnica de reducción de
dimensionalidad y visualización que se aplica a grandes conjuntos de
datos. Transforma un conjunto de variables originales correlacionadas en
un menor número de nuevas variables no correlacionadas, llamadas
componentes principales. Esto simplica el análisis posterior y facilita la
interpretación de fenómenos complejos; además, ayuda a identicar las
dimensiones con mayor varianza en los datos. Por ejemplo, en un estudio
sobre sostenibilidad, el ACP podría reducir docenas de indicadores
ambientales, sociales y económicos a unas pocas componentes que
representan variables en un espacio de baja dimensión, lo cual es útil para
comunicar hallazgos a colegas de diferentes campos.
El AFE se centra en la estructura de los datos y en la identicación
de variables latentes o constructos no directamente observables. Es
fundamental para desarrollar y validar medidas de conceptos abstractos y
multifacéticos (factores) que son comunes en las ciencias sociales y
humanidades, integradas en la investigación transdisciplinaria. El AFE
examina las intercorrelaciones entre un conjunto de variables observadas
para determinar si pueden explicarse por un número menor de factores
latentes. Esto ayuda a conrmar las teorías sobre cómo las variables se
relacionan conceptualmente, permitiendo a los investigadores construir
indicadores agregados más sólidos.
Por lo tanto, los factores validados mediante AFE pueden emplearse
como variables en futuros modelos estadísticos, incluidos los bayesianos,
lo que los hace más simples y fundamentados. Sin embargo, la mayor
fortaleza de la investigación transdisciplinaria radica en la integración
sinérgica de estas metodologías.
Este libro presenta un análisis detallado de las técnicas de análisis
de componentes principales y factorial exploratorio, abordando sus
fundamentos teóricos, aplicaciones prácticas y limitaciones. El objetivo es
ofrecer a investigadores y profesionales una guía útil para aplicar estos
métodos en sus estudios, resaltando también su importancia en la
identicación de constructos y el modelado de datos. Además, se discuten
posibles direcciones futuras para promover avances en esta área.
7
En síntesis, se busca proporcionar una comprensión clara de los
fundamentos teóricos y prácticos del análisis de componentes principales.
En segundo lugar, se explorarán las diversas aplicaciones del PCA en la
investigación en ciencias sociales, destacando cómo esta técnica ha sido
utilizada para extraer información signicativa de datos complejos. A su
vez, en el contexto de la estadística bayesiana, la evaluación de la abilidad
puede realizarse a través de modelos jerárquicos que permiten incorporar
información previa sobre la variabilidad en las mediciones. Es decir, al
analizar la abilidad de un cuestionario, se pueden usar distribuciones a
priori para modelar la variabilidad esperada en las respuestas de los
participantes.
8
Capítulo I
Integración de la Estadística Bayesiana,
Análisis de Componentes Principales y
Factorial Exploratorio en la Investigación
Cientíca Transdisciplinaria
La estadística bayesiana es un enfoque fundamental en la inferencia
estadística que se basa en el teorema de Bayes. Este teorema establece un
método para actualizar las probabilidades de las hipótesis según se
dispone de nueva evidencia. Esta metodología se distingue por su
capacidad para incorporar información previa junto con datos
observacionales, lo que permite una interpretación más dinámica y
adaptativa de los resultados.
La estadística bayesiana se centra en la interpretación de la
probabilidad como un grado de creencia en una hipótesis, en lugar de una
frecuencia relativa de eventos. Este enfoque permite que las inferencias
sobre parámetros desconocidos se realicen a partir de la combinación de
conocimientos previos (la "prior") y la información nueva obtenida a través
de la observación (la "verosimilitud"). El teorema de Bayes proporciona la
fórmula matemática que permite realizar esta actualización:
\[ P(H|D) = \frac{P(D|H) \cdot P(H)}{P(D)} \]
Donde \( P(H|D) \) es la probabilidad posterior de la hipótesis \(
H \) dados los datos \( D \), \( P(D|H) \) es la probabilidad de observar
los datos si \( H \) es cierta, \( P(H) \) es la probabilidad previa de \( H
\), y \( P(D) \) es la probabilidad total de los datos.
La estadística bayesiana tiene sus raíces en el trabajo del matemático
inglés Thomas Bayes, quien en el siglo XVIII formuló el teorema que lleva
su nombre. Sin embargo, su desarrollo como un campo formal de estudio
9
estuvo en gran medida limitado hasta el siglo XX, cuando se comenzaron
a desarrollar métodos computacionales que facilitaron su aplicación
práctica. La llegada de la computación moderna y el uso de algoritmos de
muestreo, como el muestreo de Monte Carlo por cadenas de Markov
(MCMC), han permitido a los investigadores aplicar la estadística
bayesiana en una amplia gama de disciplinas, desde la biología y la
medicina hasta la economía y las ciencias sociales.
La estadística bayesiana ha demostrado ser especialmente valiosa
en contextos donde la incertidumbre es alta y la información previa es
relevante. En la investigación médica, se utiliza para actualizar la
probabilidad de ecacia de un tratamiento conforme se obtienen nuevos
datos de ensayos clínicos. En ecología, permite modelar la abundancia de
especies a partir de observaciones limitadas. Su exibilidad en la
modelización la convierte en una herramienta potente en estudios
transdisciplinarios, donde se requiere integrar diversas fuentes de
información y conocimientos.
1.1 Análisis de componentes principales (ACP) y
Factorial Exploratorio (AFE): Fundamentos Teóricos
El Análisis de Componentes Principales (ACP) es una técnica
estadística fundamental que se utiliza para la reducción de
dimensionalidad, permitiendo simplicar conjuntos de datos complejos
sin perder la información esencial. Este método se basa en la
transformación de un conjunto de variables observadas correlacionadas en
un nuevo conjunto de variables no correlacionadas, conocidas como
componentes principales.
El ACP tiene como objetivo principal identicar patrones en los
datos y facilitar su interpretación. Al transformar las variables originales
en componentes principales, se busca maximizar la varianza explicada en
los datos. En términos simples, el ACP permite condensar la información
de múltiples variables en unas pocas, manteniendo la mayor cantidad de
variabilidad posible. Esta técnica es especialmente útil en investigaciones
donde los investigadores se enfrentan a un gran número de variables, ya
10
que permite identicar las dimensiones más relevantes que explican la
variabilidad en los datos.
El proceso del ACP consta de varios pasos clave. En primer lugar,
se estandarizan las variables para asegurar que todas contribuyan
equitativamente al análisis, especialmente si están en diferentes escalas.
Luego, se calcula la matriz de correlación o la matriz de covarianza de las
variables. Los componentes principales se ordenan según la cantidad de
varianza que explican, lo que permite a los investigadores decidir cuántos
componentes son necesarios para representar adecuadamente los datos.
Comúnmente, se utiliza el criterio de Kaiser, que sugiere retener los
componentes cuyos valores propios sean mayores que uno, así como el
gráco de sedimentación (scree plot) para visualizar el punto donde la
varianza explicada comienza a estabilizarse.
La interpretación de los resultados del ACP en contextos
transdisciplinarios puede ser un desafío, pero es esencial para extraer
conclusiones signicativas. Cada componente principal puede
interpretarse como una combinación lineal de las variables originales, lo
que permite a los investigadores analizar qué variables contribuyen más a
cada componente y, por ende, a la variabilidad del conjunto de datos.
En un contexto transdisciplinario, donde se integran diferentes
campos de conocimiento, el ACP puede ayudar a identicar relaciones
ocultas entre variables que pueden no ser evidentes a simple vista. De este
modo, en estudios que combinan datos de ciencias sociales, biológicas y
ambientales, el ACP puede revelar patrones que sugieren interacciones
entre factores que afectan fenómenos complejos, como el cambio climático
o la salud pública. Así, el ACP se convierte en una herramienta valiosa para
guiar la formulación de hipótesis y la toma de decisiones informadas en
investigaciones donde la colaboración interdisciplinaria es clave (Sargent
et al., 2020).
A través de su capacidad para simplicar y claricar datos
complejos, el Análisis de Componentes Principales se establece como un
11
método indispensable en la investigación cientíca transdisciplinaria,
facilitando la exploración y el entendimiento de fenómenos multifacéticos.
El análisis factorial exploratorio (AFE) es una técnica estadística
utilizada para identicar la estructura subyacente de un conjunto de
variables observadas. Su principal objetivo es reducir la dimensionalidad
de los datos, facilitando la identicación de patrones y relaciones entre
variables. En el contexto de la investigación cientíca transdisciplinaria, el
AFE permite a los investigadores descomponer datos complejos y
multidimensionales en factores más simples, lo que puede llevar a una
mejor comprensión de las interrelaciones entre diferentes disciplinas.
El AFE se basa en la premisa de que las correlaciones entre un
conjunto de variables pueden ser explicadas por un número menor de
factores subyacentes. Estos factores representan constructos no
observables que inuyen en las variables medidas. La técnica comienza
con la formulación de hipótesis sobre la estructura de los datos y se lleva a
cabo a través de la extracción de factores, que puede realizarse mediante
diversos métodos, como el análisis de componentes principales o el
método de máxima verosimilitud. Una vez extraídos los factores, se
procede a la rotación de los mismos para facilitar su interpretación, siendo
las rotaciones varimax y oblimin las más utilizadas.
El análisis de componentes principales (ACP) y el análisis factorial
exploratorio (AFE) comparten similitudes; existen diferencias clave en sus
enfoques y objetivos. El ACP se centra en la reducción de la
dimensionalidad mediante la creación de componentes que maximizan la
varianza explicada en los datos originales. Por otro lado, el AFE busca
identicar factores que expliquen las correlaciones observadas entre
variables, sin necesariamente centrarse en la maximización de la varianza.
Otra diferencia importante radica en el tratamiento de los errores de
medida. En el ACP, se asume que todos los componentes extraídos son
relevantes y no se considera la variabilidad no explicada como un error.
En contraste, el AFE reconoce que hay varianza en los datos que no puede
12
ser atribuida a los factores identicados y esta variabilidad se considera
como error en la medición.
El análisis factorial exploratorio se ha convertido en una
herramienta valiosa en la investigación cientíca transdisciplinaria, donde
se integran múltiples disciplinas para abordar problemas complejos. A
través del AFE, los investigadores pueden revelar las conexiones entre
variables de diferentes campos, facilitando la creación de modelos
integrados que reejen la complejidad de los fenómenos estudiados.
De este modo, en estudios sobre salud pública que implican
variables sociales, económicas y ambientales, el AFE puede ayudar a
identicar factores comunes que inuyan en la salud de las comunidades.
Esto permite a los investigadores desarrollar intervenciones más efectivas
y contextualizadas, basadas en una comprensión profunda de las
interrelaciones entre los distintos factores.
El uso del AFE en contextos transdisciplinarios fomenta un enfoque
colaborativo, donde expertos de diversas disciplinas pueden contribuir a
la interpretación de los factores identicados, enriqueciendo la
investigación con múltiples perspectivas y conocimientos. El análisis
factorial exploratorio no solo es una técnica estadística útil, sino que
también es un puente que une diversas áreas del conocimiento en la
búsqueda de soluciones a problemas complejos.
En la presente revisión sobre la estadística bayesiana, el análisis de
componentes principales y el análisis factorial exploratorio, hemos
explorado herramientas fundamentales que enriquecen la investigación
cientíca transdisciplinaria (Mitrany & Stokols, 2005). La estadística
bayesiana, con su enfoque en la actualización de creencias a través de la
evidencia, permite a los investigadores abordar problemas complejos de
manera más intuitiva y exible, adaptándose a la naturaleza dinámica de
las ciencias contemporáneas. Su aplicación en diversas disciplinas ha
demostrado ser invaluable, facilitando la toma de decisiones informadas
en contextos donde la incertidumbre es una constante.
13
Por otro lado, el análisis de componentes principales se erige como
una técnica poderosa para la reducción de dimensionalidad, permitiendo
a los investigadores identicar patrones y relaciones en conjuntos de datos
extensos. Su capacidad para simplicar la complejidad de la información
sin perder la esencia de los datos lo convierte en un aliado clave en el
análisis de fenómenos transdisciplinarios, donde múltiples variables
interaccionan entre sí.
El análisis factorial exploratorio, si bien similar al ACP, aporta un
enfoque más profundo en la identicación de estructuras subyacentes en
los datos, facilitando la comprensión de las relaciones latentes que pueden
existir entre diferentes variables. Este método es especialmente útil en
estudios transdisciplinarios, donde la integración de diversas perspectivas
puede contribuir a un entendimiento más holístico de los problemas
abordados.
La combinación de la estadística bayesiana, el análisis de
componentes principales y el análisis factorial exploratorio proporciona
un marco robusto para la investigación cientíca. Estas herramientas no
solo enriquecen el análisis de datos, sino que por eso promueven una
colaboración más efectiva entre disciplinas, impulsando la innovación y el
avance del conocimiento.
1.2 Guía para la Selección de Teorías Bayesianas en
Investigación Cientíca: Criterios y Aplicaciones
Multidisciplinarias
Las teorías bayesianas se han consolidado como un enfoque clave
en la investigación cientíca actual, brindando un marco sólido para
analizar datos y tomar decisiones. Esto ha provocado un aumento en su
uso en diversas áreas, desde biología hasta economía, donde la
complejidad y variabilidad de los datos exigen métodos más adaptativos
y dinámicos. Este proceso de actualización se realiza mediante el uso del
teorema de Bayes, que permite combinar información previa y datos
observacionales para obtener inferencias más precisas. Esta característica
14
es especialmente valiosa en campos donde la información es escasa o
donde los experimentos son costosos o poco viables.
Las teorías bayesianas fomentan un enfoque más intuitivo y
contextual para la toma de decisiones. Los investigadores pueden expresar
sus hipótesis y expectativas en términos probabilísticos, lo que facilita una
comunicación más clara de los resultados y las incertidumbres asociadas.
Esto, a su vez, promueve un diálogo más abierto y colaborativo entre
cientícos de diferentes disciplinas, al permitir que cada uno aporte su
perspectiva y conocimientos previos al proceso de análisis.
En un entorno donde la cantidad de datos disponibles crece
exponencialmente, las teorías bayesianas se disponen como una
herramienta poderosa para extraer conclusiones signicativas. Su
capacidad para manejar datos incompletos y su enfoque en la
interpretación probabilística son aspectos que contribuyen a su creciente
popularidad en la investigación cientíca. La integración de las teorías
bayesianas en el análisis cientíco no solo enriquece la comprensión de
fenómenos complejos, sino que por eso mejora la calidad y la validez de
las decisiones basadas en datos.
Esta interpretación subjetiva permite a los investigadores asignar
probabilidades a hipótesis y eventos basándose en el conocimiento previo
y la evidencia existente. Esta visión contrasta con la interpretación
frecuentista, que considera la probabilidad como el límite de la frecuencia
relativa de un evento en un número innito de repeticiones. El teorema de
Bayes es el pilar fundamental de la teoría bayesiana. Este teorema describe
cómo actualizar la probabilidad de una hipótesis \( H \) dado un nuevo
dato \( D \). La fórmula se expresa de la siguiente manera:
\[
P(H|D) = \frac{P(D|H) \cdot P(H)}{P(D)}
\]
Donde:
15
- \( P(H|D) \) es la probabilidad posterior de la hipótesis \( H \) después
de observar el dato \( D \).
- \( P(D|H) \) es la probabilidad de observar \( D \) dado que \( H \) es
verdadera (verosimilitud).
- \( P(H) \) es la probabilidad previa de la hipótesis \( H \).
- \( P(D) \) es la probabilidad total de observar el dato \( D \).
La aplicación del teorema de Bayes permite a los investigadores
realizar inferencias más informadas y ajustadas a la realidad, integrando
tanto la evidencia existente como las creencias iniciales. Así, la
metodología bayesiana se convierte en una herramienta poderosa para la
toma de decisiones en condiciones de incertidumbre. La adopción de la
teoría bayesiana en la investigación cientíca presenta varias ventajas
sobre los métodos estadísticos clásicos:
i. Incorporación de información previa: La posibilidad de incluir
información previa en el análisis permite una personalización
que puede mejorar la precisión de las inferencias.
ii. Actualización continua: En tanto se obtienen nuevos datos, las
estimaciones pueden actualizarse de forma continua, lo que es
especialmente útil en campos donde la información está en
constante evolución.
iii. Interpretación intuitiva: Las probabilidades bayesianas pueden
interpretarse de forma más intuitiva en términos de creencias y
certidumbres, lo que facilita la comunicación de los resultados a
audiencias no especializadas.
iv. Modelado de incertidumbre: La teoría bayesiana ofrece un enfoque
natural para modelar la incertidumbre, permitiendo a los
investigadores cuanticar la variabilidad y la conanza en sus
estimaciones.
v. Flexibilidad en el modelado: Los modelos bayesianos pueden ser
más fácilmente adaptables a situaciones complejas y no lineales,
lo que los hace adecuados para una amplia variedad de
problemas en distintas disciplinas.
16
Los fundamentos de la teoría bayesiana proporcionan un marco
robusto y exible para la investigación cientíca, permitiendo a los
investigadores abordar problemas complejos con una comprensión más
matizada de la incertidumbre y la variabilidad (Lin et al., 2025).
El primer criterio para seleccionar una teoría bayesiana es la
relevancia del problema de investigación que se desea abordar. Es esencial
que la pregunta de investigación tenga un componente probabilístico
signicativo, ya que el enfoque bayesiano es especialmente útil en
situaciones donde la incertidumbre y la variabilidad son inherentes al
fenómeno estudiado. En concreto, en estudios sobre la ecacia de un
tratamiento médico, es esencial considerar cómo las diferentes variables,
como la respuesta individual y la heterogeneidad de la población, pueden
inuir en los resultados. Un problema de investigación bien formulado
que requiera la integración de información previa y nueva puede
beneciarse notablemente de un enfoque bayesiano.
Otro criterio importante es la disponibilidad de datos y su calidad.
Los modelos bayesianos son altamente dependientes de la información
que se les proporciona, tanto en términos de datos observacionales como
de información previa. Por lo tanto, es fundamental evaluar si se dispone
de datos sucientes y relevantes para la investigación. La calidad de los
datos es un factor determinante; datos ruidosos o sesgados pueden
conducir a inferencias incorrectas. Si bien los modelos bayesianos pueden
manejar cierta incertidumbre, la solidez de las conclusiones dependerá en
gran medida de la calidad de la información inicial. La existencia de
estudios previos y bases de datos conables puede servir como un recurso
valioso para establecer distribuciones a priori adecuadas.
La exibilidad y adaptabilidad de los modelos bayesianos
constituyen otro criterio esencial en su selección. Una de las principales
ventajas de la aproximación bayesiana es su capacidad para ser adaptada
a diferentes contextos y tipos de datos. La selección de teorías bayesianas
debe basarse en una cuidadosa consideración de la relevancia del
problema de investigación, la disponibilidad y calidad de los datos, así
como la exibilidad del modelo. Estos criterios no solo ayudan a asegurar
17
que el enfoque bayesiano sea el más adecuado para el estudio en cuestión,
sino que por eso maximizan la probabilidad de obtener resultados útiles y
signicativos.
En biología y medicina, las teorías bayesianas son esenciales para la
toma de decisiones en contextos de alta incertidumbre. En particular, en el
ámbito de la genética, los investigadores utilizan modelos bayesianos para
inferir la probabilidad de que un individuo porte un gen especíco basado
en datos familiares y resultados de pruebas genéticas. Esto permite a los
médicos ofrecer asesoramiento más preciso a los pacientes sobre riesgos
de enfermedades hereditarias.
Asimismo, en ensayos clínicos, el enfoque bayesiano permite la
adaptación dinámica de los ensayos en función de los datos acumulados.
Esto signica que los investigadores pueden modicar el diseño del
estudio en tiempo real, optimizando así la ecacia y seguridad de los
tratamientos evaluados. Un ejemplo notable es el uso de métodos
bayesianos en la evaluación de tratamientos para el cáncer, donde se
considera no solo la efectividad del tratamiento, sino también la
probabilidad de efectos adversos, basándose en la información previa y en
los resultados obtenidos hasta el momento.
Las ciencias sociales, por eso, se benecian enormemente de las
teorías bayesianas, especialmente en el análisis de datos complejos y en la
modelización de comportamientos humanos. En estudios de opinión
pública y encuestas, los enfoques bayesianos permiten integrar datos
históricos y actuales para realizar predicciones s precisas sobre
tendencias sociales. Es decir, al analizar las preferencias políticas de los
votantes, los modelos bayesianos pueden utilizarse para actualizar las
estimaciones de apoyo a diferentes candidatos conforme se dispone de
nueva información, como encuestas y eventos relevantes.
Así, la teoría bayesiana se aplica en la investigación de la psicología
para modelar procesos de toma de decisiones. Los investigadores han
utilizado modelos bayesianos para comprender cómo las personas
actualizan sus creencias en respuesta a nueva información,
18
proporcionando recomendaciones sobre el comportamiento humano que
son difíciles de capturar mediante enfoques tradicionales.
En economía y nanzas, las teorías bayesianas son herramientas
poderosas para la modelización y previsión. Un uso común es en la
evaluación de riesgos nancieros, donde los modelos bayesianos permiten
a los analistas considerar la incertidumbre en los parámetros del modelo,
como tasas de interés o rendimientos de activos. Vale decir, en la gestión
de carteras, los inversores pueden aplicar métodos bayesianos para ajustar
sus expectativas sobre el rendimiento futuro de diferentes activos,
teniendo en cuenta tanto datos históricos como nuevas condiciones del
mercado.
En la macroeconomía, los modelos bayesianos se utilizan para
realizar pronósticos económicos. Al integrar diferentes fuentes de datos,
como indicadores económicos y encuestas de expectativas, los economistas
pueden proporcionar proyecciones más robustas y fundamentadas sobre
el crecimiento económico, la inación y otras variables clave. La aplicación
de teorías bayesianas en biología, ciencias sociales y economía y nanzas
demuestra su versatilidad y capacidad para mejorar la calidad de las
inferencias y decisiones en contextos de incertidumbre. Estos ejemplos
subrayan la importancia de considerar enfoques bayesianos en diversas
disciplinas, donde la evidencia y la actualización continua son
fundamentales para el avance del conocimiento cientíco.
La elección adecuada de teorías bayesianas en la investigación
cientíca es un proceso primordial que puede determinar el éxito y la
relevancia de los resultados obtenidos. Porque los cientícos enfrentan
problemas complejos y multifacéticos, la capacidad de integrar
información previa con nuevos datos, característica fundamental de la
aproximación bayesiana, se convierte en una herramienta invaluable (Lin
et al., 2025). Esta metodología no solo permite manejar la incertidumbre de
manera más efectiva, sino que por eso proporciona un marco robusto para
la actualización de creencias.
19
Una de las principales ventajas de la teoría bayesiana es su gran
exibilidad. En oposición a los métodos tradicionales, que a menudo son
rígidos y limitados, los modelos bayesianos pueden ajustarse a diferentes
contextos y tipos de datos, lo que los hace especialmente útiles en áreas
donde los supuestos convencionales no se cumplen. Esta capacidad de
adaptación permite que las teorías bayesianas sean aplicadas en distintas
disciplinas como la biología, las ciencias sociales y la economía, cada una
con sus propios retos y particularidades.
La calidad y disponibilidad de los datos son factores determinantes
en la selección de un enfoque bayesiano. La investigación efectiva requiere
no solo datos cuantitativos, sino cualitativos, que aporten un contexto
valioso a las inferencias. Por lo tanto, es fundamental que los
investigadores evalúen cuidadosamente estos aspectos antes de adoptar
un modelo bayesiano, asegurando que las decisiones tomadas sean
informadas y pertinentes al problema de investigación.
En última instancia, la correcta selección de teorías bayesianas
puede llevar a descubrimientos signicativos y a una mejor comprensión
de los fenómenos estudiados. Al combinar un enfoque riguroso con la
exibilidad necesaria para abordar preguntas complejas, los
investigadores pueden contribuir a un avance más signicativo del
conocimiento. Por lo tanto, es esencial que los cientícos no solo
comprendan los fundamentos de la teoría bayesiana, sino que por eso sean
críticos y reexivos en su aplicación, eligiendo las teorías y modelos que
mejor se alineen con sus objetivos de investigación y el contexto en el que
operan.
1.3 El todo de xima Verosimilitud y la
Factorización de Ejes Principales (FEP)
El Método de Máxima Verosimilitud (MMV) es una técnica
fundamental en la estadística que permite estimar los parámetros de un
modelo probabilístico. Se basa en la premisa de que, dado un conjunto de
datos observados, el mejor estimador de los parámetros del modelo es
aquel que maximiza la probabilidad de obtener esos datos (Ximénez &
20
García, 2005). En otras palabras, el MMV busca encontrar los valores de los
parámetros que hacen que los datos observados sean más "verosímiles".
El concepto de máxima verosimilitud se puede entender mejor al
considerar un modelo estadístico que describe cómo se generan los datos.
Supongamos que tenemos un conjunto de datos \(X = (x_1, x_2, ..., x_n)\)
que se asume que sigue una distribución con un parámetro desconocido
\(\theta\). La función de verosimilitud, denotada como \(L(\theta | X)\),
es el producto de las probabilidades de observar cada dato \(x_i\) dado el
parámetro \(\theta\). El objetivo del MMV es encontrar el estimador
\(\hat{\theta}\) tal que:
\[
\hat{\theta} = \arg \max_{\theta} L(\theta | X)
\]
Esto implica que se busca el valor de \(\theta\) que maximiza la
probabilidad de haber observado el conjunto de datos \(X\). El Método de
Máxima Verosimilitud tiene sus raíces en el trabajo de varios estadísticos
en el siglo XX, siendo Ronald A. Fisher uno de sus principales exponentes.
En la cada de 1920, Fisher formalizó el método y lo popularizó en su
obra Statistical Methods for Research Workers. Desde entonces, el MMV
ha evolucionado y se ha convertido en una herramienta estándar en la
inferencia estadística, utilizada en diversas disciplinas como la biología, la
economía y la ingeniería.
La relevancia del MMV en la estadística moderna no puede
subestimarse. Su capacidad para proporcionar estimaciones ecientes y
consistentes lo convierte en un método preferido para la estimación de
parámetros en modelos complejos. En síntesis, el MMV es compatible con
diversas extensiones y generalizaciones, como el uso de la verosimilitud
penalizada y los métodos de remuestreo. Con el auge del análisis de datos
y la modelización estadística en la era digital, el MMV ha demostrado ser
un pilar en la construcción y validación de modelos, facilitando el análisis
de grandes volúmenes de datos y contribuyendo a la toma de decisiones
informadas.
21
El Método de Máxima Verosimilitud (MMV) se basa en la idea de
estimar los parámetros de un modelo estadístico de tal manera que se
maximice la probabilidad de observar los datos obtenidos. El MMV se
fundamenta en el concepto de verosimilitud, que se dene como la función
de verosimilitud \( L(\theta | X) \), donde \( \theta \) representa los
parámetros del modelo y \( X \) son los datos observados. La
verosimilitud mide cuán probable es observar los datos dados en ciertos
parámetros del modelo. Para encontrar el estimador de máxima
verosimilitud, se busca el valor de \( \theta \) que maximiza esta función.
Matemáticamente, esto se expresa como:
\[
\hat{\theta} = \arg \max_{\theta} L(\theta | X)
\]
En muchos casos, trabajar con la función de verosimilitud puede ser
complicado, por lo que es común utilizar el logaritmo de la función de
verosimilitud, conocido como log-verosimilitud, que transforma el
problema en uno más manejable. Esta transformación no solo simplica
los cálculos, sino que por eso preserva el punto de máxima verosimilitud,
ya que el logaritmo es una función monótona.
El proceso de cálculo de los estimadores de máxima verosimilitud
implica derivar la función de log-verosimilitud con respecto a los
parámetros del modelo y resolver la ecuación resultante igualada a cero.
Este procedimiento se denomina "igualar a cero las derivadas". En algunos
casos, puede ser necesario utilizar métodos numéricos para encontrar
soluciones, especialmente cuando la función de log-verosimilitud es
compleja o no tiene una forma cerrada.
Un aspecto importante a considerar es la identicación del modelo.
No todos los modelos garantizan que se pueda encontrar un estimador de
máxima verosimilitud y, en ocasiones, diferentes conjuntos de parámetros
pueden llevar a la misma función de verosimilitud, lo que provoca
problemas de identicación. Por lo tanto, es fundamental seleccionar un
modelo adecuado que represente adecuadamente la realidad subyacente
22
de los datos. Los estimadores obtenidos mediante el método de máxima
verosimilitud poseen varias propiedades deseables. Entre ellas se
destacan:
i. Consistencia: Si el tamaño de la muestra aumenta, el estimador
converge en probabilidad al valor verdadero del parámetro que
se está estimando.
ii. Asintóticamente normales: Bajo ciertas condiciones, los
estimadores de máxima verosimilitud se distribuyen
aproximadamente de manera normal cuando el tamaño de la
muestra es grande, lo que permite construir intervalos de
conanza y realizar pruebas de hipótesis.
iii. Eciencia: En términos de varianza, los estimadores de máxima
verosimilitud son ecientes, lo que signica que alcanzan el
límite inferior de Cramér-Rao, es decir, tienen la menor varianza
posible entre todos los estimadores no sesgados.
Estas propiedades hacen del Método de Máxima Verosimilitud una
herramienta fundamental en la inferencia estadística, permitiendo a los
investigadores obtener estimaciones precisas y robustas en una amplia
variedad de contextos. Conforme avanzamos, es importante considerar
cómo estas bases matemáticas se aplican en el contexto de la factorización
de ejes principales (FEP) y en otros métodos estadísticos relacionados. La
factorización de ejes principales (FEP), conocida por eso como análisis de
componentes principales (PCA por sus siglas en inglés), es una técnica
estadística fundamental que se utiliza para reducir la dimensionalidad de
grandes conjuntos de datos (Ximénez & García, 2005).
Uno de los objetivos principales de la FEP es simplicar la
representación de datos complejos sin perder información signicativa. En
situaciones donde los conjuntos de datos contienen un gran número de
variables, la FEP permite transformar estas variables originales en un
conjunto más pequeño de variables lineales no correlacionadas, llamadas
componentes principales. Esto no solo facilita la visualización de datos en
espacios bidimensionales o tridimensionales, sino que por eso mejora la
eciencia de los algoritmos de análisis y procesamiento de datos. A saber,
23
en campos como la genética o la imagen médica, donde se manejan miles
de variables, la FEP ayuda a identicar patrones y estructuras subyacentes
sin la carga computacional que implicaría trabajar con cada variable
individualmente.
La FEP es especialmente útil en el análisis de datos multivariantes,
donde se estudian múltiples variables al mismo tiempo. Esta técnica
permite a los investigadores identicar correlaciones entre variables y
detectar estructuras en los datos que podrían no ser evidentes a simple
vista. En el ámbito de las ciencias sociales, en particular, la FEP se utiliza
para analizar encuestas complejas, donde múltiples factores pueden inuir
en el comportamiento humano. Al aplicar la FEP, los investigadores
pueden reducir la dimensionalidad de los datos y centrarse en los factores
más relevantes, facilitando así la interpretación y el análisis de los
resultados.
En el contexto del aprendizaje automático, la FEP es una
herramienta poderosa para el preprocesamiento de datos. Muchos
algoritmos de aprendizaje automático, como las redes neuronales y los
modelos de regresión, pueden beneciarse de la reducción de
dimensionalidad que proporciona la FEP. Al eliminar características
colineales o redundantes, la FEP no solo ayuda a mejorar la precisión de
los modelos, sino que por eso reduce el riesgo de sobreajuste, permitiendo
que los modelos generalicen mejor nuevos datos. Al disminuir la
complejidad del espacio de características, la FEP puede acelerar
signicativamente el tiempo de entrenamiento de los modelos, lo que
resulta en un análisis más eciente y efectivo.
La factorización de ejes principales es una técnica versátil y
poderosa que ofrece múltiples aplicaciones en la reducción de
dimensionalidad, el análisis de datos multivariantes y el aprendizaje
automático. Su capacidad para simplicar y estructurar datos complejos la
convierte en una herramienta invaluable en el arsenal de estadísticos,
cientícos de datos y profesionales de diversas disciplinas.
24
Los fundamentos matemáticos del MML nos han permitido
comprender mejor cómo se derivan los estimadores y las propiedades que
los hacen deseables, tales como la consistencia y la eciencia. Estos
principios subyacentes son primordiales para la aplicación práctica del
MML en el análisis de datos.
Por otro lado, la FEP se ha presentado como una técnica poderosa
para la reducción de dimensionalidad, permitiendo simplicar conjuntos
de datos complejos sin perder información signicativa. Su utilización en
el análisis de datos multivariantes y en el campo del aprendizaje
automático resalta su versatilidad y relevancia en el tratamiento de
grandes volúmenes de información.
Conforme el volumen y la complejidad de los datos continúan
creciendo en la era del Big Data, la demanda de métodos estadísticos
robustos y ecientes se hace más apremiante. El MML y la FEP tienen el
potencial de adaptarse y evolucionar, integrándose con técnicas
emergentes como el aprendizaje profundo y la inteligencia articial. La
capacidad del MML para estimar parámetros en modelos cada vez más
complejos y la FEP para extraer características relevantes de grandes
conjuntos de datos son aspectos que seguirán siendo de gran importancia
en la investigación y la práctica.
El Método de Máxima Verosimilitud y la Factorización de Ejes
Principales son herramientas complementarias que ofrecen una base
sólida para el análisis estadístico y la interpretación de datos. Por lo que
los investigadores y profesionales continúan explorando nuevos
horizontes en el análisis de datos, es fundamental seguir profundizando
en el entendimiento de estos métodos y su aplicación en contextos
innovadores (Ximénez & García, 2005). La combinación de teoría y práctica
en el uso del MML y la FEP promete no solo mejorar la calidad de los
análisis, sino también abrir nuevas vías para el descubrimiento y la
comprensión hoy en día cada vez más impulsados por los datos.
25
Capítulo II
Hipótesis complejas sobre las relaciones
causales o jerárquicas entre constructos de
metodología de investigación transdisciplinaria
La investigación transdisciplinaria se ha convertido en un enfoque
fundamental para abordar problemas complejos que trascienden las
fronteras de las disciplinas tradicionales. En este contexto, las hipótesis
juegan un papel determinante al proporcionar un marco teórico que guía
la exploración y el análisis de las interacciones entre diferentes constructos.
Las hipótesis no solo permiten a los investigadores formular preguntas
especícas, sino que por eso ayudan a establecer relaciones signicativas
entre variables, facilitando así un entendimiento más profundo de los
fenómenos estudiados.
Una hipótesis es una proposición que sugiere una relación entre dos
o más variables y su formulación se basa en el conocimiento previo y la
teoría existente. En la investigación transdisciplinaria, las hipótesis se
vuelven aún s complejas debido a la naturaleza multidimensional de
los problemas que se abordan. La formulación de hipótesis en este contexto
requiere una consideración cuidadosa de las diversas perspectivas y
disciplinas involucradas, así como una comprensión de cómo los
constructos interactúan entre sí. La importancia de las hipótesis radica en
su capacidad para orientar el diseño del estudio, la recolección de datos y
el análisis, así como para facilitar la comunicación de hallazgos entre
investigadores de diferentes campos.
Las hipótesis complejas se caracterizan por su capacidad para
integrar múltiples variables y dimensiones, lo que las distingue de las
hipótesis más simples y lineales. Estas hipótesis pueden incluir
interacciones entre variables, efectos mediadores y moderadores, y
26
considerar factores contextuales que inuyen en las relaciones estudiadas.
En la investigación transdisciplinaria, las hipótesis complejas permiten a
los investigadores explorar dinámicas no lineales y comprender cómo los
elementos de diferentes disciplinas pueden interactuar de maneras
inesperadas. Esta complejidad requiere una metodología robusta y una
apertura a nuevas formas de pensamiento que desafían las suposiciones
tradicionales.
La metodología transdisciplinaria se basa en la colaboración entre
diferentes disciplinas, así como en la participación activa de partes
interesadas, como comunidades, organizaciones y expertos. Este enfoque
reconoce que los problemas contemporáneos, como el cambio climático, la
salud global y la sostenibilidad, no pueden ser abordados adecuadamente
desde una única perspectiva disciplinaria. En este contexto, las hipótesis
no solo son un punto de partida para la investigación, sino que por eso
evolucionan conforme se integran nuevas evidencias y se consideran
diversas voces en el proceso de investigación. Así, la metodología
transdisciplinaria fomenta un diálogo continuo que permite a las hipótesis
adaptarse y enriquecer la comprensión colectiva de los problemas
complejos que enfrentamos.
2.1 Relaciones causales en la investigación
transdisciplinaria
Las relaciones causales son fundamentales para entender cómo
interactúan diferentes constructos y fenómenos en el ámbito de la
investigación transdisciplinaria. En este contexto, la identicación y el
análisis de estas relaciones no solo contribuyen a la construcción del
conocimiento, sino que por eso permiten abordar problemas complejos de
manera más efectiva.
La noción de causalidad ha sido abordada de maneras diversas en
diferentes disciplinas, lo que ha llevado a la creación de múltiples modelos
teóricos. En las ciencias naturales, por ejemplo, se suelen utilizar modelos
lineales que establecen relaciones directas entre variables, donde una
variable independiente provoca cambios en una variable dependiente.
27
Pero en las ciencias sociales y en la investigación transdisciplinaria, se
reconoce que las relaciones causales pueden ser más complejas,
incluyendo interacciones, retroalimentaciones y efectos no lineales.
Los modelos sistémicos, que son comunes en estudios
transdisciplinarios, enfatizan la interconexión entre múltiples variables y
su dinámica en el espacio-tiempo. Estos modelos permiten visualizar cómo
un cambio en un constructo puede generar impactos en otros,
considerando el contexto y las inuencias externas. Esto es especialmente
relevante en investigaciones que abordan problemas complejos, como el
cambio climático o la salud pública, donde las causas y efectos son
multifacéticos y requieren un enfoque holístico. Establecer relaciones
causales en la investigación transdisciplinaria requiere de metodologías
robustas y a menudo interdisciplinarias (Klein, 2006). Entre los métodos
más comunes se encuentran:
i. Experimentos controlados: Si bien son más difíciles de
implementar en contextos transdisciplinarios debido a la
complejidad de las variables en juego, los experimentos
controlados proporcionan una manera clara de establecer
causalidad al manipular una variable y observar el efecto en
otra.
ii. Análisis estadístico: Herramientas como la regresión múltiple, el
análisis de caminos y los modelos de ecuaciones estructurales
permiten a los investigadores explorar las relaciones entre
variables y determinar la dirección y la fuerza de la causalidad.
iii. Estudios de caso: Los estudios de caso profundizan en contextos
especícos, permitiendo a los investigadores examinar cómo las
relaciones causales operan en situaciones del mundo real. Este
enfoque es particularmente útil en investigaciones
transdisciplinarias donde las variables son difíciles de controlar.
iv. Modelización por simulación: Las simulaciones computacionales
permiten modelar sistemas complejos y explorar cómo
diferentes variables interactúan entre en el tiempo,
28
proporcionando un marco para entender las relaciones causales
en un entorno dinámico.
Un ejemplo notable de la aplicación de relaciones causales en la
investigación transdisciplinaria es el estudio del impacto del uso de
pesticidas en la salud de las comunidades agrícolas. Investigadores de
diversas disciplinas, incluyendo ecología, salud pública y sociología, han
colaborado para establecer no solo la relación entre el uso de pesticidas y
problemas de salud, sino también cómo factores sociales, económicos y
ambientales inuyen en esta relación (Pennington et al., 2013).
Otro caso es el análisis de las políticas de cambio climático y su
efectividad en la reducción de emisiones de gases de efecto invernadero.
Al combinar métodos de ciencias políticas, economía y climatología, los
investigadores han podido identicar las relaciones causales entre las
políticas implementadas y los cambios en las emisiones, así como las
jerarquías que determinan el éxito de estas políticas en diferentes
contextos. Estos ejemplos ilustran la riqueza de la investigación
transdisciplinaria y cómo la exploración de relaciones causales puede
contribuir a una comprensión más profunda de problemas complejos, a la
vez que se fomenta la colaboración entre disciplinas para desarrollar
soluciones efectivas y sostenibles.
La jerarquía en investigación se reere a la organización y
clasicación de constructos, variables o conceptos en un orden de
importancia o relevancia. En el contexto transdisciplinario, donde
convergen diversas disciplinas y enfoques, esta jerarquía es esencial para
poder integrar conocimientos y metodologías que, de otro modo, podrían
resultar dispares. Esta organización permite a los investigadores no solo
entender la relación entre los distintos constructos, sino también establecer
un marco que facilite el análisis y la interpretación de los hallazgos.
Es decir, en un estudio sobre el cambio climático, los constructos
pueden incluir factores ambientales, económicos y socioculturales, y su
jerarquización podría ayudar a identicar cuáles son los más inuyentes
en la generación de determinadas problemáticas. Identicar jerarquías
29
entre constructos en investigaciones transdisciplinarias puede ser un
proceso complejo que requiere de metodologías especícas (Stokols et al.,
2003. Algunas estrategias útiles incluyen:
i. Análisis de redes: Esta técnica permite visualizar y analizar las
interconexiones entre diferentes constructos, facilitando la
identicación de aquellos que tienen un mayor peso o inuencia
dentro de un sistema.
ii. Métodos cualitativos: Entrevistas, grupos focales y análisis de
contenido pueden proporcionar información valiosa sobre cómo
los actores involucrados perciben la importancia de distintos
constructos en un contexto especíco.
iii. Modelos estadísticos: El uso de técnicas estadísticas avanzadas,
como el análisis de regresión o modelado estructural, puede
ayudar a cuanticar las relaciones entre constructos y a
establecer un orden jerárquico basado en datos empíricos.
iv. Revisión de literatura: Analizar estudios previos puede ofrecer
una perspectiva sobre cómo otros investigadores han
jerarquizado constructos similares, lo que puede servir como
base para la propia investigación.
Las jerarquías entre constructos no solo inuyen en la forma en que
se estructura la investigación, sino que por eso impactan
signicativamente en la interpretación de los resultados. Una
jerarquización clara permite a los investigadores entender mejor cómo
interactúan los diferentes constructos y cuáles son las variables que deben
ser priorizadas en el análisis. Por ende, si se establece que un constructo
como la educación tiene una jerarquía superior a otros, esto puede llevar a
implicar que las estrategias de intervención deben enfocarse en mejorar la
educación para abordar problemas sociales.
La comprensión de estas jerarquías puede afectar las
recomendaciones y políticas derivadas de la investigación, asegurando
que se tomen en cuenta los factores más relevantes y se implementen
soluciones efectivas. En un contexto transdisciplinario, donde los
problemas son multifacéticos, las jerarquías ayudan a simplicar la
30
complejidad y a dirigir los esfuerzos hacia áreas que pueden generar un
mayor impacto. Las jerarquías entre constructos en metodologías
transdisciplinarias son esenciales para el diseño, análisis e interpretación
de investigaciones. Su correcta identicación y utilización no solo facilitan
la comprensión de los fenómenos estudiados, sino que por eso potencian
la ecacia de las intervenciones propuestas (Jaeger-Erben et al., 2018).
La investigación transdisciplinaria se caracteriza por su enfoque
holístico, que busca integrar conocimientos de diversas disciplinas para
abordar problemas complejos. En este contexto, las hipótesis complejas
juegan un papel fundamental en la formulación de relaciones causales y
jerárquicas entre constructos. Hemos explorado cómo las hipótesis
permiten no solo establecer conexiones entre variables, sino por eso
entender la naturaleza de estas relaciones en un entorno multidimensional.
A través de la identicación de modelos de causalidad y la jerarquización
de constructos, los investigadores pueden obtener una visión más clara de
cómo interactúan los elementos dentro de un sistema, lo que es primordial
para el desarrollo de soluciones efectivas a problemas complejos.
Las implicaciones de estas conclusiones son signicativas para
futuras investigaciones en el ámbito transdisciplinario. La capacidad de
formular hipótesis complejas que capturan la interrelación de múltiples
variables y niveles jerárquicos puede guiar a los investigadores en el
diseño de estudios que no solo sean más precisos, sino por eso más
relevantes para la realidad social y ambiental (Godemann, 2008).
Conjuntamente, al fomentar el diálogo entre disciplinas, se pueden
enriquecer los enfoques metodológicos y teóricos, promoviendo un
entendimiento más profundo de las dinámicas en juego. Esto, a su vez,
puede facilitar la cooperación entre cientícos, responsables políticos y
comunidades, asegurando que las soluciones propuestas sean viables y
sostenibles.
Es imperativo reconocer que la metodología transdisciplinaria va
más allá de la simple suma de disciplinas. Se trata de un enfoque que
demanda una apertura mental y la disposición para cuestionar supuestos
tradicionales. Las hipótesis complejas son, por lo tanto, una herramienta
31
esencial para navegar en este paisaje multidimensional, permitiendo a los
investigadores abordar la complejidad de los fenómenos sociales y
naturales con mayor ecacia (Gugerell et al., 2023).
2.2 Métodos bayesianos en metodología de
investigación cientíca
Los métodos bayesianos han revolucionado la forma en que se
aborda el análisis estadístico en la investigación cientíca. En contraste a
los enfoques tradicionales, que a menudo se basan en la estadística
frecuentista y en la suposición de que los parámetros son jos y
desconocidos, la estadística bayesiana propone un marco más exible y
dinámico que integra la incertidumbre y la experiencia previa en el
proceso de inferencia (Stokols et al., 2003).
En este enfoque, se utilizan distribuciones de probabilidad para
representar tanto la incertidumbre inicial sobre un parámetro (la
distribución "prior") como la información obtenida a partir de los datos
observados (la verosimilitud). El resultado de este proceso es la
"distribución posterior", que proporciona una nueva evaluación de la
probabilidad del parámetro en cuestión, incorporando tanto el
conocimiento previo como la evidencia empírica.
La historia de la estadística bayesiana se remonta al siglo XVIII, con
el trabajo del matemático Thomas Bayes, quien formuló el teorema que
lleva su nombre. De todos modos, su popularidad y desarrollo real
comenzaron a tomar forma a mediados del siglo XX, cuando
investigadores como Harold Jereys y Leonard J. Savage contribuyeron a
su formalización. Durante las últimas décadas, los avances en la
computación han permitido la implementación de métodos bayesianos en
contextos que antes eran difíciles de abordar, lo que ha llevado a un
resurgimiento en su uso y a una mayor aceptación en diversas disciplinas
cientícas.
La estadística bayesiana ha demostrado ser una herramienta
invaluable en la investigación cientíca, ya que permite a los
32
investigadores modelar y analizar datos de manera más completa. Ahora
bien, si el volumen y la complejidad de los datos aumentan, la capacidad
de los métodos bayesianos para manejar la incertidumbre se vuelve
esencial. Igualmente, su exibilidad y capacidad para incorporar
conocimientos previos los hacen particularmente útiles en campos donde
la información previa es relevante, como en la medicina, la economía y las
ciencias sociales. Los métodos bayesianos no solo enriquecen el análisis
de datos, sino que por eso facilitan una toma de decisiones más informada
y fundamentada en la investigación cientíca moderna.
El teorema de Bayes, formulado por el matemático Thomas Bayes
en el siglo XVIII, proporciona una regla para actualizar la probabilidad de
una hipótesis a partir de evidencia nueva. Se puede expresar de la
siguiente manera:
\[ P(H|E) = \frac{P(E|H) \cdot P(H)}{P(E)} \]
Donde:
- \( P(H|E) \) es la probabilidad posterior de la hipótesis \( H \) dado el
evento \( E \).
- \( P(E|H) \) es la verosimilitud de observar \( E \) dado que \( H \) es
cierto.
- \( P(H) \) es la probabilidad previa de la hipótesis antes de observar la
evidencia.
- \( P(E) \) es la probabilidad total de observar \( E \).
La aplicación del teorema de Bayes permite a los investigadores
ajustar sus creencias iniciales (priors) en función de los datos observados,
lo que resulta en una probabilidad posterior que reeja mejor la realidad
del fenómeno estudiado. En la estadística bayesiana, tres conceptos son
fundamentales: el prior, la verosimilitud y el posterior. El prior representa
el conocimiento o creencias previas acerca de un parámetro antes de
observar los datos. Este puede ser informativo, si se basa en estudios
previos, o no informativo, si se desea minimizar su inuencia.
33
La verosimilitud es la probabilidad de observar los datos dados un
conjunto de parámetros. Este componente es primordial, ya que
proporciona la conexión entre el modelo estadístico y los datos empíricos.
El posterior es la distribución de probabilidad del parámetro tras observar
los datos. Representa una combinación del prior y la verosimilitud,
actualizando nuestras creencias con la nueva información. Poder calcular
esta distribución posterior es una de las ventajas más fuertes de los
métodos bayesianos.
La interpretación de los resultados en un marco bayesiano puede
diferir signicativamente de la estadística frecuentista. Mientras que la
estadística frecuentista se enfoca en la probabilidad de los datos bajo un
modelo dado, la estadística bayesiana se centra en la probabilidad de las
hipótesis dadas los datos observados. Los resultados bayesianos pueden
expresarse en términos de intervalos de credibilidad, que son análogos a
los intervalos de conanza en la estadística frecuentista, pero ofrecen
interpretaciones más intuitivas. De este modo, un intervalo de credibilidad
del 95% para un parámetro indica que, dados los datos observados, hay un
95% de probabilidad de que el parámetro real se encuentre dentro de ese
intervalo.
Los fundamentos de la estadística bayesiana proporcionan un
marco robusto y exible para la investigación cientíca, permitiendo a los
investigadores modelar y actualizar sus creencias de manera efectiva y
coherente en el tiempo. Estos conceptos son esenciales para comprender el
impacto y la utilidad de los métodos bayesianos en diversas áreas de
estudio. Los métodos bayesianos han encontrado un amplio espectro de
aplicaciones en diversas áreas de la investigación cientíca. Su capacidad
para incorporar información previa y actualizar creencias en función de
nuevos datos los convierte en una herramienta valiosa en contextos donde
la incertidumbre es inherente.
En el ámbito de la medicina, los métodos bayesianos han
revolucionado la forma en que se diseñan y analizan los estudios clínicos.
En discrepancia con los enfoques tradicionales, que a menudo se basan en
pruebas de hipótesis rígidas, los métodos bayesianos permiten la
34
incorporación de información previa sobre tratamientos, poblaciones y
resultados. Esto es especialmente útil en ensayos clínicos en fases
tempranas, donde la información es limitada y se requiere una toma de
decisiones ágil. Para ilustrar, al evaluar la ecacia de un nuevo fármaco,
los investigadores pueden usar datos de estudios previos para establecer
una distribución previa que reeje la probabilidad de éxito del
tratamiento.
En las ciencias sociales, los métodos bayesianos son igualmente
valiosos para la modelización de datos complejos. A menudo, las
investigaciones en este campo enfrentan desafíos relacionados con la
variabilidad y la incertidumbre en los datos. Los modelos bayesianos
permiten a los investigadores integrar datos de múltiples fuentes y
manejar la falta de datos de manera más efectiva. En particular, al analizar
encuestas sobre comportamientos sociales, se puede utilizar un enfoque
bayesiano para modelar la relación entre variables, teniendo en cuenta la
incertidumbre inherente en las respuestas. En síntesis, los métodos
bayesianos facilitan la inclusión de efectos aleatorios y estructuras
jerárquicas, lo que permite una mejor comprensión de los fenómenos
sociales a diferentes niveles.
La capacidad de realizar predicciones precisas y fundamentadas es
una de las fortalezas clave de los métodos bayesianos. En campos como la
economía, la ecología y la meteorología, los investigadores utilizan
modelos bayesianos para hacer pronósticos sobre eventos futuros. Es decir,
en el campo de la economía, los analistas pueden utilizar modelos
bayesianos para predecir la evolución del mercado laboral, incorporando
variables como el desempleo, la inación y la productividad. En general,
la naturaleza adaptativa de los métodos bayesianos permite a los
tomadores de decisiones ajustar sus estrategias en función de la evolución
de la situación, optimizando así los resultados.
Las aplicaciones de los métodos bayesianos en la investigación
cientíca son vastas y variadas. Desde estudios clínicos hasta modelización
en ciencias sociales y predicciones en economía, estos métodos
35
proporcionan un marco exible y robusto que mejora la toma de decisiones
en contextos de incertidumbre.
Una de las barreras más signicativas para la adopción de los
métodos bayesianos es la falta de comprensión y las percepciones erróneas
que rodean su uso. Muchos investigadores, especialmente aquellos
formados en la estadística frecuentista, pueden considerar que los
enfoques bayesianos son excesivamente subjetivos debido a la inclusión de
priors, que son distribuciones que representan creencias previas sobre un
parámetro antes de observar los datos. Esta suposición puede llevar a la
idea equivocada de que los resultados bayesianos son menos conables.
De todos modos, es importante enfatizar que el uso de priors puede ser
informado por evidencia previa y que, cuando se elige de manera
cuidadosa, puede enriquecer la interpretación de los datos en lugar de
socavarla.
Implementar métodos bayesianos puede ser más complejo y
computacionalmente intensivo en comparación con los métodos
frecuentistas. Los cálculos necesarios para obtener distribuciones
posteriores a menudo requieren técnicas avanzadas, como el muestreo de
Monte Carlo o métodos de aproximación variacional, que pueden ser
desaantes para los investigadores sin un fuerte trasfondo en
programación estadística o en teoría bayesiana. Además, la necesidad de
seleccionar un prior apropiado puede ser una fuente de ansiedad, ya que
una elección inadecuada puede inuir drásticamente en los resultados
nales. Esta complejidad técnica puede desincentivar a algunos
investigadores a adoptar un enfoque bayesiano, a pesar de sus benecios
potenciales.
Un tema central en la crítica a los métodos bayesianos es el debate
sobre la objetividad en la selección de priors. La elección de un prior puede
ser vista como un proceso subjetivo, lo que puede generar preocupaciones
sobre la integridad y la validez de los resultados obtenidos. Algunos
investigadores argumentan que la subjetividad inherente a la elección de
un prior puede llevar a sesgos en el análisis. Empero, por eso existe un
enfoque conocido como "priors no informativos" o "priors difusos", que
36
busca minimizar la inuencia de la información previa en los resultados.
Aun así, la discusión sobre la elección de priors y su impacto en los
resultados se mantiene como un punto de fricción en la comunidad
estadística, subrayando la necesidad de un debate abierto y transparente
sobre este aspecto fundamental de la metodología bayesiana.
Los métodos bayesianos ofrecen herramientas poderosas para el
análisis de datos y la toma de decisiones en la investigación cientíca; los
desafíos y críticas asociados a su implementación y comprensión requieren
atención y discusión cuidadosas. Superar estas barreras será esencial para
maximizar el potencial de los enfoques bayesianos en el avance del
conocimiento cientíco.
Los métodos bayesianos se han consolidado como una herramienta
poderosa y versátil en la investigación cientíca. Su enfoque permite
incorporar información previa a la luz de nuevos datos, lo que facilita una
comprensión más rica y matizada de los fenómenos estudiados. A través
del uso del teorema de Bayes, los investigadores pueden actualizar sus
creencias de manera sistemática y cuantitativa, lo que no solo mejora la
precisión de las inferencias, sino que aporta una mayor transparencia al
proceso de análisis. Además, su capacidad para modelar incertidumbres y
realizar pronósticos ha demostrado ser invaluable en múltiples disciplinas,
desde la medicina hasta las ciencias sociales.
La expansión de la inteligencia articial y el aprendizaje automático
por eso están impulsando la adopción de enfoques bayesianos, ya que
estos métodos permiten manejar la incertidumbre de manera más efectiva
en entornos dinámicos. Por otra parte, la creciente conciencia sobre la
importancia de la reproducibilidad y la transparencia en la investigación
cientíca sugiere que los métodos bayesianos continuarán ganando
aceptación, ya que promueven una práctica investigativa más reexiva y
fundamentada (Pohl & Hirsch, 2008).
Para los investigadores que deseen incorporar métodos bayesianos
en su trabajo, es fundamental comenzar por una comprensión sólida de los
principios básicos de la estadística bayesiana. Se recomienda la inversión
37
en formación y recursos que faciliten el aprendizaje de estos métodos, así
como la práctica en su implementación con software estadístico
especializado. Al mismo tiempo, es determinante mantener un enfoque
crítico y reexivo al seleccionar priors y al interpretar los resultados,
reconociendo que la subjetividad en la elección de estos puede inuir en
las conclusiones. Por último, fomentar el diálogo y la colaboración
interdisciplinaria puede enriquecer la aplicación de estos métodos,
permitiendo el intercambio de ideas y experiencias que ayuden a superar
los desafíos actuales y a maximizar el impacto de la investigación cientíca
(Klein, 2006).
2.3 Diagrama de árbol en toma de decisiones y
metodología de investigación cientíca
La metodología de investigación cientíca, junto con herramientas
visuales como el diagrama de árbol, brinda un enfoque estructurado para
abordar problemas y evaluar opciones. El diagrama de árbol, una
representación gráca que descompone decisiones en sus posibles
resultados, permite a los investigadores y tomadores de decisiones
explorar diferentes caminos y anticipar consecuencias.
El diagrama de árbol es una herramienta visual que se utiliza para
representar decisiones y sus posibles ramicaciones de manera
estructurada y clara. Esta metodología permite desglosar un problema
complejo en partes más manejables, facilitando así la evaluación de
opciones y resultados.
Un diagrama de árbol se compone de nodos y ramas que
representan decisiones y sus consecuencias. El nodo raíz es el punto de
partida del diagrama, que se divide en ramas que simbolizan las diferentes
alternativas o decisiones posibles. Cada rama puede a su vez dividirse en
subramas, representando más opciones o resultados. Entre las
características más relevantes de los diagramas de árbol se incluyen:
38
i. Visualización clara: Proporciona una representación gráca que
facilita la comprensión del problema y de las opciones
disponibles.
ii. Estructuración lógica: Permite organizar la información de
manera jerárquica, mostrando cómo cada decisión afecta a las
siguientes.
iii. Flexibilidad: Se puede adaptar a diferentes contextos y tipos de
decisiones, desde los más simples hasta los más complejos.
La utilización de diagramas para representar decisiones se remonta
a prácticas antiguas en la lógica y la losofía. En cambio, el concepto
moderno de diagrama de árbol comenzó a tomar forma en el siglo XX,
cuando se empezó a aplicar en campos como la teoría de la probabilidad y
la toma de decisiones. Históricamente, ha evolucionado y se ha integrado
en diversas disciplinas, incluyendo la investigación cientíca, el análisis de
negocios y la planicación estratégica. Su implementación ha sido
impulsada por el avance de las tecnologías de la información, que han
facilitado la creación y el uso de herramientas digitales para la elaboración
de estos diagramas. Los diagramas de árbol tienen aplicaciones en una
variedad de campos y disciplinas. Entre las más relevantes se encuentran:
i. Medicina: Se utilizan para ilustrar opciones de tratamiento y los
posibles resultados de cada una, ayudando a médicos y
pacientes en la toma de decisiones informadas.
ii. Negocios: En el ámbito empresarial, los diagramas de árbol son
herramientas valiosas para la planicación estratégica, el
análisis de riesgos y la evaluación de decisiones de inversión.
iii. Educación: Los educadores pueden utilizar esta herramienta
para ayudar a los estudiantes a comprender conceptos
complejos, facilitando el aprendizaje a través de la visualización
de información.
iv. Ciencias sociales: En la investigación social, se emplean para
analizar las interrelaciones entre variables y las posibles
consecuencias de diferentes políticas o intervenciones.
39
El diagrama de árbol es una herramienta versátil y poderosa que
permite a las personas y organizaciones tomar decisiones más informadas
y estructuradas. Su capacidad para desglosar problemas complejos en
componentes más simples lo convierte en un recurso invaluable en
diversos contextos. La metodología de investigación cientíca se reere al
conjunto sistemático de procedimientos y técnicas que se utilizan para
llevar a cabo una investigación. Su objetivo es garantizar que los resultados
obtenidos sean válidos, conables y reproducibles. La metodología se
fundamenta en el enfoque cientíco, que busca responder preguntas
especícas a través de la observación, la experimentación y el análisis
crítico. El proceso de investigación se puede dividir en varias etapas clave:
i. Identicación del problema: Se inicia con la formulación de una
pregunta de investigación clara y especíca que guiará todo el
estudio.
ii. Revisión de la literatura: implica la recopilación y análisis de
estudios anteriores relacionados con el tema, lo que ayuda a
contextualizar la investigación y a identicar lagunas en el
conocimiento existente.
iii. Formulación de hipótesis: Se plantea una hipótesis que se puede
probar mediante la recolección de datos.
iv. Diseño de la investigación: Esta etapa incluye la selección de
métodos y técnicas adecuados para recolectar y analizar datos.
Puede ser cuantitativa, cualitativa o mixta, según los objetivos
del estudio.
v. Recolección de datos: Se lleva a cabo la recopilación de
información utilizando diversas herramientas, como encuestas,
experimentos, entrevistas u observaciones.
vi. Análisis de datos: Una vez recolectados, los datos son analizados
para determinar si apoyan o refutan la hipótesis planteada.
vii. Interpretación de resultados: Se interpretan los hallazgos en el
contexto del problema de investigación, lo que lleva a
conclusiones y recomendaciones.
40
viii. Difusión de resultados: Por último, los resultados se comunican a
través de publicaciones, conferencias y otros medios,
contribuyendo así al cuerpo de conocimiento existente.
La metodología es fundamental en la investigación cientíca por
varias razones. En primer lugar, proporciona una estructura que permite
a los investigadores abordar problemas complejos de manera ordenada y
lógica. Esto no solo facilita la obtención de resultados signicativos, sino
que por eso asegura la replicabilidad de los estudios, un principio esencial
en la ciencia.
En síntesis, una metodología bien denida ayuda a minimizar
sesgos y errores, lo que mejora la validez y la conabilidad de los
resultados. Al seguir un enfoque sistemático, los investigadores pueden
abordar preguntas de manera más efectiva y contribuir de manera más
signicativa al avance del conocimiento en su campo. Existen diversas
metodologías que los investigadores pueden emplear, cada una adecuada
para diferentes tipos de preguntas y contextos. Algunas de las más
comunes incluyen:
i. Método experimental: Se utiliza en ciencias naturales y sociales,
donde los investigadores manipulan variables para observar
efectos en un entorno controlado. Es ideal para establecer
relaciones causales.
ii. Método descriptivo: Se enfoca en describir características de un
fenómeno sin intervenir, lo que es útil en estudios de
observación y encuestas.
iii. Método cualitativo: Utiliza técnicas como entrevistas en
profundidad y grupos focales para explorar signicados y
experiencias subjetivas, siendo valioso en ciencias sociales y
humanidades.
iv. Método cuantitativo: Se basa en la recolección y análisis de datos
numéricos, utilizando estadísticas para probar hipótesis y
establecer patrones.
41
v. Método mixto: Combina elementos cualitativos y cuantitativos,
ofreciendo una visión más completa de la problemática
investigada.
Cada metodología tiene sus propias ventajas y limitaciones, y la
elección de la más adecuada dependerá de los objetivos de la investigación,
así como de la naturaleza del problema a investigar. La toma de decisiones
es una parte primordial de cualquier proceso de investigación y el
diagrama de árbol se muestra como una herramienta valiosa que facilita
esta fase. Su estructura visual permite desglosar las diferentes opciones y
sus posibles consecuencias, lo que propicia un análisis más claro y
organizado de las alternativas disponibles.
El uso del diagrama de árbol en la investigación comienza con la
identicación de un problema o una pregunta de investigación especíca.
A partir de ahí, los investigadores pueden crear un diagrama que
represente las diferentes decisiones que pueden tomarse y las posibles
ramicaciones de cada elección. Cada rama del diagrama representa una
opción, mientras que las subramas pueden ilustrar las consecuencias o
resultados potenciales asociados con cada decisión.
A saber, en un estudio sobre el impacto de un programa educativo,
el diagrama de árbol puede ayudar a visualizar las diferentes estrategias
de implementación, como el uso de tecnología versus métodos
tradicionales. Cada opción se puede evaluar en función de criterios como
costos, tiempo, recursos necesarios y el potencial de éxito. De esta manera,
el diagrama de árbol no solo organiza la información, sino que por eso
facilita la comparación y la evaluación de las alternativas.
El uso de diagramas de árbol en la toma de decisiones presenta
varias ventajas. En primer lugar, su naturaleza visual permite una mejor
comprensión de las opciones y sus consecuencias, lo que puede ser
especialmente útil en equipos de trabajo donde la comunicación es clave.
Al mismo tiempo, fomenta la participación de diferentes miembros del
equipo al permitir que cada uno aporte su perspectiva sobre las posibles
decisiones y resultados.
42
Sin embargo, por eso existen desventajas. La creación de un
diagrama de árbol puede ser un proceso que consume tiempo,
especialmente en situaciones complejas donde hay múltiples variables y
resultados posibles. En teoría, si no se actualiza regularmente o si se basa
en supuestos erróneos, puede llevar a decisiones equivocadas. Por lo tanto,
es esencial que los investigadores utilicen esta herramienta con un enfoque
crítico y que la complementen con otros métodos de análisis.
Varios estudios han demostrado la efectividad del diagrama de
árbol en la toma de decisiones. Un ejemplo notable se encuentra en la
planicación de proyectos de salud pública, donde se ha utilizado para
decidir entre diferentes intervenciones sanitarias. Al desglosar las
opciones disponibles y los resultados esperados, los investigadores
pudieron priorizar proyectos que maximizaran el impacto positivo en la
comunidad con recursos limitados.
Otro caso exitoso se dio en el ámbito empresarial, donde una
compañía utilizó un diagrama de árbol para evaluar sus estrategias de
marketing. Al identicar y analizar las diferentes tácticas, la empresa pudo
seleccionar la opción que ofrecía el mejor retorno de la inversión, lo que
resultó en un aumento signicativo en sus ingresos. La integración del
diagrama de árbol en la toma de decisiones no solo mejora la claridad y la
organización del proceso de investigación, sino que por eso proporciona
un marco valioso para evaluar y comparar alternativas. A pesar de sus
limitaciones, su uso en diversos campos demuestra su versatilidad y
ecacia en la facilitación de decisiones informadas.
El diagrama de árbol se fundamenta como una herramienta valiosa
y versátil en la toma de decisiones y en la metodología de investigación
cientíca. Su capacidad para desglosar opciones complejas en alternativas
visualmente claras y estructuradas facilita no solo la comprensión de los
diferentes caminos posibles, sino por eso la evaluación de sus respectivas
consecuencias.
La metodología de investigación cientíca, por otro lado, es
fundamental para garantizar la validez y la rigurosidad de los estudios. Al
43
establecer etapas claras y sistemáticas, se permite a los investigadores
abordar preguntas complejas y generar conocimiento de manera efectiva.
La intersección entre el diagrama de árbol y la metodología de
investigación ofrece un enfoque estructurado que optimiza la toma de
decisiones informadas, integrando análisis cuantitativos y cualitativos.
Es importante reconocer que, si bien el diagrama de árbol presenta
numerosas ventajas, tiene sus limitaciones, como la posibilidad de
simplicación excesiva de problemas complejos. No obstante, los casos de
estudio que hemos revisado demuestran que, cuando se utiliza
adecuadamente, esta herramienta puede enriquecer el proceso de
investigación y mejorar la calidad de las decisiones tomadas.
44
Capítulo III
Estadística bayesiana para validación de
instrumentos en investigación cientíca
La estadística bayesiana ha emergido como un enfoque poderoso y
versátil en el análisis de datos en diversas disciplinas, especialmente en la
investigación cientíca. Este enfoque proporciona un marco coherente
para manejar la incertidumbre y permite a los investigadores incorporar
conocimientos previos a través de la noción de "prior".
La importancia de la estadística bayesiana en la investigación
cientíca radica en su capacidad para ofrecer una interpretación más
intuitiva de los resultados. Por ende, en lugar de centrarse únicamente en
la signicancia estadística, los investigadores pueden evaluar la
probabilidad de que una hipótesis sea verdadera dado un conjunto de
datos. Esto no solo enriquece el análisis, sino que por eso facilita la
comunicación de resultados a audiencias no especializadas, lo cual es
primordial en campos donde la toma de decisiones informada es esencial.
En contraste con la estadística frecuentista, que se basa en el
concepto de pruebas de hipótesis y p-valores, la estadística bayesiana
permite a los investigadores modelar problemas complejos mediante el
uso de distribuciones de probabilidad. Esto resulta especialmente útil en
situaciones donde los datos son escasos o donde se desea realizar
inferencias sobre parámetros no observables. El teorema de Bayes es el
corazón de la estadística bayesiana. Este teorema establece una relación
entre la probabilidad de un evento A dado un evento B y la probabilidad
de B dado A. Matemáticamente, se expresa como:
\[ P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)} \]
Donde:
45
- \( P(A|B) \) es la probabilidad posterior, es decir, la probabilidad de A
dado que sabemos que B ha ocurrido.
- \( P(B|A) \) es la verosimilitud, que mide cuán probable es observar B si
A es cierto.
- \( P(A) \) es la probabilidad a priori de A antes de observar B.
- \( P(B) \) es la probabilidad marginal de B.
En la estadística bayesiana, los términos prior, likelihood y posterior
son fundamentales para entender cómo se realiza la inferencia.
i. Prior (a priori): Esta es la distribución de probabilidad que reeja
nuestras creencias iniciales sobre un parámetro antes de
observar cualquier dato. La elección del prior es clave, ya que
puede inuir en los resultados nales.
ii. Likelihood (verosimilitud): Representa la probabilidad de observar
los datos dados ciertos valores de los parámetros. La
verosimilitud es esencial para ajustar el prior a la evidencia
observada.
iii. Posterior (a posteriori): Esta distribución es el resultado de
combinar el prior y la verosimilitud mediante el teorema de
Bayes. La probabilidad posterior reeja nuestras creencias
actualizadas sobre el parámetro tras observar los datos.
Existen diversos modelos bayesianos que se utilizan en la práctica,
cada uno adaptado a diferentes tipos de datos y preguntas de
investigación. Algunos de los modelos más comunes incluyen:
i. Modelos de regresión bayesiana: utilizados para examinar la
relación entre variables. Estos modelos permiten la inclusión de
incertidumbre tanto en los parámetros como en las predicciones.
ii. Modelos jerárquicos bayesianos: Ideales para datos agrupados o
multinivel, estos modelos permiten modelar la variabilidad en
diferentes niveles (por ejemplo, pacientes dentro de hospitales)
y compartir información entre grupos.
46
iii. Modelos de clasicación: utilizados para categorizar observaciones
en diferentes grupos. Los enfoques bayesianos permiten
incorporar información previa sobre las clases y mejorar la
precisión de la clasicación.
iv. Modelos de series temporales: Aplicables a datos que varían con el
tiempo, estos modelos permiten capturar patrones y tendencias,
ajustando las predicciones en función de la evidencia
acumulada.
La versatilidad de los modelos bayesianos y su capacidad para
incorporar la incertidumbre hacen que sean herramientas valiosas en la
validación de instrumentos dentro de la investigación cientíca.
3.1 Aplicaciones en la validación de instrumentos
La validación de instrumentos en investigación cientíca es un
proceso fundamental que garantiza la precisión y la adecuación de las
herramientas utilizadas para recoger datos. La estadística bayesiana ofrece
un marco robusto y exible para abordar esta validación, facilitando la
evaluación de la abilidad y la validez de los instrumentos de medición.
La abilidad se reere a la consistencia de un instrumento en la
medición de un constructo. En el contexto de la estadística bayesiana, la
evaluación de la abilidad puede realizarse a través de modelos
jerárquicos que permiten incorporar información previa sobre la
variabilidad en las mediciones. Es decir, al analizar la abilidad de un
cuestionario, se pueden usar distribuciones a priori para modelar la
variabilidad esperada en las respuestas de los participantes.
La validez indica qué tan bien un instrumento mide exactamente lo
que se propone. En el análisis bayesiano de validez, se emplea el teorema
de Bayes para analizar la relación entre el instrumento y el constructo
teórico. Por ejemplo, en un nuevo test de inteligencia, se puede formular
una hipótesis sobre la conexión entre los resultados del test y un criterio
externo, como el rendimiento académico.
47
La interpretación de los resultados en un contexto bayesiano diere
notablemente de la estadística frecuentista. En lugar de centrarse en p-
valores y signicancia estadística, la estadística bayesiana se enfoca en la
probabilidad posterior de los parámetros de interés. En concreto, al validar
un instrumento, un investigador puede obtener una distribución posterior
que represente la probabilidad de que un parámetro especíco (como la
validez de contenido) caiga dentro de un rango determinado (Rendón et
al., 2018). Esta interpretación permite a los investigadores tomar decisiones
más informadas y basadas en la incertidumbre real de sus estimaciones.
Además, la presentación de resultados en términos de intervalos de
credibilidad proporciona una forma más intuitiva de comunicar la
incertidumbre inherente a las estimaciones.
La estadística bayesiana se presenta como una herramienta
poderosa para la validación de instrumentos en investigación cientíca,
ofreciendo métodos innovadores para evaluar tanto la abilidad como la
validez y facilitando una interpretación clara y comprensible de los
resultados.
A pesar de sus numerosas ventajas, la estadística bayesiana no está
exenta de desafíos y limitaciones. Una de las principales críticas es la
dependencia de la elección de la distribución previa (prior), la cual puede
inuir signicativamente en los resultados. La selección de una prior
inapropiada o sesgada puede llevar a conclusiones erróneas, lo que
subraya la importancia de una justicación sólida para la elección de dicha
prior. Además, la interpretación de los resultados bayesianos puede
resultar complicada para quienes no están familiarizados con esta
metodología, lo que puede dicultar la comunicación de hallazgos a una
audiencia más amplia.
Otra limitación es el costo computacional asociado a muchos
modelos bayesianos complejos, especialmente cuando se trabaja con
grandes conjuntos de datos o modelos de alta dimensionalidad. No
obstante, los avances en técnicas de muestreo y algoritmos han mejorado
la viabilidad de la estadística bayesiana; sigue siendo un desafío en la
48
práctica realizar análisis en tiempo real o en situaciones donde se requiere
una respuesta rápida.
La aplicación de la estadística bayesiana en la investigación
cientíca plantea importantes consideraciones éticas. La forma en que se
eligen y presentan las distribuciones previas puede inuir en los
resultados y en la interpretación de los mismos, lo que plantea cuestiones
sobre la transparencia y la integridad en la investigación. Los
investigadores tienen la responsabilidad ética de ser claros sobre sus
decisiones metodológicas, especialmente cuando estas decisiones pueden
inuir en las políticas de salud pública o en la práctica clínica.
En síntesis, la posibilidad de ajustar los modelos bayesianos en
función de los resultados obtenidos puede dar lugar a sesgos de
conrmación, donde los investigadores pueden sentirse inclinados a
modicar su enfoque para obtener resultados que respalden sus hipótesis
iniciales. Esto plantea la necesidad de un marco ético sólido que garantice
la objetividad y la honestidad en la investigación.
La creciente disponibilidad de datos y el avance de la tecnología
computacional están facilitando la adopción de enfoques bayesianos en
diversas disciplinas. Empero, es determinante que la comunidad cientíca
aborde las limitaciones y desafíos éticos mencionados anteriormente para
garantizar que la estadística bayesiana se utilice de manera responsable y
efectiva. La estadística bayesiana ha emergido como una herramienta
poderosa y exible en la validación de instrumentos en la investigación
cientíca.
La aplicación de la estadística bayesiana en la evaluación de la
abilidad y el análisis de validez de instrumentos proporciona un enfoque
robusto que no solo ofrece resultados más interpretables, sino que por eso
facilita la toma de decisiones informadas. La estadística bayesiana admite
una comprensión más rica de la incertidumbre y ofrece un marco para la
interpretación de resultados que considera el contexto y la experiencia
previa del investigador (Cáceres et al., 2020).
49
Sin embargo, es fundamental reconocer los desafíos y limitaciones
asociados con su uso. La elección de priors, la complejidad de los modelos
y las consideraciones éticas en la investigación son aspectos que deben ser
cuidadosamente gestionados para garantizar la integridad y la validez de
los resultados obtenidos.
La capacidad para integrar diferentes fuentes de información y su
enfoque contextualizado en la interpretación de datos la posicionan como
una metodología esencial en la validación de instrumentos y en el análisis
de datos en general. La adopción y el desarrollo de métodos bayesianos en
la investigación cientíca no solo enriquecerán el rigor de los estudios, sino
que por eso contribuirán a una comprensión más profunda y matizada de
los fenómenos investigados.
3.2 Teorema de bayes para la validación de
instrumentos de investigación experimental
El teorema de Bayes, desarrollado por el matemático inglés Thomas
Bayes en el siglo XVIII, ha emergido como una herramienta fundamental
en el campo de la estadística. Su capacidad para actualizar creencias y
estimaciones a partir de nueva evidencia lo convierte en un componente
esencial en la validación de instrumentos de investigación experimental.
Este teorema no solo proporciona un marco matemático riguroso para la
inferencia estadística, sino que por eso permite a los investigadores
incorporar la incertidumbre y las probabilidades previas en sus análisis.
El teorema de Bayes es fundamental en la investigación
experimental por su enfoque exible hacia la probabilidad. Contrario a los
métodos estadísticos convencionales, que suelen basarse en suposiciones
rígidas y distribuciones previas especícas, el teorema de Bayes facilita a
los investigadores modicar sus modelos a medida que obtienen más
datos. Esta capacidad de adaptación resulta especialmente útil en
contextos experimentales, donde los datos pueden ser limitados o
complejos de interpretar.
50
El teorema de Bayes facilita la evaluación de la validez y
conabilidad de los instrumentos de investigación, ofreciendo un medio
para integrar diferentes fuentes de evidencia y reexionar sobre la
probabilidad de que un instrumento mida realmente lo que se propone
medir. Esto es primordial en campos como la psicología, la medicina y las
ciencias sociales, donde la precisión de los instrumentos de medición
puede tener un impacto signicativo en la interpretación de los resultados
y en la toma de decisiones (Fernández, 2009). El teorema de Bayes no solo
proporciona una base teórica sólida para la inferencia estadística, sino que
por eso se presenta como una herramienta práctica y versátil en la
validación de instrumentos de investigación experimental. El teorema de
Bayes se formula de la siguiente manera:
\[ P(H|E) = \frac{P(E|H) \cdot P(H)}{P(E)} \]
Donde:
- \( P(H|E) \) es la probabilidad posterior, que representa la probabilidad
de la hipótesis \( H \) dado el evento \( E \).
- \( P(E|H) \) es la verosimilitud, la probabilidad de observar el evento \(
E \) si la hipótesis \( H \) es verdadera.
- \( P(H) \) es la probabilidad previa, que es nuestra creencia inicial en la
hipótesis \( H \) antes de observar el evento \( E \).
- \( P(E) \) es la probabilidad total del evento \( E \), que actúa como un
factor de normalización.
Este teorema permite que, al recibir nueva evidencia (el evento \( E
\)), podamos ajustar nuestra creencia en la hipótesis \( H \),
proporcionando un marco lógico para la toma de decisiones basada en
datos. Para comprender completamente el teorema de Bayes, es vital
desglosar sus componentes:
i. Probabilidad previa (\( P(H) \)): Esta es la probabilidad que
asignamos a una hipótesis antes de considerar la nueva
evidencia. En el contexto de la validación de instrumentos de
investigación, esta podría ser la creencia inicial sobre la
51
efectividad de un instrumento basada en estudios previos o
experiencias pasadas.
ii. Verosimilitud (\( P(E|H) \)): Este término evalúa cuán probable
es observar la nueva evidencia \( E \) bajo la suposición de que
la hipótesis \( H \) es cierta. En la validación de instrumentos,
esto implica cómo los resultados obtenidos con el instrumento
se alinean con lo esperado si la hipótesis de validez es verdadera.
iii. Probabilidad posterior (\( P(H|E) \)): Esta es la probabilidad
ajustada de que la hipótesis sea cierta después de considerar la
evidencia \( E \). Proporciona una visión actualizada que puede
inuir en la decisión de continuar utilizando el instrumento o
realizar ajustes.
Consideremos un escenario en el que un investigador está
validando un nuevo cuestionario diseñado para medir la ansiedad. Antes
de aplicar el cuestionario (probabilidad previa), el investigador tiene
motivos para creer que el 70% de las personas en la población objetivo
presentan niveles signicativos de ansiedad (probabilidad previa \( P(H)
= 0.7 \)).
Luego, el investigador aplica el cuestionario a un grupo de muestra
y encuentra que el 80% de los que deberían tener ansiedad según criterios
clínicos obtienen puntuaciones altas en el cuestionario (verosimilitud \(
P(E|H) = 0.8 \)). Supongamos que el 10% de aquellos que no tienen
ansiedad por eso obtienen puntuaciones altas (falsos positivos, \(
P(E|\neg H) = 0.1 \)). Con esta información, el investigador puede calcular
la probabilidad posterior de que el cuestionario sea efectivo para
identicar niveles de ansiedad en la población:
\[ P(H|E) = \frac{P(E|H) \cdot P(H)}{P(E)} \]
Donde \( P(E) \) se calcula considerando ambas posibilidades (con
ansiedad y sin ansiedad). Al realizar este cálculo, el investigador obtiene
una probabilidad ajustada que le permitirá tomar decisiones informadas
sobre la efectividad del cuestionario. Este ejemplo ilustra cómo el teorema
de Bayes proporciona un marco estructurado para la validación de
52
instrumentos, permitiendo a los investigadores incorporar evidencia
nueva y ajustar sus creencias conforme avanza su estudio.
El teorema de Bayes ofrece un marco robusto y exible para la
validación de instrumentos de investigación, permitiendo a los
investigadores evaluar la efectividad y conabilidad de sus herramientas
de medición. En este contexto, el uso del teorema de Bayes se maniesta
en varias áreas clave que son fundamentales para garantizar la calidad y
relevancia de los instrumentos utilizados en estudios experimentales.
La validez de un instrumento de investigación se reere a la
capacidad del mismo para medir lo que realmente pretende medir. El
teorema de Bayes permite a los investigadores integrar datos previos con
nueva evidencia para actualizar sus creencias sobre la validez de un
instrumento (Villasís et al., 2018). En particular, al utilizar estudios previos
como probabilidades previas sobre la validez de un cuestionario, los
investigadores pueden aplicar nuevos datos obtenidos en una población
especíca para calcular la probabilidad posterior de que el instrumento sea
válido en ese contexto particular. Esto no solo mejora la precisión de la
evaluación, sino que por eso ayuda a identicar áreas en las que el
instrumento puede necesitar ajustes o mejoras.
El enfoque bayesiano permite a los investigadores modelar la
incertidumbre relacionada con la medición de la conabilidad. Al
considerar la variabilidad en las respuestas de los participantes y la
inuencia de factores externos, el teorema de Bayes ayuda a estimar la
probabilidad de que un instrumento proporcione resultados consistentes.
De este modo, al analizar datos de pruebas repetidas, los investigadores
pueden actualizar su comprensión de la conabilidad del instrumento y
ajustar su uso en función de la evidencia más reciente.
Existen múltiples estudios que han aplicado el teorema de Bayes en
la validación de instrumentos de investigación, destacando su versatilidad
y ecacia. Un caso notable es el de un estudio que evaluó la validez de un
nuevo cuestionario de salud mental. Utilizando datos de investigaciones
anteriores y la información recolectada en una nueva población, los
53
autores aplicaron el teorema de Bayes para determinar la probabilidad de
que el cuestionario realmente midiera trastornos especícos. Sus hallazgos
no solo conrmaron la validez del instrumento, sino que por eso
proporcionaron información valiosa sobre su aplicabilidad en diferentes
contextos culturales.
Otro ejemplo se encuentra en el ámbito de la educación, donde se
ha utilizado el teorema de Bayes para validar escalas de evaluación del
rendimiento académico. Al integrar datos de diversas cohortes de
estudiantes y ajustar las probabilidades previas basadas en las
características demográcas, los investigadores pudieron demostrar que el
instrumento tenía una alta validez en diferentes grupos, lo que resalta la
importancia de considerar el contexto al evaluar la efectividad de los
instrumentos.
Las aplicaciones del teorema de Bayes en la validación de
instrumentos de investigación no solo aumentan la precisión y
conabilidad de las evaluaciones, sino que por eso fomentan un enfoque
más dinámico y adaptativo en la investigación experimental. Esto permite
a los investigadores tomar decisiones más informadas y basadas en
evidencia, mejorando así la calidad de los datos y las conclusiones
obtenidas en sus estudios (Rendón et al., 2018). A pesar de la robustez y
versatilidad del teorema de Bayes en la validación de instrumentos de
investigación experimental, su implementación conlleva una serie de
desafíos y limitaciones que deben ser cuidadosamente considerados por
los investigadores.
Uno de los aspectos más críticos en el uso del teorema de Bayes es
la necesidad de establecer probabilidades previas adecuadas. Estas
probabilidades representan nuestras creencias iniciales sobre un evento o
hipótesis antes de considerar la nueva evidencia. En cambio, determinar
estas probabilidades puede resultar complicado, especialmente en
contextos donde no hay datos históricos disponibles o donde la
información es escasa. La elección de probabilidades previas puede ser
subjetiva y variar según el investigador, lo que puede introducir sesgos en
el análisis y afectar la validez de los resultados. Si las probabilidades
54
previas se estiman incorrectamente, pueden conducir a conclusiones
erróneas, lo que pone en entredicho la conabilidad del instrumento de
investigación.
Otra limitación signicativa es la complejidad en la interpretación
de los resultados obtenidos mediante el teorema de Bayes. A diferencia de
los enfoques frecuentistas, que a menudo se centran en la signicación
estadística, el enfoque bayesiano requiere que los investigadores
interpreten las probabilidades posteriores en un contexto más amplio. Esto
puede ser difícil, especialmente para aquellos que no están familiarizados
con la estadística bayesiana. Los resultados pueden ser susceptibles a
cambios dramáticos si se modican las probabilidades previas, lo que
puede generar confusión entre los investigadores y los tomadores de
decisiones. La falta de consenso sobre cómo comunicar estos resultados de
manera efectiva puede ser un obstáculo para su adopción en la práctica.
Existen alternativas al teorema de Bayes que, en algunos casos,
pueden ser más adecuadas para la validación de instrumentos de
investigación. En particular, los métodos frecuentistas proporcionan un
marco más convencional y ampliamente aceptado que puede ser más fácil
de aplicar e interpretar para muchos investigadores. Algunos enfoques de
modelado estadístico, como los modelos de ecuaciones estructurales o el
análisis de regresión, ofrecen oportunidades para evaluar la validez y
conabilidad de los instrumentos sin la necesidad de especicar
probabilidades previas.
El teorema de Bayes ofrece un enfoque poderoso para la validación
de instrumentos de investigación experimental; su implementación no está
exenta de desafíos. La necesidad de estimar probabilidades previas, la
complejidad en la interpretación de los resultados y la disponibilidad de
alternativas metodológicas son factores que los investigadores deben
considerar al decidir si utilizar este enfoque en sus estudios.
El teorema de Bayes ha demostrado ser una herramienta poderosa
y versátil en la validación de instrumentos de investigación experimental.
Su capacidad para actualizar las creencias iniciales sobre la validez y
55
conabilidad de un instrumento. A través de la integración de la
probabilidad previa, la verosimilitud y la probabilidad posterior, el
teorema no solo proporciona un marco matemático sólido, sino que por
eso ofrece una interpretación más intuitiva y contextualizada de los
resultados experimentales.
Primero, el avance de las tecnologías de computación y el aumento
en la disponibilidad de grandes conjuntos de datos facilitarán la
estimación de probabilidades previas y la implementación de modelos
bayesianos s complejos. Esto podría llevar a un renamiento en la
validación de instrumentos, permitiendo a los investigadores capturar
relaciones más sutiles y matices en sus datos.
Segundo, el creciente interés en la investigación reproducible y
transparente puede impulsar la adopción de métodos bayesianos en
diversas disciplinas. La posibilidad de compartir y revisar las
probabilidades previas y los modelos utilizados fomenta una cultura de
colaboración y mejora continua en la investigación. Esto es
particularmente relevante en el ámbito de las ciencias sociales y de la
salud, donde la validez de los instrumentos puede tener un impacto
signicativo en la interpretación de los resultados y en las decisiones
basadas en evidencia.
Pese a, es esencial que los investigadores sean conscientes de las
limitaciones y desafíos asociados con el teorema de Bayes. La estimación
de probabilidades previas puede ser compleja y, si no se maneja
adecuadamente, puede conducir a conclusiones erróneas. En síntesis, la
comunicación de los resultados bayesianos a audiencias no especializadas
sigue siendo un desafío signicativo. Por lo tanto, el desarrollo de
herramientas educativas y recursos que faciliten la comprensión del
enfoque bayesiano será primordial para su adopción más amplia.
El teorema de Bayes representa un avance signicativo en la
validación de instrumentos de investigación experimental, ofreciendo un
enfoque fresco y exible que puede mejorar la calidad y la utilidad de los
resultados. La integración en la práctica investigadora dependerá de la
56
superación de las barreras actuales y del compromiso de la comunidad
cientíca para adoptar estas metodologías en benecio de la investigación
rigurosa y efectiva.
3.3 Estadística bayesiana para la interpretación de
datos clínicos y de medicina experimental
La estadística bayesiana ha emergido como un enfoque
fundamental en la interpretación de datos clínicos y en la medicina
experimental, ofreciendo herramientas poderosas para la inferencia y la
toma de decisiones informadas. En oposición a los métodos tradicionales
de la estadística frecuentista, que se centran en la frecuencia de eventos en
grandes muestras, la estadística bayesiana se basa en la actualización de
creencias a partir de la evidencia disponible, lo que permite incorporar
información previa y ajustar conclusiones.
El enfoque bayesiano se centra en el Teorema de Bayes, que
proporciona un marco matemático para actualizar la probabilidad de una
hipótesis. Este principio es especialmente relevante en el ámbito clínico,
donde la incertidumbre es inherente y los datos a menudo son limitados o
incompletos. A través de la estadística bayesiana, los investigadores
pueden integrar tanto la evidencia empírica como el conocimiento previo
para obtener estimaciones más robustas y precisas.
La estadística bayesiana permite una interpretación más intuitiva de
los resultados, facilitando la comunicación de hallazgos a pacientes,
clínicos y otros interesados. En un contexto donde las decisiones médicas
deben basarse en la mejor evidencia disponible, la capacidad de modelar
y actualizar creencias de manera continua se convierte en una herramienta
invaluable.
La estadística bayesiana se fundamenta en la interpretación
probabilística del conocimiento y la incertidumbre. En contraste con la
estadística frecuentista, que se basa en la frecuencia de ocurrencia de
eventos a partir de experimentos repetidos. Este enfoque es especialmente
útil en el ámbito clínico, donde la incertidumbre es una constante y la toma
57
de decisiones debe basarse en la mejor evidencia disponible. Este teorema
establece la relación entre la probabilidad condicional y la probabilidad
marginal de dos eventos. Matemáticamente, se expresa como:
\[ P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)} \]
Donde \\( P(A|B) \\) es la probabilidad de que ocurra el evento A
dado que ha ocurrido el evento B, \\( P(B|A) \\) es la probabilidad de que
ocurra B dado que A ha ocurrido, \\( P(A) \\) es la probabilidad a priori
de A, y \\( P(B) \\) es la probabilidad total de B. Este teorema permite a
los investigadores actualizar sus creencias sobre un evento a medida que
nueva información se vuelve disponible, facilitando un enfoque dinámico
y adaptativo en la interpretación de datos clínicos. En el contexto de la
estadística bayesiana, los conceptos de prior, verosimilitud y posterior son
fundamentales.
- Prior: La distribución previa o prior representa las creencias iniciales sobre un
parámetro antes de observar los datos. Esta puede basarse en estudios previos,
conocimientos expertos o ser no informativa si se carece de información previa.
- Verosimilitud: La verosimilitud es la función que describe la probabilidad de
observar los datos dados con ciertos valores de los parámetros del modelo. Se
obtiene a partir del modelo estadístico y reeja cómo los datos se distribuyen bajo
diferentes supuestos.
- Posterior: La distribución posterior es el resultado de aplicar el teorema de Bayes,
combinando la información del prior y la verosimilitud. Representa la nueva
creencia sobre el parámetro después de haber observado los datos. Esta distribución
es primordial para la toma de decisiones en la práctica clínica, ya que proporciona
una visión actualizada y probabilística sobre los parámetros de interés.
La principal diferencia entre la estadística bayesiana y la estadística
frecuentista radica en cómo se interpretan las probabilidades. En la
estadística frecuentista, las probabilidades son vistas como limitadas a la
frecuencia de eventos en experimentos repetidos, lo que signica que no
se puede asignar una probabilidad a hipótesis o parámetros desconocidos
(Vos & Holbert, 2022). En contraste, la estadística bayesiana permite la
58
modelización de la incertidumbre sobre los parámetros mediante
distribuciones de probabilidad, lo que brinda una mayor exibilidad en la
interpretación de los resultados.
Mientras que el enfoque frecuentista se basa en procedimientos
como intervalos de conanza y pruebas de hipótesis, la estadística
bayesiana se centra en la obtención de distribuciones posteriores que
pueden ser utilizadas para la toma de decisiones directas, facilitando un
enfoque más intuitivo y contextualizado en la evaluación de riesgos y
benecios en el ámbito clínico. Los fundamentos de la estadística
bayesiana proporcionan un marco robusto y exible para la interpretación
de datos clínicos, permitiendo a los investigadores y clínicos tomar
decisiones informadas en un entorno de incertidumbre inherente.
Los ensayos clínicos son fundamentales para evaluar la ecacia y
seguridad de nuevas intervenciones médicas. En este contexto, la
estadística bayesiana ofrece un enfoque alternativo a los métodos
tradicionales frecuentistas. A saber, permite la actualización continua de
las probabilidades de éxito de un tratamiento conforme se obtienen nuevos
datos durante el ensayo.
Un aspecto destacado del análisis bayesiano en ensayos clínicos es
su capacidad para manejar la incertidumbre. A través de la utilización de
distribuciones a priori, los investigadores pueden incorporar información
previa sobre la ecacia de un tratamiento, lo cual resulta útil,
especialmente en etapas tempranas de la investigación. Esto se traduce en
decisiones más informadas sobre la continuación o modicación de un
ensayo. Por ende, la estadística bayesiana permite realizar análisis
intermedios, donde los investigadores pueden evaluar la ecacia de un
tratamiento antes de completar el ensayo. Esto no solo acelera la toma de
decisiones, sino que por eso puede contribuir a la reducción de la
exposición de los participantes a tratamientos inecaces.
La interpretación de resultados médicos a menudo implica la
evaluación de riesgos y benecios en un contexto de incertidumbre. La
estadística bayesiana facilita este proceso al proporcionar un marco para
59
la actualización de creencias basadas en la evidencia. A saber, al analizar
la probabilidad de que un paciente desarrolle una enfermedad en función
de su perl clínico y los resultados de pruebas diagnósticas, los médicos
pueden utilizar modelos bayesianos para ajustar sus estimaciones de
riesgo de manera más precisa.
Esta metodología resulta especialmente útil en situaciones donde la
información previa es relevante. En concreto, en el caso de un paciente con
antecedentes familiares de una enfermedad, la estadística bayesiana
permite integrar esta información con los datos actuales para ofrecer una
evaluación s personalizada del riesgo. El modelado de riesgos y
benecios es primordial en la medicina, ya que los clínicos deben sopesar
las posibles consecuencias de diferentes tratamientos antes de tomar
decisiones. La estadística bayesiana proporciona un marco robusto para
este tipo de análisis, permitiendo la inclusión de múltiples fuentes de datos
y la representación de la incertidumbre de manera más efectiva.
Los modelos bayesianos pueden ser utilizados para simular
diferentes escenarios y evaluar la probabilidad de resultados favorables
frente a adversos, lo que permite a los médicos y pacientes tomar
decisiones informadas basadas en sus preferencias y valores (Vos &
Holbert, 2022). Esta capacidad para modelar la incertidumbre y
proporcionar estimaciones probabilísticas hace que la estadística
bayesiana sea una herramienta valiosa en la práctica clínica. La aplicación
de la estadística bayesiana en el ámbito clínico y experimental presenta no
solo oportunidades signicativas, sino por eso una serie de desafíos y
consideraciones éticas que deben ser cuidadosamente abordados.
Uno de los principales desafíos en la estadística bayesiana es el
potencial sesgo en la selección de datos. La elección de la información
previa que se incorpora en el análisis puede inuir de manera signicativa
en los resultados obtenidos. Si los datos previos son seleccionados de
manera inadecuada o son representativos de una población sesgada, los
resultados pueden llevar a conclusiones erróneas, afectando la validez de
los estudios clínicos. Es esencial que los investigadores sean transparentes
60
sobre la fuente y la naturaleza de los datos previos, así como sobre cómo
estos pueden haber inuido en las inferencias realizadas.
El consentimiento informado es un pilar fundamental en la ética de
la investigación médica. En el contexto de la estadística bayesiana, la
complejidad de los modelos y la naturaleza iterativa de la actualización de
la evidencia pueden dicultar la comunicación efectiva con los pacientes
sobre cómo se utilizan sus datos. Es imperativo que los investigadores
proporcionen información clara y accesible sobre cómo se aplican los
métodos bayesianos, qué implican para la interpretación de los resultados
y cómo estos pueden afectar la toma de decisiones en su atención médica.
La transparencia en este proceso no solo fomenta la conanza, sino que
por eso permite a los pacientes participar de manera más activa en su
propio cuidado.
La interpretación de resultados en un marco bayesiano requiere un
enfoque cuidadoso y responsable. En discrepancia con la estadística
frecuentista, que a menudo se basa en intervalos de conanza y valores p,
la estadística bayesiana utiliza probabilidades posteriores que pueden ser
más intuitivas, pero por eso más susceptibles a la interpretación errónea.
Los clínicos y los investigadores deben ser conscientes de cómo comunicar
estos resultados a diferentes audiencias, incluidas los pacientes, otros
profesionales de la salud y el público en general. La responsabilidad en la
interpretación implica no solo reportar los resultados de manera precisa,
sino por eso contextualizarlos dentro de un marco más amplio de
evidencia clínica, asegurando que las decisiones basadas en estos análisis
sean justas y fundamentadas.
Ahora bien, la estadística bayesiana ofrece herramientas poderosas
para la interpretación de datos clínicos; su implementación implica una
serie de desafíos éticos que requieren atención cuidadosa. Abordar estos
problemas de manera proactiva es fundamental para garantizar que la
aplicación de métodos bayesianos en medicina sea tanto efectiva como
ética, beneciando así a pacientes y profesionales por igual.
61
La estadística bayesiana ha emergido como una herramienta
poderosa y versátil en el ámbito de la medicina, permitiendo a los
investigadores y clínicos interpretar datos complejos de una manera que
es tanto intuitiva como rigurosa. De todos modos, por eso es fundamental
abordar los desafíos asociados con su implementación. La educación y la
capacitación en estadística bayesiana son esenciales para garantizar que
los profesionales de la salud puedan interpretar correctamente los
resultados y aplicar estos métodos de manera ética. Igualmente, la
transparencia en la comunicación de resultados y el consentimiento
informado son aspectos críticos que deben ser priorizados para mantener
la conanza pública en la investigación médica.
62
Capítulo IV
Extrayendo Constructos: Análisis de
Componentes Principales y Factorial
Exploratorio en la Investigación Social y
Psicológica
En el ámbito de la investigación social y psicológica, el análisis de
datos juega un papel esencial en la comprensión de fenómenos complejos
y en la identicación de patrones subyacentes en conjuntos de datos. Dos
de las técnicas más utilizadas para este propósito son el análisis de
componentes principales (ACP) y el análisis factorial exploratorio (AFE).
Ambos métodos son herramientas estadísticas que permiten a los
investigadores simplicar y resumir grandes volúmenes de información,
facilitando la identicación de constructos latentes que no se observan
directamente.
El análisis de componentes principales es una técnica que busca
reducir la dimensionalidad de un conjunto de datos, transformando un
número elevado de variables correlacionadas en un conjunto menor de
variables no correlacionadas, denominadas componentes. Estos
componentes capturan la mayor parte de la varianza presente en los datos
originales, permitiendo así una representación más manejable y
comprensible de la información.
Por otro lado, el análisis factorial exploratorio se centra en
identicar la estructura subyacente de un conjunto de variables
observadas. A través de esta técnica, los investigadores pueden descubrir
qué variables agrupan conjuntamente y cómo se relacionan entre sí,
revelando así los constructos latentes que podrían estar inuyendo en las
respuestas de los participantes.
63
Ambas técnicas son fundamentales en la investigación social y
psicológica, donde los investigadores a menudo enfrentan datos complejos
y multidimensionales. El ACP y el AFE no solo permiten a los
investigadores simplicar sus datos, sino que por eso ofrecen una forma
de validar teorías existentes y desarrollar nuevas. La capacidad de
identicar y modelar constructos es esencial para avanzar en la
comprensión de fenómenos humanos y sociales, lo que a su vez puede
tener un impacto signicativo en la formulación de políticas, el diseño de
intervenciones y la práctica profesional.
4.1 Aplicaciones prácticas del ACP y AFE
El análisis de componentes principales (ACP) y el análisis factorial
exploratorio (AFE) son técnicas estadísticas fundamentales en la
investigación social y psicológica, utilizadas para reducir la
dimensionalidad de los datos y descubrir patrones subyacentes. El análisis
de componentes principales es una técnica de reducción de
dimensionalidad que transforma un conjunto de variables observadas en
un nuevo conjunto de variables no correlacionadas, denominadas
componentes principales (Méndez, 2024). Estos componentes son
combinaciones lineales de las variables originales y están ordenados de tal
manera que el primer componente retiene la mayor parte de la variabilidad
de los datos, seguido por el segundo componente, y así sucesivamente.
El ACP busca identicar y eliminar la redundancia en los datos al
agrupar variables que están altamente correlacionadas. Por lo tanto,
permite a los investigadores simplicar la interpretación de grandes
conjuntos de datos sin perder información signicativa. Un aspecto clave
del ACP es la matriz de correlación, que se utiliza para calcular los
componentes y determinar cuántos de ellos son necesarios para explicar
una proporción adecuada de la varianza total.
El análisis factorial exploratorio, por otro lado, se centra en
identicar la estructura subyacente de un conjunto de variables,
asumiendo que estas son el resultado de un número menor de factores no
observables (constructos). En discrepancia con el ACP, que se basa en la
64
varianza total de los datos, el AFE se enfoca en la covarianza entre las
variables, buscando agruparlas en factores que expliquen las correlaciones
observadas.
El AFE permite a los investigadores explorar hipótesis sobre la
estructura de los datos sin imponer restricciones previas. Utiliza métodos
como la extracción de factores mediante el método de máxima
verosimilitud o el método de componentes principales, seguidos de una
rotación (varimax, oblimin, entre otros) para facilitar la interpretación de
los factores. Esta técnica es especialmente valiosa cuando se trabaja con
escalas psicométricas y se busca validar constructos teóricos.
Si bien el ACP y el AFE comparten ciertos principios y objetivos,
existen diferencias clave entre ellos. Mientras que el ACP se centra en la
reducción de la dimensionalidad y la explicación de la varianza total, el
AFE se preocupa s por la identicación de factores subyacentes y la
interpretación de la estructura de los datos.
El ACP puede ser visto como una técnica más descriptiva, mientras
que el AFE es más inferencial, ya que busca conrmar o explorar la
existencia de constructos teóricos. Asimismo, el ACP no requiere la
suposición de que las variables deben ser medidas en una escala de
intervalo, mientras que el AFE es más sensible a la estructura de
correlación y a los supuestos de normalidad. Ahora bien, el ACP y el AFE
son métodos complementarios en el análisis de datos; es fundamental que
los investigadores comprendan sus fundamentos teóricos y diferencias
para elegir el método más adecuado según los objetivos de su estudio.
El análisis de componentes principales (ACP) y el análisis factorial
exploratorio (AFE) son herramientas fundamentales en la investigación
cuantitativa, especialmente en las ciencias sociales y psicológicas. Estas
técnicas no solo permiten la reducción de dimensiones en conjuntos de
datos complejos, sino que por eso facilitan la identicación de patrones
subyacentes y la creación de constructos teóricos.
Uno de los campos donde el ACP y el AFE son particularmente
útiles es la construcción de escalas psicométricas. Estas escalas son
65
herramientas que permiten medir constructos psicológicos como la
personalidad, la satisfacción, la ansiedad, entre otros. De este modo, en la
creación de una nueva escala de ansiedad, los investigadores pueden
utilizar el AFE para identicar los factores que mejor representan las
respuestas de los participantes en una serie de ítems. Esto permite no solo
la validación del constructo, sino también la optimización de la escala al
eliminar ítems redundantes o poco informativos. El ACP, por su parte,
puede ser utilizado para reducir el número de variables en estudios de
gran escala, ayudando a los investigadores a enfocarse en los componentes
más relevantes que explican la variabilidad en los datos.
En el ámbito de la investigación de mercado, tanto el ACP como el
AFE son ampliamente utilizados para segmentar a los consumidores y
entender sus preferencias. Así, una empresa puede realizar un análisis
factorial exploratorio en los datos recopilados de encuestas a clientes para
identicar grupos de consumidores que comparten características
similares. Esto les permite adaptar sus campañas de marketing y
productos a las necesidades especícas de cada segmento. El ACP, por su
parte, puede ser utilizado para reducir la cantidad de variables
consideradas al analizar la percepción de la marca, ayudando a los
investigadores a identicar los atributos más inuyentes en la decisión de
compra.
En las ciencias sociales, el ACP y el AFE han sido aplicados en
estudios que abarcan desde análisis de actitudes hasta investigaciones
sobre comportamiento social. Por ejemplo, en un estudio sobre la cohesión
social en comunidades, un análisis factorial exploratorio puede revelar los
factores que contribuyen a la percepción de cohesión (Lloret et al., 2014).
Los investigadores pueden descubrir que la conanza en los vecinos, la
participación en actividades comunitarias y el acceso a recursos son
dimensiones importantes que forman un constructo mayor de cohesión
social. De manera similar, el ACP puede ser utilizado en estudios
demográcos para identicar patrones en la movilidad social, ayudando a
los investigadores a discernir qué factores socioeconómicos son más
determinantes en la movilidad de diferentes grupos.
66
Las aplicaciones prácticas del análisis de componentes principales
y del análisis factorial exploratorio son vastas y variadas. Su uso en la
construcción de escalas psicométricas, en la investigación de mercado y en
estudios de caso en ciencias sociales demuestra su importancia y
relevancia en la investigación contemporánea.
El análisis de componentes principales (ACP) y el análisis factorial
exploratorio (AFE) se basan en una serie de supuestos estadísticos que
deben cumplirse para que los resultados sean válidos. En el caso del ACP,
uno de los supuestos más importantes es la linealidad de las relaciones
entre las variables. Esto signica que se asume que las relaciones entre las
variables son lineales, lo que puede no ser cierto en todos los casos. En
síntesis, el ACP requiere que las variables estén correlacionadas entre sí; si
no existe correlación, el análisis puede no proporcionar resultados
signicativos.
Por otro lado, el AFE por eso depende de supuestos como la
normalidad multivariante de los datos y la adecuación de la muestra. La
prueba de esfericidad de Bartle y el índice de adecuación muestral de
Kaiser-Meyer-Olkin (KMO) son herramientas comunes utilizadas para
evaluar la idoneidad de los datos para el AFE. Si los datos no cumplen con
estos supuestos, los resultados pueden ser poco conables, lo que puede
llevar a interpretaciones erróneas de los constructos subyacentes.
La interpretación de los resultados obtenidos a través del ACP y el
AFE puede ser un proceso complejo y subjetivo. Los componentes o
factores extraídos no tienen una interpretación inherente; dependen de las
decisiones del investigador sobre cómo nombrarlos y qué variables asociar
con ellos. Esto puede dar lugar a sesgos en la interpretación, ya que
diferentes investigadores pueden llegar a conclusiones diferentes basadas
en el mismo conjunto de datos.
El número de componentes o factores a retener es a menudo una
cuestión de juicio, lo que puede afectar la reproducibilidad de los
resultados. Existen varios criterios para decidir cuántos factores retener,
como el criterio de Kaiser (retener factores con eigenvalores mayores a 1)
67
o el gráco de sedimentación (scree plot), pero no hay un consenso
universal sobre cuál es el método más apropiado. Esta falta de claridad
puede llevar a una variabilidad en los resultados y a la dicultad en la
comparación entre estudios.
A pesar de la utilidad del ACP y el AFE, existen alternativas que
pueden ser s adecuadas en ciertos contextos. Para ilustrar, el análisis de
redes puede ser una opción valiosa para explorar relaciones complejas
entre variables sin asumir la linealidad. Este enfoque permite visualizar y
analizar las interacciones entre múltiples variables de manera más exible.
Al mismo tiempo, los modelos de ecuaciones estructurales (SEM)
ofrecen un marco más robusto para la prueba de teorías complejas que
involucran múltiples variables y relaciones causales. A diferencia del ACP
y el AFE, los SEM permiten la inclusión de variables latentes y la
evaluación de relaciones causales, proporcionando un enfoque más
completo para el modelado de constructos.
El análisis de componentes principales y el análisis factorial
exploratorio son herramientas poderosas en la investigación social y
psicológica; es primordial que los investigadores sean conscientes de sus
limitaciones y consideren alternativas que puedan ofrecer mejores
soluciones dependiendo del contexto de su estudio.
El análisis de componentes principales (ACP) y el análisis factorial
exploratorio (AFE) son herramientas fundamentales en la investigación
social y psicológica, permitiendo a los investigadores descomponer datos
complejos en constructos más simples y manejables. El ACP se centra en
reducir la dimensionalidad al identicar las combinaciones lineales más
signicativas de variables, mientras que el AFE se enfoca en descubrir las
relaciones subyacentes entre variables, facilitando la identicación de
constructos teóricos (Fernández et al., 2022).
Los hallazgos presentados resaltan la importancia de elegir el
método adecuado en función de los objetivos de la investigación. Para los
investigadores en el ámbito social y psicológico, entender las diferencias y
similitudes entre el ACP y el AFE es primordial para el diseño de estudios
68
robustos y la interpretación precisa de los datos. En teoría, el uso de estos
métodos no solo ayuda en la construcción de escalas psicométricas, sino
que por eso puede enriquecer la investigación de mercado y contribuir a
estudios de caso en diversas disciplinas. Al aplicar correctamente estas
técnicas, los investigadores pueden obtener resultados más signicativos
que reejen la realidad subyacente de los fenómenos estudiados.
La integración de herramientas de aprendizaje automático y
técnicas de modelado más sosticadas podría ofrecer nuevas
oportunidades para la exploración de datos y el descubrimiento de
patrones. En general, la continua investigación sobre las limitaciones y
supuestos de estos métodos es vital para garantizar su aplicación efectiva
y ética en contextos diversos. En este sentido, futuras investigaciones
deberían centrarse en el desarrollo de enfoques híbridos que combinen lo
mejor de ambos mundos, así como en la validación de constructos en
diferentes contextos culturales y poblacionales. Con estas consideraciones,
el campo de la investigación social y psicológica puede avanzar hacia una
comprensión más profunda y matizada de la complejidad humana.
4.2 Análisis de Componentes Principales Aplicada a la
Investigación en Ciencias Sociales
El análisis de componentes principales (PCA, por sus siglas en
inglés) es una técnica estadística fundamental utilizada para reducir la
dimensionalidad de un conjunto de datos, al mismo tiempo que se
preserva la mayor cantidad posible de variabilidad presente en los datos
originales. En el ámbito de las ciencias sociales, donde los investigadores a
menudo enfrentan conjuntos de datos de alta dimensión y complejidad, el
PCA se presenta como una herramienta invaluable. Esta técnica permite a
los investigadores identicar patrones subyacentes en sus datos,
facilitando la interpretación y el análisis (Restrepo et al., 2012).
El PCA no solo ayuda a reducir el número de variables a considerar,
sino que por eso permite a los investigadores concentrarse en los factores
más relevantes que afectan sus áreas de estudio. Esto puede resultar
69
determinante en campos como la sociología, la psicología y la economía,
donde los fenómenos sociales son multifacéticos y complejos.
El análisis de componentes principales (PCA) es una técnica
estadística que se utiliza para reducir la dimensionalidad de un conjunto
de datos, conservando al mismo tiempo la mayor cantidad posible de la
variabilidad presente en ellos. Para comprender el PCA, es fundamental
familiarizarse con algunos conceptos estadísticos básicos, como variables,
varianza, covarianza y matriz de correlación. Las variables son las
características que se miden en un estudio, mientras que la varianza
cuantica la dispersión de estas variables. La covarianza, por su parte,
mide la relación entre dos variables, indicando si tienden a variar juntas.
El proceso de cálculo del PCA se puede dividir en varias etapas clave:
i. Establecimiento del conjunto de datos: Se comienza con un conjunto
de datos donde cada la representa una observación y cada
columna representa una variable. Es importante que los datos
estén estandarizados, especialmente si las variables están en
diferentes escalas.
ii. Cálculo de la matriz de covarianza: Se calcula la matriz de
covarianza para determinar cómo varían las variables entre sí.
Esta matriz es fundamental porque es la base sobre la que se
construyen los componentes principales.
iii. Obtención de los vectores y valores propios: A partir de la matriz de
covarianza, se calculan los valores propios y los vectores
propios. Los valores propios indican la cantidad de varianza
capturada por cada componente, mientras que los vectores
propios representan la dirección de los componentes.
iv. Selección de componentes principales: Se seleccionan los
componentes principales en función de los valores propios.
Generalmente, se eligen aquellos componentes que explican la
mayor parte de la varianza en los datos.
v. Proyección de los datos: Se proyectan los datos originales en el
nuevo espacio denido por los componentes principales. Este
70
paso da como resultado un conjunto de datos reducido que
mantiene la estructura subyacente de la información.
La interpretación de los resultados del PCA es esencial para extraer
información signicativa de los datos. Los componentes principales son
combinaciones lineales de las variables originales y cada componente
puede interpretarse en función de las variables que más contribuyen a él,
es decir, aquellas que tienen los coecientes más altos en la combinación.
En síntesis, se pueden crear grácos, como el gráco de biplot, que
permiten visualizar las relaciones entre los componentes y las
observaciones. Estos grácos son útiles para identicar patrones,
agrupamientos y posibles dispersiones en los datos. Asimismo, es
importante considerar la proporción de varianza explicada por cada
componente principal, ya que esto ayuda a determinar cuántos
componentes se deben retener para un análisis posterior.
El PCA, al simplicar la complejidad de los datos, permite a los
investigadores en ciencias sociales identicar tendencias y patrones que
podrían no ser evidentes en el análisis de las variables originales. De todos
modos, es esencial tener en cuenta que la interpretación de los
componentes principales requiere un enfoque cuidadoso y un
entendimiento sólido de los datos subyacentes y del contexto de la
investigación.
El análisis de componentes principales (PCA) se ha convertido en
una herramienta fundamental en la investigación en ciencias sociales,
permitiendo a los investigadores descomponer datos complejos en
componentes más simples y manejables. En el ámbito de los estudios de
opinión pública, el PCA es utilizado para identicar patrones subyacentes
en las respuestas de los encuestados. En concreto, en encuestas que
incluyen múltiples preguntas sobre actitudes políticas, el PCA puede
ayudar a los investigadores a reducir la dimensionalidad de los datos,
permitiendo identicar factores latentes como la ideología política o las
preocupaciones sociales predominantes (Salinas et al., 2006). Esto no solo
facilita la interpretación de los resultados, sino que por eso permite la
71
segmentación de la población en grupos más homogéneos, lo que puede
ser primordial para el diseño de campañas políticas y estrategias de
comunicación.
En psicología, el PCA se aplica frecuentemente para analizar datos
obtenidos de instrumentos de medición complejos, como cuestionarios de
personalidad o escalas de comportamiento. A saber, al aplicar PCA a un
conjunto de datos sobre rasgos de personalidad, los investigadores pueden
identicar componentes que representan dimensiones fundamentales de
la personalidad, como la extroversión o la apertura a nuevas experiencias.
Esto ayuda a simplicar el análisis y a centrar la atención en las variables
más signicativas, facilitando la comprensión de las relaciones entre
diferentes constructos psicológicos.
El PCA, por eso, desempeña un papel importante en el análisis de
datos demográcos, donde se utilizan grandes conjuntos de datos para
explorar características de poblaciones. Por ende, en estudios que analizan
la relación entre factores socioeconómicos, educativos y de salud, el PCA
puede ayudar a resumir la información en unos pocos componentes que
capturan la esencia de las variaciones demográcas. Esto permite a los
investigadores identicar tendencias y correlaciones que de otro modo
serían difíciles de detectar en un conjunto de datos tan amplio.
Conjuntamente, los resultados del PCA pueden ser utilizados para
orientar políticas blicas y programas sociales, asegurando que se
enfoquen en las necesidades más apremiantes de la población.
El PCA ofrece una metodología poderosa y versátil para el análisis
de datos en ciencias sociales, contribuyendo a una mejor comprensión de
fenómenos complejos y a la identicación de patrones signicativos que
pueden informar tanto la teoría como la práctica en este campo.
El análisis de componentes principales (PCA) se basa en varias
suposiciones que, si no se cumplen, pueden afectar la validez de los
resultados. Una de las principales suposiciones es la linealidad; el PCA
asume que las relaciones entre las variables son lineales. Esto signica que,
si las relaciones son no lineales, el PCA puede no capturar adecuadamente
72
la estructura subyacente de los datos. Además, el PCA presume que las
variables están escaladas adecuadamente y que los datos son centrados, lo
que puede no ser el caso si los datos incluyen variables de diferentes
escalas o unidades. Por lo tanto, es fundamental realizar un
preprocesamiento de los datos, como la normalización o estandarización,
antes de aplicar el PCA.
Otro desafío relacionado con el PCA es el riesgo de sobreajuste,
especialmente en conjuntos de datos pequeños o con un número elevado
de variables en comparación con el número de observaciones. Al intentar
capturar la mayor cantidad de variabilidad posible en los datos, el PCA
puede ajustarse a patrones aleatorios en el conjunto de datos en lugar de a
las verdaderas estructuras subyacentes. Esto puede llevar a resultados
engañosos y a una mala generalización de los hallazgos en otras muestras
o situaciones. Para mitigar este riesgo, es recomendable validar los
resultados del PCA utilizando técnicas como la validación cruzada o la
comparación con otros métodos de reducción de dimensionalidad.
Si bien el PCA es una herramienta valiosa, existen alternativas que
pueden ser más adecuadas en ciertos contextos. Métodos como el Análisis
de Correspondencias Múltiples (MCA), que es particularmente útil para
datos categóricos, o el Análisis de Factores (FA), que permite una
interpretación más directa de las relaciones entre variables latentes,
pueden ofrecer ventajas en situaciones especícas. Además, técnicas más
recientes como la t-SNE (t-distributed Stochastic Neighbor Embedding) o
UMAP (Uniform Manifold Approximation and Projection) son
alternativas que pueden capturar estructuras no lineales en los datos y son
útiles en el análisis exploratorio de datos de alta dimensionalidad.
El ACP transforma un conjunto de variables observadas,
potencialmente correlacionadas, en un nuevo conjunto de variables no
correlacionadas, denominadas componentes principales. Estos
componentes son combinaciones lineales de las variables originales y se
ordenan de tal manera que el primer componente retiene la mayor parte
de la variabilidad presente en los datos, seguido por el segundo
componente, y así sucesivamente. El propósito del ACP es, por tanto,
73
reducir la cantidad de variables a considerar, lo que resulta
particularmente útil en situaciones donde se dispone de un gran número
de variables y se busca identicar las más signicativas.
La reducción de dimensionalidad es esencial en el análisis de datos,
ya que permite simplicar la complejidad sin perder información
relevante. En el contexto del ACP, esta reducción ayuda a minimizar el
ruido en los datos y a mejorar la visualización. Al reducir la dimensión del
conjunto de datos, los analistas pueden facilitar la identicación de
relaciones subyacentes y patrones signicativos, contribuyendo a una
mejor toma de decisiones informadas (Tipping & Bishop, 1999). En teoría,
la reducción de dimensionalidad puede ser esencial en el
preprocesamiento de datos para algoritmos de aprendizaje automático,
donde un alto número de dimensiones puede llevar a problemas de
sobreajuste.
El ACP fue desarrollado a principios del siglo XX, siendo uno de los
primeros métodos de análisis multivariante en ser formalizados. Sus
orígenes se remontan a las contribuciones de matemáticos como Karl
Pearson, quien en 1901 introdujo el concepto de "análisis de la varianza", y
la rotación ortogonal es un método utilizado en el ACP que busca
simplicar la interpretación de los componentes resultantes. A través de la
rotación, se intenta que las variables originales se agrupen de manera que
cada componente es asociado predominantemente a un subconjunto
especíco de ellas. En la rotación ortogonal, los ejes de los componentes se
rotan de tal manera que se mantienen ortogonales entre sí, es decir, que la
correlación entre los componentes rotados es cero. Esto permite que cada
componente represente una dimensión independiente de variación en los
datos.
4.3 Rotación ortogonal y oblicua
Una de las características más destacadas de la rotación ortogonal
es que garantiza que la suma de las varianzas de los componentes rotados
sea igual a la suma de las varianzas de los componentes originales. Esto
signica que, aunque se altere la orientación de los ejes, la cantidad total
74
de información representada por los componentes sigue siendo la misma.
La rotación ortogonal se utiliza frecuentemente en contextos donde se
supone que las dimensiones son independientes y no están
correlacionadas. Existen varios métodos de rotación ortogonal, siendo
Varimax y Quartimax los más utilizados:
- Varimax: Este es el método de rotación ortogonal más popular. Su objetivo es
maximizar la varianza de los cuadrados de las cargas de los componentes. En otras
palabras, Varimax busca que cada variable tenga una alta carga en uno o pocos
componentes y cargas bajas en los demás. Esto resulta en una estructura más clara
y fácil de interpretar.
- Quartimax: En contraste con Varimax, Quartimax tiende a simplicar la
estructura de los componentes de manera que busca maximizar la varianza de los
cuadrados de las cargas de los componentes en todas las variables. Esto puede llevar
a que un solo componente explique la mayor parte de la varianza, lo que puede ser
útil en algunos contextos, pero a menudo resulta en una interpretación más
compleja.
La rotación oblicua es una técnica utilizada en el ACP que permite
la simplicación de la estructura de los componentes extraídos,
permitiendo que estos puedan correlacionarse entre sí. En discrepancia
con la rotación ortogonal, donde se asume que los componentes son
independientes, la rotación oblicua permite que los componentes tengan
una relación más realista, dado que en muchos casos las variables
subyacentes pueden estar interrelacionadas (Frías & Pascual, 2012).
La rotación oblicua se reere a cualquier método de rotación que
permite que los ejes de los factores se inclinen entre sí, resultando en una
solución que puede tener una correlación entre los componentes. Esto es
útil en situaciones donde se asume que las dimensiones latentes que se
están analizando no son completamente independientes. Los métodos de
rotación oblicua producen un conjunto de factores que pueden ser más
interpretables y que reejan mejor la estructura subyacente de los datos.
Algunas características clave de la rotación oblicua incluyen:
75
- Correlación entre factores: En contraposición con la rotación ortogonal, donde
los factores se mantienen perpendiculares, en la rotación oblicua se permite que los
factores se correlacionen, lo que puede proporcionar una representación más
precisa de la realidad.
- Simplicidad en la carga: Aunque los factores pueden estar correlacionados, la
rotación oblicua busca maximizar la sencillez de las cargas en los factores,
facilitando la interpretación.
- Complejidad matemática: Los métodos oblicuos suelen ser más complejos desde
un punto de vista matemático que los métodos ortogonales, lo que puede requerir
un mayor esfuerzo en la interpretación.
Existen varios métodos de rotación oblicua, entre los cuales
destacan:
i. Promax: Este es uno de los métodos más utilizados en la rotación
oblicua. Comienza con una rotación ortogonal (generalmente
Varimax) y luego permite que los factores se correlacionen.
Promax es especialmente útil cuando se anticipa que los factores
pueden estar correlacionados de manera moderada.
ii. Oblimin: Este método incluye una serie de algoritmos que
permiten controlar el grado de correlación entre los factores.
Oblimin puede ser congurado para producir una rotación más
o menos oblicua, dependiendo de las necesidades especícas del
análisis.
Ambos métodos tienen sus propias características y son
seleccionados en función de la naturaleza de los datos y los objetivos del
análisis. La rotación oblicua en el ACP ofrece un enfoque alternativo
valioso que puede facilitar la comprensión de las relaciones complejas
entre variables; no obstante, presenta desafíos en términos de
interpretación y análisis. El ACP se caracteriza por su exibilidad y su
capacidad para extraer información signicativa de conjuntos de datos
complejos. En cambio, la elección entre rotación ortogonal y oblicua puede
inuir de manera signicativa en la interpretación de los resultados.
76
La rotación ortogonal, como Varimax y Quartimax, busca
maximizar la varianza de los componentes de manera que cada variable se
asocie fuertemente con uno o pocos componentes, dando lugar a patrones
más simples y claros (Lloret et al., 2014). Esto facilita la interpretación, ya
que los componentes tienden a ser independientes entre sí.
Por otro lado, la rotación oblicua permite que los componentes estén
correlacionados, lo que puede ser más realista en ciertas aplicaciones
donde las variables subyacentes están interrelacionadas. Métodos como
Promax y Oblimin permiten que los componentes compartan varianza, lo
que puede resultar en interpretaciones más complejas, pero por eso más
alineadas con la naturaleza de los datos en contextos donde se espera que
las variables interactúen.
La elección entre rotación ortogonal y oblicua depende en gran
medida del contexto de la investigación y de la naturaleza de los datos. La
rotación ortogonal es preferible cuando se asume que las dimensiones
subyacentes son independientes. Es común en situaciones donde se espera
que los factores no tengan inuencia mutua, como en ciertos estudios de
psicología o marketing.
En cambio, la rotación oblicua es más adecuada en casos donde se
puede anticipar que las variables están relacionadas. Esto es común en las
ciencias sociales y del comportamiento, donde es habitual que las
características de los individuos se relacionen de manera compleja. Por lo
tanto, elegir la rotación oblicua puede proporcionar una visión más
matizada de la estructura de los datos y las interrelaciones entre los
factores.
El impacto de la elección de rotación en la estructura de los
componentes es signicativo. La rotación ortogonal tiende a producir una
estructura de componentes más sencilla y clara, lo que a menudo facilita
la identicación de patrones y la asignación de variables a componentes
especícos. Pero en algunos casos, esta simplicidad puede llevar a la
pérdida de información valiosa sobre la complejidad de las interrelaciones.
77
Por otro lado, la rotación oblicua puede revelar relaciones más
profundas y complejas entre las variables, lo que puede ser ventajoso al
buscar comprender fenómenos multidimensionales. Por otra parte, esta
complejidad adicional puede dicultar la interpretación y los
investigadores deben estar preparados para confrontar patrones menos
claros que pueden surgir de esta técnica. La elección entre rotación
ortogonal y oblicua en el ACP es una decisión determinante que debe
basarse en la naturaleza de los datos y los objetivos del análisis.
Comprender las diferencias en la interpretación, así como cuándo y cómo
aplicar cada tipo de rotación, es fundamental para obtener resultados
signicativos y útiles en la investigación.
Posteriormente, hemos analizado las dos principales técnicas de
rotación utilizadas en el ACP: la rotación ortogonal y la rotación oblicua.
Cada una de estas técnicas tiene características únicas, así como métodos
especícos, como Varimax y Promax, que afectan la manera en que se
interpretan los componentes extraídos. A través de la discusión de las
ventajas y desventajas de cada tipo de rotación, hemos enfatizado la
importancia de elegir la técnica adecuada en función de los objetivos del
análisis y la naturaleza de los datos.
La elección entre rotación ortogonal y oblicua tiene implicaciones
signicativas en los resultados del ACP y, por ende, en las decisiones
analíticas posteriores. La rotación ortogonal puede ser preferida en
situaciones donde se busca una simplicación clara y no correlacionada
entre los factores, mientras que la rotación oblicua puede ser más adecuada
cuando se reconoce que los factores pueden estar correlacionados (Arroyo,
2016).
Mirando hacia el futuro, existen múltiples direcciones que podrían
enriquecer el campo del ACP. La incorporación de técnicas avanzadas de
aprendizaje automático y la exploración de métodos híbridos que
combinan rotaciones ortogonales y oblicuas podrían ofrecer nuevas
perspectivas y resolver algunas de las limitaciones actuales. La
investigación sobre la aplicabilidad del ACP en grandes volúmenes de
78
datos, así como en datos no estructurados, representa un área prometedora
que merece atención.
79
Conclusión
La inferencia bayesiana es una alternativa poderosa a la estadística
frecuentista (clásica), ya que interpreta la probabilidad como un grado de
creencia y utiliza el teorema de Bayes para actualizar ese conocimiento con
nuevos datos. Consiente incorporar información experta o resultados de
estudios anteriores (distribuciones a priori) para inuir en las estimaciones
de los parámetros. Esto es crucial en campos con datos escasos, como la
epidemiología, la ecología o los ensayos clínicos con poblaciones raras.
De la reexión teórica, se deduce que proporciona una medida
directa de la evidencia en favor de una hipótesis (H0) frente a otra (H1). El
Factor Bayes (FB) cuantica qué tan más probables son los datos
observados bajo un modelo que bajo el otro, facilitando la toma de
decisiones basada en la verosimilitud de las hipótesis. Modela la
incertidumbre y genera distribuciones a posteriori completas para los
parámetros, lo que permite cuanticar la incertidumbre de forma más
intuitiva que los métodos clásicos. Es decir, se utilizan intervalos de
credibilidad que reejan la probabilidad de que el parámetro verdadero se
encuentre dentro de ese rango.
En tanto, el AFE ayuda a identicar ítems o variables redundantes,
ambiguos o que no cargan fuertemente en ningún factor. Estos ítems
pueden ser eliminados o revisados, lo que mejora la validez de constructo
y la parsimonia del instrumento. En las etapas iniciales de la investigación
transdisciplinaria, el AFE puede utilizarse para explorar relaciones de
variables sin una hipótesis clara y a priori, sugiriendo la existencia de
nuevas dimensiones o constructos que pueden ser investigados a fondo
posteriormente con un Análisis Factorial Conrmatorio (AFC).
Además, se discernió el objetivo central del ACP: transformar un
gran conjunto de variables originales correlacionadas en un conjunto más
pequeño de nuevas variables no correlacionadas llamadas Componentes
Principales (CP). Esta técnica proporciona la identicación de patrones y
la agrupación de las unidades experimentales en subgrupos o tipologías
80
de características semejantes, lo cual es útil para la segmentación en
campos transdisciplinarios, construyendo en un índice sintético único
que representa el concepto más amplio.
Los resultados conrman que al centrarse solo en las componentes
que explican la mayor variación, el ACP actúa como un ltro, eliminando
el ruido o la información redundante que reside en los componentes de
menor varianza. En conclusión, cada metodología tiene sus propias
ventajas y limitaciones, y la elección de la más adecuada dependerá de los
objetivos de la investigación, así como de la naturaleza del problema a
investigar. La toma de decisiones es una parte primordial de cualquier
proceso de investigación y el diagrama de árbol se muestra como una
herramienta valiosa que facilita esta fase. Su estructura visual permite
desglosar las diferentes opciones y sus posibles consecuencias, lo que
propicia un análisis más claro y organizado de las alternativas disponibles.
Finalmente, hemos analizado cómo las hipótesis no solo establecen
conexiones entre variables, sino que también ayudan a comprender la
naturaleza de esas relaciones en un entorno multidimensional. Mediante
la identicación de modelos causales y la priorización de constructos, los
investigadores pueden obtener una visión más clara de la interacción entre
los elementos en un sistema, lo cual es esencial para desarrollar soluciones
efectivas a problemas complejos.
81
Bibliografía
Arroyo-Hernández, J. (2016). Métodos de reducción de dimensionalidad:
Análisis comparativo de los métodos APC, ACPP y ACPK. Uniciencia,
30(1), 115-122
Cáceres Guido, P., Humberto Pavan, C., Otamendi, E., & Bramuglia, G.F.
(2020). Principios de estadística Bayesiana y su relación con la
farmacocinética aplicada. Revista chilena de pediatría, 91(5), 828-
837. hps://dx.doi.org/10.32641/rchped.vi91i5.1594
Fernández Regalado, R. (2009). El teorema de Bayes y su utilización en la
interpretación de las pruebas diagnósticas en el laboratorio clínico. Revista
Cubana de Investigaciones Biomédicas, 28(3), 158-165
Fernández-Chuairey, L., Rangel-Montes de Oca, L., Varela-Nualles, M.,
Pino-Roque, J.A., del Pozo-Fernández, J., & Lim-Chamg, N.U.. (2022).
Análisis de componentes principales, una herramienta ecaz en las
Ciencias Técnicas Agropecuarias. Revista Ciencias Técnicas
Agropecuarias, 31(1). Recuperado de
hp://scielo.sld.cu/pdf/rcta/v31n1/2071-0054-rcta-31-01-e10.pdf 3.1
Fischer, C., Radinger-Peer, V., Krainer, L., & Penker, M. (2024).
Communication tools and their support for integration in
transdisciplinary research projects. Humanities and Social Sciences
Communications, 11(1). hps://doi.org/10.1057/s41599-024-02607-3
Frías-Navarro, D., & Pascual Soler, M. (2012). Prácticas del análisis factorial
exploratorio (AFE) en la investigación sobre conducta del consumidor y
marketing. Suma Psicológica, 19(1), 47-58
Godemann, J. (2008). Knowledge integration: a key challenge for
transdisciplinary cooperation. Environmental Education Research, 14(6),
625–641. hps://doi.org/10.1080/13504620802469188
82
Gugerell, K., Radinger-Peer, V., & Penker, M. (2023). Systemic knowledge
integration in transdisciplinary and sustainability transformation
research. Futures, 150, 103177. hps://doi.org/10.1016/j.futures.2023.103177
Jaeger-Erben, M., Kramm, J., Winzer, J., Santarius, T., Sievers-Globach,
S., Völker, C., Lange, S., Albert, C., Graf, A., Schröter, B., Hermans, K., &
Sonnberger, M. (2018). Building Capacities for Transdisciplinary Research:
Challenges and Recommendations for Early-Career Researchers. GAIA -
Ecological Perspectives for Science and Society, 27(4), 379–386.
hps://doi.org/10.14512/gaia.27.4.10
Klein, J. (2006). Afterword: the emergent literature on interdisciplinary and
transdisciplinary research evaluation. Research Evaluation, 15(1), 75–80.
hps://doi.org/10.3152/147154406781776011
Lin, Y., Chen, H., Xia, W. et al. (2025). Un estudio exhaustivo sobre técnicas
de aprendizaje profundo en la minería de datos educativos. Data Sci. Eng.
hps://doi.org/10.1007/s41019-025-00303-z
Lloret-Segura, S., Ferreres-Traver, A., Hernández-Baeza, A., & Tomás-
Marco, I. (2014). El Análisis Factorial Exploratorio de los Ítems: una guía
práctica, revisada y actualizada. Anales de Psicología, 30(3), 1151-
1169. hps://dx.doi.org/10.6018/analesps.30.3.199361
Méndez, A. (2024). El análisis factorial: una introducción conceptual para
la enseñanza y aprendizaje. Enseñanza e Investigación en Psicología Nueva
Época, 6(1), 1-13. hps://doi.org/10.62364/cneip.6.1.2024.240
Mitrany, M., & Stokols, D. (2005). Gauging the Transdisciplinary Qualities
and Outcomes of Doctoral Training Programs. Journal of Planning Education
and Research, 24(4), 437–449. hps://doi.org/10.1177/0739456x04270368
Pennington, D. D., Baker, R. J., Simpson, G. L., Mcconnell, M. S., & Fair, J.
M. (2013). Transdisciplinary Research, Transformative Learning, and
Transformative Science. BioScience, 63(7), 564–573.
hps://doi.org/10.1525/bio.2013.63.7.9
83
Pohl, C., & Hirsch Hadorn, G. (2008). Methodological challenges of
transdisciplinary research. Natures Sciences Sociétés, 16(2), 111–121.
hps://doi.org/10.1051/nss:2008035
Rendón-Macías, M.E., Riojas-Garza, A., Contreras-Estrada, D., &
Martínez-Ezquerro, J.D. (2018). Análisis bayesiano. Conceptos básicos y
prácticos para su interpretación y uso. Revista alergia México, 65(3), 285-
298. hps://doi.org/10.29262/ram.v65i3.512
Restrepo, L.F., Posada, S., & Noguera, R. (2012). Aplicación del análisis por
componentes principales en la evaluación de tres variedades de
pasto. Revista Colombiana de Ciencias Pecuarias, 25(2), 258-266
Salinas P, Hugo, Albornoz V, Jaime, Reyes P, Alvaro, Erazo B, Marcia, &
Ide V, Rodolfo. (2006). Análisis de componentes principales aplicado a
variables respecto a la mujer gestante en la región de las Américas. Revista
chilena de obstetricia y ginecología, 71(1), 17-
25. hps://dx.doi.org/10.4067/S0717-75262006000100004
Sargent, L., Gendron, T., Falls, K., Zanjani, F., Brooks, M., Preer-Abo, I.,
Winship, J., Prom-Wormley, E., Diallo, A., Price, E. T., Parsons, P., Chung,
J., Slaum, P., Ford, G., Waters, L., Mackiewicz, M., & Bale, K. (2020).
Bringing Transdisciplinary Aging Research From Theory to Practice. The
Gerontologist, 62(2), 159–168. hps://doi.org/10.1093/geront/gnaa214
Stokols, D., Clark, M., Baezconde-Garbanati, L., Unger, J., Palmer, P.,
Fuqua, J., Trochim, W., Phillips, K., Gress, J., Colby, S., Harvey, R., &
Morgan, G. (2003). Evaluating transdisciplinary science. Nicotine &
Tobacco Research, Suppl 5 1(6), 21–39.
hps://doi.org/10.1080/14622200310001625555
Tipping, M. & Bishop, M. (1999). Probabilistic principal component
analysis. Journal of the Royal Statistical Society. Series B, 61(3), 611-
622. hp://dx.doi.org/10.1111/1467-9868.00196
Vos, P., & Holbert, D. (2022). Frequentist statistical inference without
repeated sampling. Synthese, 200(89). hps://doi.org/10.1007/s11229-022-
03560-x
84
Ximénez, M.C., & García, A.G. (2005). Comparación de los métodos de
estimación de máxima verosimilitud y mínimos cuadrados no ponderados
en el análisis factorial conrmatorio mediante simulación Monte Carlo.
Psicothema, 17(3). 528-535
85
De esta edición de “Estadística bayesiana, análisis de componentes principales
y factorial exploratorio aplicado a la investigación cientíca transdisciplinaria”,
se terminó de editar en la ciudad de Colonia del Sacramento en la
República Oriental del Uruguay el 20 de agosto de 2025
86