1
Investigación cientíca desde la ciencia de datos: Generalidades
Alfonso Tesén Arroyo, Héctor Fidel Bejarano Benites, Edwin Johny Asnate Salazar, Elías
Alberto Torres Armas, Jorsi Ericson Joel Balcázar Gallo, Luis Alberto Aguirre Bazán
© Alfonso Tesén Arroyo, Héctor Fidel Bejarano Benites, Edwin Johny Asnate Salazar,
Elías Alberto Torres Armas, Jorsi Ericson Joel Balcázar Gallo, Luis Alberto Aguirre
Bazán, 2025
Primera edición: Abril, 2025
Editado por:
Editorial Mar Caribe
www.editorialmarcaribe.es
Av. General Flores 547, Colonia, Colonia-Uruguay.
Diseño de portada: Yelia Sánchez Cáceres
Libro electrónico disponible en:
hps://editorialmarcaribe.es/ark:/10951/isbn.9789915698052
Formato: electrónico
ISBN: 978-9915-698-05-2
ARK: ark:/10951/isbn.9789915698052
URN: URN:ISBN:978-9915-698-05-2
Atribución/Reconocimiento-
NoComercial 4.0 Internacional:
Editorial Mar Caribe, firmante
795 de 12.08.2024 de la
Declaración de Berlín:
Editorial Mar Caribe-Miembro
de OASPA:
Los autores pueden autorizar al
público en general a reutilizar
sus obras únicamente con fines
no lucrativos, los lectores
pueden utilizar una obra para
generar otra, siempre que se
crédito a la investigación, y
conceden al editor el derecho a
publicar primero su ensayo bajo
los términos de la licencia CC
BY-NC 4.0.
"... Nos sentimos obligados a
abordar los retos de Internet como
medio funcional emergente para la
distribución del conocimiento.
Obviamente, estos avances pueden
modificar significativamente la
naturaleza de la publicación
científica, así como el actual sistema
de garantía de calidad...." (Max
Planck Society, ed. 2003., pp.
152-153).
Como miembro de la Open
Access Scholarly Publishing
Association, apoyamos el acceso
abierto de acuerdo con el código
de conducta, transparencia y
mejores prácticas de OASPA
para la publicación de libros
académicos y de investigación.
Estamos comprometidos con los
más altos estándares editoriales
en ética y deontología, bajo la
premisa de «Ciencia Abierta en
América Latina y el Caribe».
2
Editorial Mar Caribe
Investigación cientíca desde la ciencia de datos:
Generalidades
Colonia, Uruguay
2025
3
Sobre los autores y la publicación
Alfonso Tesén Arroyo
hps://orcid.org/0000-0002-1088-7093
Universidad Nacional Pedro Ruiz Gallo, Perú
Héctor Fidel Bejarano Benites
hbejarano@cientica.edu.pe
hps://orcid.org/0000-0003-2047-4425
Universidad Cientíca del Sur, Pe
Edwin Johny Asnate Salazar
hps://orcid.org/0000-0002-4319-8964
Universidad Nacional Santiago Antúnez de Mayolo,
Perú
Elías Alberto Torres Armas
hps://orcid.org/0000-0003-2774-1055
Universidad Nacional Toribio Rodriguez de
Mendoza de Amazonas, Perú
Jorsi Ericson Joel Balcázar Gallo
hps://orcid.org/0000-0002-8378-0609
Universidad Nacional Ciro Alegría, Perú
Luis Alberto Aguirre Bazán
hps://orcid.org/0000-0002-5642-1213
Universidad Nacional de Trujillo, Pe
Libro resultado de investigación:
Publicación original e inédita, cuyo contenido es el resultado de un proceso de investigación
llevado a cabo con anterioridad a su publicación, ha sido sometida a una revisión externa por
pares a doble ciego, el libro ha sido seleccionado por su calidad cientíca y porque contribuye
signicativamente al área de conocimiento e ilustra una investigación completamente
desarrollada y nalizada. Además, la publicación ha pasado por un proceso editorial que
garantiza su normalización bibliográca y usabilidad.
Sugerencia de citación:
Tesén, A., Bejarano, H.F., Asnate, E.J., Torres, E.A., Balcázar, J.E.J., y Aguirre, L.A. (2025).
Investigación cientíca desde la ciencia de datos: Generalidades. Colonia del Sacramento: Editorial Mar
Caribe. hps://editorialmarcaribe.es/ark:/10951/isbn.9789915698052
4
Índice
Introducción ................................................................................................... 6
Capítulo I ....................................................................................................... 9
Abordar la heterogeneidad de los datos en la investigación cuantitativa ........ 9
1.2 Consideraciones éticas en la investigación cuantitativa impulsada por la
IA .............................................................................................................. 12
1.2.1 Transparencia y replicabilidad en los modelos de IA .................... 14
1.2.2 Aprovechar la IA para el análisis de datos cuantitativos en tiempo
real ........................................................................................................ 16
1.3 Personalización impulsada por IA en la investigación cuantitativa ..... 18
1.4 Los Fundamentos de la Investigación Cuantitativa: Fundamentos y
Métodos de Investigación en las Organizaciones ...................................... 20
1.4.1 El papel de la investigación cuantitativa en los estudios
organizacionales .................................................................................... 21
1.5 Criterios para formular preguntas de investigación efectivas .............. 24
1.5.1 Aplicaciones de la investigación cuantitativa en la toma de
decisiones .............................................................................................. 28
Capítulo II .................................................................................................... 33
IA y computación cuántica en la investigación cuantitativa .......................... 33
2.1 Algoritmos mejorados de aprendizaje automático cuántico ................. 34
2.1.1 IA cuántica en análisis predictivo .................................................. 34
2.1.2 IA cuántica para el análisis criptográco ....................................... 35
2.1.3 Superación de los desafíos en la implementación de la IA cuántica
.............................................................................................................. 37
2.1.4 Mejoras en la distribución de claves cuánticas (QKD) impulsada por
IA .......................................................................................................... 37
2.1.5 Criptoanálisis cuántico asistido por IA .......................................... 38
2.2 Preocupaciones éticas en la toma de decisiones impulsada por la IA
cuántica ..................................................................................................... 40
5
2.2.1 Riesgos de privacidad y seguridad en las aplicaciones de IA cuántica
.............................................................................................................. 40
2.3 Navegando por los desafíos éticos en la IA cuántica: abordando la
privacidad, el sesgo y la responsabilidad en el modelado predictivo ........ 43
2.3.1 Sesgo y equidad en el modelado predictivo ................................... 45
2.3.2 Establecer la responsabilidad de las predicciones generadas por la
IA .......................................................................................................... 48
Capítulo III .................................................................................................. 50
Investigación cuantitativa: desafíos para garantizar la justicia y la equidad . 50
3.1 Abordar el sesgo en la recopilación de datos y el muestreo .................. 51
3.1.1 Desafíos para garantizar la difusión equitativa de datos ............... 53
3.1.2 Garantizar la equidad en la formación y validación de modelos .... 54
3.1.3 Creación de capacidad para la investigación centrada en la equidad
.............................................................................................................. 57
3.2 Establecer el rigor: estándares esenciales para la investigación
cuantitativa en educación .......................................................................... 60
3.2.1 Normas clave para la investigación cuantitativa ............................ 61
Capítulo IV .................................................................................................. 66
Investigación descriptiva, analítica y experimental ...................................... 66
4.1 Investigación Experimental y Analítica en Tecnología ......................... 70
4.1.1 Una guía completa para realizar investigación cuantitativa en
educación .............................................................................................. 72
Conclusión ................................................................................................... 79
Bibliografía .................................................................................................. 81
6
Introducción
La investigación cientíca es un proceso sistemático y metódico que busca
adquirir conocimiento y comprensión sobre fenómenos naturales, sociales o
tecnológicos. Este proceso se fundamenta en la formulación de preguntas, la
generación de hipótesis y la recolección de datos empíricos que, a través de la
observación y la experimentación, permiten validar o refutar dichas hipótesis. A
lo largo de la historia, la investigación cientíca ha sido un motor de progreso y
desarrollo, impulsando innovaciones que han transformado nuestras sociedades
y mejorado la calidad de vida en múltiples dimensiones.
Para 2025, la ciencia de datos ha emergido como una disciplina clave en el
ámbito de la investigación cientíca. La ciencia de datos se ocupa de extraer
conocimiento y valor de grandes volúmenes de datos mediante técnicas
estadísticas, matemáticas y computacionales. Esta disciplina no solo abarca la
recopilación y el almacenamiento de datos, sino también su análisis y
visualización, lo que permite a los investigadores interpretar patrones,
tendencias y relaciones que de otro modo podrían pasar desapercibidos.
La convergencia entre la investigación cientíca y la ciencia de datos ha
cambiado la forma en que los cientícos abordan problemas complejos; la
capacidad de analizar grandes conjuntos de datos provenientes de diversas
fuentes, como experimentos, encuestas, redes sociales y sensores, ha facilitado un
enfoque más integral y multidisciplinario en la investigación. A medida que los
datos se han vuelto más accesibles y abundantes, la ciencia de datos se ha
consolidado como una herramienta indispensable para los investigadores que
buscan no solo entender el mundo que nos rodea, sino también predecir
comportamientos y tendencias futuras.
En este libro, se explorará cómo la ciencia de datos está redeniendo los
paradigmas de la investigación cientíca y cómo su integración está permitiendo
un enfoque más robusto y dinámico en la búsqueda del conocimiento, desde la
inteligencia articial generativa. Sobre ello, los autores disciernen la importancia
de la ciencia de datos, los métodos que se aplican en la investigación y los
desafíos éticos que surgen en este contexto, lo que nos permitirá vislumbrar el
futuro de la investigación cientíca en la era de los datos.
7
En este contexto, la ciencia de datos proporciona a los investigadores
herramientas analíticas que les permiten evaluar múltiples variables y escenarios
antes de llegar a una conclusión. A través de técnicas como el análisis estadístico
y la visualización de datos, los cientícos pueden identicar patrones y
tendencias que podrían no ser evidentes a simple vista. Esta capacidad de análisis
no solo mejora la precisión de las decisiones, sino que también optimiza los
recursos y el tiempo invertido en investigaciones, permitiendo a los cientícos
concentrarse en las áreas más prometedoras.
Entre las aplicaciones más destacadas, técnicas como el análisis de Big
Data y el uso de bases de datos NoSQL permiten a los investigadores almacenar,
recuperar y analizar datos de manera más ágil. Esto no solo acelera el proceso de
investigación, sino que también mejora la calidad de los hallazgos, ya que se
pueden considerar más datos relevantes en la formulación de hipótesis y teorías.
Este enfoque ha llevado a avances signicativos en campos como la medicina,
donde el análisis de grandes conjuntos de datos puede identicar nuevos
biomarcadores para enfermedades o predecir respuestas a tratamientos. La
ciencia de datos, por lo tanto, no solo complementa la investigación cientíca
tradicional, sino que también la expande, abriendo la puerta a innovaciones que
pueden tener un impacto profundo en la sociedad.
En general, la ciencia de datos juega un papel crucial en la investigación
cientíca al mejorar la toma de decisiones, facilitar el análisis de grandes
volúmenes de datos y fomentar descubrimientos innovadores. A través de los
cuatro capítulos del libro se exploran las capacidades de la ciencia de datos, la
privacidad y la manera en que se aborda la atención cuidadosa para evitar
violaciones de la privacidad. Sin embargo, se debe tener en cuenta el sesgo en los
modelos de datos, ya que puede afectar la validez y la equidad de los resultados
de la investigación; es decir, los algoritmos de aprendizaje automático y otros
modelos predictivos pueden perpetuar o incluso exacerbar prejuicios existentes
si se entrenan con datos sesgados.
Con base en este planteamiento, se plantea como objetivo de investigación
documentar de manera exhaustiva los procesos, códigos y datos para la
colaboración e intercambio de información, mitigación del sesgo y la promoción
de la transparencia. Los autores, a través de la sistematización, buscan trascender
en la integración de técnicas de aprendizaje automático y análisis de datos
8
avanzados, la eciencia de los procesos de investigación y, sobre todo, las
colaboraciones interdisciplinarias, con un enfoque equilibrado, tal que la ciencia
de datos enriquezca la investigación cientíca hacia el avance equitativo y
sostenible del conocimiento en benecio de la sociedad. Por lo tanto, invitamos a
que los investigadores se esfuercen por identicar y mitigar el sesgo en sus
conjuntos de datos y modelos, implementando prácticas de auditoría y
validación que aseguren la equidad y la precisión de los resultados en sinergia
con el método cientíco.
9
Capítulo I
Abordar la heterogeneidad de los datos en la
investigación cuantitativa
En el panorama en rápida evolución de la investigación y el análisis, la
integración de la inteligencia articial (IA) y la ciencia de datos se ha convertido
en una fuerza transformadora, remodelando las metodologías empleadas en la
investigación cuantitativa. Al aprovechar las técnicas computacionales
avanzadas, la IA y la ciencia de datos permiten a los investigadores procesar
grandes conjuntos de datos, descubrir patrones ocultos y obtener información
procesable con una precisión y eciencia sin precedentes. Este cambio de
paradigma no solo está mejorando la profundidad y la amplitud de la
investigación cuantitativa, sino que también está impulsando la innovación en
diversos ámbitos, desde la atención médica y las nanzas hasta las ciencias
sociales y los estudios ambientales.
La adopción de herramientas impulsadas por IA, como algoritmos de
aprendizaje automático (ML) y modelos de aprendizaje profundo, ha mejorado
signicativamente la precisión y la escalabilidad de la investigación cuantitativa.
Estas tecnologías facilitan el modelado predictivo, el procesamiento de datos en
tiempo real y la automatización de la recopilación de datos, lo que permite a los
investigadores centrarse en tareas analíticas de orden superior. Las plataformas
impulsadas por IA logran extraer datos de páginas web, monitorear las redes
sociales y analizar los datos de los sensores en tiempo real, lo que agiliza el
proceso de investigación y reduce el error humano.
Los avances en el procesamiento del lenguaje natural (NLP) están
revolucionando el análisis de datos textuales, lo que permite a los investigadores
extraer información signicativa de información no estructurada, como
respuestas a encuestas, literatura académica y contenido de redes sociales. Estas
capacidades son particularmente valiosas en la investigación interdisciplinaria,
donde la combinación de la experiencia en el dominio con el análisis impulsado
por la IA fomenta soluciones innovadoras y una comprensión integral.
10
A pesar de estos avances, la integración de la IA y la ciencia de datos en la
investigación cuantitativa no está exenta de desafíos. Cuestiones como la
privacidad de los datos, el sesgo algorítmico y la interpretabilidad de los modelos
exigen una cuidadosa consideración para garantizar un uso ético y responsable
de estas tecnologías. Los marcos regulatorios como el GDPR y la CCPA enfatizan
la necesidad de transparencia y responsabilidad en el manejo de datos
condenciales, mientras que las técnicas emergentes como la IA explicable (XAI)
y la privacidad diferencial tienen como objetivo abordar estas preocupaciones.
Las tendencias emergentes, como la IA generativa, la cadena de bloques
para la integridad de la investigación y la computación cuántica, prometen
mejorar aún más las capacidades de los investigadores, permitiendo
descubrimientos revolucionarios y una toma de decisiones más informada. Al
adoptar estas tecnologías, los investigadores no solo logran optimizar sus
metodologías, sino también contribuir al objetivo más amplio de avanzar en el
conocimiento y la innovación en un mundo cada vez más impulsado por los
datos (Gairín y Alguacil, 2024).
1.1 Mejora del preprocesamiento de datos con IA y ML
La IA y el aprendizaje automático (ML) han revolucionado el
preprocesamiento de datos, un paso fundamental en las metodologías de
investigación cuantitativa. Los métodos tradicionales de preprocesamiento,
como la limpieza, la normalización y la transformación, suelen llevar mucho
tiempo y son propensos a errores humanos. Las herramientas impulsadas por IA
ahora automatizan estos procesos, lo que garantiza la eciencia y la precisión.
Los algoritmos de IA consiguen detectar y corregir anomalías en los conjuntos de
datos, como valores faltantes o valores atípicos, con una intervención manual
mínima.
Los modelos de ML, en particular las técnicas de aprendizaje no
supervisado como la agrupación, se están empleando para identicar patrones
en conjuntos de datos no estructurados. En la investigación cientíca, los
algoritmos de agrupación consiguen agrupar puntos de datos similares, lo que
permite a los investigadores segmentar los datos para un análisis especíco. Esta
capacidad es particularmente beneciosa en campos como la genómica, donde
los conjuntos de datos son vastos y muy complejos. La integración de la IA en el
11
preprocesamiento no solo acelera los ujos de trabajo de investigación, sino que
también mejora la abilidad de los análisis posteriores.
La IA y el ML han avanzado signicativamente en el modelado predictivo
en la investigación cuantitativa. Los modelos estadísticos tradicionales, como la
regresión lineal, a menudo tienen dicultades con datos de alta dimensión o
relaciones no lineales. Por el contrario, las técnicas de ML, como los árboles de
decisión, los bosques aleatorios y las redes neuronales, consiguen manejar
conjuntos de datos complejos con facilidad. Las redes neuronales se han utilizado
para predecir brotes de enfermedades mediante el análisis de grandes cantidades
de datos en tiempo real, incluidos los patrones climáticos, la densidad de
población y los registros históricos de brotes.
Los métodos de aprendizaje por conjuntos, que combinan múltiples
modelos para mejorar la precisión de las predicciones, están ganando adeptos.
Estos modelos aprovechan las fortalezas de los algoritmos individuales al tiempo
que mitigan sus debilidades, lo que da como resultado capacidades predictivas
sólidas. La adopción de modelos predictivos impulsados por IA está
transformando la investigación cuantitativa al permitir a los investigadores
tomar decisiones basadas en datos con una precisión sin precedentes.
Para Seni y Elder (2010), la IA y el ML también se están utilizando para
automatizar la prueba de hipótesis, una piedra angular de la investigación
cuantitativa. Las pruebas de hipótesis tradicionales a menudo implican cálculos
manuales y análisis estadísticos, que son propensos a errores y requieren mucho
tiempo. Los algoritmos de IA, como las redes bayesianas, automatizan este
proceso evaluando la probabilidad de varias hipótesis basadas en los datos
disponibles. Este enfoque no solo acelera el proceso de prueba, sino que también
reduce el riesgo de sesgo humano.
En los ensayos clínicos, se han utilizado pruebas de hipótesis impulsadas
por IA para evaluar la ecacia de nuevos fármacos. Al analizar los datos de los
pacientes en tiempo real, estos algoritmos consiguen identicar resultados
estadísticamente signicativos más rápido que los métodos tradicionales. Las
técnicas de ML, como el aprendizaje por refuerzo, se están empleando para
renar las hipótesis de forma iterativa. Estos algoritmos aprenden de los
resultados anteriores, lo que permite a los investigadores ajustar sus hipótesis de
forma dinámica en función de nuevos datos.
12
La heterogeneidad de los datos, o la variabilidad en los formatos, fuentes
y estructuras de los datos, plantea un desafío importante en la investigación
cuantitativa. La IA y el ML ofrecen soluciones innovadoras para abordar este
problema. Los algoritmos de procesamiento del lenguaje natural (PLN)
consiguen extraer y estandarizar información de diversas fuentes textuales, como
trabajos de investigación, informes y publicaciones en redes sociales. Esta
capacidad es particularmente valiosa en campos como la epidemiología, donde
se deben integrar datos de múltiples fuentes para rastrear los brotes de
enfermedades.
Los modelos de ML, como las redes generativas adversarias (GAN), se
utilizan para sintetizar los datos que faltan, lo que garantiza la integridad del
conjunto de datos. En la investigación ambiental, las GAN se han empleado para
generar datos climáticos faltantes, lo que permite a los investigadores analizar
con precisión las tendencias a largo plazo. Estos avances no solo mitigan los
desafíos que plantea la heterogeneidad de los datos, sino que también mejoran la
calidad y la abilidad de los resultados de la investigación.
Las herramientas impulsadas por IA también facilitan la integración de
datos del mundo real (RWD) en la investigación cuantitativa. Al procesar y
analizar conjuntos de datos heterogéneos, como registros de salud electrónicos,
datos de sensores y actividad en las redes sociales, la IA permite a los
investigadores obtener información procesable (Herraíz et al., 2025). En la
medicina de precisión, los algoritmos de IA analizan la RWD para identicar
opciones de tratamiento personalizadas para los pacientes, lo que mejora los
resultados sanitarios.
1.2 Consideraciones éticas en la investigación cuantitativa
impulsada por la IA
Si bien la IA y el ML ofrecen numerosos benecios, su integración en la
investigación cuantitativa plantea importantes consideraciones éticas. Una de las
principales preocupaciones es la posibilidad de sesgos algorítmicos, que pueden
dar lugar a resultados sesgados y discriminatorios. Los sesgos en los datos de
entrenamiento pueden dar lugar a modelos de IA que favorecen de forma
desproporcionada a determinados grupos demográcos.
13
La transparencia y la replicabilidad también son cuestiones éticas
fundamentales. Muchos modelos de IA, en particular los algoritmos de
aprendizaje profundo, funcionan como "cajas negras", lo que diculta que los
investigadores entiendan cómo se toman las decisiones. Esta falta de
transparencia puede socavar la conanza en los resultados de la investigación y
dicultar su reproducibilidad. Para abordar este problema, los investigadores
están adoptando cada vez más técnicas de IA explicable (XAI), que proporcionan
información sobre los procesos de toma de decisiones de los modelos de IA.
El uso de la IA en la investigación requiere medidas sólidas de privacidad
y seguridad de los datos. Los algoritmos de IA a menudo requieren acceso a datos
condenciales, como información de salud personal, lo que genera
preocupaciones sobre violaciones de datos y uso no autorizado. Los
investigadores deben implementar estrictos protocolos de protección de datos y
cumplir con las directrices éticas para garantizar el uso responsable de la IA en
la investigación cuantitativa.
La participación de las partes interesadas, incluidas las comunidades
afectadas y los responsables políticos, es otro aspecto esencial de la integración
ética de la IA. Al involucrar diversas perspectivas, los investigadores pueden
identicar riesgos potenciales y desarrollar estrategias para mitigarlos. La
participación de la comunidad ha sido fundamental para abordar las
preocupaciones éticas relacionadas con las iniciativas de salud pública
impulsadas por la IA, como el rastreo de contactos durante las pandemias.
Si bien la IA y el ML tienen el potencial de transformar las metodologías
de investigación cuantitativa, su integración debe guiarse por principios éticos
para garantizar la equidad, la transparencia y la rendición de cuentas. Los
investigadores deben permanecer atentos a la hora de abordar estos desafíos para
aprovechar todo el potencial de la investigación impulsada por la IA.
La rendición de cuentas en la investigación impulsada por la IA es un
desafío ético crítico, especialmente cuando los sistemas de IA se utilizan para
tomar decisiones con impactos sociales signicativos. Si un modelo de IA
utilizado en ensayos clínicos produce predicciones incorrectas que conducen a
resultados adversos para los pacientes, no está claro si la culpa es del algoritmo,
de los datos utilizados para el entrenamiento o de los investigadores que
implementaron el modelo.
14
Para abordar estos problemas, los investigadores y las instituciones están
adoptando estrategias como los marcos de responsabilidad algorítmica. Estos
marcos requieren que los investigadores documenten cada etapa del ciclo de vida
de la IA, desde la recopilación de datos hasta la implementación del modelo, lo
que garantiza la trazabilidad y la responsabilidad. Algunas organizaciones están
implementando comités de ética de IA para supervisar los proyectos de
investigación y evaluar los riesgos éticos. La Ley de IA propuesta por la Unión
Europea hace hincapié en la rendición de cuentas al exigir evaluaciones de
riesgos y documentación para los sistemas de IA de alto riesgo.
La investigación impulsada por la IA a menudo lidia con la justicia y la
equidad, especialmente cuando los algoritmos perpetúan o amplican
inadvertidamente los sesgos presentes en los datos de entrenamiento. Este
desafío es especialmente pronunciado en campos como la atención médica,
donde los modelos de IA sesgados pueden conducir a resultados
discriminatorios.
Un enfoque para mitigar estos sesgos es el uso de técnicas de aprendizaje
automático conscientes de la equidad. Estos métodos tienen como objetivo
identicar y corregir sesgos durante la fase de entrenamiento de los modelos de
IA. Los investigadores también emplean cada vez más diversos conjuntos de
datos para garantizar que los sistemas de IA se entrenen con datos que
representen a varios grupos demográcos. La colaboración interdisciplinaria está
ganando terreno como solución a los desafíos de equidad (González et al., 2024).
Al involucrar a especialistas en ética, sociólogos y expertos legales en equipos de
investigación de IA, los investigadores pueden anticipar y abordar mejor las
posibles desigualdades. Este enfoque no solo mejora el rigor ético de la
investigación impulsada por la IA, sino que también fomenta la conanza pública
en los resultados cientícos.
1.2.1 Transparencia y replicabilidad en los modelos de IA
La naturaleza de 'caja negra' de muchos sistemas de IA plantea un desafío
signicativo para la transparencia y la replicabilidad en la investigación. A
diferencia de los modelos estadísticos tradicionales, que a menudo son
interpretables, los algoritmos avanzados de IA, como el aprendizaje profundo,
operan de formas que son difíciles de entender incluso para los expertos. Para
abordar este problema, los investigadores están adoptando cada vez más técnicas
15
de IA explicable (XAI). XAI tiene como objetivo hacer que los sistemas de IA sean
más interpretables al proporcionar explicaciones claras para sus resultados. Se
utilizan métodos como SHAP (Shapley Additive Explanations) y LIME (Local
Interpretable Model-Agnostic Explanations) para dilucidar los procesos de toma
de decisiones de modelos complejos.
Otra estrategia implica el desarrollo de modelos y conjuntos de datos de
IA de código abierto. Al poner estos recursos a disposición del público, los
investigadores consiguen promover la transparencia y permitir la validación
independiente de los hallazgos. La iniciativa OpenAI ha publicado varios
modelos y conjuntos de datos para fomentar la transparencia y la colaboración
en la investigación de IA.
La investigación impulsada por la IA a menudo requiere acceso a grandes
conjuntos de datos, muchos de los cuales contienen información personal
condencial. Esto plantea importantes preocupaciones sobre la privacidad,
especialmente en campos como la atención médica y las ciencias sociales. Una
violación de la condencialidad en un conjunto de datos que contiene registros
de pacientes podría tener graves repercusiones éticas y legales.
Para mitigar estos riesgos, los investigadores están adoptando técnicas que
preservan la privacidad, como la privacidad diferencial y el aprendizaje
federado. La privacidad diferencial agrega ruido controlado a los conjuntos de
datos, lo que garantiza que los puntos de datos individuales no se puedan
rastrear hasta individuos especícos. El aprendizaje federado, por otro lado,
permite que los modelos de IA se entrenen con datos descentralizados sin
transferir información condencial a un servidor central.
El cumplimiento de las normas de protección de datos, como el
Reglamento General de Protección de Datos (RGPD), se está convirtiendo en una
práctica habitual en la investigación impulsada por la IA. El RGPD exige pautas
estrictas para la recopilación, el almacenamiento y el uso de datos, lo que
garantiza que los investigadores prioricen la privacidad y la seguridad (Gascón,
2021). Las instituciones también están invirtiendo en sólidas medidas de
ciberseguridad para proteger los conjuntos de datos condenciales del acceso no
autorizado.
La investigación impulsada por la IA a menudo implica aumentar los
procesos humanos de toma de decisiones, particularmente en dominios de alto
16
riesgo como la medicina, el derecho y las políticas públicas. Si bien esta
integración ofrece benecios signicativos, como una mayor eciencia y
precisión, también plantea preocupaciones éticas. La dependencia excesiva de los
sistemas de IA puede provocar un "sesgo de automatización", en el que los
investigadores o profesionales confían ciegamente en los resultados de la IA sin
una evaluación crítica. Para abordar este problema, los investigadores abogan
por un enfoque híbrido que combine la experiencia humana con las capacidades
de la IA. Este enfoque garantiza que los sistemas de IA sirvan como herramientas
de asistencia en lugar de como tomadores de decisiones autónomos. En entornos
clínicos, los modelos de IA pueden proporcionar sugerencias diagnósticas, pero
la decisión nal sigue siendo del profesional sanitario.
Se están elaborando directrices éticas para regir el uso de la IA en la toma
de decisiones. Estas directrices hacen hincapié en la importancia de la
supervisión humana, la transparencia y la rendición de cuentas. La Organización
Mundial de la Salud (OMS) ha publicado un marco para el uso ético de la IA en
la atención sanitaria, en el que se destaca la necesidad de enfoques centrados en
el ser humano y de la participación de las partes interesadas. Al abordar estas
consideraciones éticas, los investigadores consiguen garantizar que los procesos
de toma de decisiones impulsados por la IA sean ecaces y responsables,
minimizando los riesgos y maximizando los benecios sociales. Tendencias
futuras e innovaciones en IA y ciencia de datos para la investigación cuantitativa.
1.2.2 Aprovechar la IA para el análisis de datos cuantitativos en tiempo real
Las herramientas de IA como Apache, Kaa y TensorFlow se integran
cada vez más en los ujos de trabajo de investigación para respaldar el análisis
de datos en tiempo real. Estas herramientas facilitan la ingesta, el procesamiento
y la visualización de ujos de datos, lo que permite a los investigadores tomar
decisiones basadas en datos más rápido que nunca. Los algoritmos de IA ahora
permiten a los investigadores combinar datos estructurados y no estructurados
de diversas fuentes, como dispositivos IoT, redes sociales y bases de datos
empresariales. Esta capacidad es particularmente valiosa en campos como las
ciencias ambientales, donde los datos de sensores, satélites y registros históricos
deben sintetizarse para predecir los patrones climáticos.
Las herramientas impulsadas por IA como IBM Watson y Google Cloud
AutoML consiguen agregar y analizar datos de varios formatos, incluidos texto,
17
imágenes y conjuntos de datos numéricos. Esta integración no solo mejora la
precisión de los resultados de la investigación, sino que también descubre
relaciones previamente ocultas entre variables. Los modelos de IA generativa,
como las redes generativas adversarias (GAN) y los autocodicadores
variacionales (VAE), están revolucionando el aumento de datos en la
investigación cuantitativa. Esto es particularmente útil en escenarios donde la
escasez o el desequilibrio de datos plantea desafíos, como en los ensayos clínicos
o la detección de fraudes. Las GAN se han empleado para generar datos
sintéticos de pacientes con enfermedades raras, lo que permite a los
investigadores entrenar modelos de aprendizaje automático sin comprometer la
privacidad del paciente (Sharma et al., 2024).
Del mismo modo, en la detección de fraudes, los modelos generativos
consiguen simular transacciones fraudulentas para mejorar la solidez de los
algoritmos de detección. La IA no solo está mejorando el análisis de datos, sino
que también está revolucionando la forma en que los investigadores visualizan
los datos cuantitativos. Las herramientas de visualización tradicionales a
menudo tienen dicultades con conjuntos de datos de alta dimensión, lo que
diculta la identicación de patrones y tendencias. Las técnicas de visualización
impulsadas por IA, como la incrustación de vecinos estocásticos distribuidos en
t (t-SNE) y la aproximación y proyección de variedades uniformes (UMAP),
abordan este desafío al reducir la dimensionalidad y preservar la estructura de
los datos.
Estas técnicas son particularmente efectivas en campos como la genómica
y el análisis de redes sociales, donde los conjuntos de datos consiguen tener miles
de variables. T-SNE se ha utilizado para visualizar datos de expresión génica, lo
que permite a los investigadores identicar grupos de genes asociados con
enfermedades especícas. Del mismo modo, UMAP se ha aplicado en el análisis
de redes sociales para descubrir comunidades ocultas dentro de grandes redes.
El metaanálisis, que consiste en sintetizar los hallazgos de múltiples estudios, es
una piedra angular de la investigación cuantitativa.
La IA está abordando estos desafíos mediante la automatización de
aspectos clave del proceso de metaanálisis, desde la revisión de la literatura hasta
la síntesis estadística. Los algoritmos de procesamiento del lenguaje natural
(NLP) consiguen escanear miles de artículos de investigación para identicar
18
estudios relevantes, lo que reduce signicativamente el tiempo necesario para la
revisión de la literatura. Las herramientas estadísticas impulsadas por IA
consiguen automatizar el cálculo de los tamaños de los efectos y los intervalos de
conanza, lo que garantiza la precisión y la coherencia.
1.3 Personalización impulsada por IA en la investigación
cuantitativa
La personalización, un concepto tradicionalmente asociado con el
marketing, ahora se está abriendo camino en la investigación cuantitativa. Los
algoritmos de IA consiguen adaptar las metodologías y los análisis de
investigación a conjuntos de datos o preguntas de investigación especícos,
mejorando la pertinencia y aplicabilidad de los hallazgos. En la investigación
educativa, la IA logra personalizar modelos estadísticos para tener en cuenta las
variaciones en la demografía de los estudiantes, lo que garantiza que los
hallazgos sean representativos de diversas poblaciones.
Del mismo modo, en la atención sanitaria, la personalización impulsada
por la IA logra adaptar los modelos predictivos a los datos individuales de los
pacientes, mejorando la precisión de los diagnósticos y las recomendaciones de
tratamiento. El análisis de escenarios, que implica explorar posibles resultados
futuros en función de diferentes supuestos, se está volviendo cada vez más
sosticado con la integración de la IA. Para Taloma et al. (2025), los métodos
tradicionales de análisis de escenarios a menudo se basan en modelos estáticos
que no logran capturar la complejidad de los sistemas del mundo real. Los
algoritmos de aprendizaje por refuerzo logran simular el impacto de los cambios
de política en los indicadores económicos, proporcionando a los responsables de
la formulación de políticas información procesable.
En la investigación medioambiental, el análisis de escenarios impulsado
por la IA logra modelar los efectos del cambio climático en diferentes escenarios
de emisiones, lo que ayuda a los investigadores a identicar estrategias de
mitigación ecaces. La IA no solo está transformando la forma en que se lleva a
cabo la investigación cuantitativa, sino también la forma en que se aplican sus
hallazgos. Los procesos de toma de decisiones, que tradicionalmente se basan en
la intuición y la experiencia humanas, se ven cada vez más aumentados por la
IA. Los sistemas de apoyo a la toma de decisiones impulsados por el aprendizaje
19
automático logran analizar los resultados de la investigación y recomendar
cursos de acción óptimos.
En el ámbito de la salud pública, la toma de decisiones aumentada por la
IA se ha utilizado para asignar recursos durante las pandemias, garantizando
que las intervenciones sean ecaces y equitativas. Del mismo modo, en las
nanzas, los sistemas de apoyo a la toma de decisiones impulsados por la IA
logran evaluar las oportunidades de inversión basándose en los resultados de la
investigación cuantitativa, maximizando los rendimientos y minimizando los
riesgos. Si bien las tecnologías actuales de IA ya están transformando la
investigación cuantitativa, la integración de la computación cuántica promete
llevar estos avances al siguiente nivel.
Los algoritmos cuánticos logran resolver problemas complejos de
optimización y analizar conjuntos de datos de alta dimensión exponencialmente
más rápido que los algoritmos clásicos, lo que abre nuevas posibilidades para la
investigación cuantitativa. Los algoritmos de aprendizaje automático mejorados
cuánticamente podrían revolucionar campos como el descubrimiento de
fármacos y la ciencia de los materiales mediante la identicación de soluciones
óptimas a partir de vastos espacios de búsqueda. En tanto, en nanzas, la
computación cuántica podría permitir la optimización de la cartera en tiempo
real, mejorando las estrategias de inversión. El proyecto es que la adopción de la
computación cuántica en la investigación cuantitativa se acelerará durante la
próxima década, desbloqueando capacidades sin precedentes para el análisis y
el modelado de datos.
La integración de la inteligencia articial (IA) y el aprendizaje automático
(ML) en las metodologías de investigación cuantitativa está revolucionando las
prácticas tradicionales, permitiendo una mayor eciencia, precisión e innovación
en varios dominios. Los avances clave incluyen el preprocesamiento de datos
impulsado por IA, que automatiza tareas como la limpieza, la normalización y la
detección de anomalías, lo que reduce signicativamente el esfuerzo manual y
las tasas de error. Las técnicas de aprendizaje automático, como la agrupación en
clústeres y el aprendizaje por conjuntos, permiten el análisis de conjuntos de
datos complejos y de alta dimensión, mientras que el modelado predictivo
impulsado por redes neuronales y árboles de decisión ofrece una precisión sin
20
precedentes en la previsión de resultados, como brotes de enfermedades o
tendencias nancieras.
La IA está automatizando las pruebas de hipótesis y abordando la
heterogeneidad de los datos a través de herramientas como el procesamiento del
lenguaje natural (NLP) y las redes generativas adversarias (GAN), lo que
garantiza resultados de investigación sólidos y ables. A pesar de estos avances,
la integración de la IA en la investigación cuantitativa plantea consideraciones
éticas críticas (Goyal y Mahmoud, 2024). Desafíos como el sesgo algorítmico, la
falta de transparencia en los modelos de "caja negra" y las preocupaciones sobre
la privacidad de los datos deben abordarse para garantizar la equidad, la
responsabilidad y la conabilidad en la investigación impulsada por la IA.
Soluciones como la IA explicable (XAI), las técnicas de ML conscientes de
la equidad y los métodos de preservación de la privacidad, como la privacidad
diferencial y el aprendizaje federado, están emergiendo como salvaguardas
esenciales. De cara al futuro, la adopción de la IA en la investigación cuantitativa
está a punto de expandirse aún más con innovaciones como la analítica en tiempo
real, la IA generativa para el aumento de datos y la computación cuántica. Estos
avances prometen desbloquear nuevas posibilidades para el análisis de
escenarios dinámicos, metodologías de investigación personalizadas y modelado
de datos de alta dimensión.
Los investigadores deben seguir dando prioridad a los principios éticos, la
transparencia y la responsabilidad para aprovechar plenamente el potencial
transformador de la IA y minimizar los riesgos. Al abordar estos desafíos, la
investigación cuantitativa impulsada por la IA logra lograr un mayor impacto
social, impulsando la toma de decisiones basada en datos y la innovación en
diversos campos.
1.4 Los Fundamentos de la Investigación Cuantitativa:
Fundamentos y Métodos de Investigación en las Organizaciones
La investigación cuantitativa es una piedra angular de los estudios
organizacionales, ya que proporciona un enfoque sistemático y empírico para
comprender los fenómenos a través de datos numéricos. Esta metodología es
esencial para explorar las relaciones entre las variables, probar hipótesis y
generar conocimientos que informen los procesos de toma de decisiones en
21
entornos organizacionales. La base de la investigación cuantitativa radica en su
enfoque estructurado, que enfatiza la objetividad, la replicabilidad y el rigor
estadístico.
Los investigadores emplean diversas técnicas, como encuestas,
experimentos y modelos estadísticos, para recopilar y analizar datos, lo que
garantiza que los hallazgos sean ables y generalizables. Este proceso está guiado
por preguntas e hipótesis de investigación bien denidas, que sirven de modelo
para el estudio. Las preguntas de investigación descriptiva exploran las
características de las variables, mientras que las preguntas comparativas y de
relación examinan las diferencias e interacciones entre las variables.
En el contexto de la investigación organizacional, los métodos
cuantitativos son indispensables para abordar desafíos complejos como el
compromiso de los empleados, la productividad y la dinámica del mercado.
Técnicas como el modelado de ecuaciones estructurales, el análisis factorial y el
metaanálisis permiten a los investigadores descubrir patrones y relaciones que
impulsan el rendimiento organizacional. La integración de herramientas
avanzadas como la inteligencia articial y el análisis predictivo está
revolucionando la forma en que se recopilan e interpretan los datos, lo que hace
que la investigación cuantitativa sea más eciente e impactante que nunca
(Marler y Boudreau, 2016).
La conducta ética de la investigación es otro aspecto crítico de la
investigación cuantitativa. Los investigadores deben adherirse a los principios de
transparencia, precisión y equidad para garantizar que sus hallazgos contribuyan
signicativamente al cuerpo de conocimientos, respetando al mismo tiempo los
derechos y la dignidad de los participantes. Este capítulo profundiza en los
conceptos básicos de la investigación cuantitativa dentro de contextos
organizacionales, explorando sus metodologías, aplicaciones y consideraciones
éticas. Al comprender estos principios fundamentales, los investigadores y
profesionales consiguen aprovechar el poder de los métodos cuantitativos para
abordar problemas organizacionales apremiantes e impulsar la toma de
decisiones informadas.
1.4.1 El papel de la investigación cuantitativa en los estudios organizacionales
La investigación cuantitativa juega un papel crucial en los estudios
organizacionales al proporcionar un enfoque estructurado y objetivo para
22
investigar los fenómenos. Se centra en la recopilación de datos numéricos y el
análisis estadístico para probar hipótesis, identicar tendencias y establecer
relaciones de causa y efecto. Este método es particularmente valioso en campos
maduros de investigación organizacional, donde las teorías están bien
establecidas y requieren validación empírica.
La investigación cuantitativa permite a las organizaciones tomar
decisiones basadas en datos, optimizar las operaciones y predecir resultados
futuros con precisión. La investigación cuantitativa en las organizaciones se
caracteriza por su enfoque en variables medibles, grandes tamaños de muestra y
el uso de herramientas estadísticas:
Recopilación de datos numéricos: La investigación cuantitativa se basa en datos
numéricos recopilados a través de encuestas, experimentos y estudios
observacionales. Las encuestas de satisfacción de los empleados suelen utilizar
escalas Likert para cuanticar las actitudes y percepciones.
Prueba de hipótesis: Un aspecto central de la investigación cuantitativa es
probar hipótesis para conrmar o refutar suposiciones teóricas. Los
investigadores plantean la hipótesis de que el compromiso de los empleados se
correlaciona positivamente con la productividad y utilizan el análisis de
regresión para probar esta relación.
Replicabilidad y generalización: Los métodos de investigación cuantitativa
están diseñados para ser replicables y producir hallazgos que se pueden
generalizar a poblaciones más grandes. Esto es particularmente importante en la
investigación organizacional, donde los resultados a menudo informan la política
y la estrategia.
• Análisis estadístico: Las técnicas estadísticas avanzadas, como los modelos de
regresión, el ANOVA y el modelado de ecuaciones estructurales, se emplean con
frecuencia para analizar datos crudos.
La investigación cuantitativa en las organizaciones emplea una variedad
de métodos, cada uno adaptado a preguntas y objetivos de investigación
especícos. Las encuestas son uno de los métodos más utilizados en la
investigación organizacional. Son ecaces para recopilar grandes cantidades de
datos sobre las actitudes de los empleados, la satisfacción del cliente y la cultura
organizacional. Las encuestas suelen utilizar preguntas estructuradas con
23
opciones de respuesta predenidas, lo que facilita la cuanticación y el análisis.
Una encuesta podría evaluar el impacto de los estilos de liderazgo en la moral de
los empleados utilizando una escala Likert de 5 puntos.
Los experimentos se utilizan para establecer relaciones causales mediante
la manipulación de una o más variables independientes y la observación de su
efecto sobre las variables dependientes. En entornos organizacionales, los
experimentos permiten probar intervenciones como programas de capacitación
o cambios en el diseño del lugar de trabajo. Un experimento controlado podría
evaluar el impacto de las horas de trabajo exibles en la productividad de los
empleados.
Los estudios observacionales implican el registro sistemático de
comportamientos o eventos sin manipular las variables. Estos estudios son
particularmente útiles para comprender la dinámica del lugar de trabajo y las
interacciones del equipo (Manterola y Oen, 2014). El análisis de datos
secundarios implica el uso de conjuntos de datos existentes para responder a
nuevas preguntas de investigación. Los investigadores organizacionales a
menudo analizan informes nancieros, registros de recursos humanos o datos de
mercado para identicar tendencias y patrones.
Los métodos cuantitativos son esenciales para medir el desempeño
organizacional. Los indicadores clave de rendimiento (KPI), como el crecimiento
de los ingresos, las tasas de rotación de empleados y las puntuaciones de
satisfacción del cliente, se cuantican y analizan para evaluar la ecacia de la
organización. La investigación cuantitativa se utiliza ampliamente para estudiar
el comportamiento y el compromiso de los empleados. Las encuestas y los
modelos estadísticos permiten identicar factores que inuyen en la satisfacción,
la motivación y la retención en el trabajo.
Las organizaciones utilizan la investigación cuantitativa para analizar las
tendencias del mercado y el comportamiento de los consumidores. Técnicas
como el análisis de conglomerados y el análisis conjunto ayudan a identicar los
segmentos y las preferencias de los clientes. Los métodos cuantitativos son
cruciales para identicar y mitigar los riesgos en los entornos organizacionales.
Las evaluaciones de riesgos a menudo involucran modelos estadísticos para
estimar la probabilidad y el impacto de los eventos adversos.
24
El análisis de regresión se utiliza para examinar la relación entre variables
dependientes e independientes, y el SEM es una técnica estadística multivariante
que permite a los investigadores probar relaciones complejas entre variables. Es
particularmente útil para estudiar constructos latentes como la cultura
organizacional o el compromiso de los empleados. El SEM podría utilizarse para
modelar la relación entre la cultura organizacional, la satisfacción laboral y la
retención de los empleados (Cheng, 2001). El análisis de series temporales se
utiliza para analizar los datos recopilados a lo largo del tiempo con el n de
identicar tendencias y patrones. Esta técnica se utiliza a menudo en la previsión
nanciera y la planicación operativa, por ende, un análisis de series temporales
podría predecir las ventas futuras en función de los datos históricos.
Los modelos logit y probit se utilizan para analizar resultados binarios,
como si un empleado se queda o se va de una organización. Estos modelos son
particularmente útiles para estudiar los procesos de toma de decisiones y los
resultados conductuales. La importancia de las preguntas de investigación en los
estudios cuantitativos radica en que son la base de cualquier estudio cuantitativo,
ya que proporcionan un enfoque estructurado para investigar los fenómenos.
1.5 Criterios para formular preguntas de investigación efectivas
Para garantizar la solidez de las preguntas de investigación, se deben
cumplir varios criterios. Entre ellos se encuentran:
Especicidad y enfoque: Las preguntas de investigación deben denirse
de manera estricta para evitar preguntas demasiado amplias. En lugar de
preguntar: "¿Qué factores inuyen en el rendimiento de la organización?", una
pregunta más especíca sería: "¿Cómo inuye el estilo de liderazgo en la
retención de empleados en organizaciones medianas?"
Viabilidad: La pregunta debe ser viable dentro de las limitaciones de
tiempo, recursos y disponibilidad de datos. Una pregunta que requiere datos
longitudinales puede no ser factible para un estudio a corto plazo.
Relevancia: La pregunta debe abordar un vacío signicativo en la
literatura o un problema apremiante dentro del campo. Explorar el impacto del
trabajo remoto en la dinámica de los equipos es muy relevante en la era
pospandémica.
25
• Prueba empírica: La pregunta debe permitir pruebas empíricas a través
de métodos cuantitativos. Las preguntas hipotéticas o losócas, como "¿Cuál es
el signicado del éxito organizacional?", no son adecuadas para la investigación
cuantitativa.
Varios marcos ayudan a los investigadores a desarrollar
sistemáticamente preguntas de investigación. Los más destacados son:
Marco PICO: El marco PICO se utiliza comúnmente en la investigación
clínica y organizacional para estructurar preguntas de investigación. Incluye los
siguientes componentes:
P: Población o problema (p. ej., empleados en una industria especíca)
I: Intervención o exposición (p. ej., un nuevo programa de capacitación)
C: Comparación (p. ej., métodos de entrenamiento tradicionales)
O: Resultado (p. ej., mejor rendimiento laboral)
Marco SPIDER: El marco SPIDER está diseñado para la investigación
cualitativa y de métodos mixtos, pero también se puede adaptar para estudios
cuantitativos. Incluye:
S: Muestra
PI: Fenómeno de Interés
D: Diseño
E: Evaluación
R: Tipo de investigación
Una vez que se formulan las preguntas de investigación, se desarrollan
hipótesis para proporcionar predicciones comprobables. Las hipótesis en la
investigación cuantitativa suelen enmarcarse como armaciones nulas (sin
efecto) o alternativas (efecto especíco):
Hipótesis Nula (H₀): "No hay relación entre el compromiso de los
empleados y la productividad".
Hipótesis alternativa (H₁): "Un mayor compromiso de los empleados se
asocia con una mayor productividad". Las hipótesis deben ser:
26
Claras y especícas: Deben establecer con precisión la relación o diferencia
esperada entre las variables.
Comprobables: La hipótesis debe ser comprobable utilizando métodos
estadísticos.
Alineadas con las preguntas de investigación: La hipótesis debe abordar
directamente la pregunta de investigación. Si la pregunta de investigación es:
"¿Inuye el estilo de liderazgo en la retención de los empleados?", la hipótesis
correspondiente podría ser: "El liderazgo transformacional se asocia
positivamente con tasas de retención de empleados más altas". Las preguntas
amplias, como "¿Qué afecta el éxito de la organización?" carecen de enfoque y
dicultan el diseño de un estudio. Reducir el alcance a un factor especíco, como
"¿Cómo afecta la capacitación de los empleados al éxito organizacional en el
sector minorista?" mejora la claridad y la viabilidad. Las preguntas de
investigación guían el estudio general, mientras que las preguntas de encuesta o
entrevista son herramientas para la recopilación de datos:
Pregunta de investigación: "¿Cuál es la relación entre la satisfacción
laboral y la rotación de empleados?"
Pregunta de la encuesta: "En una escala del 1 al 5, ¿qué tan satisfecho está
con su trabajo actual?" Las hipótesis deben ser empíricamente comprobables.
Armaciones como "La felicidad de los empleados conduce al éxito" son
demasiado vagas. En su lugar, especique variables medibles: "Las puntuaciones
más altas en la encuesta de satisfacción laboral se asocian con tasas de rotación
más bajas". Para garantizar que las preguntas e hipótesis de investigación sean
sólidas, los investigadores deben:
Realizar una revisión exhaustiva de la literatura: Esto ayuda a identicar
las lagunas en la investigación existente y a renar el enfoque del estudio.
Involucrar a las partes interesadas: En la investigación organizacional,
involucrar a las partes interesadas garantiza la relevancia de la pregunta de
investigación.
Preguntas de prueba piloto: Probar la viabilidad de las preguntas e
hipótesis de investigación a través de estudios preliminares ayuda a identicar
problemas potenciales.
27
Utilizar marcos: La aplicación de marcos como PICO o SPIDER garantiza
que se aborden todos los componentes críticos de la pregunta de investigación.
Las entrevistas estructuradas y los cuestionarios estandarizados se utilizan
ampliamente en la investigación organizacional para recopilar datos sobre las
actitudes de los empleados, la satisfacción del cliente y la eciencia operativa. Se
puede utilizar un cuestionario estandarizado para medir el compromiso de los
empleados en todos los departamentos, con escalas de Likert que cuantican los
niveles de satisfacción.
Este enfoque mejora la abilidad y facilita el análisis estadístico. Las
tecnologías emergentes, como los dispositivos portátiles y los sensores de IoT, se
integran cada vez más en la investigación cuantitativa. Estas herramientas
recopilan datos en tiempo real sobre la productividad de los empleados, la
seguridad en el lugar de trabajo y las condiciones ambientales.
Las organizaciones pueden usar sensores portátiles para monitorear la
fatiga de los trabajadores en roles físicamente exigentes, generando métricas
cuantitativas que informan los cambios en las políticas. Este método
complementa los enfoques tradicionales al proporcionar datos continuos y
objetivos. Los estudios longitudinales hacen un seguimiento de las variables
durante períodos prolongados, ofreciendo información sobre las tendencias y las
relaciones causales.
Este método es particularmente valioso en la investigación organizacional
para estudiar la rotación de empleados, la dinámica del mercado o el impacto a
largo plazo de los programas de capacitación. Un estudio longitudinal podría
examinar cómo las iniciativas de desarrollo de liderazgo inuyen en la retención
de empleados durante cinco años. Este enfoque proporciona datos sólidos para
el modelado predictivo y la planicación estratégica.
Para Ruiz (2019), el análisis de conglomerados es una técnica estadística
utilizada para agrupar puntos de datos similares en función de características
compartidas. En la investigación organizacional, a menudo se aplica para
segmentar empleados, clientes o mercados. El análisis de conglomerados
consigue identicar distintos grupos de empleados en función de la satisfacción
laboral, las métricas de rendimiento y las aspiraciones profesionales, lo que
permite intervenciones especícas.
28
Las simulaciones de Monte Carlo se emplean para modelar y analizar
sistemas complejos en condiciones de incertidumbre. Esta técnica es
ampliamente utilizada en la gestión de riesgos para estimar la probabilidad de
eventos adversos y su impacto potencial. Las instituciones nancieras consiguen
utilizar simulaciones de Monte Carlo para predecir la probabilidad de impagos
de préstamos en diversos escenarios económicos. Este método proporciona una
base cuantitativa para la toma de decisiones en entornos inciertos.
El análisis factorial reduce grandes conjuntos de datos a variables o
factores subyacentes, lo que simplica las relaciones complejas. En la
investigación organizacional, a menudo se utiliza para identicar constructos
latentes como los estilos de liderazgo, la cultura organizacional o las dimensiones
de satisfacción del cliente. Un análisis factorial de los datos de una encuesta a los
empleados podría revelar que la "satisfacción laboral" comprende factores como
el equilibrio entre la vida laboral y personal, el reconocimiento y las
oportunidades de crecimiento profesional.
1.5.1 Aplicaciones de la investigación cuantitativa en la toma de decisiones
El análisis de conglomerados es una técnica estadística utilizada para
agrupar puntos de datos similares en función de características compartidas. En
la investigación organizacional, a menudo se aplica para segmentar empleados,
clientes o mercados. El análisis de conglomerados identica distintos grupos de
empleados en función de la satisfacción laboral, las métricas de rendimiento y las
aspiraciones profesionales, lo que permite intervenciones especícas
(Babapourdijojin et al., 2024). Las simulaciones de Monte Carlo se emplean para
modelar y analizar sistemas complejos en condiciones de incertidumbre.
Esta técnica es ampliamente utilizada en la gestión de riesgos para estimar
la probabilidad de eventos adversos y su impacto potencial. Las instituciones
nancieras utilizan simulaciones de Monte Carlo para predecir la probabilidad
de impagos de préstamos en diversos escenarios económicos. Este método
proporciona una base cuantitativa para la toma de decisiones en entornos
inciertos. El análisis factorial reduce grandes conjuntos de datos a variables o
factores subyacentes, lo que simplica las relaciones complejas. En la
investigación organizacional, a menudo se utiliza para identicar constructos
latentes como los estilos de liderazgo, la cultura organizacional o las dimensiones
de satisfacción del cliente.
29
Un análisis factorial de los datos de una encuesta a los empleados podría
revelar que la "satisfacción laboral" comprende factores como el equilibrio entre
la vida laboral y personal, el reconocimiento y las oportunidades de crecimiento
profesional. Esta técnica mejora la interpretabilidad de los datos cuantitativos. La
investigación cuantitativa desempeña un papel fundamental en el análisis de la
fuerza laboral, lo que permite a las organizaciones optimizar la gestión de los
recursos humanos. Al analizar los datos sobre el rendimiento de los empleados,
el absentismo y la rotación, las organizaciones pueden identicar tendencias e
implementar intervenciones basadas en la evidencia. El análisis predictivo podría
revelar que los empleados con conjuntos de habilidades especícos tienen más
probabilidades de irse en su primer año, lo que impulsa estrategias de retención
especícas. Esta aplicación subraya el valor de los métodos cuantitativos para
mejorar la eciencia organizacional.
Los métodos cuantitativos son indispensables para la previsión nanciera,
ya que ayudan a las organizaciones a predecir los ingresos, los gastos y la
rentabilidad. Técnicas como el análisis de series temporales y el modelado
econométrico permiten a las organizaciones anticiparse a las uctuaciones del
mercado y asignar recursos de manera efectiva. Una empresa minorista utiliza
modelos cuantitativos para pronosticar patrones de ventas estacionales,
informando la gestión de inventario y las estrategias de marketing. La
investigación cuantitativa es fundamental para analizar la retención y la lealtad
de los clientes.
Al examinar los historiales de compra, las puntuaciones de comentarios y
los datos demográcos, las organizaciones pueden identicar los factores que
inuyen en el comportamiento de los clientes. El análisis de regresión podría
revelar que la participación en programas de delización aumenta
signicativamente las compras repetidas, guiando los esfuerzos de marketing.
Esta aplicación demuestra cómo los métodos cuantitativos impulsan estrategias
centradas en el cliente. La integración de la analítica de big data en la
investigación cuantitativa permite a las organizaciones analizar conjuntos de
datos vastos y complejos. Los algoritmos avanzados y las técnicas de aprendizaje
automático facilitan la información en tiempo real sobre el comportamiento de
los clientes, las tendencias del mercado y la eciencia operativa.
30
Las plataformas de comercio electrónico utilizan el análisis de big data
para personalizar las recomendaciones, optimizar las experiencias de los clientes
y aumentar las ventas. Esta tendencia subraya el potencial transformador de la
investigación cuantitativa en la era digital. Las herramientas impulsadas por IA
están revolucionando la investigación cuantitativa al automatizar el análisis de
datos y mejorar la precisión predictiva. Técnicas como el procesamiento del
lenguaje natural y las redes neuronales permiten a las organizaciones extraer
información de datos no estructurados, como reseñas de clientes o publicaciones
en redes sociales. El análisis de sentimientos puede cuanticar la satisfacción del
cliente, proporcionando información procesable para el desarrollo de productos.
Esta tendencia pone de maniesto la sinergia entre la IA y los métodos
cuantitativos. La analítica en tiempo real es cada vez más frecuente en la
investigación organizacional, lo que permite la toma de decisiones inmediatas
basadas en los datos actuales. Este enfoque es particularmente valioso en
entornos dinámicos, como la gestión de la cadena de suministro o el comercio
nanciero.
El análisis en tiempo real consigue monitorear los niveles de inventario y
desencadenar el reabastecimiento automatizado, lo que reduce las ineciencias
operativas. Esta tendencia reeja la creciente demanda de métodos de
investigación ágiles y receptivos. Si bien la investigación cuantitativa ofrece
numerosas ventajas, también plantea consideraciones éticas que deben abordarse
para garantizar la integridad y la rendición de cuentas. La investigación
cuantitativa suele implicar la recopilación de datos sensibles, como las métricas
de rendimiento de los empleados o los datos demográcos de los clientes.
Para Michael et al. (2023), garantizar el consentimiento informado y
proteger la privacidad de los datos es fundamental para mantener las normas
éticas. Las organizaciones deben cumplir con regulaciones como el Reglamento
General de Protección de Datos (GDPR) al realizar encuestas o experimentos.
Esta consideración subraya la importancia de las prácticas éticas en la
investigación cuantitativa. La manipulación de datos para lograr los resultados
deseados socava la credibilidad de los hallazgos de la investigación y conduce a
una toma de decisiones poco ética. Informar selectivamente de resultados
favorables en las encuestas de satisfacción de los empleados puede engañar a las
partes interesadas. Esta consideración pone de relieve la necesidad de
transparencia y rendición de cuentas en la investigación cuantitativa. El sesgo en
31
la recopilación de datos puede comprometer la validez de la investigación
cuantitativa.
Excluir a ciertos grupos demográcos de las encuestas de clientes puede
dar lugar a información sesgada y estrategias inecaces. Esta consideración
enfatiza la importancia del rigor metodológico en la investigación cuantitativa.
Al explorar estos aspectos únicos, este informe complementa el contenido
existente al tiempo que proporciona nuevas perspectivas sobre los métodos y
aplicaciones de investigación cuantitativa en contextos organizacionales. Esta
investigación subraya el papel fundamental de la investigación cuantitativa en
los estudios organizacionales, enfatizando su enfoque estructurado y objetivo
para investigar fenómenos a través de datos numéricos y análisis estadísticos.
Los métodos cuantitativos permiten a las organizaciones probar hipótesis,
identicar tendencias y establecer relaciones de causa y efecto, lo que
proporciona una base sólida para la toma de decisiones basada en datos.
Las características clave, como la recopilación de datos numéricos, la
replicabilidad, la generalización y las técnicas estadísticas avanzadas, como el
análisis de regresión y el modelado de ecuaciones estructurales, hacen que la
investigación cuantitativa sea indispensable para abordar desafíos
organizacionales complejos. Los métodos comunes, como encuestas,
experimentos, estudios observacionales y análisis de datos secundarios, ofrecen
herramientas versátiles para explorar diversos aspectos del rendimiento
organizativo, el comportamiento de los empleados, las tendencias del mercado y
la gestión de riesgos.
Los hallazgos destacan las amplias aplicaciones de la investigación
cuantitativa, desde el análisis de la fuerza laboral y las previsiones nancieras
hasta el análisis de la retención de clientes y la toma de decisiones estratégicas.
Las tendencias emergentes, como el análisis de big data, la inteligencia articial
(IA) y el análisis en tiempo real, están revolucionando el campo, permitiendo a
las organizaciones analizar grandes conjuntos de datos, automatizar procesos y
responder a entornos dinámicos con agilidad. No obstante, el estudio también
reconoce desafíos como los problemas de calidad de los datos, la generalización
excesiva y la complejidad del comportamiento humano, que requieren un
cuidadoso rigor metodológico y consideraciones éticas.
32
Abordar estas limitaciones, a través de prácticas como garantizar la
privacidad de los datos, evitar el sesgo y cumplir con los estándares éticos, mejora
la conabilidad y la validez de los hallazgos de la investigación cuantitativa. Las
implicaciones de esta investigación son signicativas tanto para los académicos
como para los profesionales. Para los investigadores, el estudio proporciona un
marco integral para formular preguntas e hipótesis de investigación efectivas,
utilizando herramientas como los marcos PICO y SPIDER para garantizar la
especicidad, la viabilidad y la capacidad de prueba empírica. Para las
organizaciones, los hallazgos enfatizan el valor estratégico de los métodos
cuantitativos para optimizar las operaciones, mejorar el compromiso de los
empleados y aumentar la satisfacción del cliente.
Las investigaciones futuras deben explorar la integración de tecnologías
emergentes, como el aprendizaje automático y los sensores de IoT, para ampliar
aún más el alcance y el impacto de la investigación cuantitativa en contextos
organizacionales. Al aprovechar estos avances, las organizaciones pueden seguir
impulsando la innovación, mejorar la toma de decisiones y mantener una ventaja
competitiva en un mundo cada vez más impulsado por los datos.
33
Capítulo II
IA y computación cuántica en la investigación
cuantitativa
La convergencia de la inteligencia articial (IA) y la computación cuántica
está revolucionando el panorama de la investigación cuantitativa,
desbloqueando capacidades sin precedentes en el análisis de datos, la
optimización y el modelado predictivo. A partir de 2025, esta fusión
interdisciplinaria ya no es un concepto teórico, sino un campo en rápida
evolución con aplicaciones tangibles en industrias como las nanzas, la atención
médica, la ciberseguridad y la ciencia de los materiales. Al aprovechar las
fortalezas únicas de la mecánica cuántica y la IA, los investigadores y las
organizaciones están abordando problemas complejos que anteriormente se
consideraban intratables con los sistemas informáticos clásicos.
La computación cuántica, caracterizada por su capacidad para procesar
grandes conjuntos de datos a través de principios como la superposición y el
entrelazamiento, ofrece aceleraciones exponenciales para resolver problemas de
optimización y simulación. Cuando se combina con la capacidad de la IA para
aprender de los datos e identicar patrones, esta sinergia permite avances en
áreas como el descubrimiento de fármacos, la seguridad criptográca y el
modelado nanciero. Esta técnica ha demostrado el uso de algoritmos cuánticos
como QAOA para resolver desafíos de optimización, mientras que
organizaciones como [nombre de la organización] son pioneras en marcos de
aprendizaje automático cuántico (QML) para mejorar las capacidades de IA.
En la investigación cuantitativa, la integración de la IA y la computación
cuántica es particularmente impactante. Los algoritmos cuánticos impulsados
por IA se están utilizando para optimizar la gestión de carteras, simular
reacciones bioquímicas complejas y mejorar los modelos de evaluación de riesgos
(Palella y Martins, 2006). Están revolucionando el descubrimiento de fármacos
mediante el análisis de las interacciones moleculares a nivel cuántico, lo que
reduce signicativamente los plazos de desarrollo de tratamientos que salvan
vidas. A pesar de estos avances, persisten los desafíos. Los sistemas cuánticos
34
siguen siendo propensos a errores debido a la inestabilidad y el ruido de los
cúbits, lo que requiere técnicas sólidas de corrección de errores.
La IA desempeña un papel fundamental a la hora de abordar estos
problemas mediante el desarrollo de sosticadas estrategias de mitigación de
errores y la optimización de los diseños de circuitos cuánticos. La posibilidad de
uso indebido, como romper el cifrado clásico o permitir la vigilancia invasiva,
subraya la necesidad de directrices éticas y marcos normativos sólidos. Los
expertos abogan por la transparencia, la rendición de cuentas y la diversidad de
los equipos de desarrollo para garantizar que la IA cuántica sirva como fuerza
para el cambio positivo; como se destaca en un abordaje del sesgo algorítmico,
garantizar el acceso equitativo a estas tecnologías son prioridades críticas.
2.1 Algoritmos mejorados de aprendizaje automático cuántico
La IA cuántica está revolucionando el aprendizaje automático al
aprovechar la mecánica cuántica para acelerar los procesos computacionales,
especialmente en la resolución de problemas de optimización complejos. Los
algoritmos de aprendizaje automático cuántico, como el algoritmo de
optimización cuántica aproximada (QAOA) y el solucionador de eigen cuántico
variacional (VQE), han demostrado un potencial signicativo en tareas como la
agrupación en clústeres, la reducción de la dimensionalidad y la detección de
anomalías.
Estos algoritmos explotan la superposición cuántica y el entrelazamiento
para procesar grandes conjuntos de datos de manera más eciente que los
métodos clásicos. QAOA se ha aplicado a tareas complejas de modelado
nanciero, superando a las técnicas clásicas de optimización en escenarios
especícos. Estos marcos descargan tareas computacionalmente intensivas a
procesadores cuánticos mientras utilizan sistemas clásicos para el pre y
posprocesamiento. Este enfoque ha sido particularmente efectivo en áreas como
el procesamiento del lenguaje natural y el reconocimiento de imágenes, donde
los sistemas de IA cuántica han logrado una mayor precisión y tiempos de
procesamiento más rápidos en comparación con los sistemas de IA clásicos.
2.1.1 IA cuántica en análisis predictivo
La IA cuántica está transformando el análisis predictivo al permitir
modelos de pronóstico más rápidos y precisos. Sectores como el nanciero, el
35
sanitario y el logístico están aprovechando los modelos predictivos mejorados
cuánticamente para analizar conjuntos de datos complejos y descubrir patrones
ocultos. La IA cuántica se ha utilizado para mejorar las predicciones de
tendencias del mercado mediante el análisis de datos nancieros históricos con
una precisión sin precedentes.
En el sector sanitario, la IA cuántica se está aplicando al diagnóstico
predictivo, en el cual analiza los datos de los pacientes para identicar posibles
riesgos para la salud antes de que se maniesten los síntomas. La capacidad de
procesar datos genómicos a gran escala de manera eciente también ha permitido
avances en la medicina personalizada. Los modelos predictivos mejorados
cuánticamente ahora son capaces de identicar marcadores genéticos asociados
con enfermedades especícas, mejorando signicativamente la detección
temprana y las estrategias de tratamiento.
Los problemas de optimización, que son fundamentales para muchas
industrias, han experimentado avances revolucionarios con la integración de la
IA cuántica. Los algoritmos de optimización cuántica, como QAOA y la
optimización cuántica adiabática (AQO), se están utilizando para resolver
problemas que antes eran inviables desde el punto de vista computacional. En la
gestión de la cadena de suministro, la IA cuántica se ha utilizado para optimizar
el enrutamiento y la programación, reduciendo los costes operativos y mejorando
la eciencia.
En el sector energético, la IA cuántica está abordando complejos desafíos
de optimización en la gestión de la red y la integración de energías renovables.
Al simular varios escenarios de distribución de energía, los sistemas de IA
cuántica consiguen identicar las conguraciones más ecientes, minimizando
la pérdida de energía y maximizando la utilización de recursos.
2.1.2 IA cuántica para el análisis criptográco
La IA cuántica está desempeñando un papel fundamental en el análisis
criptográco, especialmente en el contexto de la criptografía poscuántica. Con la
llegada de los ordenadores cuánticos capaces de romper los métodos
tradicionales de cifrado, la IA cuántica se está utilizando para desarrollar y
analizar nuevos protocolos criptográcos. Estos protocolos aprovechan la
mecánica cuántica para garantizar la seguridad de los datos frente a los ataques
cuánticos. La IA cuántica está mejorando la ciberseguridad al detectar y mitigar
36
las amenazas cibernéticas en tiempo real. Al analizar el tráco de red e identicar
patrones anómalos, los sistemas de IA cuántica consiguen predecir y prevenir
posibles ciberataques. Esta capacidad es particularmente crítica para industrias
como las nanzas y la atención médica, donde las violaciones de datos pueden
tener graves consecuencias.
La IA cuántica está impulsando la innovación en la investigación cientíca
al permitir simulaciones y análisis que antes estaban fuera del alcance de la
informática clásica. En el sector farmacéutico, la IA cuántica está acelerando el
descubrimiento de fármacos mediante la simulación de interacciones
moleculares a nivel cuántico. Este enfoque ha reducido signicativamente el
tiempo y el costo asociados con el desarrollo de nuevos medicamentos. En la
ciencia del clima, la IA cuántica se está utilizando para modelar sistemas
climáticos complejos y predecir el impacto de diversas políticas ambientales. Al
procesar grandes cantidades de datos climáticos, los sistemas de IA cuántica
consiguen proporcionar información más precisa y procesable, lo que ayuda a
desarrollar estrategias efectivas para combatir el cambio climático.
Del mismo modo, en la ciencia de los materiales, la IA cuántica está
facilitando el descubrimiento de nuevos materiales con propiedades únicas, lo
que abre posibilidades para avances en tecnología y fabricación. La IA cuántica
está revolucionando el modelado nanciero al proporcionar herramientas para
una evaluación de riesgos más precisa, optimización de carteras y análisis de
mercado. Los algoritmos mejorados cuánticamente, como la agrupación cuántica
de k-medias, se están utilizando para segmentar mercados e identicar
oportunidades de inversión. Estos algoritmos consiguen procesar grandes
conjuntos de datos nancieros simultáneamente, descubriendo patrones
intrincados que los métodos clásicos podrían pasar por alto.
La IA cuántica está abordando los desafíos del trading de alta frecuencia
mediante el análisis de datos de mercado en tiempo real y la ejecución de
operaciones con una latencia mínima. Esta capacidad es transformando la
industria nanciera, permitiendo a las empresas mantenerse a la vanguardia en
un mercado cada vez más competitivo. Sin embargo, es necesario abordar
desafíos como las limitaciones de hardware y las preocupaciones regulatorias
para aprovechar plenamente el potencial de la IA cuántica en las nanzas.
37
2.1.3 Superación de los desafíos en la implementación de la IA cuántica
A pesar de su potencial, la implementación de la IA cuántica se enfrenta a
varios desafíos. Las limitaciones del hardware, como la decoherencia de los cúbits
y el ruido, siguen siendo obstáculos importantes. La mayoría de las
computadoras cuánticas requieren infraestructura especializada y operan a
temperaturas cercanas al cero absoluto, lo que las hace inaccesibles para su uso
generalizado. Para abordar estos problemas, los investigadores se están
centrando en el desarrollo de ordenadores cuánticos tolerantes a fallos y en la
mejora de las técnicas de corrección de errores cuánticos. Otro reto es la
integración de la IA cuántica en las infraestructuras digitales existentes.
Las industrias deben adaptar sus ujos de trabajo y desarrollar nuevos
marcos de software para aprovechar la IA cuántica de manera efectiva. La brecha
de talento en computación cuántica y experiencia en IA plantea una barrera para
la adopción. Los esfuerzos de colaboración entre el mundo académico y la
industria son esenciales para abordar estos desafíos y garantizar el desarrollo
responsable de las tecnologías de IA cuántica. Al abordar estos desafíos, la IA
cuántica tiene el potencial de desbloquear nuevas posibilidades en la resolución
de problemas complejos, transformando industrias e impulsando la innovación
en varios dominios.
2.1.4 Mejoras en la distribución de claves cuánticas (QKD) impulsada por IA
La distribución de claves cuánticas (QKD) es una piedra angular de la
criptografía cuántica, que aprovecha los principios de la mecánica cuántica, como
la superposición y el entrelazamiento, para permitir canales de comunicación
seguros. Si bien los protocolos QKD, como BB84, son inherentemente seguros
contra el espionaje, la integración de la inteligencia articial (IA) en los sistemas
QKD ha introducido avances signicativos. Los algoritmos de IA consiguen
optimizar dinámicamente los parámetros QKD, analizando los estados cuánticos
en tiempo real, prediciendo posibles vulnerabilidades y ajustando el sistema para
mitigar los riesgos (Filgueira, 2023).
Los modelos de aprendizaje automático consiguen detectar anomalías en
el canal cuántico que indican intentos de espionaje, lo que mejora la solidez de
los sistemas QKD. La IA mejora la eciencia de las redes QKD al optimizar la
asignación de recursos, como el ancho de banda y los horarios de distribución de
claves, en infraestructuras de comunicación cuántica a gran escala (Morantes,
38
2023). Esta capacidad es fundamental para escalar QKD y satisfacer las demandas
de las redes de comunicación modernas, incluidas 5G y más allá. La criptografía
poscuántica (PQC) tiene como objetivo desarrollar algoritmos resistentes a las
amenazas computacionales clásicas y cuánticas.
La IA cuántica desempeña un papel fundamental en este dominio al
simular ataques cuánticos para identicar debilidades en los esquemas
criptográcos existentes y guiar el diseño de algoritmos resistentes a la cuántica.
Los enfoques impulsados por IA consiguen acelerar la evaluación de algoritmos
criptográcos basados en retículas, hash y códigos mediante la automatización
del proceso de prueba en una amplia gama de escenarios de ataque. Los modelos
de aprendizaje por refuerzo consiguen simular adversarios cuánticos adaptativos
para evaluar la resistencia de los algoritmos PQC propuestos. Esto diere del
contenido existente sobre análisis criptográco al centrarse en el papel de la IA
en el diseño y las pruebas proactivas de protocolos criptográcos resistentes a la
cuántica.
2.1.5 Criptoanálisis cuántico asistido por IA
El criptoanálisis cuántico implica aprovechar la computación cuántica
para romper los sistemas criptográcos clásicos. Si bien se ha prestado mucha
atención a algoritmos cuánticos como los de Shor y Grover, la IA consigue
mejorar la efectividad del criptoanálisis cuántico mediante la optimización de las
estrategias de ataque. Los modelos de IA analizan estructuras criptográcas para
identicar puntos débiles y priorizar vectores de ataque, lo que reduce los
recursos computacionales necesarios para un criptoanálisis exitoso (Filgueira,
2023). La IA ayuda a desarrollar técnicas híbridas de criptoanálisis cuántico-
clásico, en las que los ordenadores cuánticos se encargan de las tareas más
intensivas desde el punto de vista computacional, mientras que los sistemas
clásicos gestionan el preprocesamiento y el posprocesamiento.
Este enfoque híbrido permite aplicaciones s prácticas del criptoanálisis
cuántico en escenarios del mundo real. Los sistemas de IA se despliegan cada vez
más en sectores críticos como la sanidad, las nanzas y la defensa, lo que los
convierte en objetivos atractivos para los ciberataques. La criptografía cuántica
ofrece una solución sólida para proteger los algoritmos de IA y los datos
condenciales que procesan. Al integrar técnicas criptográcas cuánticas, como
39
la computación multipartita (MPC) cuántica segura, los sistemas de IA consiguen
realizar cálculos con datos cifrados sin exponer la información subyacente.
La criptografía cuántica protege los modelos de IA de los ataques de
adversarios al garantizar la integridad y condencialidad de los conjuntos de
datos de entrenamiento y los parámetros del modelo. El cifrado de seguridad
cuántica evita que los atacantes manipulen los datos de entrenamiento o realicen
ingeniería inversa de los modelos de IA. El desarrollo de protocolos
criptográcos cuánticos, como BB84 y E91, se ha basado tradicionalmente en
modelos teóricos y validación experimental. Sin embargo, la IA acelera
signicativamente este proceso al automatizar el diseño y la optimización de los
protocolos criptográcos. Las redes generativas adversarias (GAN) se utilizan
para simular escenarios de comunicación cuántica y generar diseños de
protocolos optimizados que maximicen la seguridad y la eciencia.
La IA también mejora la adaptabilidad de los protocolos criptográcos
cuánticos al permitir ajustes en tiempo real para contrarrestar las amenazas en
evolución. Los modelos de aprendizaje automático supervisan el rendimiento de
un sistema criptográco cuántico y recomiendan modicaciones del protocolo
para abordar las vulnerabilidades emergentes. Los sistemas de IA cuántica, al
igual que sus homólogos clásicos, son susceptibles a los sesgos incorporados en
los datos de entrenamiento o en el diseño algorítmico.
Sin embargo, la complejidad de los algoritmos cuánticos presenta desafíos
únicos para identicar y mitigar estos sesgos. La IA cuántica aprovecha los
estados cuánticos y el entrelazamiento, que amplican los errores o sesgos
presentes en los datos de entrada. Esto plantea preocupaciones sobre la equidad,
particularmente en aplicaciones como el análisis predictivo en la atención médica
o las nanzas, donde los resultados sesgados afectan de manera
desproporcionada a las poblaciones vulnerables.
Para abordar estos problemas, los investigadores están explorando
métricas de equidad especícas de la cuántica y técnicas de detección de sesgos.
Se está probando la capacidad de los modelos de aprendizaje automático
mejorados cuánticamente para identicar y corregir patrones sesgados durante
el entrenamiento. Estos marcos enfatizan la transparencia en el diseño de
algoritmos cuánticos y abogan por conjuntos de datos diversos para minimizar
el riesgo de sesgo sistémico. Este enfoque en los mecanismos de equidad
40
cuánticos especícos diere de los enfoques tradicionales de equidad de la IA,
que se basan principalmente en métodos estadísticos clásicos.
2.2 Preocupaciones éticas en la toma de decisiones impulsada por la
IA cuántica
La integración de la computación cuántica en los sistemas de toma de
decisiones de IA introduce dilemas éticos relacionados con la rendición de
cuentas y la transparencia. Los sistemas de IA cuántica, debido a su dependencia
de los estados cuánticos probabilísticos, a menudo producen resultados que son
difíciles de interpretar, incluso para los expertos. Esta naturaleza de "caja negra"
de la IA cuántica plantea preguntas sobre la abilidad y la replicabilidad de las
decisiones tomadas en dominios críticos, como la atención sanitaria, el
diagnóstico o los sistemas autónomos. Para mitigar estas preocupaciones, los
investigadores están trabajando en técnicas de replicabilidad cuántica, como
herramientas de visualización de estados cuánticos y modelos de aprendizaje
automático cuántico interpretables.
Estas herramientas tienen como objetivo proporcionar información sobre
el proceso de toma de decisiones de los sistemas de IA cuántica, lo que permite a
las partes interesadas evaluar las implicaciones éticas de su uso. En el sector de
la salud, se está evaluando la capacidad de las herramientas de diagnóstico
mejoradas cuánticamente para proporcionar recomendaciones interpretables a
los médicos, lo que garantiza que las decisiones médicas sigan siendo
transparentes y responsables (Filgueira, 2023). Este enfoque se basa en los
esfuerzos existentes en la replicabilidad clásica de la IA, pero los adapta a los
desafíos únicos que plantea la computación cuántica.
2.2.1 Riesgos de privacidad y seguridad en las aplicaciones de IA cuántica
La IA cuántica plantea importantes riesgos de privacidad y seguridad,
especialmente en aplicaciones que involucran datos condenciales. La inmensa
potencia computacional de los sistemas cuánticos permite el análisis de grandes
conjuntos de datos, lo que genera preocupaciones sobre el acceso no autorizado
a la información personal. Por ende, la posibilidad de que los ordenadores
cuánticos rompan los métodos tradicionales de cifrado exacerba estos riesgos, ya
que los datos sensibles procesados por los sistemas de IA cuántica podrían
volverse vulnerables a los ciberataques. Para abordar estos desafíos, los
41
investigadores están explorando técnicas de cifrado cuántico seguro y algoritmos
cuánticos que preserven la privacidad.
El cifrado homomórco cuántico permite realizar cálculos en datos
cifrados sin exponer la información subyacente, lo que garantiza la privacidad en
las aplicaciones de IA cuántica. Así, se están desarrollando protocolos de
computación multipartita cuánticamente seguros para permitir el análisis
colaborativo de datos y preservar la condencialidad de los conjuntos de datos
individuales. Estos avances tienen como objetivo crear una base segura para la
IA cuántica, equilibrando la necesidad de potencia computacional con la
protección de la información condencial. Este enfoque en las medidas de
privacidad especícas de la cuántica lo distingue de los enfoques clásicos de
seguridad de la IA, que se basan en métodos criptográcos tradicionales.
La capacidad de la IA cuántica para procesar grandes cantidades de datos
e identicar patrones complejos tiene implicaciones signicativas para el
modelado predictivo. Sin embargo, no se pueden pasar por alto los desafíos
éticos asociados con estas capacidades. Los modelos predictivos mejorados
cuánticamente en nanzas o atención médica podrían reforzar inadvertidamente
las desigualdades existentes si se entrenan con conjuntos de datos sesgados o
incompletos. En este sentido, el uso de la IA cuántica en la vigilancia o la
vigilancia predictiva plantea preocupaciones sobre las violaciones de la
privacidad y el potencial de uso indebido.
Para hacer frente a estos desafíos éticos, los investigadores abogan por la
adopción de directrices éticas y marcos normativos especícos para la IA
cuántica. Estas directrices hacen hincapié en la importancia de la transparencia,
la rendición de cuentas y la participación de las partes interesadas en el desarrollo
y la implementación de modelos predictivos mejorados cuánticamente. En la
atención médica predictiva, los sistemas de IA cuántica se están diseñando para
incluir mecanismos para auditar y validar sus predicciones, asegurando que se
alineen con los estándares éticos. Este enfoque se basa en los esfuerzos existentes
para abordar las preocupaciones éticas en el modelado predictivo clásico, pero
los adapta a las capacidades y riesgos únicos de la IA cuántica. El despliegue de
tecnologías de IA cuántica tiene implicaciones sociales de gran alcance,
especialmente en términos de acceso y equidad.
42
En la actualidad, los recursos de computación cuántica se limitan a unas
pocas organizaciones e instituciones de investigación bien nanciadas, lo que
crea una "brecha cuántica" que podría exacerbar las desigualdades existentes.
Esta brecha es particularmente preocupante en los países en desarrollo, donde el
acceso a las tecnologías avanzadas ya es limitado (Filgueira, 2023). Para promover
el acceso equitativo a la IA cuántica, se están lanzando iniciativas para
democratizar los recursos de computación cuántica y fomentar la colaboración
global. Se están desarrollando plataformas de IA cuántica de código abierto y
servicios de computación cuántica basados en la nube para que estas tecnologías
sean más accesibles para los investigadores y las organizaciones de todo el
mundo.
Se están implementando programas educativos e iniciativas de
capacitación para desarrollar la alfabetización y la experiencia cuántica en
regiones subrepresentadas. Estos esfuerzos tienen como objetivo garantizar que
los benecios de la IA cuántica se distribuyan de manera equitativa, abordando
los desafíos éticos asociados con su implementación. Si bien la IA cuántica tiene
un inmenso potencial para aplicaciones transformadoras, sus implicaciones y
desafíos éticos deben abordarse cuidadosamente. Al centrarse en la justicia, la
transparencia, la privacidad y la equidad, los investigadores y los responsables
políticos trabajan para lograr el desarrollo y el despliegue responsables de las
tecnologías de IA cuántica.
Estos esfuerzos son fundamentales para garantizar que la IA cuántica
contribuya al progreso de la sociedad y, al mismo tiempo, minimice sus riesgos
y consecuencias no deseadas. La integración de la inteligencia articial (IA) y la
computación cuántica está impulsando avances signicativos en la investigación
cuantitativa, ofreciendo capacidades transformadoras en varios dominios
(Morantes, 2023). La IA cuántica aprovecha los principios de la mecánica
cuántica, como la superposición y el entrelazamiento, para mejorar el aprendizaje
automático, la optimización, el análisis predictivo y el análisis criptográco.
Entre los avances notables se encuentran los algoritmos mejorados
cuánticamente, como el algoritmo de optimización cuántica aproximada (QAOA)
y el solucionador de Eigen cuántico variacional (VQE), que superan a los métodos
clásicos en la resolución de problemas complejos de optimización y el
procesamiento de grandes conjuntos de datos.
43
Estos avances han permitido aplicaciones prácticas en campos como el
modelado nanciero, el diagnóstico sanitario, la gestión de la cadena de
suministro y la optimización energética, donde los sistemas de IA cuántica
demuestran una eciencia y precisión superiores. La IA cuántica también está
remodelando la ciberseguridad y la criptografía al abordar las vulnerabilidades
que plantea la computación cuántica a los métodos de cifrado tradicionales. Las
mejoras impulsadas por la IA en la distribución de claves cuánticas (QKD) y el
desarrollo de protocolos criptográcos poscuánticos son fundamentales para
garantizar una comunicación segura y la protección de datos en la era cuántica
(Yang et al., 2025).
El papel de la IA cuántica en el modelado predictivo y la toma de
decisiones presenta tanto oportunidades como desafíos éticos, especialmente
para garantizar la equidad, la transparencia y la privacidad. Los investigadores
están desarrollando activamente métricas de equidad especícas de la cuántica,
herramientas de replicabilidad y algoritmos que preserven la privacidad para
mitigar estos riesgos y promover una implementación responsable. A pesar de
su inmenso potencial, la adopción de la IA cuántica se enfrenta a importantes
retos, como las limitaciones del hardware, la integración en las infraestructuras
existentes y la escasez de talento cualicado.
Abordar estas barreras requerirá esfuerzos de colaboración entre el
mundo académico, la industria y los responsables políticos para desarrollar
sistemas cuánticos tolerantes a fallos, marcos escalables e iniciativas educativas.
Las consideraciones éticas, como el acceso equitativo a los recursos cuánticos y la
minimización de las desigualdades sociales, deben seguir siendo fundamentales
para el desarrollo de la IA cuántica. Al superar estos desafíos, la IA cuántica tiene
el potencial de revolucionar la investigación cuantitativa e impulsar la
innovación en todas las industrias, allanando el camino para aplicaciones
transformadoras que benecien a la sociedad en su conjunto (Palella y Martins,
2006).
2.3 Navegando por los desafíos éticos en la IA cuántica: abordando
la privacidad, el sesgo y la responsabilidad en el modelado
predictivo
La IA cuántica aprovecha los principios de la mecánica cuántica para
mejorar las capacidades computacionales, permitiendo algoritmos más
44
sosticados y ecientes. Esta convergencia promete revolucionar el modelado
predictivo, una técnica empleada en varios campos, desde las nanzas hasta la
atención médica, para pronosticar eventos futuros basados en datos históricos.
Al aprovechar las propiedades únicas de los sistemas cuánticos, la IA cuántica
tiene el potencial de procesar grandes conjuntos de datos a velocidades sin
precedentes y descubrir patrones que antes eran inalcanzables con los métodos
informáticos clásicos. El modelado predictivo implica el uso de técnicas
estadísticas y algoritmos de aprendizaje automático para analizar datos
históricos y hacer predicciones informadas sobre resultados futuros.
Es una herramienta crítica para la toma de decisiones en numerosos
sectores, lo que permite a las organizaciones anticiparse a las tendencias,
comprender el comportamiento del consumidor y optimizar las operaciones. Las
técnicas comunes incluyen análisis de regresión, árboles de decisión y redes
neuronales, cada uno de los cuales aporta información única en función de los
datos y del problema especíco en cuestión. La integración de tecnologías
avanzadas en los procesos de toma de decisiones plantea preguntas importantes
sobre la privacidad, el sesgo, la responsabilidad y la transparencia.
Es vital que los investigadores, los desarrolladores y la sociedad participen
en un discurso reexivo en torno a estos desafíos para garantizar que los avances
tecnológicos no solo sean efectivos, sino que también se alineen con nuestros
valores colectivos y estándares éticos. La base de un modelado predictivo ecaz
radica en la adquisición de grandes cantidades de datos. Los sistemas de IA
cuántica a menudo requieren grandes conjuntos de datos para entrenar sus
algoritmos, que pueden incluir información personal condencial.
Esto plantea preguntas esenciales sobre el consentimiento del usuario:
¿están las personas plenamente informadas sobre cómo se utilizarán sus datos?
Las complejidades de las tecnologías cuánticas pueden oscurecer el proceso de
recopilación de datos, lo que diculta que los usuarios comprendan las
implicaciones de su consentimiento (Yang et al., 2025). Es crucial que los
desarrolladores prioricen la transparencia y se aseguren de que los usuarios
tengan una comprensión clara de lo que están aceptando, así como de los riesgos
potenciales involucrados. A pesar de los avances en el cifrado cuántico y los
protocolos de seguridad, el riesgo de violaciones de datos sigue siendo una
preocupación apremiante. Los sistemas de IA cuántica, por su propia naturaleza,
45
pueden procesar y analizar datos a velocidades sin precedentes, lo que los
convierte en objetivos atractivos para los ciberdelincuentes.
La posibilidad de que los actores maliciosos exploten las vulnerabilidades
de estos sistemas supone una amenaza importante para la privacidad individual.
Incluso en los casos en que los datos se almacenan de forma segura, el gran
volumen y la sensibilidad de la información procesada pueden dar lugar a un
uso indebido si no se aplican las salvaguardias adecuadas. Las organizaciones
deben adoptar medidas de seguridad sólidas y evaluar periódicamente sus
sistemas para mitigar ecazmente estos riesgos. Las capacidades predictivas de
la IA cuántica también pueden facilitar una amplia vigilancia y monitoreo, lo que
plantea dilemas éticos sobre los derechos de privacidad.
¿En qué momento la búsqueda de insights infringe la privacidad
individual? El potencial de un monitoreo constante puede crear un ambiente de
desconanza, donde las personas pueden sentir que cada una de sus acciones
está siendo examinada. Es imperativo que los desarrolladores y los responsables
políticos consideren las implicaciones éticas de las prácticas de vigilancia
habilitadas por la IA cuántica y establezcan pautas que equilibren la innovación
con el respeto de la privacidad personal. Al centrarse en el consentimiento de los
usuarios, la protección contra las violaciones de datos y considerar las
implicaciones de la vigilancia, las partes interesadas pueden trabajar para crear
un marco que priorice las consideraciones éticas en el desarrollo y la
implementación de estas tecnologías avanzadas.
2.3.1 Sesgo y equidad en el modelado predictivo
La ecacia de los sistemas de IA depende en gran medida de los datos
utilizados para entrenarlos. A pesar de que, si estos datos son erróneos o poco
representativos, consiguen dar lugar a resultados sesgados que afecten de
manera desproporcionada a los grupos marginados. El sesgo se inltra en el
modelado predictivo en múltiples etapas, comenzando con el proceso de
recopilación de datos. Si los conjuntos de datos utilizados para entrenar los
sistemas de IA cuántica reejan desigualdades históricas o prejuicios sociales, los
modelos resultantes perpetúan estos sesgos. Si un modelo predictivo para las
decisiones de contratación se entrena principalmente con datos de una fuerza
laboral homogénea, favorece inadvertidamente a los candidatos que se ajustan a
46
ese grupo demográco, mientras deja de lado a las personas calicadas de
diversos orígenes.
Podría surgir un sesgo de selección si los datos utilizados para el
entrenamiento no son representativos de la población en general. Esto ocurre en
varios ámbitos, como la sanidad, la justicia penal y las nanzas, donde
determinados grupos están infrarrepresentados o mal representados en los datos.
Los sesgos en la toma de decisiones humanas también se ltran en los conjuntos
de datos, ya que a menudo se basan en registros históricos que reejan
desigualdades sistémicas. Las consecuencias de los modelos predictivos
sesgados son profundas y de gran alcance. Cuando los sistemas de IA producen
resultados sesgados, refuerzan las disparidades existentes y marginan aún más a
las poblaciones vulnerables.
En la justicia penal, los algoritmos policiales predictivos sesgados dirigen
a comunidades especícas basándose en datos históricos sobre la delincuencia,
lo que conduce a un exceso de vigilancia policial y a resultados injustos para las
personas en esas zonas. En el ámbito de la atención sanitaria, los modelos
predictivos que no tienen en cuenta los diversos factores genéticos y sociales que
afectan a las diferentes poblaciones dan lugar a una atención inadecuada y a
diagnósticos erróneos, así como a la toma de decisiones sesgada en los préstamos
o la contratación perpetúa los ciclos de pobreza y desigualdad, negando a las
personas oportunidades basadas en evaluaciones defectuosas.
Las implicaciones éticas de estos sesgos son inmensas y plantean
preguntas sobre la equidad, la justicia y la responsabilidad moral de quienes
desarrollan e implementan tecnologías de IA. Abordar estos problemas no es solo
un desafío técnico, sino un imperativo social que requiere una consideración
cuidadosa y medidas proactivas. Para combatir el sesgo y promover la equidad
en el modelado predictivo, se pueden emplear varias estrategias. Un enfoque
crítico es la implementación de conjuntos de datos de entrenamiento diversos y
representativos. Se deben realizar esfuerzos para garantizar que los procesos de
recopilación de datos sean inclusivos y reejen con precisión la demografía de
las poblaciones afectadas por los sistemas de IA.
Las organizaciones pueden adoptar algoritmos conscientes de la equidad
que buscan activamente mitigar el sesgo durante el proceso de modelado.
Técnicas como la reponderación de muestras de entrenamiento o el empleo de
47
entrenamiento de adversarios ayudan a crear modelos que sean menos
susceptibles al sesgo. También deben realizarse auditorías periódicas de los
sistemas de IA para identicar y recticar posibles sesgos, garantizando que los
modelos sigan siendo equitativos a lo largo del tiempo. La transparencia en el
proceso de desarrollo de la IA es otro elemento esencial para promover la
equidad.
Al compartir abiertamente las metodologías utilizadas en la recopilación
de datos y el entrenamiento de modelos, los desarrolladores fomentan la
conanza y la responsabilidad. La participación de las partes interesadas,
incluidas las comunidades afectadas, proporciona información valiosa que sirve
de base para prácticas más equitativas. En última instancia, abordar el sesgo y
garantizar la equidad en el modelado predictivo de IA cuántica es un desafío
multifacético que requiere un compromiso y una colaboración continuos entre
investigadores, desarrolladores y responsables políticos.
Para Yang et al. (2025), al dar prioridad a las consideraciones éticas en el
desarrollo de tecnologías de IA, podemos trabajar para crear sistemas que
deendan la justicia y la igualdad para todos. El primer paso hacia la rendición
de cuentas en la IA cuántica es una comprensión clara de cómo estos sistemas
toman decisiones. Esta complejidad oscurece las vías a través de las cuales los
datos se transforman en predicciones o recomendaciones. Comprender el
proceso de toma de decisiones requiere no solo conocimientos técnicos, sino
también colaboración interdisciplinaria. Los desarrolladores deben trabajar junto
con especialistas en ética, responsables políticos y expertos en la materia para
crear modelos que sean interpretables y que puedan comunicarse de manera
efectiva a los no expertos.
Proporcionar información sobre la lógica de los algoritmos fomenta la
conanza y permite que las partes interesadas tomen decisiones informadas
basadas en los resultados de la IA. Uno de los principales obstáculos para la
rendición de cuentas en los sistemas de IA es el fenómeno de la "caja negra", en
el que el funcionamiento interno del modelo no es transparente para los usuarios
o incluso para los desarrolladores. En la IA cuántica, este desafío se amplica
debido a la complejidad inherente de la computación cuántica y la naturaleza
probabilística de los algoritmos cuánticos. Esta falta de transparencia genera
desconanza, especialmente cuando los sistemas de IA se despliegan en áreas
48
críticas como la atención médica, la justicia penal o los servicios nancieros,
donde las decisiones tienen profundas implicaciones.
Los esfuerzos para desmiticar los resultados de la IA implican el
desarrollo de marcos de IA explicables (XAI) que prioricen la interpretabilidad.
Los investigadores están explorando métodos para proporcionar explicaciones
más claras de cómo los algoritmos cuánticos derivan sus predicciones, incluidas
visualizaciones de rutas de decisión y el uso de modelos sustitutos más simples
para ilustrar comportamientos complejos. Por ende, lograr un equilibrio entre el
rendimiento del modelo y la interpretabilidad sigue siendo un desafío
importante.
2.3.2 Establecer la responsabilidad de las predicciones generadas por la IA
La rendición de cuentas en los sistemas de IA requiere líneas claras de
responsabilidad por los resultados producidos por estas tecnologías. Es
fundamental establecer la responsabilidad por las consecuencias derivadas de las
predicciones generadas por estos sistemas (Hosseini et al., 2023). Esto abarca no
solo a los desarrolladores de la IA, sino también a las organizaciones que la
implementan y a los responsables políticos que regulan su utilización.
Un enfoque para establecer la rendición de cuentas es la implementación de
marcos regulatorios integrales que hagan cumplir las pautas éticas y las mejores
prácticas.
Dichos marcos deben exigir pruebas, validaciones y auditorías rigurosas
de los modelos de IA antes de su implementación, junto con un monitoreo
continuo de su rendimiento en aplicaciones del mundo real. Las organizaciones
deben mantener registros detallados de los procesos de toma de decisiones para
garantizar la trazabilidad y facilitar la rendición de cuentas en casos de resultados
adversos.
Fomentar una cultura de responsabilidad ética dentro de las
organizaciones impulsa a las partes interesadas a priorizar la rendición de
cuentas en sus iniciativas de IA. Esto implica capacitar al personal sobre
consideraciones éticas, fomentar diálogos abiertos sobre los riesgos de la IA y
promover un compromiso compartido con la defensa de los estándares éticos.
Abordar los desafíos de la rendición de cuentas y la transparencia en la IA
cuántica es crucial para generar conanza y garantizar resultados equitativos.
49
Garantizar que esta poderosa tecnología continúe desarrollándose es
imperativo, y los investigadores, desarrolladores y responsables políticos deben
colaborar para crear sistemas que prioricen la comprensión clara y la gobernanza
responsable de los procesos de toma de decisiones de IA (Labraña et al., 2023).
Las preocupaciones sobre la privacidad en la IA cuántica giran en torno a las
complejidades de la recopilación de datos y el consentimiento del usuario,
amplicadas por las capacidades de procesamiento mejoradas de la computación
cuántica. No se pueden exagerar los riesgos asociados con las violaciones de
datos y el potencial de uso indebido, especialmente en un mundo donde la
vigilancia y el monitoreo son cada vez más frecuentes.
Es imperativo que los desarrolladores e investigadores prioricen las
prácticas éticas de manejo de datos para salvaguardar la privacidad del usuario
y fomentar la conanza pública. Los sesgos incorporados en los datos de
entrenamiento plantean desafíos signicativos para el modelado predictivo.
Estos sesgos pueden afectar de manera desproporcionada a los grupos
marginados, dando lugar a resultados injustos y reforzando las desigualdades
existentes.
Para mitigar estos riesgos, es esencial adoptar estrategias que promuevan
la equidad en los algoritmos, incluida la búsqueda diversa de datos y
evaluaciones continuas de sesgos. Por último, se debe abordar la rendición de
cuentas y la transparencia de los sistemas de IA para garantizar que los usuarios
entiendan cómo se toman las decisiones y quién es responsable de sus resultados
(Hosseini et al., 2023). La naturaleza opaca de muchos modelos de IA complica
la explicación de las predicciones generadas por la IA, lo que genera
preocupaciones sobre la posibilidad de que se tomen decisiones sin rendir
cuentas.
Es necesario un llamado a la acción: las partes interesadas deben priorizar
las consideraciones éticas en sus innovaciones, asegurando que los benecios de
la IA cuántica se distribuyan de manera equitativa y que se mantengan los valores
sociales. De cara al futuro, fomentar una cultura de prácticas éticas en la IA
cuántica no solo mejorará la credibilidad de la tecnología, sino que también
allanará el camino para avances responsables que se alineen con el bien común
de la sociedad.
50
Capítulo III
Investigación cuantitativa: desafíos para garantizar
la justicia y la equidad
La investigación cuantitativa ha sido durante mucho tiempo una piedra
angular de la toma de decisiones basada en la evidencia, ya que ofrece
metodologías estructuradas para analizar datos y obtener conocimientos. Pero,
la búsqueda de la justicia y la equidad dentro de la investigación cuantitativa
presenta desafíos signicativos, particularmente en campos como la atención
médica, la educación y la inteligencia articial. Estos desafíos se derivan de los
sesgos sistémicos, las limitaciones metodológicas y las complejidades de abordar
diversos contextos sociales (Palella y Martins, 2006).
Uno de los principales desafíos radica en la medición precisa de la
equidad. Conceptos como la equidad horizontal (garantizar el trato igualitario de
los iguales) y la equidad vertical (proporcionar un trato desigual para abordar
necesidades desiguales) son fundamentales para la investigación centrada en la
equidad. Los estudios sobre la asignación de recursos sanitarios, como los que se
examinan en el informe, ponen de relieve la necesidad de tener en cuenta las
diferencias en las necesidades mediante técnicas de normalización, pero esos
métodos a menudo no logran captar las realidades matizadas de las poblaciones
marginadas.
Otra cuestión crítica es la dependencia de datos que consiguen reejar
desigualdades sistémicas. Los análisis cuantitativos a menudo se basan en
conjuntos de datos que son incompletos, inconsistentes o sesgados, lo que
perpetúa las desigualdades históricas. El uso del aprendizaje automático en la
atención médica ha sido examinado por su potencial para reforzar las
disparidades debido a datos de entrenamiento sesgados. La ausencia de datos
sociodemográcos o restricciones legales a su recopilación, como se ha visto en
países como Canadá, complica aún más los esfuerzos para garantizar la equidad
en la investigación.
51
La integración de la equidad en la investigación cuantitativa también exige
un cambio en los enfoques metodológicos. Los marcos positivistas tradicionales,
a menudo criticados por sus tendencias deshumanizantes y homogeneizadoras,
deben evolucionar para adoptar paradigmas centrados en la equidad (Polanía et
al., 2020). Los académicos han enfatizado la importancia de desmantelar los
sesgos sistémicos incrustados en las prácticas de investigación, como se describe
en trabajos como. Esto incluye involucrar a las comunidades afectadas en el
proceso de investigación y priorizar sus experiencias vividas para anclar los
análisis.
El auge de la inteligencia articial y el aprendizaje automático presenta
desafíos únicos para garantizar la equidad. Los algoritmos entrenados con datos
sesgados consiguen dar lugar a resultados discriminatorios, lo que plantea
preocupaciones éticas sobre la rendición de cuentas y la justicia (Morantes, 2023).
Los esfuerzos para abordar estos problemas, como la implementación de
modelos de aprendizaje automático conscientes de la equidad, requieren marcos
sólidos que equilibren la transparencia, la imparcialidad y la inclusión.
Garantizar la justicia y la equidad en la investigación cuantitativa requiere
un enfoque multifacético que aborde los desafíos metodológicos, éticos y
sistémicos. Al aprovechar técnicas innovadoras, fomentar la inclusión y examinar
críticamente las prácticas existentes, los investigadores consiguen trabajar para
obtener resultados más equitativos. Este informe profundiza en las
complejidades de estos desafíos y explora estrategias para promover la equidad
en la investigación cuantitativa. Desafíos metodológicos para garantizar la
equidad en la investigación cuantitativa
3.1 Abordar el sesgo en la recopilación de datos y el muestreo
La investigación cuantitativa a menudo se basa en métodos de
recopilación de datos estructurados, como encuestas, experimentos y conjuntos
de datos administrativos. Un problema importante es la subrepresentación de las
poblaciones marginadas en las muestras de investigación. Los estudios han
demostrado que las minorías raciales y étnicas, las personas con discapacidades
y las poblaciones de bajos ingresos suelen estar excluidas o subrepresentadas en
los conjuntos de datos de investigación en salud.
El sesgo en el muestreo consigue deberse a varios factores, incluido el uso
de métodos de muestreo por conveniencia que priorizan poblaciones de fácil
52
acceso, como comunidades urbanas o acomodadas. Este enfoque excluye a los
grupos rurales o desatendidos, lo que conduce a resultados sesgados. Las
barreras lingüísticas, las diferencias culturales y la desconanza en las
instituciones de investigación consiguen desalentar la participación de ciertos
grupos, exacerbando aún más las desigualdades.
Para abordar estos desafíos, los investigadores deben adoptar estrategias
de muestreo inclusivas, como el muestreo aleatorio estraticado o el
sobremuestreo de grupos subrepresentados. La Lista de Vericación de Equidad
en Salud desarrollada por RAND enfatiza la importancia de involucrar a diversos
participantes y garantizar la pertinencia cultural en los procesos de recopilación
de datos. Aprovechar las asociaciones comunitarias consigue ayudar a generar
conanza y fomentar la participación de las poblaciones marginadas.
La investigación cuantitativa a menudo se basa en métricas estandarizadas
y herramientas de medición para garantizar la coherencia y la comparabilidad
entre los estudios (Ñaupas et al., 2014). Es posible que estas herramientas no
capturen adecuadamente las experiencias vividas de diversas poblaciones, lo que
conduce a resultados inequitativos. Las medidas de calidad de vida relacionadas
con la salud consiguen no tener en cuenta las diferencias culturales en la forma
en que las personas perciben y declaran su salud.
Otro desafío es el uso de datos agregados, que consiguen ocultar las
disparidades dentro de los subgrupos. Informar sobre los resultados de salud
promedio de una población consigue enmascarar desigualdades signicativas
experimentadas por las minorías raciales o étnicas. Este problema se ve agravado
por la falta de datos desglosados, lo que limita la capacidad de los investigadores
para identicar y abordar las disparidades de manera ecaz.
Para superar estas limitaciones, los investigadores deben priorizar el
desarrollo y la validación de herramientas de medición culturalmente sensibles.
Esto incluye involucrar a las partes interesadas de la comunidad en el diseño y
las pruebas de estas herramientas para garantizar que sean relevantes y
signicativas para diversas poblaciones. La recopilación y el análisis de datos
desglosados consiguen proporcionar una comprensión más matizada de las
disparidades en materia de salud e informar sobre intervenciones especícas.
La investigación cuantitativa a menudo implica análisis estadísticos
complejos para identicar patrones y relaciones dentro de los datos. Estos
53
análisis consiguen reforzar inadvertidamente las desigualdades existentes si no
se llevan a cabo con una lente centrada en la equidad. La inclusión de ciertas
variables, como la raza o el estatus socioeconómico, en los modelos estadísticos
consigue perpetuar estereotipos o sesgos si su uso no está justicado (Polanía et
al., 2020).
Para abordar estos desafíos éticos, los investigadores deben adoptar
enfoques transparentes y rigurosos para el análisis de datos. Esto incluye
proporcionar justicaciones claras para la inclusión de variables, realizar análisis
de sensibilidad para evaluar el impacto de las diferentes opciones de modelado
e involucrar a diversas partes interesadas en la interpretación de los hallazgos.
3.1.1 Desafíos para garantizar la difusión equitativa de datos
La difusión de los resultados de la investigación es un paso fundamental
en el proceso de investigación, ya que sirve de base para las decisiones políticas
y las intervenciones. Las desigualdades en la difusión de datos consiguen limitar
el impacto de la investigación en las poblaciones marginadas. Los resultados de
las investigaciones a menudo se publican en revistas académicas que consiguen
no ser accesibles para las partes interesadas de la comunidad o los responsables
de la formulación de políticas que podrían beneciarse de la información.
El encuadre de los resultados de la investigación consigue inuir en la
forma en que se perciben y se actúa en consecuencia. Hacer hincapié en las
disparidades sin proporcionar soluciones viables consigue perpetuar una
sensación de desesperanza entre las comunidades afectadas. Del mismo modo,
no reconocer los factores estructurales y sistémicos que contribuyen a las
disparidades consigue dar lugar a narrativas de culpabilización de la víctima.
Para promover la difusión equitativa de los datos, los investigadores
deben dar prioridad a la publicación en acceso abierto y desarrollar estrategias
de comunicación adaptadas a las diferentes audiencias. Esto incluye la creación
de resúmenes en lenguaje sencillo de los hallazgos de la investigación, la
participación de organizaciones comunitarias para compartir los resultados y la
colaboración con los responsables de la formulación de políticas para traducir los
hallazgos en recomendaciones prácticas. La Lista de Vericación de Equidad en
Salud desarrollada por RAND también enfatiza la importancia de la difusión
efectiva y la sostenibilidad de los hallazgos de la investigación para promover la
equidad en salud.
54
A pesar del creciente reconocimiento de la importancia de la equidad en
salud, las barreras estructurales dentro de las instituciones de investigación y las
agencias de nanciación consiguen obstaculizar la implementación de la
investigación centrada en la equidad. Los mecanismos de nanciación
tradicionales suelen dar prioridad a los estudios a gran escala basados en
hipótesis sobre los enfoques de investigación participativa basada en la
comunidad, que son más inclusivos y centrados en la equidad.
Los investigadores consiguen enfrentar desafíos para asegurar la
nanciación de estudios que se centren en poblaciones marginadas o aborden
temas delicados, como el racismo o la discriminación. Esto consigue limitar el
alcance y el impacto de la investigación centrada en la equidad. Las políticas y
prácticas institucionales, como la falta de diversidad entre los equipos de
investigación o la subrepresentación de temas centrados en la equidad en los
planes de estudio académicos, consiguen perpetuar las inequidades en el proceso
de investigación.
Para abordar estas barreras estructurales, las agencias de nanciación y las
instituciones de investigación deben dar prioridad a la investigación centrada en
la equidad y proporcionar apoyo especíco a los investigadores que trabajan en
esta área. Esto incluye la asignación de fondos dedicados a proyectos de CBPR,
la implementación de políticas para promover la diversidad y la inclusn dentro
de los equipos de investigación y la incorporación de capacitación centrada en la
equidad en los programas académicos.
Fomentar la colaboración entre investigadores, organizaciones
comunitarias y formuladores de políticas consigue ayudar a cerrar la brecha entre
la investigación y la práctica. Al abordar estos desafíos metodológicos, los
investigadores consiguen garantizar que la investigación cuantitativa contribuya
al avance de la equidad en salud y al desarrollo de intervenciones más inclusivas
y efectivas. Integración del aprendizaje automático y consideraciones éticas para
la equidad
3.1.2 Garantizar la equidad en la formación y validación de modelos
Los modelos de aprendizaje automático (ML) son demasiado sensibles a
los datos con los que se entrenan, y garantizar la equidad comienza con procesos
de capacitación y validación equitativos. Técnicas como la eliminación de sesgos
adversos y las restricciones de equidad se utilizan cada vez más para
55
contrarrestar los sesgos sistémicos en los conjuntos de datos de entrenamiento.
La descalicación de adversarios, implica entrenar un modelo para predecir
resultados y, al mismo tiempo, minimizar la capacidad de un adversario para
predecir atributos protegidos, como el género o la raza.
Los procesos de validación también desempeñan un papel fundamental a
la hora de garantizar la equidad. Las técnicas de validación cruzada deben
incorporar un muestreo estraticado para garantizar que los grupos
infrarrepresentados estén adecuadamente representados en los conjuntos de
datos de validación. Este paso es esencial para evitar que el modelo se adapte en
exceso a los grupos mayoritarios y tenga un rendimiento inferior para las
minorías.
Las métricas de rendimiento tradicionales, como la exactitud o la
precisión, a menudo no logran capturar las disparidades en los resultados de los
modelos. Las métricas de equidad, como el impacto dispar, las cuotas igualadas
y la paridad demográca, se utilizan cada vez más para evaluar si los modelos
de ML tratan a diferentes grupos demográcos de manera equitativa.
La paridad demográca requiere que la probabilidad de un resultado
positivo sea independiente de atributos sensibles como la raza o el género. Las
cuotas igualadas, por otro lado, garantizan que las tasas de verdaderos positivos
y falsos positivos sean iguales en todos los grupos. Estas métricas proporcionan
información procesable sobre la equidad de los modelos de ML y ayudan a los
profesionales a identicar áreas de mejora. Equilibrar múltiples métricas de
equidad a menudo conduce a compensaciones, como la reducción de la precisión
general, que debe administrarse cuidadosamente.
El sesgo interseccional ocurre cuando los modelos de ML afectan de
manera desproporcionada a las personas que pertenecen a múltiples grupos
marginados, como las mujeres de color o las personas discapacitadas de bajos
ingresos. Para abordar esto, los investigadores están desarrollando técnicas como
el análisis de subgrupos y algoritmos conscientes de la equidad que tienen en
cuenta explícitamente las identidades interseccionales. El análisis de subgrupos
implica dividir los datos en grupos demográcos más pequeños y evaluar el
rendimiento del modelo por separado para cada grupo.
Un algoritmo de atención médica podría funcionar bien para los hombres
blancos, pero mal para las mujeres negras, lo que pone de relieve la necesidad de
56
intervenciones especícas. Los algoritmos conscientes de la equidad incorporan
restricciones de equidad interseccional durante el entrenamiento. Estas
limitaciones garantizan que ningún subgrupo se vea desproporcionadamente
desfavorecido, incluso si se trata de una minoría dentro de una minoría. Estos
enfoques son fundamentales para crear sistemas de IA equitativos en
aplicaciones de alto riesgo como la atención sanitaria y la justicia penal. La
supervisión humana involucra a profesionales capacitados que monitorean los
resultados de ML para garantizar que se alineen con los estándares éticos. En el
análisis judicial, los revisores humanos consiguen evaluar si las recomendaciones
de sentencia están libres de sesgos raciales o socioeconómicos.
Los marcos de gobernanza, como la Ley de IA de la UE, también son
fundamentales para garantizar la rendición de cuentas y la transparencia en los
sistemas de aprendizaje automático. Estos marcos clasican las aplicaciones de
IA en categorías de riesgo y exigen requisitos especícos de equidad y
transparencia para aplicaciones de alto riesgo, como la atención médica y las
nanzas (Hosseini et al., 2023). Las organizaciones deben establecer juntas de
supervisión interna y realizar auditorías modelo periódicas para cumplir con
estas regulaciones. Las auditorías de modelos consiguen identicar si un
algoritmo niega préstamos de manera desproporcionada a ciertos grupos
demográcos, lo que permite acciones correctivas.
Técnicas como el reentrenamiento consciente de la equidad y el monitoreo
en tiempo real son esenciales para mantener resultados equitativos. El
reentrenamiento consciente de la equidad implica actualizar periódicamente el
modelo con datos nuevos e imparciales para corregir cualquier desviación en las
métricas de equidad. El monitoreo en tiempo real, por otro lado, utiliza
herramientas automatizadas para realizar un seguimiento del rendimiento del
modelo y las métricas de equidad en entornos de producción.
Un sistema de recomendación de comercio electrónico consigue funcionar
inicialmente bien en todos los grupos demográcos, pero luego mostrar sesgos a
medida que evoluciona el comportamiento del usuario. La supervisión continua
consigue detectar estos problemas de forma temprana, lo que permite a los
desarrolladores intervenir antes de que el sesgo se vuelva sistémico. Este enfoque
se alinea con el principio de innovación responsable, garantizando que los
57
sistemas de ML sigan siendo justos e inclusivos a lo largo de su ciclo de vida.
Estrategias para incorporar la equidad en las prácticas de investigación.
La participación de la comunidad garantiza que las prioridades de
investigación se alineen con las necesidades de los grupos subrepresentados,
fomentando la conanza y la inclusión. Se ha demostrado que la Investigación
Participativa Basada en la Comunidad (CBPR, por sus siglas en inglés) mejora los
resultados de la investigación al involucrar activamente a los miembros de la
comunidad en la toma de decisiones.
Los investigadores consiguen adoptar estrategias como organizar talleres
participativos, formar juntas asesoras con representantes de la comunidad y
realizar evaluaciones de necesidades. La red Connected Everything incorporó los
principios de Igualdad, Diversidad e Inclusión (EDI) al involucrar a diversas
partes interesadas en la conguración de las prioridades de nanciación. Este
enfoque garantiza que las preguntas y metodologías de investigación sean
culturalmente relevantes y aborden las desigualdades sistémicas.
3.1.3 Creación de capacidad para la investigación centrada en la equidad
Las instituciones consiguen ofrecer programas de capacitación sobre
metodologías culturalmente sensibles, como marcos de investigación feministas
e indígenas. Los programas de tutoría consiguen emparejar a investigadores que
inician su carrera con académicos experimentados centrados en la equidad para
fomentar la transferencia de conocimientos. El Departamento de Investigación e
Innovación del Reino Unido (UKRI, por sus siglas en inglés) ha implementado
una capacitación contra los sesgos para los revisores de fondos con el n de
promover evaluaciones más justas.
Las agencias de nanciación consiguen incentivar la investigación
centrada en la equidad mediante la asignación de subvenciones especícas para
proyectos que aborden las disparidades. La iniciativa "Expectation for EDI" del
EPSRC es un ejemplo notable, que pone de relieve la importancia de fomentar la
diversidad en los equipos de investigación y en los resultados. Los nanciadores
y las instituciones consiguen implementar auditorías de equidad para evaluar la
inclusividad de los procesos de investigación. Las auditorías de equidad
implican la revisión de las estrategias de contratación, los métodos de
recopilación de datos y las prácticas de difusión para identicar y abordar los
sesgos.
58
Los investigadores consiguen adoptar estrategias de divulgación
especícas, como asociarse con organizaciones comunitarias y utilizar materiales
de comunicación culturalmente apropiados. La Autoridad de Investigación en
Salud (HRA, por sus siglas en inglés) recomienda crear materiales de
contratación multilingües para superar las barreras lingüísticas. Las estrategias
de retención son igualmente críticas para mantener la participación de los
participantes a lo largo del proceso de investigación. Ofrecer opciones de
participación exibles, como entrevistas virtuales o apoyo para el cuidado de los
niños, consigue abordar las barreras logísticas a las que se enfrentan los grupos
marginados. Ofrecer una compensación justa y garantizar la transparencia sobre
los objetivos de la investigación consigue generar conanza y fomentar la
participación sostenida.
La incorporación de la equidad en la gobernanza de la investigación
implica la integración de los principios del EDI en las políticas institucionales, los
mecanismos de nanciación y los procesos de revisión ética. Las agencias de
nanciación consiguen exigir la inclusión de consideraciones de equidad en las
propuestas de subvención, exigiendo a los investigadores que describan cómo
sus proyectos abordan las disparidades (Labraña et al., 2023). El UKRI se ha
comprometido a publicar datos sobre diversidad para mejorar la transparencia y
la rendición de cuentas en las decisiones de nanciación.
Los comités de revisión ética también consiguen desempeñar un papel
fundamental al incorporar representantes de la comunidad para garantizar que
la investigación se alinee con las necesidades de las poblaciones
subrepresentadas. Este enfoque mitiga los desequilibrios de poder y fomenta un
entorno de investigación colaborativa. El ICAEPA enfatiza la importancia de
adaptar los marcos éticos a los contextos locales para promover prácticas
culturalmente sensibles. Al implementar estas estrategias, los investigadores y
las instituciones consiguen crear un ecosistema de investigación más equitativo
e inclusivo, abordando las desigualdades sistémicas y promoviendo la justicia
social.
Esta investigación pone de relieve los desafíos multifacéticos para
garantizar la justicia y la equidad en la investigación cuantitativa, haciendo
hincapié en la necesidad de cambios sistémicos en todas las metodologías,
59
herramientas y prácticas institucionales (Palella y Martins, 2006). Los problemas
clave incluyen los sesgos en la recopilación y el muestreo de datos, las
limitaciones de las métricas estandarizadas, las preocupaciones éticas en el
análisis de datos y las desigualdades en la difusión de datos. Las poblaciones
marginadas, como las minorías raciales y étnicas, las personas con
discapacidades y los grupos de bajos ingresos, a menudo están subrepresentadas
en las muestras de investigación debido a barreras estructurales como el
muestreo por conveniencia, las barreras lingüísticas y la desconanza en las
instituciones. Abordar estos desafíos requiere estrategias de muestreo inclusivas,
herramientas de medición culturalmente sensibles y prácticas de difusión
equitativas, como la publicación de acceso abierto y la participación de la
comunidad.
La integración del aprendizaje automático (ML) en la investigación
introduce complejidades adicionales, especialmente para mitigar el sesgo y
garantizar la equidad en el entrenamiento, la validación y la implementación de
modelos. Técnicas como la eliminación de sesgos adversariales, las métricas de
evaluación especícas de la equidad y los algoritmos conscientes de la equidad
son fundamentales para abordar los sesgos sistémicos y las disparidades
interseccionales.
Las barreras estructurales dentro de las instituciones de investigación,
como las prioridades de nanciación y la falta de diversidad en los equipos de
investigación, deben desmantelarse para fomentar la investigación centrada en
la equidad. Estrategias como la investigación participativa basada en la
comunidad (CBPR, por sus siglas en inglés), las iniciativas de desarrollo de
capacidades y las auditorías de equidad consiguen ayudar a cerrar estas brechas
y garantizar que los resultados de la investigación sean inclusivos e impactantes.
Los hallazgos subrayan la necesidad urgente de un cambio de paradigma
en las prácticas de investigación para priorizar la equidad en todas las etapas,
desde el diseño hasta la difusión. Los investigadores, las instituciones y los
responsables de la formulación de políticas deben colaborar para desarrollar
metodologías que respondan a las diferencias culturales, promover estrategias
inclusivas de contratación y retención, e incorporar los principios de equidad en
las estructuras de gobernanza (Labraña et al., 2023). Al abordar estos desafíos, la
comunidad investigadora consigue contribuir a reducir las inequidades
60
sistémicas y promover la justicia social, fomentando un ecosistema de
investigación más inclusivo y equitativo.
3.2 Establecer el rigor: estándares esenciales para la investigación
cuantitativa en educación
La investigación cuantitativa sirve como piedra angular de la
investigación educativa, proporcionando un enfoque sistemático para explorar
los fenómenos educativos a través de variables medibles. Este marco
metodológico no es simplemente una colección de técnicas estadísticas, sino un
proceso riguroso que se adhiere a los estándares establecidos, lo que garantiza la
integridad y conabilidad de los hallazgos de la investigación.
La investigación cuantitativa se dene como una investigación metódica
que se centra principalmente en cuanticar relaciones, comportamientos o
resultados dentro de contextos educativos. Emplea herramientas estadísticas
para analizar los datos recopilados a través de diversos medios, como encuestas,
experimentos o estudios observacionales. La importancia de la investigación
cuantitativa radica en su capacidad para proporcionar evidencia objetiva que
consigue informar las prácticas educativas, las decisiones políticas y los marcos
teóricos. Mediante el uso de datos numéricos, los investigadores consiguen
identicar tendencias, probar hipótesis y tomar decisiones basadas en datos que
mejoren la experiencia educativa.
La evolución de los estándares de investigación en investigación
cuantitativa se remonta a principios del siglo XX, cuando se reconoció cada vez
más la necesidad de una investigación sistemática. Los psicólogos y educadores
pioneros sentaron las bases para establecer el rigor metodológico, enfatizando la
necesidad de procesos de investigación replicables y válidos. A lo largo de las
décadas, varias organizaciones y comunidades académicas han contribuido al
desarrollo de directrices integrales diseñadas para mantener la integridad de la
investigación cuantitativa (Ñaupas et al., 2014). Estos estándares han sido
moldeados por los avances en los métodos estadísticos, las consideraciones éticas
y la creciente complejidad de los sistemas educativos.
El objetivo principal de establecer estándares para la investigación
cuantitativa es garantizar que los estudios se realicen con un alto nivel de rigor y
transparencia. Los estándares sirven como marco para que los investigadores
61
diseñen estudios, recopilen datos, analicen resultados e informen hallazgos de
una manera creíble y reproducible. El cumplimiento de estos estándares no solo
mejora la calidad de la investigación, sino que también fomenta la conanza entre
las partes interesadas, incluidos los educadores, los responsables políticos y la
comunidad en general. En la investigación educativa, donde las implicaciones de
los hallazgos consiguen afectar signicativamente la enseñanza y el aprendizaje,
el cumplimiento de estándares rigurosos es esencial para promover prácticas
efectivas e impulsar un cambio signicativo.
3.2.1 Normas clave para la investigación cuantitativa
La investigación cuantitativa, centrada en los datos numéricos y el análisis
estadístico, se basa en gran medida en normas establecidas para garantizar la
integridad, la abilidad y la validez de los resultados. La abilidad y la validez
son conceptos fundamentales en la investigación cuantitativa, ya que garantizan
que los datos recopilados representen con precisión el fenómeno que se está
estudiando (Polanía et al., 2020).
- Fiabilidad test-retest: Mide la estabilidad de una prueba a lo largo del tiempo.
Una alta correlación entre las puntuaciones de la misma prueba administrada en
dos momentos diferentes indica una fuerte conabilidad test-retest.
- Conabilidad entre evaluadores: Evalúa el grado en que diferentes evaluadores
u observadores dan estimaciones consistentes del mismo fenómeno. Es crucial en
los estudios que involucran juicios subjetivos.
- Coherencia interna: evalúa la coherencia de los resultados en todos los
elementos de una prueba. Comúnmente medido usando el alfa de Cronbach, un
valor alto indica que los ítems miden el mismo constructo subyacente.
La validez se reere a la medida en que una prueba mide lo que pretende
medir. Es esencial garantizar que los resultados de la investigación sean
signicativos y aplicables. Los tipos clave de validez incluyen:
- Validez de contenido: Evalúa si la prueba cubre todo el dominio del constructo
que se está midiendo. Los expertos a menudo revisan el contenido para
asegurarse de que sea representativo.
62
- Validez de constructo: Examina si la prueba realmente mide el constructo
teórico que pretende medir, a menudo evaluado a través de estudios
correlacionales con otras medidas.
- Validez relacionada con criterios: determina qué tan bien una medida predice
un resultado en función de otra medida, generalmente a través de evaluaciones
de validez concurrentes o predictivas.
Las técnicas de muestreo son fundamentales para determinar cómo se
recopilan los datos y garantizar que los resultados sean generalizables a una
población más amplia. Las técnicas de muestreo se consiguen clasicar en
términos generales en muestreo probabilístico y no probabilístico:
- Muestreo probabilístico: En este enfoque, cada miembro de la población tiene
una probabilidad conocida, distinta de cero, de ser seleccionado. Técnicas como
el muestreo aleatorio simple, el muestreo estraticado y el muestreo por
conglomerados entran en esta categoría, lo que permite una mayor
generalización de los hallazgos.
- Muestreo no probabilístico: Aquí, no todos los individuos de la población tienen
posibilidades de ser incluidos. Son comunes métodos como el muestreo por
conveniencia, el muestreo por cuotas y el muestreo intencional. Si bien es más
fácil y menos costoso, el muestreo no probabilístico consigue introducir sesgos y
limitar la capacidad de generalizar los resultados.
Determinar un tamaño de muestra adecuado es crucial para garantizar
que los hallazgos sean estadísticamente signicativos y ables. Un tamaño de
muestra mayor aumenta la potencia de un estudio, reduciendo el margen de
error y mejorando la abilidad de los resultados. Los investigadores a menudo
utilizan el análisis de potencia para estimar el tamaño mínimo de muestra
requerido en función de los tamaños de efecto deseados, los niveles de
signicación y la potencia estadística.
3.2.1.1 Métodos de análisis de datos
Estadística Descriptiva vs. Estadística Inferencial
- Estadística descriptiva: Estos métodos resumen y describen las características
del conjunto de datos, incluidas las medidas de tendencia central (media,
mediana, moda) y medidas de variabilidad (rango, varianza, desviación
63
estándar). La estadística descriptiva proporciona una comprensión fundamental
de los datos, pero no permite la generalización más allá de la muestra.
- Estadística inferencial: Estas técnicas permiten a los investigadores hacer
inferencias o predicciones sobre una población basándose en datos de muestra.
Incluyen pruebas de hipótesis, intervalos de conanza y análisis de regresión
Uso de software en el análisis de datos
El uso de software estadístico se ha convertido en algo común en la
investigación cuantitativa. Programas como SPSS, R y Stata facilitan análisis
complejos, lo que permite a los investigadores manejar grandes conjuntos de
datos de manera eciente y precisa. Estas herramientas no solo agilizan el
proceso de análisis, sino que también ayudan a garantizar que se apliquen las
técnicas estadísticas adecuadas.
Interpretar los resultados con precisión es un aspecto crítico de la
investigación cuantitativa. Los investigadores deben comunicar sus hallazgos de
manera clara y efectiva, proporcionando contexto e implicaciones. Los estándares
de presentación de informes, como los descritos por la Asociación Americana de
Psicología (APA), guían a los investigadores en la presentación de sus resultados,
lo que garantiza la transparencia y la reproducibilidad.
Los estándares clave para la investigación cuantitativa (conabilidad y
validez, técnicas de muestreo y métodos de análisis de datos) proporcionan un
marco sólido que mejora la credibilidad y aplicabilidad de los hallazgos de la
investigación educativa. Al adherirse a estos estándares, los investigadores
consiguen aportar ideas valiosas que informen las prácticas y políticas
educativas.
3.2.1.2 Desafíos en la defensa de las normas
A pesar de la importancia crítica de adherirse a los estándares establecidos
en la investigación cuantitativa, los investigadores educativos con frecuencia se
enfrentan a una variedad de desafíos que consiguen comprometer la integridad
y la validez de su trabajo (Polanía et al., 2020). Uno de los principales desafíos en
la investigación cuantitativa es la tendencia a pasar por alto aspectos
fundamentales del diseño y la implementación del estudio. Los investigadores
consiguen cometer inadvertidamente errores como el uso de herramientas de
medición inapropiadas, no garantizar la abilidad y validez de los instrumentos
64
o descuidar la importancia de tamaños de muestra adecuados. Estos descuidos
consiguen dar lugar a resultados sesgados e interpretaciones defectuosas, lo que
socava la credibilidad de los hallazgos.
Otro escollo es el mal uso de las técnicas estadísticas, en las que los
investigadores consiguen emplear análisis complejos sin comprender
plenamente sus implicaciones o suposiciones. Esto no solo pone en peligro la
precisión de los resultados, sino que también consigue inducir a error a las partes
interesadas que dependen de esta investigación para la toma de decisiones. Es
crucial que los investigadores participen en una formación continua y colaboren
con los estadísticos para mitigar estos riesgos.
El entorno académico a menudo ejerce una presión signicativa sobre los
investigadores para producir resultados publicables, lo que consigue llevar a un
compromiso en los estándares de investigación. Esta presión consigue dar lugar
a una tendencia a priorizar la cantidad sobre la calidad, donde los investigadores
se apresuran a completar los estudios o eligen resultados más favorables para la
publicación. Tales prácticas consiguen promover el fenómeno del "p-hacking", en
el que los investigadores manipulan datos o análisis para obtener resultados
estadísticamente signicativos, distorsionando el panorama de la investigación.
El énfasis en la publicación en revistas de alto impacto consigue contribuir
a un enfoque limitado en temas de moda, lo que podría dejar de lado áreas de
investigación importantes pero menos populares. Este enfoque consigue sesgar
la agenda de investigación en los campos educativos, lo que genera lagunas en el
conocimiento que son fundamentales para la práctica y la política.
La ética desempeña un papel fundamental en el mantenimiento de los
estándares de la investigación cuantitativa. Los investigadores se enfrentan a
dilemas éticos con respecto al consentimiento informado, la integridad de los
datos y el tratamiento de los participantes. El incumplimiento de las directrices
éticas consigue resultar en daño a las personas y disminuir la conanza pública
en la investigación educativa en su conjunto.
Las cuestiones relacionadas con la transparencia y la reproducibilidad de
los datos son objeto de un escrutinio cada vez mayor. Se alienta a los
investigadores a compartir sus conjuntos de datos y metodologías para permitir
la vericación y replicación de los hallazgos. Pero, las preocupaciones sobre la
propiedad intelectual y el posible uso indebido de los datos consiguen crear
65
barreras a la práctica abierta. Los investigadores educativos deben navegar estas
aguas éticas con cuidado para garantizar que su trabajo contribuya positivamente
al campo y, al mismo tiempo, mantenga la integridad y los estándares de la
investigación cuantitativa.
Los estándares para la investigación cuantitativa juegan un papel
fundamental para garantizar la integridad y la aplicabilidad de los hallazgos
dentro de los contextos educativos. Comenzamos deniendo la investigación
cuantitativa y subrayando su importancia en la generación de datos conables
para informar las prácticas educativas (Ñaupas et al., 2014). El contexto histórico
de los estándares de investigación ilustra cómo estas directrices han
evolucionado para satisfacer las crecientes demandas de rigor y responsabilidad
en la investigación educativa. Los estándares clave, como la abilidad, la validez,
las técnicas de muestreo adecuadas y los métodos de análisis de datos sólidos,
son cruciales para producir resultados ables.
De cara al futuro, los investigadores educativos deben permanecer atentos
a la adherirse a estos estándares establecidos y, al mismo tiempo, adaptarse al
panorama cambiante de las metodologías de investigación. Los investigadores
deben tratar de mantenerse informados sobre los nuevos desarrollos en métodos
estadísticos y software para mejorar sus análisis. El fomento de la colaboración
entre disciplinas consigue proporcionar nuevas perspectivas y enfoques
innovadores para abordar problemas educativos complejos.
No se consigue exagerar la importancia de mantener altos estándares en
la investigación cuantitativa. Estos estándares no solo salvaguardan la
credibilidad de los estudios individuales, sino que también contribuyen al cuerpo
más amplio de conocimientos dentro del campo de la educación. Al mantener
prácticas de investigación rigurosas, los investigadores educativos consiguen
servir mejor a los educadores, los responsables de la formulación de políticas y
los estudiantes por igual, lo que conduce a mejores resultados educativos.
66
Capítulo IV
Investigación descriptiva, analítica y experimental
Las metodologías de investigación forman la columna vertebral de la
investigación cientíca, lo que permite a los investigadores explorar, describir y
analizar sistemáticamente los fenómenos. Entre los enfoques más utilizados se
encuentran la investigación descriptiva, analítica y experimental. Cada una de
estas metodologías tiene propósitos distintos, emplea técnicas únicas y se adapta
a contextos de investigación especícos. Esta introducción proporciona una
visión general de estas tres metodologías, destacando sus objetivos, aplicaciones
y diferencias clave.
La investigación descriptiva se ocupa principalmente de observar y
documentar los fenómenos tal como existen en su estado natural. Su objetivo es
responder a la pregunta "qué es" proporcionando una descripción detallada de
las características, comportamientos o patrones de un sujeto o población. Esta
metodología no implica manipulación de variables ni comprobación de hipótesis,
por lo que es ideal para estudios en los que el objetivo es describir más que
explicar o predecir.
Los métodos comunes en la investigación descriptiva incluyen encuestas,
estudios de casos y estudios observacionales. Un investigador que estudia las
tasas de desempleo en una región especíca podría utilizar la investigación
descriptiva para documentar la distribución del desempleo en varios grupos
demográcos. Este enfoque es ampliamente utilizado en campos como las
ciencias sociales, la educación y la salud pública.
La investigación analítica va más allá de la descripción para investigar las
causas subyacentes, las relaciones y los principios de un fenómeno. Busca
responder a las preguntas "por qué" y "cómo", a menudo implicando el uso de
herramientas avanzadas como el análisis estadístico, modelos matemáticos o
software especializado. La investigación analítica es particularmente valiosa en
estudios que tienen como objetivo identicar correlaciones, causalidades o
tendencias dentro de los datos.
67
Mientras que la investigación descriptiva consigue documentar las tasas
de desempleo, la investigación analítica explora los factores que contribuyen al
desempleo, como las políticas económicas o las disparidades educativas. Esta
metodología se aplica con frecuencia en disciplinas como la economía, la
medicina y las ciencias ambientales.
La investigación experimental es una metodología basada en hipótesis que
implica la manipulación de variables para probar las relaciones de causa y efecto.
Responde a la pregunta "¿qué pasaría si...?" introduciendo intervenciones
controladas y observando sus resultados. Este enfoque es fundamental para la
experimentación cientíca, particularmente en campos como la biomedicina, la
psicología y la ingeniería.
Los estudios experimentales a menudo se llevan a cabo en entornos
controlados, como laboratorios, para minimizar las inuencias externas. Los
ensayos clínicos son una forma común de investigación experimental que se
utiliza para evaluar la ecacia de nuevos medicamentos o tratamientos. Estos
ensayos suelen seguir un proceso estructurado, que incluye fases para evaluar la
seguridad, la ecacia y los efectos a largo plazo.
Las metodologías de investigación descriptiva, analítica y experimental
desempeñan un papel fundamental en el avance del conocimiento en todas las
disciplinas. Mientras que la investigación descriptiva proporciona información
fundamental, la investigación analítica profundiza en las relaciones y la
causalidad, y la investigación experimental prueba las hipótesis a través de
intervenciones controladas (Vargas, 2009). Comprender las distinciones y
aplicaciones de estas metodologías es esencial para seleccionar el enfoque más
apropiado para una pregunta de investigación determinada.
La investigación descriptiva se basa en métodos no intrusivos para
capturar datos en su contexto natural. Las técnicas comunes incluyen encuestas,
entrevistas y estudios observacionales. Estos métodos están diseñados para
evitar interferencias con los fenómenos que se están estudiando, asegurando que
los datos reejen las condiciones del mundo real. Una encuesta que evalúe la
opinión pública sobre el cambio climático tendría como objetivo documentar las
actitudes sin inuir en los encuestados.
La investigación analítica emplea métodos estadísticos avanzados para
analizar e interpretar datos. Técnicas como el análisis de regresión, el análisis
68
factorial y el modelado de ecuaciones estructurales se utilizan con frecuencia
para identicar relaciones y probar hipótesis. El análisis comparativo es otro
rasgo distintivo de este enfoque, que a menudo implica el examen de las
diferencias o similitudes entre los grupos. Un estudio que compare el
rendimiento académico en todos los estratos socioeconómicos utilizaría
herramientas estadísticas para descubrir patrones signicativos.
La investigación experimental se caracteriza por el uso de entornos
controlados para manipular variables independientes y observar sus efectos
sobre las variables dependientes. Este enfoque a menudo implica la asignación
aleatoria a los grupos de tratamiento y control para minimizar el sesgo y
garantizar la validez de los hallazgos. Los experimentos de laboratorio, los
ensayos clínicos y los ensayos controlados aleatorios son métodos comunes en
esta categoría.
La fuerza de la investigación descriptiva radica en su capacidad para
proporcionar una instantánea detallada de los fenómenos, lo que la hace ideal
para estudios exploratorios. Si bien un estudio descriptivo consigue revelar una
alta prevalencia de tabaquismo entre los adolescentes, no consigue determinar si
la presión de grupo o la inuencia de los medios de comunicación es el factor
principal. La investigación analítica sobresale por su capacidad para descubrir
relaciones y factores causales, ofreciendo una visión más profunda que los
métodos descriptivos (Zuñiga et al., 2021). Su dependencia de los datos existentes
consigue introducir sesgos, y la complejidad de las herramientas estadísticas
consigue requerir conocimientos especializados. Un estudio analítico que
investiga el impacto de la urbanización en la salud mental podría enfrentar
desafíos para controlar las variables de confusión.
La principal ventaja de la investigación experimental es su capacidad para
establecer la causalidad con un alto grado de precisión; sus conguraciones
articiales y consideraciones éticas consiguen limitar su aplicabilidad. Si bien un
experimento de laboratorio consigue aislar variables de manera efectiva, es
posible que sus hallazgos no siempre se generalicen a las condiciones del mundo
real. La investigación descriptiva se utiliza ampliamente en campos como la
sociología, la psicología y la salud pública para proporcionar información
fundamental. Un estudio demográco sobre el envejecimiento de la población en
69
un país consigue informar a los responsables políticos sobre las necesidades de
atención sanitaria y la asignación de recursos.
La investigación analítica es fundamental para la formulación de políticas
y la adopción de decisiones. Su capacidad para identicar factores causales y
predecir resultados lo hace invaluable en campos como la economía, la educación
y la atención médica. La investigación experimental es crucial para la innovación
y la validación en campos como la medicina, la ingeniería y la tecnología. Los
ensayos clínicos de nuevos medicamentos, las pruebas de prototipos de
ingeniería y la evaluación de intervenciones educativas son ejemplos de su
aplicación. Un estudio que evalúe la efectividad de un nuevo método de
enseñanza para mejorar el rendimiento de los estudiantes se basaría en una
investigación experimental.
La investigación experimental a menudo implica dilemas éticos,
particularmente en estudios que involucran sujetos humanos o animales.
Cuestiones como el consentimiento informado, la minimización de riesgos y el
uso de placebos deben gestionarse cuidadosamente. Este informe proporciona
una exploración matizada de las diferencias clave entre la investigación
descriptiva, analítica y experimental, centrándose en sus objetivos, métodos,
fortalezas, limitaciones, aplicaciones y consideraciones éticas. Complementa los
informes existentes profundizando en aspectos únicos y evitando la
superposición con el contenido cubierto anteriormente.
La investigación descriptiva se emplea ampliamente en salud pública para
monitorear la prevalencia de enfermedades y los comportamientos de salud. Los
estudios que documentan la propagación de enfermedades infecciosas como la
gripe o la COVID-19 proporcionan datos fundamentales para que las autoridades
sanitarias asignen los recursos de forma ecaz. La investigación descriptiva es
fundamental en la planicación urbana, donde ayuda a los responsables de la
formulación de políticas a comprender la distribución de la población, las
necesidades de vivienda y los patrones de transporte.
Estos datos informan las decisiones sobre inversiones en infraestructura,
como la expansión de los sistemas de metro o la creación de carriles para
bicicletas. Esta aplicación se extiende más allá del enfoque general de "qué es" de
la investigación descriptiva al enfatizar su utilidad en la conguración de los
entornos urbanos. En marketing, la investigación descriptiva se utiliza para
70
analizar el comportamiento y las preferencias de los consumidores. Esta
información permite a las empresas optimizar sus operaciones y mejorar la
satisfacción del cliente. La investigación analítica desempeña un papel crucial en
la conguración de las políticas públicas al examinar las relaciones entre las
variables. Un estudio podría analizar la correlación entre el nanciamiento de la
educación y el rendimiento de los estudiantes en todos los distritos. Esta
aplicación diere de las herramientas estadísticas discutidas anteriormente en
que se centra en las implicaciones directas para la formulación de políticas.
La investigación analítica es esencial para evaluar los cambios ambientales
y sus causas. Los investigadores podrían investigar la relación entre las emisiones
industriales y la calidad del aire en las zonas urbanas. Mediante el uso de
herramientas estadísticas como el análisis factorial, consiguen aislar el impacto
de contaminantes especícos, como el dióxido de nitrógeno, en la salud
respiratoria. En nanzas, la investigación analítica se utiliza para evaluar los
riesgos y oportunidades de inversión. Mediante el análisis de series temporales,
los investigadores pudieron identicar patrones que ayuden a las instituciones
nancieras a desarrollar estrategias para mitigar los riesgos. Esta aplicación
subraya la versatilidad de la investigación analítica en campos más allá de las
ciencias sociales, ofreciendo nuevos conocimientos sobre su uso práctico.
En educación, la investigación experimental se utiliza para probar la
ecacia de los métodos o tecnologías de enseñanza, un experimento podría
comparar los resultados de los estudiantes en las aulas utilizando conferencias
tradicionales frente a herramientas digitales interactivas. La investigación
experimental es crucial en el desarrollo de productos, donde ayuda a las
empresas a probar prototipos y renar diseños (Rodríguez, 2011). Esta aplicación
destaca el papel de la investigación experimental en los procesos de diseño
iterativo, un tema no tratado anteriormente. En las ciencias sociales, los
investigadores a menudo integran métodos descriptivos y analíticos para
proporcionar una comprensión integral de fenómenos complejos. Este enfoque
combinado permite obtener tanto conocimientos fundamentales como análisis
más profundos, cerrando la brecha entre las dos metodologías.
4.1 Investigación Experimental y Analítica en Tecnología
En tecnología, la investigación experimental y analítica a menudo trabajan
juntas para optimizar sistemas y procesos. Esta integración demuestra cómo los
71
diferentes métodos de investigación consiguen complementarse entre para
lograr resultados más sólidos. Los avances en la tecnología han permitido la
recopilación y el análisis de datos en tiempo real en la investigación descriptiva.
Esta innovación representa una evolución signicativa de los métodos
descriptivos tradicionales, enfatizando la velocidad y la escalabilidad.
El aprendizaje automático está revolucionando la investigación analítica
al permitir el análisis de conjuntos de datos grandes y complejos. Los modelos
predictivos consiguen identicar patrones en el comportamiento de los clientes,
como la probabilidad de comprar un producto en función del historial de
navegación. Esta aplicación amplía el alcance de la investigación analítica
mediante la incorporación de tecnologías de vanguardia.
La realidad virtual (RV) surge como una poderosa herramienta en la
investigación experimental, particularmente en psicología y educación. Un
estudio podría utilizar simulaciones de realidad virtual para probar la ecacia de
las técnicas de reducción de estrés en entornos de alta presión. Esta aplicación
pone de maniesto el potencial de la investigación experimental para explorar
nuevas fronteras utilizando tecnologías innovadoras.
La investigación descriptiva se centra en capturar sistemáticamente "lo
que es" documentando los fenómenos en su estado natural sin manipular las
variables. Sirve como un enfoque fundamental para generar datos que informan
investigaciones posteriores, con aplicaciones que van desde la vigilancia de la
salud pública hasta el análisis del comportamiento del consumidor (Hernández
y Mendoza, 2018). La investigación analítica se basa en esta base explorando las
relaciones y los factores causales, empleando herramientas estadísticas para
responder a las preguntas "por qué" y "cómo".
Sus aplicaciones, como la evaluación de políticas, los estudios de impacto
ambiental y la evaluación de riesgos nancieros, ponen de maniesto su utilidad
en la interpretación de datos para fundamentar la toma de decisiones. La
investigación experimental, por el contrario, está diseñada para probar hipótesis
y establecer la causalidad a través de la manipulación controlada de variables.
Esta metodología es fundamental en campos como la medicina, la educación y la
tecnología, donde valida las intervenciones e impulsa la innovación.
Los resultados subrayan la complementariedad de estas metodologías. La
investigación descriptiva proporciona la base para los estudios analíticos, que a
72
su vez consiguen informar diseños experimentales para probar intervenciones
especícas. Los estudios descriptivos que documentan la prevalencia de la
enfermedad consiguen conducir a investigaciones analíticas que exploren los
factores de riesgo, que consiguen culminar en ensayos experimentales para
tratamientos. El informe también destaca las tendencias emergentes, como la
integración del aprendizaje automático en la investigación analítica y el uso de la
realidad virtual en los estudios experimentales, que están ampliando el alcance
y la precisión de estas metodologías. Estos avances sugieren que el futuro de la
investigación implicará cada vez más enfoques interdisciplinarios que combinen
las fortalezas de las tres metodologías.
Las implicaciones de este análisis son signicativas tanto para los
investigadores como para los profesionales. Al comprender las fortalezas y
limitaciones únicas de cada metodología, los investigadores consiguen
seleccionar el enfoque más apropiado para sus objetivos, lo que garantiza
hallazgos sólidos y conables. La integración de tecnologías innovadoras, como
el análisis de datos en tiempo real y el aprendizaje automático, ofrece interesantes
oportunidades para mejorar la eciencia y la precisión de la investigación. La
investigación futura debe centrarse en explorar más a fondo estos avances, así
como en desarrollar marcos para combinar ecazmente métodos descriptivos,
analíticos y experimentales para abordar problemas complejos y multifacéticos
en todas las disciplinas.
4.1.1 Una guía completa para realizar investigación cuantitativa en educación
La investigación cuantitativa en educación se reere a la investigación
sistemática de fenómenos a través de la recopilación y análisis de datos
numéricos. Este método es fundamental en el sector educativo, ya que permite a
los investigadores cuanticar comportamientos, actitudes y resultados,
facilitando el análisis de las relaciones entre variables. Mediante el empleo de
herramientas estadísticas rigurosas, la investigación cuantitativa proporciona
evidencia objetiva que consigue informar las políticas, prácticas e intervenciones
educativas. Su importancia radica en su capacidad de producir resultados
replicables y generalizables, que son críticos para los procesos de toma de
decisiones en los entornos educativos.
Las raíces de la investigación cuantitativa en educación se remontan a
principios del siglo XX, cuando la evaluación educativa comenzó a tomar forma.
73
El desarrollo de pruebas estandarizadas y la aplicación de métodos estadísticos
a los datos educativos marcaron un cambio signicativo hacia prácticas basadas
en la evidencia (Mora, 2004). En particular, guras como John Dewey y Edward
Thorndike contribuyeron a establecer una base para el uso de la investigación
empírica para mejorar las prácticas educativas. A lo largo de las décadas, la
investigación cuantitativa ha evolucionado, incorporando técnicas y
metodologías estadísticas avanzadas que dan forma cada vez más a las agendas
y políticas de investigación educativa.
La investigación cuantitativa en educación se caracteriza por su enfoque
estructurado, donde las hipótesis claras impulsan el proceso de investigación.
Por lo general, implica tamaños de muestra grandes que mejoran la conabilidad
y validez de los hallazgos. El énfasis en los datos numéricos permite la
identicación de patrones, relaciones e inferencias causales. La investigación
cuantitativa a menudo emplea un enfoque de razonamiento deductivo, probando
teorías o conceptos preconcebidos. Este marco metodológico contrasta con la
investigación cualitativa, que se centra en la comprensión de las experiencias
subjetivas de los individuos. En conjunto, estas características subrayan el papel
de la investigación cuantitativa como una herramienta vital para los educadores
y los responsables de la formulación de políticas que buscan mejorar los
resultados educativos a través de conocimientos basados en datos.
El diseño y la metodología de la investigación son componentes críticos de
la realización de investigación cuantitativa en educación. Proporcionan el marco
de cómo se llevará a cabo la investigación, asegurando que los hallazgos sean
válidos, conables y aplicables a los entornos educativos. Los diseños de
investigación cuantitativa se consiguen clasicar en tres tipos principales:
investigación descriptiva, investigación correlacional e investigación
experimental. Cada tipo tiene propósitos distintos y es apropiado para diferentes
preguntas de investigación.
4.1.1.1 Investigación descriptiva
La investigación descriptiva tiene como objetivo proporcionar una visión
general completa de un fenómeno o población en particular sin manipular
ninguna variable. Este tipo de investigación a menudo emplea encuestas,
observaciones y datos existentes para describir características, comportamientos
y tendencias. Un estudio podría describir la composición demográca de un
74
distrito escolar o evaluar los niveles de satisfacción de los estudiantes con
respecto a un nuevo plan de estudios.
4.1.1.2 Investigación correlacional
La investigación correlacional busca identicar las relaciones entre dos o más
variables, determinando si los cambios en una variable corresponden a cambios
en otra. Este tipo de investigación no implica causalidad; más bien, ayuda a
descubrir patrones y asociaciones. Un ejemplo podría ser examinar la correlación
entre el estatus socioeconómico de los estudiantes y su rendimiento académico,
lo que podría informar a los educadores sobre las posibles disparidades en el
rendimiento.
4.1.1.3 Investigación experimental
La investigación experimental se caracteriza por la manipulación de una o más
variables independientes para observar el efecto sobre una variable dependiente.
Este tipo de investigación a menudo se lleva a cabo en entornos controlados,
como aulas o laboratorios, donde los investigadores consiguen establecer
relaciones de causa y efecto (Mora, 2004). Un investigador consigue implementar
una nueva estrategia de enseñanza en un grupo de estudiantes mientras
mantiene los métodos tradicionales en otro, midiendo el impacto en los
resultados del aprendizaje. La validez de la investigación cuantitativa depende
de los métodos utilizados para recopilar datos. Se emplean varios métodos de
recopilación de datos, cada uno con sus fortalezas y limitaciones.
Encuestas y cuestionarios
Las encuestas y los cuestionarios son herramientas ampliamente utilizadas
para recopilar datos de un gran mero de encuestados. Consiguen incluir
preguntas cerradas, que proporcionan datos cuantitativos que se consiguen
analizar fácilmente, o preguntas abiertas que proporcionan información
cualitativa. Garantizar una redacción clara y concisa es crucial para obtener
respuestas ables.
Pruebas estandarizadas
Las pruebas estandarizadas están diseñadas para medir habilidades especícas
o niveles de conocimiento a través de un marco consistente. Estas pruebas
proporcionan datos cuantitativos que se consiguen comparar entre poblaciones,
lo que las hace valiosas para evaluar el rendimiento de los estudiantes y los
75
resultados educativos. Los métodos de observación implican observar y registrar
sistemáticamente comportamientos o eventos dentro de los entornos educativos.
Este enfoque consigue proporcionar datos cuantitativos enriquecidos,
especialmente cuando se utilizan protocolos de observación estructurados. Las
técnicas de muestreo son esenciales para garantizar que los resultados de la
investigación sean representativos de la población en general. La elección del
método de muestreo consigue afectar signicativamente la validez y abilidad
de los resultados.
Muestreo aleatorio
El muestreo aleatorio consiste en seleccionar participantes de una población
de tal manera que cada individuo tenga las mismas posibilidades de ser elegido.
Esta técnica minimiza los sesgos y mejora la generalización de los hallazgos.
Muestreo estraticado
El muestreo estraticado divide a la población en distintos subgrupos o
estratos en función de características especícas, como la edad, el nivel de grado
o el nivel socioeconómico. A continuación, los investigadores seleccionan
aleatoriamente a los participantes de cada estrato para garantizar la
representación de todos los segmentos de la población. Este método consigue
proporcionar información más precisa sobre las diferencias entre los subgrupos.
Muestreo por conveniencia
El muestreo por conveniencia implica seleccionar a los participantes en
función de su disponibilidad y accesibilidad. Si bien este método suele ser más
fácil y rentable, consigue introducir un sesgo de muestreo y limitar la
generalización de los hallazgos. El diseño y la metodología de la investigación
juegan un papel fundamental en el éxito de la investigación cuantitativa en
educación. Al seleccionar cuidadosamente el diseño de investigación, los
métodos de recopilación de datos y las técnicas de muestreo adecuados, los
investigadores consiguen producir ideas signicativas que informen las prácticas
y políticas educativas.
La estadística descriptiva proporciona un resumen de los datos recopilados,
ofreciendo información sobre las tendencias, variaciones y distribuciones
centrales dentro del conjunto de datos. Las medidas comunes incluyen la media,
la mediana, la moda, la desviación estándar y el rango. Estas estadísticas
76
permiten a los investigadores describir sus datos de forma sucinta y sentar las
bases para análisis posteriores. En un estudio educativo que examina los puntajes
de los exámenes, las estadísticas descriptivas consiguen revelar el rendimiento
promedio de los estudiantes y cómo ese rendimiento varía dentro de los
diferentes grupos demográcos.
La estadística inferencial permite a los investigadores hacer inferencias sobre
una población más grande a partir de una muestra. Técnicas como las pruebas t,
el ANOVA, el análisis de regresión y las pruebas de chi-cuadrado ayudan a
determinar si los patrones observados en los datos son estadísticamente
signicativos o si consiguen haber ocurrido por casualidad (Ramírez y Polack,
2020). Así, si un estudio encuentra que los estudiantes que reciben tutoría se
desempeñan mejor que los que no la reciben, la estadística inferencial consigue
ayudar a determinar si esta diferencia es estadísticamente signicativa, lo que
indica una posible relación causal. El análisis de datos cuantitativos a menudo
requiere un software estadístico sosticado para administrar grandes conjuntos
de datos y realizar cálculos complejos, programas como SPSS, R y SAS son
ampliamente utilizados en la investigación educativa.
Un aspecto clave de la interpretación de los resultados es evaluar las hipótesis
establecidas al inicio de la investigación. Los investigadores deben determinar si
la evidencia apoya o refuta sus hipótesis iniciales. Esta evaluación debe ser
objetiva, basándose en los hallazgos estadísticos y no en sesgos personales. Si un
investigador planteara la hipótesis de que las clases más pequeñas conducen a
un mejor rendimiento de los estudiantes, evaluaría los datos para ver si esta
hipótesis es cierta en varios contextos.
La presentación de informes claros y concisos de los hallazgos es esencial para
comunicar los resultados de la investigación cuantitativa. Los investigadores
deben incluir no solo los resultados estadísticos, sino también las implicaciones
prácticas de estos hallazgos en el contexto de la educación. Esto incluye discutir
cómo los resultados consiguen informar las prácticas docentes, las decisiones
políticas y las futuras direcciones de investigación. Las ayudas visuales, como
grácos y tablas, consiguen mejorar la claridad del informe y hacer que los
resultados sean más accesibles para un público más amplio.
Todo estudio tiene limitaciones y reconocerlas es crucial para una
interpretación equilibrada de los resultados. Los investigadores deben evaluar
77
críticamente los posibles sesgos en el diseño de su estudio, los métodos de
recopilación de datos y el análisis. Si un estudio se basó únicamente en datos auto
informados de encuestas, consigue haber sesgos en la forma en que los
participantes perciben e informan sus experiencias.
La capacidad de generalizar los hallazgos de una muestra a una población
más grande es una preocupación clave en la investigación cuantitativa. Los
investigadores deben considerar si su muestra representa con precisión la
población objetivo y si los resultados se consiguen aplicar más allá del contexto
especíco del estudio. Las limitaciones en la generalización consiguen surgir de
factores como el tamaño de la muestra, los métodos de selección o las
características especícas de la población de estudio.
Abordar las limitaciones también implica sugerir áreas para futuras
investigaciones. Esto podría incluir recomendaciones para estudios adicionales
que podrían conrmar los hallazgos, explorar diferentes poblaciones o investigar
variables relacionadas. Al reconocer las limitaciones de su estudio y proporcionar
vías para futuras investigaciones, los investigadores contribuyen al desarrollo
continuo del conocimiento en el campo de la educación.
La investigación cuantitativa en educación sirve como una herramienta vital
para comprender y mejorar las prácticas educativas. Mediante el empleo de
metodologías sistemáticas y análisis estadísticos, los investigadores consiguen
descubrir tendencias, evaluar la ecacia de las intervenciones e informar las
decisiones de política. Las características clave de la investigación cuantitativa —
su objetividad, su dependencia de los datos numéricos y su énfasis en la
generalización— subrayan su importancia para contribuir a la base de datos
empíricos en la educación (McMillan y Schumacher, 2005).
Varios diseños de investigación, desde descriptivos hasta experimentales,
ofrecen distintas ventajas y perspectivas, mientras que diversos métodos de
recopilación de datos, como encuestas y pruebas estandarizadas, brindan a los
investigadores una gran cantidad de información. La comprensión de las técnicas
de muestreo es crucial para garantizar que los resultados de la investigación sean
representativos y aplicables a poblaciones más amplias.
Los resultados de la investigación cuantitativa tienen profundas
implicaciones para las prácticas educativas. Al identicar estrategias de
enseñanza efectivas, evaluar el rendimiento de los estudiantes y evaluar los
78
programas educativos, la investigación cuantitativa permite a los educadores y
administradores tomar decisiones basadas en datos. Los conocimientos
adquiridos no solo mejoran la instrucción en el aula, sino que también informan
el diseño del plan de estudios y la política educativa, lo que conduce a mejores
resultados de los estudiantes.
De cara al futuro, varias tendencias emergentes en la investigación
cuantitativa están a punto de tener un impacto en el campo de la educación. La
integración de la tecnología en la recopilación y el análisis de datos, como el uso
de encuestas en línea y software de análisis de datos, está mejorando la capacidad
de los investigadores para recopilar e interpretar grandes conjuntos de datos de
manera eciente. El creciente énfasis en los estudios longitudinales permite una
comprensión más profunda de las trayectorias educativas a lo largo del tiempo.
La incorporación de enfoques de métodos mixtos, que combinan datos
cuantitativos y cualitativos, también está ganando popularidad, ofreciendo una
visión más integral de los fenómenos educativos.
79
Conclusión
Los investigadores y analistas de datos tienen la obligación ética de
interpretar los resultados de manera responsable; esto implica no solo ser
rigurosos en el análisis, sino también reconocer las limitaciones de los datos y los
contextos en los que se aplican. Cada decisión basada en datos conlleva una serie
de implicaciones éticas que deben ser consideradas cuidadosamente. Las
organizaciones y los gobiernos que utilizan resultados de investigaciones
cuantitativas deben ser conscientes de las repercusiones que sus decisiones
pueden tener en la vida de las personas.
Es decir, el uso de algoritmos para la toma de decisiones en ámbitos como
la justicia penal o el crédito puede perpetuar desigualdades existentes si no se
manejan con la debida precaución. La ética en la investigación cuantitativa exige
no solo una comprensión de los datos, sino también una consideración profunda
de cómo estos datos se utilizan y qué impacto pueden tener en la sociedad. La
ciencia de datos, por su naturaleza, implica el uso de técnicas complejas y
algoritmos que pueden ser difíciles de entender para aquellos que no son
expertos en el campo.
En este sentido, la transparencia se convierte en un imperativo ético
cuando se consideran las implicaciones de los modelos de predicción y análisis.
La falta de claridad en cómo se llega a ciertas conclusiones puede llevar a
malinterpretaciones y, en consecuencia, a decisiones erróneas basadas en datos
(sesgos). Por lo tanto, los investigadores deben esforzarse por presentar sus
hallazgos de manera comprensible, incluyendo descripciones claras de los
métodos utilizados y las suposiciones realizadas durante el análisis.
En el libro se hizo énfasis en la ética de la investigación en ciencia de datos;
no es solo una cuestión de cumplir con normativas y regulaciones, sino que
también implica un compromiso con la transparencia, la equidad y la justicia
social. Por ende, el texto se orientó a analizar el impacto que sus hallazgos pueden
tener en la sociedad y actuar con responsabilidad al comunicar sus resultados.
En este contexto organizacional, la ética se convierte en un pilar fundamental que
guía no solo la práctica de la investigación cientíca, sino también su
contribución al bienestar colectivo.
80
Ahora bien, técnicas como el modelado de ecuaciones estructurales, el
análisis factorial y el metaanálisis permiten a los investigadores descubrir
patrones y relaciones que impulsan el rendimiento organizacional. La
integración de herramientas avanzadas como la inteligencia articial y el análisis
predictivo está soliviantando la forma en que se recopilan e interpretan los datos,
lo que hace que la investigación cuantitativa sea más eciente e impactante que
nunca (Suazo, 2023). La conducta ética de la investigación es el aspecto crítico de
la investigación cuantitativa, sobre todo en la ciencia de datos. Los investigadores
deben adherirse a los principios de transparencia, precisión y equidad para
garantizar que sus hallazgos contribuyan signicativamente al cuerpo de
conocimientos, respetando al mismo tiempo los derechos y la dignidad de los
participantes.
Este libro profundizó en los conceptos básicos de la investigación aplicada
con inteligencia articial dentro de contextos organizacionales, explorando sus
metodologías, aplicaciones y consideraciones éticas. Al comprender estos
principios fundamentales, se aprovecha el poder de los métodos cuantitativos
para abordar problemas organizacionales apremiantes e impulsar la toma de
decisiones informadas.
En conclusión, se debe promover la difusión equitativa de los datos y dar
prioridad a la publicación en acceso abierto, con énfasis en estrategias de
comunicación adaptadas a las diferentes audiencias. Esto incluye la creación de
resúmenes en lenguaje sencillo de los hallazgos de la investigación, la
participación de organizaciones comunitarias para compartir los resultados y la
colaboración con los responsables de la formulación de políticas para traducir los
hallazgos en recomendaciones prácticas.
81
Bibliografía
Babapourdijojin, M., Corazza, M.V., y Gentile, G. (2024). Análisis sistemático del
comportamiento de desplazamiento en Italia mediante agrupamiento de K-
medias y análisis espacial: Hacia soluciones de transporte urbano inclusivas y
sostenibles. Future Transportation , 4 (4), 1430-1456.
hps://doi.org/10.3390/futuretransp4040069
Cheng, E.W.L. (2001). SEM being more eective than multiple regression in
parsimonious model testing for management development research, Journal of
Management Development, 20(7), 650-
667. hps://doi.org/10.1108/02621710110400564
Filgueira, F. (2023). Desafíos de gobernanza de inteligencia articial en América
Latina. Infraestructura, descolonización y nueva dependencia. Revista Del CLAD
Reforma Y Democracia, 87, 44-70. hps://doi.org/10.69733/clad.ryd.n87.a3
Gairín, J. y Alguacil, L. (2024). La gestión de la inteligencia articial en los contextos
universitarios iberoamericanos. Barcelona: EDO-Serveis – Universitat Autònoma de
Barcelona
Gascón Macén, A. (2021). El Reglamento General de Protección de Datos como
modelo de las recientes propuestas de legislación digital europea. Cuadernos de
Derecho Transnacional, 13(2), 209-232. hps://doi.org/10.20318/cdt.2021.6256
González-Sendino, R., Serrano, E., & Bajo, J. (2024). Mitigating bias in articial
intelligence: Fair data generation via causal models for transparent and
explainable decision-making. Future Generation Computer Systems, 155, 384-
401. hps://doi.org/10.1016/j.future.2024.02.023
Goyal, M., & Mahmoud, Q.H. (2024). A Systematic Review of Synthetic Data
Generation Techniques Using Generative AI. Electronics, 13(17), 3509.
hps://doi.org/10.3390/electronics13173509
Hernández, R., y Mendoza, C.P. (2018). Metodología de la investigación: las rutas
cuantitativa, cualitativa y mixta. Ciudad de México: McGraw-Hill Interamericana
Editores
82
Herráiz-Gil, S., Nygren-Jiménez, E., Acosta-Alonso, D.N., León, C., y Guerrero-
Aspizua, S. (2025). Métodos basados en inteligencia articial para la reutilización
y el desarrollo de fármacos en el cáncer. Ciencias Aplicadas, 15 (5), 2798.
hps://doi.org/10.3390/app15052798
Hosseini, M., Resnik, D.B., & Holmes, K. (2023). The ethics of disclosing the use
of articial intelligence tools in writing scholarly manuscripts. Research Ethics,
19(4), 449-465. hps://doi.org/10.1177/17470161231180449
Labraña, J., Brunner, J.J., Rodguez, E., y Puyol, F. (2023). Redeniendo la educación
superior chilena: Cambio organizacional y nuevas formas de gobernanza. Santiago de
Chile: Ediciones Universidad Diego Portales
Manterola, C. y Oen, T. (2014). Estudios observacionales. los diseños utilizados
con mayor frecuencia en investigación clínica. Int. J. Morphol., 32(2), 634-645.
Recuperado de: hps://scielo.conicyt.cl/pdf/ijmorphol/v32n2/art42.pdf
Marler, J.H., & Boudreau, J.W. (2016). An evidence-based review of HR
Analytics. The International Journal of Human Resource Management, 28(1), 3–26.
hps://doi.org/10.1080/09585192.2016.1244699
McMillan, J.H., y Schumacher, S. (2005). Investigación Educativa: Una Introducción
Conceptual. Madrid: Pearson
Michael, G., Walla, E., & Konstantin, S. (2023). Articial intelligence as toolset for
analysis of public opinion and social interaction in marketing: identication of
micro and nano inuencers. Sec. Media Governance and the Public Sphere, 8, 1-15.
hps://doi.org/10.3389/fcomm.2023.1075654
Mora Vargas, A.I. (2004). La evaluación educativa: Concepto, períodos y modelos.
Revista Electrónica "Actualidades Investigativas en Educación", 4(2), 0. Recuperado
de: hps://www.redalyc.org/pdf/447/44740211.pdf
Morantes Carvajal, I.C. (2023). Inteligencia articial (IA) en la investigación
cientíca: Sistematización y reexiones sobre experiencias educativas. Revista
EDUCARE - UPEL-IPB - Segunda Nueva Etapa 2.0, 27(3), 112–137.
hps://doi.org/10.46498/reduipb.v27i3.2050
Ñaupas, H., Mejía, E., Novoa, E., y Villagómez, A. (2014). Metodología de la
investigación cuantitativa-cualitativa y redacción de la tesis. Bogotá: Ediciones de la U
83
Palella, S.P., y Martins, F. (2006). Metodología de investigación cuantitativa. Caracas:
Fondo Editorial de la Universidad Pedagógica Experimental Libertador
Polanía, C.L., Cardona, F.A., Castañeda, G.I., Vargas, I.A., Calvache, O.A., y
Abanto, W.I. (2020). Metodología de Investigación Cuantitativa & Cualitativa Aspectos
conceptuales y prácticos para la aplicación en niveles de educación superior. Lima:
Universidad Cesar Vallejo
Ramírez, A., & Polack, A.M. (2020). Estadística inferencial. Elección de una
prueba estadística no paramétrica en investigación cientíca. Horizonte De La
Ciencia, 10(19), 191-
208. hps://doi.org/10.26490/uncp.horizonteciencia.2020.19.597
Rodríguez, N. (2011). Diseños Experimentales en Educación. Revista de Pedagogía,
32(91), 147-158. Recuperado de:
hps://www.redalyc.org/articulo.oa?id=65926549009
Ruiz Aranibar, G. (2019). Análisis de conglomerados. Revista Varianza, 16, 65-84
Seni, G., & Elder, J.F. (2010). Ensemble Methods in Data Mining: Improving Accuracy
Through Combining Predictions. Cham: Springer Cham
Sharma, P., Kumar, M., Sharma, H.K. et al. (2024), Generative adversarial
networks (GANs): Introduction, Taxonomy, Variants, Limitations, and
Applications. Multimed Tools Appl, 83, 88811–88858.
hps://doi.org/10.1007/s11042-024-18767-y
Taloma, R.J.L., Cuomo, F., Comminiello, D. et al. (2025). Aprendizaje automático
para sistemas inteligentes de distribución de agua: exploración de aplicaciones,
desafíos y perspectivas futuras. Artif Intell Rev, 58, (120).
hps://doi.org/10.1007/s10462-024-11093-7
Vargas Cordero, Z.R. (2009). La investigación aplicada: una forma de conocer las
realidades con evidencia cientíca. Revista Educación, 33 (1), 155-165
Yang, Y., Lin, Y., Xiao, J. et al. (2025). Análisis de la viabilidad de la criptografía
cuántica para la seguridad del Internet de las Cosas: una revisión
bibliográca. Opt Quant Electron, 57, 264. hps://doi.org/10.1007/s11082-025-
08168-2
84
Esta edición de " Investigación cientíca desde la ciencia de datos:
Generalidades" se culminó en la ciudad de Colonia del Sacramento en la
República Oriental del Uruguay el 18 de abril de 2025
85