1
Métodos de investigación cuantitativa aplicados a la inteligencia articial:
Consideraciones éticas y deontológicas
Orison Valera Dávila, Eudosio Paucar Rojas, Edwin Huamán Gómez, Liliana Huaranga
Rivera, Lener Omar Panduro Rengifo, Elizabeth Norma Calixto Arias, Abisag Miroslava
Garcia Mendoza
© Orison Valera vila, Eudosio Paucar Rojas, Edwin Huamán Gómez, Liliana
Huaranga Rivera, Lener Omar Panduro Rengifo, Elizabeth Norma Calixto Arias, Abisag
Miroslava Garcia Mendoza, 2025
Primera edición: Enero, 2025
Editado por:
Editorial Mar Caribe
www.editorialmarcaribe.es
Av. General Flores 547, Colonia, Colonia-Uruguay.
Diseño de cubierta: Yelia Sánchez Cáceres
Libro electrónico disponible en:
hps://editorialmarcaribe.es/ark:/10951/isbn.9789915975245
Formato: electrónico
ISBN: 978-9915-9752-4-5
ARK: ark:/10951/isbn.9789915975245
Aviso de derechos de atribución no comercial: Los autores pueden autorizar al público
en general a reutilizar sus obras únicamente con nes no lucrativos, los lectores pueden
usar una obra para generar otra obra, siempre y cuando se dé el crédito de investigación
y, otorgan a la editorial el derecho de publicar primero su ensayo bajo los términos de la
licencia CC BY-NC 4.0.
Editorial Mar Caribe rmante N° 795 del 12.08.2024 de la Declaración de Berlín: “nos
sentimos obligados a abordar los desafíos de internet como un medio funcional
emergente para la distribución de conocimiento. Obviamente, estos avances podrán
modicar signicativamente la naturaleza de la publicación cientíca, así como el
sistema existente de aseguramiento de la calidad” (Sociedad Max Planck, ed. 2003., pp.
152-153).
2
Editorial Mar Caribe
Métodos de investigación cuantitativa aplicados a la
inteligencia articial: Consideraciones éticas y
deontológicas
Colonia del Sacramento - Uruguay
3
Sobre los autores y la publicación
Orison Valera Dávila
orison_v[email protected]u.pe
hps://orcid.org/0000-0001-3972-6330
Universidad Nacional de Ucayali, Perú
Eudosio Paucar Rojas
hps://orcid.org/0000-0001-6818-3390
Universidad Nacional Intercultural de la
Amazonía, Perú
Edwin Huamán Gómez
hps://orcid.org/0000-0003-2363-6397
Universidad Nacional Intercultural de la
Amazonía, Perú
Liliana Huaranga Rivera
liliana_huara[email protected]
hps://orcid.org/0000-0001-8368-2294
Universidad Nacional de Ucayali, Perú
Lener Omar Panduro Rengifo
hps://orcid.org/0000-0003-0081-7726
Universidad Nacional Intercultural de la
Amazonía, Perú
Elizabeth Norma Calixto Arias
ecalixto@unibagua.edu.pe
hps://orcid.org/0000-0002-1732-6846
Universidad Nacional Intercultural Fabiola
Salazar Leguía de Bagua, Perú
Abisag Miroslava Garcia Mendoza
hps://orcid.org/0009-0000-6987-5903
Institución Educativa Emblemática Faustino Maldonado, Perú
Libro resultado de investigación:
Publicación original e inédita, cuyo contenido es resultado de un proceso de investigación
realizado antes de su publicación, ha sido revisada por pares externos a doble ciego, el libro ha
sido seleccionado por su calidad cientíca y porque contribuye signicativamente en el área del
saber e ilustra una investigación completamente desarrollada y completada. Además, la
publicación ha pasado por un proceso editorial que garantiza su estandarización bibliográca y
usabilidad
4
Índice
Introducción ................................................................................................... 7
Capítulo I ..................................................................................................... 10
Inteligencia articial en la investigación cuantitativa: Aspectos introductorios
..................................................................................................................... 10
1.1 Fundamentos de la inteligencia articial ............................................. 11
1.1.1 Tipos de técnicas de inteligencia articial ..................................... 11
1.1.2 Aplicaciones de la inteligencia articial en la investigación
cuantitativa ............................................................................................ 12
1.2 Retos y consideraciones éticas ........................................................ 13
1.3 Método de investigación descriptiva ................................................... 15
1.3.1 Características del método descriptivo..................................... 16
1.3.2 Diseño de la investigación descriptiva ........................................... 17
1.3.3 Aplicaciones del método descriptivo ............................................. 19
1.4 Método de investigación analítico ....................................................... 21
1.4.1 Etapas del proceso de investigación analítica ................................ 23
1.4.2 Aplicaciones del método de investigación analítico ....................... 24
1.5 Método de investigación experimental ................................................ 25
1.5.1 Fases del Método Experimental ..................................................... 26
1.5.2 Aplicaciones del Método Experimental ......................................... 28
1.6 Método de investigación cuasi-experimental ....................................... 29
1.6.1 Diseño del estudio cuasi-experimental .......................................... 30
1.6.2 Ventajas y desventajas del método cuasi-experimental .................. 31
Capítulo II .................................................................................................... 34
Paradigma de investigación cuantitativa ...................................................... 34
2.1 Fundamentos del paradigma cuantitativo ............................................ 34
2.1.1 Importancia en la investigación cientíca ...................................... 35
2.2 Análisis e interpretación de datos cuantitativos ................................... 38
2.2.1 Estadística descriptiva ................................................................... 38
2.2.2 Estadística inferencial .................................................................... 38
5
2.2.3 Presentación de resultados ............................................................ 38
2.2.4 Fundamentos del paradigma cuantitativo ...................................... 40
2.3 Métodos estadísticos aplicados en investigación cuantitativa .............. 45
2.3.1 Técnicas estadísticas descriptivas .................................................. 49
2.3.2 Medidas de dispersión: rango, varianza y desviación estándar ...... 50
2.3.3 Representación gráca de datos: histogramas y diagramas de caja 50
2.4 Inteligencia articial generativa en investigación cuantitativa ............. 53
2.4.1 Aplicaciones de la inteligencia articial generativa en investigación
cuantitativa ............................................................................................ 54
2.4.2 Transparencia en los modelos generativos..................................... 56
Capítulo III .................................................................................................. 59
3.1 Normas deontológicas en la práctica cientíca ..................................... 60
3.1.1 Integridad y honestidad en la investigación .................................. 61
3.1.2 La educación en ética para investigadores ..................................... 62
3.2 Redes neuronales articiales para el procesamiento de datos
cuantitativos ............................................................................................. 63
3.2.1 Funciones de activación y tipos de redes neuronales ..................... 64
3.2.2 Aplicaciones en el procesamiento de datos cuantitativos ............... 65
3.2.3 Mapas autoorganizados en investigación cuantitativa ................... 66
Capítulo IV .................................................................................................. 72
4.1 Fundamentos de las redes neuronales articiales ................................ 72
4.1.1 Funcionamiento básico: aprendizaje supervisado y no supervisado
.............................................................................................................. 74
4.1.2 Predicciones y modelado de resultados ......................................... 74
4.1.3 Sesgos en los datos y su impacto en los resultados ........................ 75
4.2 Estadística paramétrica aplicada a la validación de investigaciones ..... 77
4.2.1 Métodos estadísticos paramétricos comunes .................................. 79
4.2.2 Estadística no paramétrica aplicada a la validación de
investigaciones ...................................................................................... 81
Conclusiones ................................................................................................ 87
6
Bibliografía .................................................................................................. 89
7
Introducción
La integración de la inteligencia articial (IA) en los métodos de
investigación cuantitativa sobre todo plantea oportunidades innovadoras para el
análisis de datos, y trae consigo una serie de aspectos éticos y deontológicos que
deben ser cuidadosamente considerados. A medida que los investigadores
adoptan herramientas basadas en IA, es fundamental establecer un marco moral
que guíe la práctica y garantice la integridad de la investigación. Este libro
examina las consideraciones éticas más relevantes en la recolección de datos, la
transparencia en el uso de IA y las implicaciones para la privacidad y el
consentimiento informado.
La recolección de datos es un pilar central en la investigación cuantitativa.
Cuando se incorpora la IA, surgen inquietudes sobre cómo se obtienen y utilizan
esos datos. Es esencial que los investigadores aseguren que los métodos de
recolección sean justos y equitativos, evitando sesgos que puedan distorsionar
los resultados. Esto implica la implementación de prácticas de muestreo que
representen adecuadamente a las poblaciones estudiadas y el desarrollo de
algoritmos que no perpetúen desigualdades sociales o raciales. Al mismo tiempo,
los investigadores deben ser conscientes de las fuentes de datos que utilizan y de
los posibles impactos que estas decisiones pueden tener en las comunidades
afectadas.
La transparencia es un principio clave en la ética de la investigación.
Cuando se utilizan algoritmos de IA, es crucial que los investigadores sean claros
sobre cómo funcionan estos sistemas y cómo se toman las decisiones en el análisis
de datos. La falta de transparencia puede llevar a la desconanza por parte de los
participantes y de la comunidad en general, lo que puede comprometer la validez
de la investigación. También, los investigadores deben asumir la responsabilidad
de sus hallazgos y de las implicaciones de sus investigaciones. Esto incluye la
necesidad de ser críticos y reexivos respecto a los resultados obtenidos y su
posible uso indebido.
La utilización de IA en la investigación cuantitativa plantea la signicancia
estadística en relación con el procesamiento de datos numéricos. La recopilación
de grandes volúmenes de datos puede dar lugar a la identicación involuntaria
de individuos, lo que plantea problemas de condencialidad (sesgo o sobreajuste
del error). Por lo tanto, es esencial que los investigadores implementen medidas
8
de control de calidad de los datos y, a su vez, que garanticen la privacidad de los
participantes. Esto incluye el uso de técnicas de anonimización y el cumplimiento
de normativas de protección de datos.
En este sentido, el consentimiento informado debe ser una prioridad en la
investigación que involucra IA. Los participantes deben ser plenamente
informados sobre cómo se utilizarán sus datos y las implicaciones de su
participación en el estudio. Esto es un requisito legal y un aspecto fundamental
de la ética de la investigación, que respeta la autonomía y la dignidad de los
individuos.
La convergencia de los métodos de investigación cuantitativa y la
inteligencia articial (IA) ha abierto un panorama fascinante y complejo en el
ámbito de la investigación. La capacidad de la IA para identicar patrones y
realizar análisis predictivos ha transformado la forma en que los investigadores
abordan la recolección y el análisis de datos. No obstante, esta sinergia también
plantea desafíos éticos y deontológicos que requieren una consideración
cuidadosa.
Se debe destacar que la investigación cuantitativa, al ser intrínsecamente
basada en datos, depende de la calidad y la integridad de la información
recolectada. La implementación de algoritmos de IA para la recolección y el
análisis de datos debe hacerse con una rigurosa atención a los principios éticos,
garantizando que los datos se obtengan de manera justa y que se respeten los
derechos de los participantes. Esto implica la necesidad de establecer protocolos
claros que aseguren la transparencia en los métodos de recolección y el
tratamiento de la información.
Además, la utilización de la IA en la investigación cuantitativa plantea
interrogantes sobre la responsabilidad en la interpretación de los resultados. Por
lo tanto, hay que ser conscientes de los sesgos que pueden surgir de los
algoritmos de aprendizaje automático y de cómo estos pueden inuir en las
conclusiones que se extraen. La comunicación clara de los métodos y resultados
es fundamental para mantener la conanza en la investigación y para fomentar
un debate informado sobre las implicaciones de los hallazgos.
En síntesis, la protección de la privacidad y el consentimiento informado
se erigen como pilares esenciales en la intersección de la investigación
cuantitativa y la IA. A medida que las técnicas de recolección de datos se vuelven
más sosticadas, los investigadores tienen la responsabilidad de implementar
9
medidas que salvaguarden la información personal de los participantes. Esto es
un imperativo ético, es crucial para el avance sostenible de la investigación.
El objetivo de la investigación es analizar la interacción entre los métodos
cuantitativos, la inteligencia articial y la ética en un campo en evolución que
requiere vigilancia constante y un compromiso con las mejores prácticas. Solo a
través de la integración de principios éticos sólidos en la investigación
cuantitativa potenciada por IA se podrá garantizar que estos avances contribuyan
de manera positiva a la sociedad.
En el libro se contextualiza la investigación cuantitativa como un enfoque
sistemático y estructurado que permite a los investigadores recolectar y analizar
datos numéricos con el n de responder preguntas especícas y probar hipótesis.
A diferencia de la investigación cualitativa, que se centra en la comprensión de
fenómenos a través de la exploración de experiencias, percepciones y contextos
subjetivos, la investigación cuantitativa busca establecer patrones y relaciones
entre variables a través de mediciones objetivas y análisis estadísticos.
10
Capítulo I
Inteligencia articial en la investigación cuantitativa:
Aspectos introductorios
A partir del siglo 21, la inteligencia articial (IA) ha emergido como una
herramienta fundamental en múltiples disciplinas, transformando la forma en
que abordamos y resolvemos problemas complejos. La investigación
cuantitativa, que se basa en la recolección y análisis de datos numéricos para
obtener conclusiones objetivas, no ha sido la excepción. La incorporación de
técnicas de IA en este ámbito ofrece oportunidades sin precedentes para mejorar
la precisión, eciencia y profundidad de los estudios cuantitativos.
El auge de la IA se debe, en gran parte, a la explosión de datos generados
en diversas áreas, desde las ciencias sociales hasta la biomedicina. Este creciente
volumen de información demanda nuevas metodologías que permitan gestionar
y extraer conocimientos valiosos de estos datos. En este contexto, la IA se
presenta como un aliado potente, capaz de procesar grandes cantidades de
información y descubrir patrones que pueden pasar desapercibidos para el
análisis humano.
Además, la inteligencia articial facilita la automatización de tareas
monótonas y arduas, lo que permite a los investigadores enfocarse en
dimensiones más estratégicas y creativas de su labor. Esto mejora la eciencia del
tiempo y los recursos, también puede elevar la calidad de los resultados
obtenidos. Sin embargo, a pesar de estas indiscutibles ventajas, la incorporación
de la inteligencia articial en la investigación cuantitativa enfrenta cuestiones
éticas que necesitan ser consideradas.
En este capítulo, se explora la relación entre la inteligencia articial y la
investigación cuantitativa, destacando cómo estas tecnologías emergentes están
revolucionando la forma en que se realizan los estudios, así como las
compromisos que esto conlleva para la comunidad cientíca y la sociedad en
general. Por ende, se evidencia un marco para comprender los fundamentos de
la inteligencia articial, sus principales aplicaciones en el análisis de datos, y los
retos éticos que surgen en su utilización.
11
1.1 Fundamentos de la inteligencia articial
La inteligencia articial, más conocida como IA, es un campo de estudio
interdisciplinario que tiene por objeto desarrollar sistemas y técnicas que pueden
desempeñar las tareas habituales que requieren inteligencia humana. Este
capítulo se centra en los elementos sicos de la inteligencia articial,
proporcionando una base conceptual e histórica para el desarrollo y la práctica
de la IA y las muchas técnicas que la componen. La inteligencia articial ha sido
expresada como la “aplicación de modelos computacionales para tareas
cognitivas realizadas por humanos en condiciones normales”.
El signicado de este término es muy amplio, y en la práctica, interactúa
con una serie de subcampos, entre los que se incluyen los campos de aprendizaje
automático, procesamiento del lenguaje natural, visión por computadora,
sistemas expertos, etc. La historia de la inteligencia articial se origina en los años
cincuenta, cuando visionarios como Alan Turing y John McCarthy comenzaron a
elaborar teorías sobre si las máquinas pudieran pensar. Turing ideó la famosa
prueba de Turing, el caso por el cual la inteligencia de una máquina se puede
evaluar.
No obstante, la IA ha tenido sus épocas doradas y oscuras. En diferentes
momentos, la inteligencia articial ha sido a menudo este ciclo de rápido
crecimiento interrumpido por la “invernada”. No obstante, en la última década,
hemos sido testigos del resurgimiento de la IA, gracias a un drástico aumento de
la potencia del hardware de procesamiento, la disponibilidad de incrementar
ratios de datos y al aumento en la sosticación y la potencia de los algoritmos
mismos (Kolides et al., 2023). Por primera vez, la IA ha alcanzado o incluso
superado la capacidad de los humanos en tareas especícas.
1.1.1 Tipos de técnicas de inteligencia articial
i. Aprendizaje automático (Machine Learning): Consiste en el aprendizaje que
realizan las máquinas a partir de los datos sin la necesidad de ser programadas
de manera especíca. Se encuentra clasicado en tres tipos fundamentales:
supervisado, no supervisado, y por refuerzo. Es aplicable en múltiples
escenarios, que van desde el reconocimiento de patrones hasta la predicción de
resultados.
ii. Redes neuronales: Se basan en el funcionamiento del cerebro humano y se
tratan de modelos computacionales que desarrollan capas de nodos
interconectados. Son altamente efectivas en el procesamiento de datos complejos
12
y usándose en problemas como el de clasicación de imágenes y procesamiento
de lenguaje natural.
iii. Algoritmos genéticos: Están diseñados para asemejar el proceso de evolución
natural y resuelven problemas de optimización. Los algoritmos simulan la
evolución de datos a través de la selección natural y la mutación.
iv. Procesamiento del lenguaje natural (NLP): Se enfoca en la interacción de las
computadoras con el lenguaje humano. Los marcan entienden, interpreten y
desarrollan texto, lo que permite desarrollar traductores automáticos y sistemas
de chat.
v. Sistemas expertos: Aunque ya no se emplean, estas herramientas especiales
asemejan la toma de decisiones en los expertos en campos denidos por medio
de la selección.
Estos fundamentos no solamente abarcan la pértiga de la IA desde la
perspectiva teórica, sino también la justa apreciación de cómo la IA tiene el
potencial para renovar la investigación cuantitativa al simplicar el análisis, la
predictibilidad, y la optimización de trabajos en diferentes disciplinas.
1.1.2 Aplicaciones de la inteligencia articial en la investigación cuantitativa
La inteligencia articial ha cambiado la forma de muchas disciplinas, y la
investigación cuantitativa no es la excepción. Con cada vez más volúmenes de
datos que están disponibles para los cientícos, la capacidad de la IA para
analizar y comprender estos datos se ha convertido en una herramienta esencial.
Algunas de las aplicaciones cruciales de la IA en la investigación cuantitativa
incluyen los siguientes:
- Análisis de datos masivos: Los más signicativo de la inteligencia articial
es su capacidad para manejar y analizar conjuntos de datos muy grandes,
conocidos como Big Data. A través de técnicas de aprendizaje
automatizado, los investigadores pueden identicar patrones, tendencias
y correlaciones que tendrían dicultades para localizar utilizando
métodos convencionales. En estudios de mercado, la inteligencia articial
puede procesar miles de respuestas en cuestión de segundos,
proporcionando toma de decisiones rápidas y precisas. Este proceso
ayudará a acelerar nuestra capacidad para estudiar, así como la calidad de
nuestras conclusiones al reducir la posibilidad de descuidos humanos en
la ecuación.
13
- Modelado predictivo: Gracias a la implementación de algoritmos de
aprendizaje supervisado, los investigadores pueden crear programas o
modelos que identicarán eventos futuros o comportamiento basado en la
historia de datos recopilados. En la esfera de la salud, la IA puede analizar
los datos epidemiológicos con el n de predecir los brotes de
enfermedades y evaluar la ecacia de las medidas sanitarias tomadas.
Además, si se sabe lo que sucederá, es más fácil tomar una decisión
efectiva pero también ofrecer una asignación optimizada de los recursos o
incluso una mejor planicación estratégica.
- Optimización de procesos de investigación: La IA también es de gran ayuda
en la mejora de los desarrollos de investigación. Desde la toma de las
muestras de estudio hasta la administración de los datos y la redacción de
informes, la automatización provista por la IA puede disminuir
signicativamente la cantidad de tiempo y energía necesarios. Las
herramientas de Procesamiento de Lenguaje Natural también pueden
emplearse para detectar literatura académica relacionada, resumir varios
estudios a la vez y obtener información crítica de manera impecable.
Además, la IA mejora la identicación de las variables críticas y el
desarrollo de pruebas rápidas, facilitando investigaciones más conables
y transponibles.
Al integrar la inteligencia articial, podemos aumentar la eciencia y la
precisión de la investigación, abrir nuevas oportunidades para abordar
preguntas de investigación más complicadas. Juntas, con el desarrollo
tecnológico continuo, es probable que estas técnicas crezcan en popularidad y
puedan redenir completamente la investigación cuantitativa.
1.2 Retos y consideraciones éticas
La inclusión de la inteligencia articial en la recopilación de datos
cuantitativos implica nuevas oportunidades, así como retos y las consideraciones
éticas a las que busca responder entrada (Guerra y García, 2018). Dado que la
tecnología sigue avanzando y se convierte en algo normal en la investigación, es
importante abordar las preocupaciones y las preguntas éticas sobre su uso.
i. Sesgos en los algoritmos: La cuestión de los sesgos en los algoritmos
es la medula espinal a superar al implementar la inteligencia articial
en la investigación cuantitativa. Dado que los modelos de IA se
entrenan con grandes cantidades de datos y si la calidad de los mismos
14
es insatisfactoria en términos frecuenciales, entonces se aplicaran
también en los resultados nales. Muchos tipos de sesgos sistémicos
existen en la sociedad contemporánea, ya que los copiaron muchos
tren, que los dejan en las diferentes meta y meso. Está proporcionará
resultados erróneos y sustentarán las desigualdades y las diferencias
demográcas.
No obstante, si un modelo de IA predictivo se entrena con datos en
los que se han enseñado los reexiones históricos y prejuiciosos, el
modelo producirá resultados reejados en los mismos trainings y
prejuicios al realizar su propio predicción. A lo tanto, es esencial
elaborar las metodologías que ayuden detectar para eliminar estos
sesgos y garantizar que los resultados sean justos y representativos.
ii. Privacidad de los datos: Por lo general, la recopilación y el análisis de
grandes volúmenes de datos lían el uso de información personal, un
proceso que plantea preocupaciones sobre la restricción de la
privacidad de los participantes. Por lo tanto, es imperativo que los
investigadores ahonden en prácticas robustas de manejo de datos que
garanticen que la información personal manejada de manera
condencial y segura. Por otra parte, deben establecerse protocolos
claros con respecto al uso del consentimiento informado, permitir que
los participantes sepan y regulen cómo se usará la información.
iii. Transparencia y responsabilidad en el uso de la IA: La transparencia
en el uso de algoritmos y modelos AI es otra asunto ético clave. Los
investigadores deben ser transparentes con el funcionamiento de los
modelos que utilizan y las decisiones basadas en sus resultados. La
falta de transparencia conduce a una desconanza en la investigación,
especialmente en situaciones en las que los resultados tienen
consecuencias signicativas para las políticas públicas o las prácticas
empresariales. Finalmente, es necesario asignar una línea clara de
responsabilidad con el uso de la AI. Los investigadores e instituciones
son responsables de las decisiones y las variables tomadas, así como de
los resultados que puedan derivarse de la investigación.
Empero, la inteligencia articial ofrece un potencial signicativo para mejorar
la investigación cuantitativa y, muchos de estos retos y cuestiones éticas deben
abordarse. Solo a través de un enfoque consciente y responsable de su
implementación maximizará el impacto positivo de la IA en el campo de la
investigación, al tiempo que asegurará que su uso esté justicado y en
15
consonancia con las normas éticas prevalecientes. Como se indicó en la revisión
de la literatura hasta ahora, la inteligencia articial se ha convertido en un recurso
transformador en la investigación cuantitativa, proporcionando métodos y
técnicas que permiten abordar problemas complejos de manera más ecaz y
eciente.
Tales capacidades están inuyendo en el futuro de la investigación y cómo se
llevarán a cabo, con un resultado probable de resultados de investigación más
precisos y relevantes. Pueblo también verá más IA integrada en el trabajo de
diversas disciplinas de investigación cuantitativa a medida que evolucione la
tecnología (Guerra y García, 2018). Por ello, se está volviendo más sosticado con
herramientas de aprendizaje automático y procesamiento de lenguajes naturales,
lo que permite a los investigadores llevar a cabo una comprensión mucho más
profunda con sus datos. Mientras esta tendencia sigue su curso, está claro que la
AI no simplemente respaldará la investigación mainstream, sino que
probablemente ajustará las metodologías académicas y profesionales completas.
Los problemas con el sesgo algorítmico, la privacidad de los datos y la
transparencia son cuestiones críticas que deben ser abordadas. Con una cantidad
creciente de investigación dependiente de AI, se impone un aumento de la
responsabilidad y los investigadores y desarrolladores colaboran para asegurarse
de que la IA se utilice de manera ética y justa (Córdova, 2019). Como tal, será
crucial para la formulación de políticas a jar el marco que abordará estos
problemas y garantizará un planteamiento de AI que benecie totalmente a la
sociedad.
La AI tiene el potencial de cambiar la investigación cuantitativa como se ve,
ofreciendo nuevos enfoques para el análisis de los datos y la toma de decisiones
informadas. A medida que nos movemos hacia un futuro en el que la IA es central
en la investigación, será crítico para los investigadores y los profesionales
educarse sobre los problemas éticos y prácticos relacionados con la AI. Solo un
planteamiento consciente e informado de AI permitirá que hagamos la mayor
parte de sus benecios y sigamos avanzando en un conocimiento y
entendimiento colectivos del mundo.
1.3 Método de investigación descriptiva
La descripción es probablemente uno de los métodos más ampliamente
utilizados en la investigación cientíca y social. En general, el objetivo principal
de la investigación descriptiva es brindar un cuadro claro y detallado de las
16
características de un fenómeno, grupo o situación en particular. Dicho enfoque
no altera el entorno y no busca relaciones causales entre variables. A diferencia
de otros métodos que intentan explicar o predecir los resultados de un fenómeno,
la descripción responde a la pregunta “qué” permite a los investigadores
recopilar información precisa sobre las variables de interés.
Por lo tanto, el método ha crecido en importancia en varias disciplinas, ya
que ayuda a los investigadores a comprender mejor el contexto en el que se
desarrollan los fenómenos. En este sentido, el método descriptivo facilita la
elaboración de conjeturas y proporciona un punto de partida sólido para
investigaciones adicionales. Una vez que los investigadores han acumulado y
clasicado los datos relevantes, pueden recopilar y vericar hipótesis sobre la
realidad estudiada. A través de la observación, la encuesta y el análisis de
documentos, los investigadores pueden ofrecer un marco comprensible que
reeje la realidad. Además de la importancia académica, la descripción también
tiene otras aplicaciones en el mundo empresarial y en la toma de decisiones
políticas.
En tanto, las organizaciones pueden, por lo que, vericar la satisfacción
del cliente utilizando el enfoque descriptivo, mientras que los gobiernos pueden
utilizarlo para planicar políticas públicas teniendo en cuenta las necesidades y
el comportamiento de la población. En general, un método de descripción es
fundamental porque ofrece a los académicos una plataforma a través de la cual
pueden explorar y entender fenómenos complejos. El siguiente análisis ofrecerá
una visión detallada del enfoque, sus características y diseño, así como sus
aplicaciones (Ochoa y Yunkor, 2021).
1.3.1 Características del método descriptivo
El método de investigación descriptiva conlleva a una comprensión clara y
detallada de la situación, sin manipulación de variables:
- Objetivos de la investigación descriptiva: Hacer una descripción minuciosa de
un fenómeno determinado, situación o grupo. Esto comprende entre otras
cosas recopilar y reunir datos, a su vez presentarlos de manera que puedan
desempeñar un papel en el contexto del problema o el objeto de
descripción. Desde la descripción e identicación de características de la
población hasta la descripción y explicación de relaciones entre variables,
este método se emplea en forma de recopilación de información y
observación direccional basada en datos objetivos.
17
- Tipos de datos utilizados: Cabe mencionar que en la investigación
descriptiva se utilizarán datos cualitativas y cuantitativas. Los datos
cuantitativos son aquellos que consisten en estadísticas, meros y
medidas que tienen la capacidad de ser sometidos a análisis estadísticos.
Los datos cualitativos, por el contrario, consisten en descripciones más
ricas y contextualizadas. Entre ellos se encuentran las entrevistas, las
encuestas abiertas y las observaciones. La combinación de los dos
proporcionará un análisis más rico y más completo del tema relevante.
- Ventajas y desventajas: Entre las ventajas del método descriptivo se
encuentran su facilidad de implementación debido a no ser necesario
manipular variables, lo cual hace de este tipo de estudio algo menos
invasivo en muchas instancias. Permite recolectar gran cantidad de
información en un periodo de tiempo corto, entre otras. No obstante, sus
desventajas también son relevantes. La más signicativa es la
imposibilidad de establecer relaciones de causalidad entre variables, lo
cual deja un vacío signicativo en la interpretación de resultados. También
puede ser potencialmente peligrosa la subjetividad de este tipo de
recolección de datos cualitativos, lo que introduce sesgos en la opinión.
El método de investigación descriptiva es una poderosa herramienta para
comprender algunos fenómenos y situaciones en diferentes campos. Sin
embargo, puede ser detallada y contextual, existen limitaciones transcendentales
por considerar al interpretar.
1.3.2 Diseño de la investigación descriptiva
El diseño de la investigación descriptiva es un componente fundamental
que establece la estructura y el enfoque del estudio. Este diseño determina cómo
se llevará a cabo la investigación y la inuencia en la calidad y la relevancia de
los resultados obtenidos. La selección de la muestra es un paso crítico en el diseño
de la investigación descriptiva, ya que la representatividad de la muestra inuye
directamente en la validez de los hallazgos. En este contexto, se deben considerar
varios factores:
- Población objetivo: Es fundamental denir claramente la población de
interés, que puede ser un grupo especíco de personas, objetos o eventos
que se desea estudiar.
- Tamaño de la muestra: Determinar el tamaño adecuado de la muestra es
vital para garantizar que los resultados sean generalizables. Se deben
18
utilizar fórmulas estadísticas para calcular el tamaño de la muestra
adecuado según el nivel de conanza y el margen de error deseados.
- Método de muestreo: Dependiendo de los objetivos de la investigación, se
pueden utilizar diferentes métodos de muestreo, como muestreo aleatorio,
muestreo estraticado o muestreo por conveniencia. Cada método tiene
sus propias ventajas y desventajas y debe ser elegido con cuidado para
evitar sesgos en los resultados.
- Métodos de recolección de datos: Una vez que se ha denido la muestra, el
siguiente paso en el diseño de la investigación descriptiva es seleccionar
los métodos de recolección de datos. Estos métodos pueden variar
dependiendo de la naturaleza del estudio y de los objetivos de
investigación. Algunas técnicas comunes incluyen:
- Encuestas y cuestionarios: Estas herramientas permiten recopilar
información de manera estructurada y estandarizada, facilitando la
comparación de respuestas entre los participantes.
- Entrevistas: Las entrevistas pueden ser estructuradas, semiestructuradas o
no estructuradas, y ofrecen la oportunidad de profundizar en las
experiencias y opiniones de los participantes.
- Observación: La observación directa de comportamientos y situaciones
puede proporcionar datos valiosos, especialmente en estudios que
requieren un contexto natural.
- Revisión de documentos: Analizar documentos existentes, como informes,
registros o literatura relevante, puede complementar la información
obtenida a través de otros métodos.
- Análisis e interpretación de datos: El análisis e interpretación de datos es la
etapa nal del diseño de la investigación descriptiva. En esta fase, se busca
transformar los datos recopilados en información signicativa que
permita responder a las preguntas de investigación planteadas. Los pasos
clave en este proceso incluyen:
- Organización de datos: Se debe estructurar y clasicar la información
recopilada para facilitar su análisis. Esto puede involucrar el uso de
software estadístico o herramientas de análisis cualitativo.
- Análisis estadístico: Dependiendo del tipo de datos y de los objetivos del
estudio, se pueden aplicar diversas técnicas estadísticas para identicar
patrones, tendencias y relaciones entre variables.
- Interpretación de resultados: Finalmente, los investigadores deben
interpretar los resultados en el contexto de la pregunta de investigación y
19
la literatura existente, discutiendo los hallazgos y considerando sus
limitaciones.
El diseño de la investigación descriptiva es un proceso meticuloso que
requiere una planicación cuidadosa y una consideración detallada de cada uno
de sus componentes. La selección adecuada de la muestra, los métodos de
recolección de datos y el análisis e interpretación de los resultados son esenciales
para garantizar la validez y la relevancia de los hallazgos obtenidos.
1.3.3 Aplicaciones del método descriptivo
Debido al hecho de que el método de investigación descriptivo involucra
la recolección y análisis de datos de tal manera que los fenómenos puedan
comprenderse de manera más efectiva y detallada, se usa ampliamente en una
variedad de disciplinas. Para empezar, este enfoque se ocupa de las ciencias
sociales, donde los investigadores utilizan el método descriptivo para estudiar el
comportamiento, las actitudes y las características de un grupo o individuo.
Por lo tanto, en los estudios de población, los investigadores describen
factores demográcos, incluidos la edad, el nivel educativo y la ocupación, de
cierta comunidad. Como resultado, este enfoque permite a los expertos
comprender las dinámicas sociales y reconocer los problemas y formular
políticas. En este sentido, la encuesta y la entrevista son métodos comunes para
recopilar datos descriptivos, lo que permite a los investigadores analizar la
situación social a fondo. También es esencial mencionar los estudios de mercado,
en los que las organizaciones estudian las preferencias y el comportamiento de
los consumidores.
Las empresas utilizan el método descriptivo para identicar tendencias,
segmentar mercados y evaluar la satisfacción del cliente. Por medio de encuestas
y análisis de datos de ventas, los investigadores describen los patrones de compra
y los factores demográcos de los clientes, lo que permite a las empresas adaptar
sus estrategias de marketing y producto a los deseos del mercado. Como
resultado, este enfoque de investigación es vital para las decisiones de marketing
y el desarrollo del producto en relación con las expectativas de los consumidores.
Un uso trascendental del método descriptivo en el contexto de la
investigación es la evaluación de programas y políticas. En el ámbito académico,
los investigadores pueden realizar un estudio descriptivo sobre la intervención
pedagógica en la disciplina para determinar el impacto en el desempeño de los
estudiantes. Los estudios descriptivos ayudan a documentar los resultados y la
20
efectividad de las intervenciones e intervenciones, lo que ofrece a quienes
diseñan y ejecutan funcionalidades experimentales como evidencia empírica
para la implementación continua. La recolección de datos descriptivos ayudará a
los tomadores de decisiones a adoptar decisiones informadas sobre qué medidas
priorizar y qué cambios realizar.
El método descriptivo de investigación tiene una amplia gama de usos en
entornos que van desde las ciencias sociales hasta el ámbito empresarial y la
evaluación del programa. La capacidad del método de proporcionar una visión
detallada y contextual de un proceso o fenómeno lo convierte en una herramienta
esencial para los investigadores de diversas disciplinas. El método de
investigación descrito resulta de no poca importancia en el ámbito de la
investigación ya que se puede destacar una imagen clara y detallada de diversas
realidades y entidades para los investigadores. Con su enfoque en la observación
de realidades y la actividad de recopilación de datos, el método permite a los
expertos comprender situaciones complejas y sirve de base para futuras
investigaciones más profundas que pueden comprometer investigación
relacional o correlativa.
Las características distintivas, como la denición y la caracterización sin
interferencias, son de gran importancia para la precisión ya que a menudo son
necesarias en campos sensibles donde una visión precisa y un detallado del
contexto es vital. En investigaciones como las sociales, les da a los investigadores
una idea de la diversidad de experiencias y realidades en un momento dado, por
lo que es una parte importante en la consideración de políticas y medidas
engranadas.
Dado que se basa en la observación, es probable que el análisis no se realice
con suciente profundidad: los datos en mismos son descriptivos, por lo que
no dan una explicación completa. Además, la interpretación de los mismos debe
realizarse también por seres humanos y puede estar marcada por ciertos
prejuicios. Por lo tanto, es sustancial implementar la objetividad y la integridad
en el transcurso de todo el proceso de estudio. Por supuesto, las desventajas antes
mencionadas deberían tomarse en cuenta y balancearse con las ventajas. Aun así,
las ventajas superan las desventajas. Dado que se pueden aplicar en
prácticamente cualquier campo, desde la investigación de mercado hasta la
evaluación de programas, se puede considerar como una de las principales
herramientas que ofrece la ciencia moderna.
21
Al presentar un marco fuerte y claro para obtener la información, la
aplicación del método descriptivo sirve como una contribución a la ciencia y
permite detectar patrones y tendencias que pueden ser cruciales para la toma de
decisiones informadas. En este sentido, la descripción de la investigación es una
parte vital del arsenal de un investigador y un aspecto clave de la encuesta
cientíca. Su capacidad para pintar un cuadro realista y detallado de la realidad
lo convierte en una herramienta invaluable, mientras que sus limitaciones nos
recuerdan la importancia de mezclar varios enfoques para obtener una
comprensión total. Con la implementación adecuada y consciente, la descripción
de la investigación continuará siendo un aspecto vital en el avance y el estudio
de varios campos.
1.4 Método de investigación analítico
El método de investigación analítica es un pilar fundamental en el campo
de la investigación cientíca, ya que proporciona una forma de diseccionar y
comprender fenómenos complejos a través de un enfoque sistemático y
ordenado. Este método es esencialmente una herramienta que consiste en
identicar, analizar y resolver problemas, y es vital para la generación de
conocimiento válido y conable. A medida que las ciencias se volvieron más
especícas y diversas en sus métodos, surgió la necesidad de un método
abarcador para el manejo de datos y la complejidad interactiva. El método
analítico no se limita solo a la observación de eventos, sino que procede en un
intento por comprender procesos subyacentes, y su enfoque sistemático de
recolección de datos y análisis garantiza una interpretación coherente y crítica.
Es representativo recordar que este método no está restringido por
disciplina y es aplicable en la mayoría de las áreas conocidas, desde las ciencias
sociales y de mercadeo hasta la biología. Es centrado en un marco adaptable que
hace para su implementación en cualquier campo especíca, así como para la
imparcialidad de las conclusiones (Lopera et al., 2010). El método de
investigación analítica es un enfoque que se centra en la descomposición de un
fenómeno o problema en sus componentes más básicos para comprender
estructura y funcionamiento:
i. Descomposición del problema: Compromete dividir un fenómeno en
sus elementos más simples, lo que facilita el análisis individual de cada
componente.
22
ii. Objetividad: Busca minimizar sesgos y subjetividades, apoyándose en
datos y evidencias empíricas.
iii. Rigor metodológico: Se basa en un diseño estructurado y sistemático,
lo que permite replicar el estudio y validar los resultados.
iv. Importancia en la investigación cientíca: El método analítico es
crucial en la investigación cientíca, ya que proporciona una
herramienta poderosa para la formulación de hipótesis y teorías. Su
capacidad para analizar variables y sus interrelaciones permite a los
investigadores:
- Desarrollar explicaciones precisas: Al descomponer problemas complejos, se
pueden identicar causas y efectos con mayor claridad.
- Fomentar la innovación: El análisis profundo de un fenómeno puede llevar a
nuevas preguntas de investigación y descubrimientos inesperados.
- Contribuir al avance del conocimiento: Al permitir que los investigadores
comprendan mejor los mecanismos subyacentes, el método analítico impulsa el
desarrollo de nuevas teorías y modelos.
Mientras que el método analítico comparte algunas similitudes con otros
enfoques de investigación, presenta características distintivas que lo diferencian:
- Método descriptivo: Mientras que el método descriptivo se centra en la
observación y descripción de fenómenos tal como se presentan, el método
analítico busca entender las causas y relaciones detrás de esos fenómenos.
- Método experimental: A diferencia del método experimental, que se basa en la
manipulación de variables para observar efectos, el método analítico se enfoca en
el análisis de datos existentes y la interpretación de sus relaciones.
- Método cualitativo: Se centra en la comprensión de experiencias y signicados, el
método analítico prioriza el análisis cuantitativo y la identicación de patrones
en los datos.
El método de investigación analítico se establece como un enfoque esencial
en el ámbito cientíco, proporcionando herramientas para una comprensión
compleja y detallada de los fenómenos. Su rigor, objetividad y capacidad para
descomponer problemas lo convierten en un pilar fundamental para el avance
del conocimiento en diversas disciplinas.
23
1.4.1 Etapas del proceso de investigación analítica
El proceso de investigación analítica se compone de varias etapas que
permiten estructurar y sistematizar el trabajo del investigador. Estas etapas son
fundamentales para garantizar la validez y la conabilidad de los resultados
obtenidos (Lopera et al., 2010). La primera etapa del método analítico consiste en
la formulación clara y precisa del problema de investigación. Este paso es crucial,
ya que un problema bien denido orienta todo el proceso investigativo.
En esta fase, el investigador debe identicar un área de interés, realizar
una revisión de la literatura existente y formular preguntas especícas que
guiarán su estudio. La delimitación del problema incluye la denición de
variables, la identicación de hipótesis y la consideración de las limitaciones del
estudio. Un problema de investigación bien estructurado facilita el desarrollo de
la investigación y asiste a la relevancia y aplicabilidad de los hallazgos.
Una vez establecido el problema de investigación, se procede a la
recolección de datos, una etapa que puede comprometer diversas técnicas y
herramientas dependiendo del enfoque del estudio. La recolección de datos
puede realizarse a través de métodos cuantitativos, como encuestas y
experimentos, o métodos cualitativos, como entrevistas y grupos focales. Es
esencial seleccionar el método adecuado que se alinee con los objetivos de la
investigación y con la naturaleza del problema planteado. Durante esta fase,
también es notable asegurar que los datos sean representativos y se recojan de
manera sistemática para evitar sesgos que puedan afectar los resultados.
La última etapa del proceso de investigación analítica conlleva al análisis
e interpretación de los datos recolectados. En esta fase, el investigador utiliza
diversas técnicas estadísticas y analíticas para examinar los datos y extraer
conclusiones relevantes. El análisis debe ser riguroso y transparente, permitiendo
que otros investigadores puedan replicar el estudio si así lo desean. Esta etapa
proporciona respuestas a las preguntas planteadas al inicio del proceso, con el
objeto de abrir nuevas líneas de investigación y contribuir al avance del
conocimiento en el área de estudio.
Las etapas del proceso de investigación analítica son interdependientes y
requieren atención meticulosa en cada fase. La formulación del problema, la
recolección de datos y el análisis e interpretación son pasos que, bien ejecutados,
garantizan la efectividad y la relevancia de la investigación, permitiendo que los
24
resultados obtenidos puedan ser utilizados para la toma de decisiones
informadas y el desarrollo de nuevas teorías.
1.4.2 Aplicaciones del método de investigación analítico
El método de investigación analítico es ahora visto como una parte integral
de varias disciplinas, proporcionando una estructura estadísticamente válida
para las complejas consultas y conclusiones. El método de investigación analítico
tiene varias conceptos en varios campo del saber. En primer lugar, el análisis del
método en la investigación social puede ser útil para las consultas en los
fenómenos involucrados. En este caso, los analistas pueden analizar las
actividades, los puntos de vista e incluso la historia social en términos de datos.
Este método compromete la recolección y evaluación de información sobre
los consumidores, el mercado y los actores de la competencia. Así, las encuestas,
las ventas o los estudios sobre el comportamiento del consumidor son métodos
perfectos de este enfoque al usar la investigación de mercado, lo que proporciona
la oportunidad de evaluar la demanda y desarrollar estrategias comerciales
exitosas. Los datos secos y las tendencias demográcas y psicográcas ayudan a
segmentar el mercado según los consumidores y a prestar atención a las
necesidades de un grupo especíco de personas. En denitiva, la amplia gama
de la aplicación del método analítico lo hace versátil para su uso en muchas
disciplinas: tanto en ciencias sociales y naturales como de investigación de
mercado.
La capacidad de dividir fenómenos complejos en tareas más simples y
completas lo convierte en una herramienta esencial para todos los investigadores
y profesionales progresistas. En general, el análisis de comparabilidad se
considera un enfoque benecioso y versátil en el ámbito cientíco. Este marco
proporciona un sistema sólido para abordar varios problemas y concluir sin
paralelo. La importancia del análisis de comparabilidad radica en su método
sistemático que permite a los investigadores hacer preguntas claras y obtener
respuestas basadas en información vericable. La información recolectada en su
totalidad y analizada de manera efectiva sobre todo genera información
educativa, y produce resultados objetivos vericables que son esenciales para el
desarrollo de la investigación.
Además, hemos observado cómo el método de investigación analítico se
diferencia de otros enfoques, como el método descriptivo o el experimental, en
su énfasis en la descomposición y el análisis de variables. Esta capacidad de
25
desglosar fenómenos complejos en elementos más simples es particularmente
útil en campos como las ciencias sociales, las ciencias naturales y la investigación
de mercado, donde las dinámicas pueden ser intrincadas y multifacéticas.
El método de investigación analítico es fundamental para la comprensión
y el desarrollo de teorías en diversas áreas del conocimiento y juega un papel
crucial en la toma de decisiones informadas basadas en evidencias. Su aplicación
continúa evolucionando, adaptándose a las nuevas demandas de la investigación
contemporánea y rearmando su relevancia en un mundo donde el análisis
crítico y la interpretación de datos son más primordiales que nunca. Por lo tanto,
fomentar el uso de este método en la práctica investigativa es vital para
garantizar la calidad y la efectividad de los estudios realizados en el futuro.
1.5 Método de investigación experimental
El método de investigación experimental es una forma consagrada del
trabajo cientíco que permite a los investigadores establecer relaciones de
causalidad entre diferentes variables. A través de la manipulación de una o varias
variables independientes y la observación de sus efectos en las variables de
resultado, el objetivo nal es obtener resultados válidos y generalizables. La
principal ventaja del método radica precisamente en su capacidad de
proporcionar una evidencia objetiva sólida, y es esencial en una variedad de
campos, desde las ciencias naturales hasta las sociales.
En términos de su origen, el método de investigación experimental se
originó en los principios del empirismo, donde la experiencia y la observación
son la base del conocimiento. En comparación con los métodos observacionales
y correlacionales, el método experimental proporciona la intervención directa en
la variable, lo que facilita la identicación de variables causales (Zurita et al.,
2018). Este control de variables y condiciones es lo que distingue al método unos
de los demás. Para 2025, el método de investigación experimental se utiliza en
múltiples contextos, desde la biomedicina hasta la investigación psicológica y el
desarrollo de productos innovadores. La capacidad de diseñar un experimento
coherente y, además, comprender y analizar críticamente sus resultados es una
habilidad crucial para la producción cientíca y la administración basada en la
evidencia.
El método de investigación experimental tiene varias características que lo
hacen único en comparación con otros métodos de investigación. Estas
características son esenciales para garantizar la validez y la conabilidad de los
26
resultados y también permiten sacar conclusiones sólidas. Entre las
características más prominentes del método experimental es el control de
variables, en un experimento, el investigador intenta demostrar las relaciones
causales entre diferentes variables.
Por lo tanto, es esencial identicar y controlar todas las variables que
puedan afectar el resultado. Estas incluyen tanto las variables independientes
que el investigador puede manipular como las variables dependientes, un
resultado de esta manipulación. Al controlar las variables externas, el
investigador asegura que algunos cambios en la variable dependiente sean el
resultado de la intervención y no de otras condiciones, lo que aumenta la validez
interna. Otro aspecto crucial del método experimental es la aleatorización. Este
término signica asignar aleatoriamente a los participantes o unidades
experimentales la intervención en cuestión. La aleatorización minimiza el sesgo
y garantiza que las diferencias identicadas entre los grupos no se deban a
factores ajenos a la intervención.
Al proporcionar resultados generalizables, este aspecto permite comparar
los grupos en todos los aspectos relevantes, lo que aumenta la fortaleza de las
conclusiones. La repetibilidad y replicabilidad son dos características clave del
método experimental que aseguran la credibilidad de los resultados obtenidos.
La repetibilidad signica que un investigador puede obtener los mismos
resultados si repite un experimento al realizar procedimientos idénticos bajo
condiciones idénticas. Por otro lado, la replicabilidad signica que otros
investigadores pueden obtener resultados iguales si repiten el mismo
experimento utilizando diseño y métodos iguales. Estas dos características
aseguran que los resultados son válidos y conables y ayudan a construir un
cuerpo de conocimientos cientícos vericables (Zurita et al., 2018).
La replicación e independencia de la repetición signica que un cientíco
puede desarrollar un experimento en la historia de la investigación de sus
colegas. En general, la repetición y replicabilidad de experimentos garantizan
que la ciencia progrese y pueda mejorar teorías. En el tiempo, estas características
ayudan a la ciencia comparativa y cumulativa.
1.5.1 Fases del Método Experimental
El método de investigación experimental se estructura en varias fases que
permiten llevar a cabo un estudio sistemático y riguroso. Cada una de estas fases
tiene un propósito especíco y contribuye al objetivo nal de obtener resultados
27
válidos y conables. A continuación, se describen las principales fases del
método experimental:
i. Planteamiento del Problema: La primera fase del método
experimental consiste en identicar y denir claramente el problema
de investigación. Este planteamiento es crucial, ya que orienta todo el
estudio y determina las variables que se van a investigar. En esta etapa,
los investigadores deben realizar una revisión de la literatura existente
para contextualizar el problema y entender los avances previos en el
área. Un planteamiento de problema bien denido establece una base
sólida sobre la que se construirán las hipótesis y el diseño del
experimento.
ii. Formulación de Hipótesis: Una vez que se ha planteado el problema,
el siguiente paso es la formulación de hipótesis. Las hipótesis son
armaciones que establecen una relación entre las variables que se van
a estudiar. Estas deben ser especícas, medibles y falsables, lo que
signica que deben poder ser conrmadas o refutadas mediante la
investigación. Las hipótesis guían el diseño del experimento y ayudan
a los investigadores a enfocar sus esfuerzos en la recolección y análisis
de datos pertinentes. Durante esta fase, es fundamental que las
hipótesis estén fundamentadas en teorías previas o conocimientos
existentes para asegurar su relevancia.
iii. Recolección y Análisis de Datos: La fase nal del método
experimental compromete la recolección y análisis de datos. En esta
etapa, se lleva a cabo el experimento siguiendo un diseño previamente
establecido, donde se manipulan las variables independientes y se
observan los efectos en las variables dependientes. La recolección de
datos puede incluir mediciones cuantitativas y cualitativas,
dependiendo del tipo de estudio. Posteriormente, los datos obtenidos
son analizados utilizando técnicas estadísticas apropiadas, lo que
permite al investigador interpretar los resultados y determinar si las
hipótesis formuladas se aceptan o se rechazan. Esta fase es crucial, ya
que los hallazgos resultantes proporcionan evidencia que puede
contribuir al avance del conocimiento en el área de estudio.
Las fases del método experimental son interdependientes y deben ser
ejecutadas con rigor y atención al detalle. Cada fase juega un papel fundamental
28
en la validez y conabilidad de los resultados obtenidos, contribuyendo así a la
calidad del conocimiento cientíco generado.
1.5.2 Aplicaciones del Método Experimental
El método de investigación experimental se ha convertido en una
herramienta crucial en muchas disciplinas que permiten a los investigadores
estudiar fenómenos, probar teorías e innovar. Primero, las ciencias naturales
utilizan el método experimental de manera estricta para estudiar fenómenos
físicos y biológicos. En biología los cientícos pueden controlar variables del
ambiente como la luz o la temperatura para ver su inuencia sobre el crecimiento
de una planta. Esto ha llevado a un mejor entendimiento de los ecosistemas y la
biodiversidad. En química, los experimentos controlados son cruciales para
investigar reacciones y testear la efectividad de nuevos compuestos químicos.
El hecho de poder replicar los experimentos en un ambiente controlado
asegura que los resultados sean conables y válidos. La psicología se benecia
enormemente de la aplicación del método experimental. Los diseños
experimentales permiten a los psicólogos investigar el comportamiento humano
y los procesos mentales. Al manipular variables tal como el estrés o la motivación,
los investigadores pueden observar cómo estas variables afectan el rendimiento
cognitivo o emocional de los participantes. Los experimentos en psicología
permiten establecer relaciones causales y facilitan la creación de teorías sobre el
comportamiento humano así como mejorar tratamientos psicológicos basados en
evidencia.
El método experimental juega un papel esencial en el ámbito empresarial
y tecnológico en el desarrollo de nuevos productos. Las empresas usan pruebas
A/B para evaluar diferentes versiones de un producto o servicio basadas en la
respuesta de los consumidores a las características especícas. Esto ayuda a las
compañías a optimizar su oferta y asegurarse de que la satisfacción del cliente
sea lo más alta posible. En la otra dimensión, los ensayos clínicos en el desarrollo
de medicamentos son un método experimental para medir la ecacia y la
inocuidad de los nuevos tratamientos antes de su aprobación y lanzamiento en
el mercado.
En suma, el método de investigación experimental contribuye a una
variedad de disciplinas y áreas y ayuda a explorar hipótesis y expandir el
conocimiento. Sin importar la naturaleza de la ciencia, el método experimental
puede llevar a resultados que cambien la base del conocimiento y la práctica en
29
diferentes campos. El método de investigación experimental es un pilar y una
herramienta fundamental en la comprensión de la ciencia. Gracias a la capacidad
de encontrar relaciones de causalidad y causal y, por ende, a través de la
capacidad de los cientícos para medir y controlar las diferentes variables, los
investigadores pueden sacar conclusiones que sean verdaderas y conables.
Las diferentes etapas del método experimental, desde encontrar un
problema hasta recopilar y analizar los datos, son un proceso organizado que
guía a los cientícos y les permite abordar problemas complejos. Esta base no es
exclusiva de las ciencias naturales, sino que es también relevante para otras
disciplinas como la psicología y el desarrollo de productos, donde la percepción
del comportamiento humano y la innovación son críticas.
El método de investigación experimental es un pilar para el avance del
conocimiento. Su abordaje riguroso y sistemático le proporciona una base sólida
para la validación de teorías y la generación de nuevas ideas. A medida que la
ciencia y la investigación continúen avanzando en los próximos años, la
importancia de este método no dejará de ser relevante. El incentivo es clave en la
solución de diversos problemas y en la mejora de la calidad de vida, gracias a la
experiencia obtenida a través del descubrimiento y la innovación. Por último,
unir a esta fundación la dedicación a la precisión y la objetividad garantiza que
en este mundo siempre incierto, podamos seguir obteniendo respuestas claras y
fundamentadas a las preguntas que nuestra realidad sigue formando.
1.6 Método de investigación cuasi-experimental
El método cuasi-experimental se ha establecido como un componente
valioso en el arsenal de los investigadores sociales y otros campos de estudio
relacionados. En comparación con los diseños clásicos, que requieren la
asignación aleatoria a condiciones experimentales y de control, el cuasi-
experimental es mucho más exible y puede ser aplicado a situaciones en las que
la aleatoriedad es inviable o inmoral. En consecuencia, este enfoque puede usarse
para estimar el efecto de una intervención o tratamiento en un grupo particular,
incluso si hay una admitencia de ser incapaz de controlar las variable externas.
Es un método fundamentalmente útil cuando la manipulación del factor
experimental es particularmente difícil, como la situación en un programa o con
estudios educativos o correlativos. Resulta evidente la importancia del cuasi-
experimental por la ventaja de poder aplicarlo a los problemas de la vida real
(Figueroa et al., 2014). Los investigadores sociales tratan con problemas
30
multidimensionales y generalmente tratan con problemas sociales cada vez más
críticos. La población de muchos países está envejeciendo y los jóvenes y. las
empresas tienen que enfrentarse a problemas diarios. Este es el escenario perfecto
para una investigación en el que puedes probar de la mejor posible las diferentes
propiedades, variable independiente, variable dependiente y variable de
confusión
En primer lugar, en comparación con el método experimental, la falta de
asignación aleatoria en un diseño cuasi-experimental es la primera y obvia
diferencia. mientras que los experimentos usan la aleatoriedad como medida
contra el sesgo de asignación y debido a la inuencia de las variables extrañas,
los cuasi experimentos siempre llevarán restos de variabilidad extraña con las
que los investigadores tendrán que lidiar. Pero, el cuasi-experimental es en
muchos casos la única forma en que se puede manejar un problema.
1.6.1 Diseño del estudio cuasi-experimental
El diseño del estudio cuasi-experimental es un componente crucial que
determina la validez y la aplicabilidad de los hallazgos en la investigación. A
diferencia de los estudios experimentales estrictos, donde los investigadores
tienen control total sobre la asignación de tratamientos y la manipulación de
variables, los estudios cuasi-experimentales operan en contextos donde no es
posible un control total, lo que compromete una serie de consideraciones en su
planicación y ejecución.
Existen diversos tipos de diseños cuasi-experimentales que se pueden
emplear, dependiendo de los objetivos de la investigación y de las condiciones
del entorno. Algunos de los más comunes incluyen:
- Diseño de grupos no equivalentes: En este diseño, se comparan dos grupos
que han sido expuestos a diferentes tratamientos o condiciones, pero que
no han sido asignados aleatoriamente. Por ende, se podría evaluar el
impacto de un programa educativo en una escuela mientras se compara
con otra escuela que no participa en el programa.
- Diseño de series temporales interrumpidas: Este diseño compromete la
recolección de datos en múltiples puntos antes y después de la
intervención, permitiendo a los investigadores observar cambios en la
tendencia en el curso de la medición. Es particularmente útil para evaluar
el efecto de políticas públicas o intervenciones comunitarias.
31
- Diseño de cohortes: En este enfoque, se sigue a un grupo de individuos que
comparten una característica común en intervalos, permitiendo la
comparación entre aquellos que están expuestos a un tratamiento y
aquellos que no lo están.
La selección de grupos en un estudio cuasi-experimental es un proceso crítico
que puede inuir en la validez interna y externa del estudio. A menudo, los
grupos se seleccionan en función de su disponibilidad y características
preexistentes, lo que signica que los investigadores deben ser cuidadosos al
considerar las similitudes y diferencias entre ellos. Es fundamental asegurarse de
que los grupos sean lo más homogéneos posible en términos de variables
relevantes que puedan afectar los resultados, como la edad, el nivel
socioeconómico y otras características demográcas.
Dado que los estudios cuasi-experimentales no permiten el control riguroso
de la asignación aleatoria, es esencial implementar estrategias para minimizar el
impacto de variables externas que puedan inuir en los resultados. Esto puede
incluir el uso de emparejamiento, donde los investigadores intentan igualar
grupos en función de características especícas, o la inclusión de variables de
control en el análisis estadístico (Figueroa et al., 2014). Además, la recolección de
datos longitudinales puede ayudar a identicar y ajustar por efectos de
confusión, proporcionando una imagen más clara de la relación entre la
intervención y los resultados observados.
El diseño de un estudio cuasi-experimental requiere una planicación
cuidadosa y una consideración meticulosa de cómo se seleccionan los grupos y
se controlan las variables externas. A medida que los investigadores se enfrentan
a las limitaciones inherentes de este enfoque, la atención al diseño puede
contribuir signicativamente a la interpretación válida y signicativa de los
resultados.
1.6.2 Ventajas y desventajas del método cuasi-experimental
El método cuasi-experimental ofrece varias ventajas que lo hacen
particularmente atractivo en el ámbito de la investigación social. En primer lugar,
permite a los investigadores estudiar la efectividad de intervenciones o
tratamientos en situaciones del mundo real, donde la aleatorización puede ser
poco ética o impracticable. Esto es especialmente relevante en campos como la
educación, la salud pública y la política social, donde las condiciones
experimentales estrictas pueden no ser factibles. Además, los diseños cuasi-
32
experimentales pueden ser más exibles y menos costosos que los experimentos
controlados aleatorios (ECA).
Esto se debe a que, en muchos casos, no es necesario crear un ambiente
controlado o realizar un seguimiento exhaustivo de los participantes. En su lugar,
los investigadores pueden aprovechar datos existentes o trabajar con grupos que
ya han sido formados, lo que ahorra tiempo y recursos. A pesar de sus ventajas,
el método cuasi-experimental también presenta ciertas limitaciones que deben
tenerse en cuenta. Entre las desventajas es la falta de aleatorización, lo que puede
introducir sesgos en la selección de los grupos de estudio. Sin un proceso de
asignación aleatoria, es difícil establecer relaciones causales denitivas, ya que
las diferencias observadas entre grupos pueden deberse a variables no
controladas.
Asimismo, el control de variables externas es más desaante en los
estudios cuasi-experimentales. Pese a que los investigadores pueden emplear
técnicas de emparejamiento o análisis estadístico para mitigar estos efectos,
siempre existe el riesgo de que factores externos inuyan en los resultados, lo que
puede comprometer la validez interna del estudio. A pesar de sus limitaciones,
el método cuasi-experimental ha sido utilizado con éxito en diversas áreas de
investigación. En el ámbito de la educación, se han llevado a cabo estudios para
evaluar el impacto de programas de intervención en el rendimiento académico
de estudiantes en diferentes escuelas. Al comparar grupos de estudiantes que
participaron en el programa con aquellos que no lo hicieron, los investigadores
han podido obtener información valiosa sobre la efectividad de las
intervenciones.
Al analizar datos de poblaciones antes y después de la intervención, los
investigadores han podido identicar cambios signicativos en las tasas de
vacunación y en la incidencia de enfermedades, proporcionando evidencia
crucial para la formulación de políticas. En relación a lo antes expuesto, el método
cuasi-experimental presenta ciertas limitaciones, sus ventajas en términos de
aplicabilidad y efectividad en situaciones del mundo real lo convierten en una
herramienta valiosa para los investigadores en diversas disciplinas.
Hemos explorado el método de investigación cuasi-experimental, que se
caracteriza por su capacidad de proporcionar evidencias sobre relaciones
causales sin la necesidad de una asignación aleatoria de sujetos. Hemos denido
este enfoque y discutido su relevancia en la investigación social, destacando
cómo permite a los investigadores estudiar fenómenos en contextos reales donde
33
la experimentación controlada puede ser poco práctica o ética. También hemos
examinado los diferentes tipos de diseños cuasi-experimentales, la selección de
grupos de estudio y la importancia del control de variables externas para
garantizar la validez de los resultados.
El método cuasi-experimental ha cobrado especial relevancia en la
investigación contemporánea, donde las condiciones sociales y los contextos
especícos a menudo requieren un enfoque más exible. Este método es
particularmente útil en áreas como la educación, la salud pública y las ciencias
sociales, donde los investigadores buscan entender el impacto de intervenciones
en poblaciones especícas. La capacidad del diseño cuasi-experimental para
ofrecer información valiosa sin las restricciones de un experimento puro lo
convierte en una herramienta indispensable para abordar cuestiones complejas y
multifacéticas. Para los investigadores que deseen emplear el método cuasi-
experimental, es fundamental seguir ciertas recomendaciones.
Primero, es crucial seleccionar cuidadosamente los grupos de estudio y
asegurarse de que sean lo más comparables posible, minimizando así las
diferencias que puedan inuir en los resultados. Además, se debe prestar especial
atención al control de variables externas, utilizando técnicas como
emparejamiento o análisis de covarianza, para fortalecer la validez interna del
estudio. Por último, la transparencia en la metodología y la interpretación de los
hallazgos es esencial para que otros investigadores puedan evaluar y replicar el
trabajo realizado.
En consecuencia, el método cuasi-experimental brinda una alternativa
viable a los métodos experimentales tradicionales, lo que enriquece el panorama
de la investigación social al permitir la exploración de relaciones causales en
contextos reales y complejos. Su uso adecuado puede generar hallazgos
signicativos que contribuyan al avance del conocimiento en diversas disciplinas.
34
Capítulo II
Paradigma de investigación cuantitativa
El paradigma de investigación cuantitativa se ha consolidado como uno
de los enfoques más utilizados en el ámbito cientíco y académico. Se caracteriza
por su énfasis en la recolección y análisis de datos numéricos, lo que permite a
los investigadores realizar generalizaciones y establecer relaciones entre
variables de manera objetiva. Este paradigma se fundamenta en la premisa de
que la realidad puede ser medida y cuanticada, proporcionando una base sólida
para el desarrollo de teorías y la toma de decisiones fundamentadas.
Hoy en día, el enfoque cuantitativo es esencial en diversas disciplinas,
desde las ciencias sociales hasta las ciencias naturales, y se aplica en una amplia
gama de estudios, desde encuestas de opinión pública hasta experimentos
controlados. Su capacidad para proporcionar resultados estadísticamente
signicativos y su rigor metodológico lo convierten en una herramienta poderosa
para abordar preguntas de investigación complejas. La importancia del
paradigma cuantitativo radica en su capacidad para ofrecer datos precisos y
conables, así como su contribución al avance del conocimiento cientíco.
A través de la utilización de métodos estandarizados y replicables, los
investigadores pueden validar sus hallazgos y contribuir al cuerpo de
conocimientos existente, lo que fomenta la evolución de teorías y prácticas en
diferentes campos. A tomar en cuenta, los investigadores deben ahondar en los
fundamentos del paradigma cuantitativo, incluyendo su denición,
características distintivas y su relevancia en la investigación cientíca.
Comprender estas bases es crucial para apreciar la complejidad y el impacto que
este enfoque tiene en la generación de conocimiento.
2.1 Fundamentos del paradigma cuantitativo
El paradigma de investigación cuantitativo se basa en principios y
enfoques especícos que buscan medir y analizar fenómenos a través de datos
numéricos. Este enfoque se caracteriza por su rigor metodológico y la búsqueda
de generalizaciones a partir de muestras representativas (Coello et al., 2012). El
paradigma cuantitativo se dene como un enfoque de investigación que utiliza
métodos estadísticos y matemáticos para recoger y analizar datos. Su principal
35
objetivo es identicar patrones, correlaciones y relaciones causales entre
variables. Entre sus características más destacadas se encuentran:
- Objetividad: Se enfoca en la búsqueda de resultados que sean independientes del
investigador, minimizando sesgos personales.
- Medición: Utiliza instrumentos de medición precisos y estandarizados para
obtener datos numéricos.
- Generalización: Busca generalizar los hallazgos a partir de muestras
representativas, permitiendo a los investigadores hacer inferencias sobre
poblaciones más amplias.
- Repetibilidad: Los estudios cuantitativos pueden ser replicados, lo que permite
validar los resultados a través de diferentes contextos y momentos.
- Análisis estadístico: Se basa en técnicas estadísticas que permiten transformar
datos en información signicativa a través de la descripción y la inferencia.
El paradigma cuantitativo se distingue claramente de otros enfoques de
investigación, como el cualitativo y el mixto. Algunas de las diferencias clave son:
- Enfoque: Mientras que el paradigma cualitativo se centra en la comprensión
profunda de fenómenos a través de la interpretación de signicados y
experiencias, el cuantitativo prioriza la medición y el análisis de datos numéricos.
- Tipo de datos: El paradigma cuantitativo se basa en datos estructurados y
medibles, mientras que el cualitativo utiliza datos no estructurados, como
entrevistas y observaciones.
- Objetivos: La investigación cuantitativa busca establecer relaciones causales y
generalizar resultados, mientras que la investigación cualitativa se enfoca en
explorar signicados y contextos especícos sin necesariamente buscar
generalizaciones.
- Métodos: Los métodos de recolección de datos en investigación cuantitativa
suelen ser encuestas, experimentos y análisis estadísticos, a diferencia de los
métodos cualitativos que incluyen entrevistas, grupos focales y observaciones.
2.1.1 Importancia en la investigación cientíca
El paradigma cuantitativo juega un papel fundamental en la investigación
cientíca debido a su capacidad para proporcionar evidencia sólida y objetiva.
Algunas de las razones que destacan su importancia son:
36
- Evidencia empírica: Contribuye a la construcción de conocimientos basados en
datos empíricos, lo que fortalece la validez de las conclusiones.
- Toma de decisiones informada: Los resultados cuantitativos permiten a
investigadores, responsables de políticas y profesionales tomar decisiones
basadas en evidencia, mejorando la ecacia de las intervenciones.
- Desarrollo de teorías: Facilita la formulación y prueba de teorías a través de la
identicación de patrones y relaciones entre variables.
- Avance del conocimiento: Su uso en diversas disciplinas, como la psicología, la
sociología y la economía, ha contribuido signicativamente al avance del
conocimiento cientíco y a la comprensión de fenómenos complejos.
En suma, el paradigma cuantitativo establece un marco sólido para la
investigación cientíca, caracterizado por su objetividad, rigor y capacidad para
generalizar hallazgos. En las siguientes secciones, se examinarán los métodos de
recolección de datos y el análisis e interpretación de los resultados dentro de este
enfoque investigativo.
La recolección de datos es un componente fundamental en la investigación
cuantitativa, ya que la calidad y la precisión de los datos recopilados inuyen
directamente en la validez de los resultados obtenidos (Coello et al., 2012).
Existen diversos métodos para la recolección de datos, cada uno de los cuales se
adapta a diferentes tipos de investigaciones y objetivos. En esta sección,
analizaremos tres de los métodos más utilizados: encuestas y cuestionarios,
experimentos y análisis de datos secundarios.
Las encuestas y cuestionarios son herramientas ampliamente utilizadas en
la investigación cuantitativa, ya que permiten recopilar información de un gran
número de participantes de manera eciente. Estas herramientas pueden ser
administradas en formato físico o digital, y su diseño puede variar en función de
los objetivos de la investigación.
El proceso de elaboración de una encuesta o cuestionario compromete la
formulación de preguntas claras y especícas que faciliten la obtención de datos
medibles. Las preguntas pueden ser cerradas (con opciones de respuesta
limitadas) o abiertas (donde los participantes pueden expresar sus opiniones en
sus propias palabras), mientras que en la investigación cuantitativa predominan
las preguntas cerradas, ya que permiten una fácil cuanticación y análisis
estadístico.
37
Es fundamental garantizar que la muestra seleccionada sea representativa
de la población objetivo para que los resultados sean generalizables. Además, es
valioso considerar la validez y la abilidad del instrumento de recolección de
datos, lo que compromete realizar pruebas previas o pilotos para ajustar
cualquier aspecto que pueda afectar la calidad de la información recopilada.
Los experimentos son un método de recolección de datos que permite
establecer relaciones de causa y efecto entre variables. En el contexto de la
investigación cuantitativa, los experimentos se diseñan de tal manera que se
manipulen una o más variables independientes para observar su impacto en una
o más variables dependientes. Este enfoque requiere un control riguroso de las
condiciones del estudio para minimizar la inuencia de variables externas.
Los experimentos pueden ser de laboratorio o de campo. Los
experimentos de laboratorio se llevan a cabo en un entorno controlado, lo que
permite un mayor control sobre las variables, mientras que los experimentos de
campo se realizan en entornos naturales, lo que puede brindar resultados más
representativos de la realidad.
Un aspecto clave de los experimentos en la investigación cuantitativa es la
aleatorización, que compromete asignar aleatoriamente a los participantes a
grupos de tratamiento y control. Esto ayuda a eliminar sesgos y asegura que las
diferencias observadas en los resultados se deban a la manipulación de las
variables independientes.
El análisis de datos secundarios consiste en la utilización de datos
previamente recopilados por otros investigadores o instituciones para responder
a nuevas preguntas de investigación. Este método es especialmente útil en
situaciones donde la recolección de datos primarios puede ser costosa o
impracticable (Coello et al., 2012). Los datos secundarios pueden provenir de
diversas fuentes, como encuestas nacionales, registros administrativos, bases de
datos gubernamentales o estudios previos. Es esencial realizar una evaluación
crítica de la calidad y la relevancia de los datos secundarios, así como considerar
su contexto original y las metodologías empleadas en su recolección.
El análisis de datos secundarios minimiza tiempo, recursos y permite
realizar comparaciones en el tiempo y entre diferentes poblaciones. En
contraposición, los investigadores deben ser conscientes de las limitaciones que
puedan surgir al utilizar datos que no fueron originalmente recolectados con el
objetivo especíco de su estudio.
38
En general, los métodos de recolección de datos en investigación
cuantitativa son variados y cada uno tiene su propio conjunto de ventajas y
desventajas. La elección del método adecuado dependerá de los objetivos de la
investigación, la naturaleza de la población estudiada y los recursos disponibles.
A través de una recolección de datos rigurosa y sistemática, los investigadores
pueden obtener información valiosa que contribuya al avance del conocimiento
cientíco.
2.2 Análisis e interpretación de datos cuantitativos
El análisis e interpretación de datos cuantitativos es una etapa crucial en
el proceso de investigación, ya que permite a los investigadores extraer
conclusiones signicativas a partir de los datos recolectados (Sarduy, 2007). Esta
sección se divide en tres partes fundamentales: la estadística descriptiva, la
estadística inferencial y la presentación de resultados.
2.2.1 Estadística descriptiva
La estadística descriptiva se encarga de resumir y describir las
características básicas de los datos recolectados. Utiliza medidas como la media,
mediana, moda, varianza y desviación estándar para ofrecer un panorama claro
sobre las tendencias y distribuciones en el conjunto de datos. A través de grácos
y tablas, los investigadores pueden visualizar la información de manera más
efectiva, lo que facilita la identicación de patrones y anomalías. Este tipo de
análisis es esencial para crear una base sólida antes de realizar inferencias más
complejas.
2.2.2 Estadística inferencial
La estadística inferencial va más allá de la mera descripción de los datos;
busca establecer conclusiones y generalizaciones sobre una población más
amplia a partir de una muestra. Utiliza técnicas como pruebas de hipótesis,
intervalos de conanza y análisis de regresión para evaluar si los resultados
observados son signicativos y si se pueden extrapolar a otros contextos. Este
tipo de análisis permite a los investigadores validar sus hipótesis y determinar
relaciones causales entre variables, lo que es fundamental para el desarrollo de
teorías y la toma de decisiones basadas en evidencia.
2.2.3 Presentación de resultados
La presentación de resultados es una fase donde los hallazgos se
comunican de manera clara y efectiva. Es fundamental que los resultados sean
39
presentados de forma comprensible tanto para la comunidad cientíca como
para el público en general (Sarduy, 2007). Se suelen emplear grácos, tablas y
resúmenes narrativos que destacan los hallazgos más relevantes. Además, es
valioso contextualizar los resultados dentro del marco teórico y las hipótesis
planteadas al inicio del estudio, así como discutir sus bondades y restricciones.
Una presentación bien estructurada facilita la comprensión de los resultados,
promueve la transparencia y la replicabilidad de la investigación.
Si bien el análisis e interpretación de datos cuantitativos son procesos
interrelacionados que permiten a los investigadores dar sentido a la información
recolectada. A través de técnicas estadísticas adecuadas y una presentación clara,
se pueden revelar patrones y relaciones que enriquecen el conocimiento cientíco
e informan decisiones prácticas en todas las áreas del saber.
El paradigma de investigación cuantitativo ha demostrado ser un pilar
fundamental en el ámbito cientíco, ofreciendo un enfoque sistemático y
riguroso para abordar fenómenos complejos. A través de su énfasis en la
medición objetiva y el análisis estadístico, permite a los investigadores obtener
conclusiones generalizables que pueden ser aplicadas en diversas situaciones y
contextos (Calizaya et al., 2022). La clara estructura que este paradigma
proporciona, junto con sus métodos estandarizados de recolección y análisis de
datos, facilita la replicación de estudios y contribuye a la acumulación de
conocimiento.
Las características distintivas del enfoque cuantitativo, como su capacidad
para manejar grandes volúmenes de datos y su orientación hacia la validación de
hipótesis, lo diferencian de otros paradigmas de investigación, como el
cualitativo. Mientras que el paradigma cualitativo se centra en la comprensión
profunda de experiencias y signicados, el cuantitativo busca establecer patrones
y relaciones que puedan ser cuanticados. Esta complementariedad entre ambos
enfoques es esencial para una comprensión holística de los fenómenos
estudiados.
La importancia del paradigma cuantitativo en la investigación cientíca se
maniesta en su aplicación en múltiples disciplinas, desde las ciencias sociales
hasta las ciencias naturales. Su capacidad para proporcionar evidencia empírica
y respaldar teorías existentes lo convierte en una herramienta valiosa en la toma
de decisiones basadas en datos. Además, en un mundo donde la información es
40
abundante, la habilidad para analizar y extraer conclusiones signicativas a
partir de datos cuantitativos se vuelve cada vez más crucial.
Para sintetizar, el paradigma de investigación cuantitativo ha sido
fundamental en el desarrollo del conocimiento cientíco, también sigue
evolucionando con el avance de la tecnología y la disponibilidad de nuevas
herramientas analíticas. A medida que los investigadores continúan explorando
y aplicando este enfoque, se espera que el paradigma cuantitativo mantenga su
relevancia y contribuya a la comprensión de los complejos fenómenos que
enfrenta la humanidad en el siglo XXI.
El paradigma de investigación cuantitativa se erige como uno de los
enfoques más inuyentes y utilizados en el ámbito de la investigación cientíca.
Su principal objetivo es medir variables y analizar relaciones entre ellas mediante
métodos estadísticos y matemáticos, lo que permite una comprensión más
objetiva y precisa de los fenómenos estudiados. En el contexto histórico, este
paradigma ha evolucionado y se ha diversicado, abarcando un amplio espectro
de disciplinas, desde las ciencias sociales hasta las ciencias naturales.
La investigación cuantitativa se caracteriza por su enfoque en la
recolección de datos numéricos, lo que facilita la comparación y el análisis de
resultados. Este enfoque permite a los investigadores formular hipótesis y
validarlas a través de métodos empíricos, contribuyendo así al desarrollo de
teorías y modelos explicativos. En un mundo cada vez más orientado a la toma
de decisiones basadas en datos, el paradigma cuantitativo se convierte en una
herramienta esencial para abordar preguntas complejas y para la formulación de
políticas informadas.
A tomar en cuenta los fundamentos del paradigma cuantitativo, sus
métodos de recolección de datos, así como las técnicas de análisis e interpretación
que lo sostienen, establecen un marco comprensivo que permitirá al lector
apreciar la relevancia y la aplicabilidad del enfoque cuantitativo en la
investigación contemporánea (Figgou y Pavlopoulos, 2015).
2.2.4 Fundamentos del paradigma cuantitativo
El paradigma de investigación cuantitativa se basa en principios y
enfoques que permiten a los investigadores abordar preguntas cientícas de
manera objetiva y sistemática. El paradigma cuantitativo se dene como un
enfoque de investigación que se centra en la medición y el análisis de datos
numéricos. Su objetivo principal es cuanticar fenómenos, establecer relaciones
41
entre variables y generalizar los hallazgos a partir de muestras representativas.
El paradigma cuantitativo juega un papel crucial en la investigación cientíca por
varias razones:
- Precisión y claridad: Al utilizar mediciones numéricas, los investigadores
pueden presentar resultados de manera precisa y clara, facilitando la
comprensión y la evaluación de los hallazgos.
- Validez y conabilidad: Mediante el uso de métodos estandarizados, el
paradigma cuantitativo puede demostrar la validez y conabilidad de sus
instrumentos de medición, lo que fortalece la credibilidad de los
resultados.
- Toma de decisiones basada en evidencia: Los datos cuantitativos permiten a
los investigadores y a los responsables de la toma de decisiones
fundamentar sus acciones en evidencia empírica, lo que puede resultar en
políticas y prácticas más efectivas.
- Contribución al conocimiento general: El enfoque sistemático y riguroso del
paradigma cuantitativo contribuye al avance del conocimiento en diversas
disciplinas, facilitando la identicación de patrones y tendencias que
pueden ser aplicados en diferentes contextos.
Así, los fundamentos del paradigma cuantitativo son esenciales para
comprender su papel en la investigación cientíca y su enfoque en la medición,
el análisis y la interpretación de datos numéricos. Su objetividad y capacidad
para generalizar hallazgos lo convierten en una herramienta valiosa para
investigadores en una variedad de campos. La recolección de datos es un
componente esencial en la investigación cuantitativa, ya que proporciona la
información necesaria para abordar preguntas de investigación y poner a prueba
hipótesis. Existen diversos métodos que los investigadores pueden emplear, cada
uno con sus propias ventajas y desventajas.
A continuación, se detallan tres de los métodos más comunes de recolección
de datos en este paradigma: encuestas y cuestionarios, experimentos y análisis
de datos secundarios. Las encuestas y cuestionarios son herramientas
ampliamente utilizadas en la investigación cuantitativa para recopilar datos de
un gran número de participantes. Su diseño puede variar desde preguntas
cerradas, que ofrecen opciones limitadas de respuesta, hasta preguntas abiertas,
que permiten a los encuestados expresar sus opiniones de manera más libre. Las
encuestas se pueden administrar de diversas formas, incluyendo en línea, por
42
teléfono o en persona, lo que permite a los investigadores elegir el método más
adecuado según su población de estudio.
Las principales ventajas de este método son la capacidad de obtener datos de
una amplia muestra, lo que facilita la generalización de los resultados. Pero
también presenta desafíos, como la posibilidad de sesgos en las respuestas y la
necesidad de que los participantes comprendan adecuadamente las preguntas.
Los experimentos son otro método clave en la investigación cuantitativa y se
utilizan para establecer relaciones de causa y efecto. En un experimento, el
investigador manipula una o más variables independientes y observa el efecto en
una variable dependiente, mientras controla otras variables que podrían inuir
en los resultados.
Este enfoque permite a los investigadores establecer relaciones causales de
manera más precisa. Los experimentos pueden realizarse en entornos de
laboratorio o en el campo, y su diseño puede variar desde estudios controlados
hasta ensayos clínicos aleatorizados. Ahora bien, aunque los experimentos
ofrecen una fuerte validez interna, los investigadores deben ser cuidadosos al
tratar de generalizar los resultados a situaciones del mundo real, ya que los
contextos pueden diferir signicativamente.
El análisis de datos secundarios compromete la utilización de datos ya
recopilados por otros investigadores o instituciones, en lugar de recolectar datos
nuevos. Este método puede ser altamente eciente, ya que permite a los
investigadores acceder a grandes conjuntos de datos y realizar análisis sin la
necesidad de realizar un trabajo de campo. Los datos secundarios pueden
provenir de encuestas previas, registros administrativos, bases de datos
gubernamentales o investigaciones académicas. Sin embargo, es fundamental
que los investigadores evalúen la calidad y la relevancia de los datos antes de
utilizarlos, ya que la falta de control sobre el proceso de recolección puede afectar
la validez de los análisis realizados.
En suma, los métodos de recolección de datos en investigación cuantitativa
son variados y cada uno ofrece un enfoque único para obtener información
valiosa. La elección del método adecuado depende de los objetivos de la
investigación, la naturaleza de la población estudiada y los recursos disponibles.
Utilizar una combinación de estos métodos puede enriquecer el estudio y
proporcionar una comprensión más profunda del fenómeno investigado. El
análisis e interpretación de datos cuantitativos es una etapa crucial dentro del
43
proceso de investigación, ya que permite transformar los datos recopilados en
información útil y signicativa.
La estadística descriptiva se encarga de resumir y describir las características
principales de un conjunto de datos. Su objetivo es proporcionar una visión
general de la información a través de medidas numéricas que facilitan la
comprensión de los datos recolectados. Entre las herramientas más comunes se
encuentran las medidas de tendencia central (media, mediana y moda) y las
medidas de dispersión (rango, varianza y desviación estándar). Las
representaciones grácas, como histogramas, diagramas de caja y grácos de
dispersión, también son esenciales en esta etapa, ya que permiten visualizar
patrones, tendencias y anomalías en los datos.
La estadística descriptiva ayuda a los investigadores a entender la
distribución de las variables y sirve como base para las inferencias que se
realizarán en etapas posteriores del análisis. La estadística inferencial va más allá
de la simple descripción de los datos. Su propósito es realizar generalizaciones
sobre una población más amplia a partir de una muestra representativa. Esto se
logra a través de la formulación de hipótesis y la aplicación de pruebas
estadísticas que permiten determinar la signicancia de los resultados.
Entre las técnicas más utilizadas en la estadística inferencial se encuentran las
pruebas t, análisis de varianza (ANOVA), correlaciones y regresiones. Estas
herramientas permiten a los investigadores evaluar relaciones entre variables,
comparar grupos y hacer predicciones basadas en los datos analizados. La
validez de las conclusiones inferenciales depende en gran medida del tamaño de
la muestra y del método de muestreo utilizado, así como del cumplimiento de
los supuestos estadísticos. La presentación de resultados es el último paso en el
análisis de datos cuantitativos y juega un papel fundamental en la comunicación
de los hallazgos de la investigación.
Es esencial que los resultados se presenten de manera clara y coherente,
utilizando tanto texto como elementos visuales que faciliten la comprensión. Los
investigadores deben estructurar sus resultados en función de las preguntas de
investigación y las hipótesis planteadas. Además, es inuyente incluir análisis
detallados y explicaciones sobre los métodos utilizados, así como las
implicaciones de los resultados obtenidos. La claridad en la presentación
refuerza en los lectores la deontología en la praxis de la investigación, y permite
44
evaluar la validez y la relevancia de los hallazgos en el contexto más amplio de
la disciplina.
El análisis e interpretación de datos cuantitativos es un proceso complejo que
abarca desde la descripción básica hasta la inferencia y la comunicación efectiva
de los resultados. Cada una de estas etapas es fundamental para garantizar que
la investigación cuantitativa contribuya de manera signicativa al conocimiento
en el campo cientíco. El paradigma de investigación cuantitativa se erige como
un pilar fundamental en el ámbito de la investigación cientíca, proporcionando
herramientas y metodologías robustas para la exploración y comprensión de
fenómenos complejos. Es recomendable, dentro de la cuanticación, abordar sus
características denitorias, sus diferencias con otros paradigmas y su relevancia
en la ciencia, lo que nos permite concluir que su enfoque sistemático y basado en
datos numéricos es crucial para la obtención de conclusiones válidas y
generalizables.
Uno de los aspectos más destacados del paradigma cuantitativo es su
capacidad para generar evidencias a partir de la recolección y análisis de datos
de manera rigurosa. Las técnicas como encuestas, experimentos y el análisis de
datos secundarios proporcionan la obtención de información precisa, establecer
relaciones de causalidad y detectar patrones signicativos en los datos. Esto, a su
vez, contribuye al avance del conocimiento en diversas disciplinas, desde las
ciencias sociales hasta las ciencias naturales.
Además, el uso de la estadística descriptiva e inferencial admite describir los
fenómenos estudiados, hacer inferencias sobre poblaciones más amplias y
validar hipótesis. La presentación clara y concisa de los resultados es esencial
para la comunicación efectiva de los hallazgos, lo que fomenta el intercambio de
ideas y el debate académico. No obstante, es considerable reconocer que el
paradigma cuantitativo no está exento de limitaciones. La reducción de la
complejidad humana a cifras y datos numéricos puede, en ocasiones, pasar por
alto matices que solo pueden capturarse a través de enfoques cualitativos. Por
ello, se sugiere un enfoque integrador que combine ambos paradigmas para
proporcionar una comprensión más completa de los fenómenos sociales.
En denitiva, el paradigma de investigación cuantitativa representa una
herramienta poderosa y necesaria en la caja de herramientas del investigador,
permitiendo la acumulación de conocimiento, la fundamentación de políticas y
prácticas basadas en evidencia. Su continuo desarrollo y aplicación serán
45
esenciales para enfrentar el devenir de la IA y para profundizar en nuestra
comprensión del mundo que nos rodea.
2.3 Métodos estadísticos aplicados en investigación cuantitativa
Así, los fundamentos del paradigma cuantitativo son esenciales para
comprender su papel en la investigación cientíca y su enfoque en la medición,
el análisis y la interpretación de datos numéricos. Su objetividad y capacidad
para generalizar hallazgos lo convierten en una herramienta valiosa para
investigadores en una variedad de campos. Para Calizaya et al. (2022), la
recolección de datos es un componente esencial en la investigación cuantitativa,
ya que proporciona la información necesaria para abordar preguntas de
investigación y poner a prueba hipótesis.
Existen diversos métodos que los investigadores pueden emplear, cada uno
con sus propias ventajas y desventajas. A continuación, se detallan tres de los
métodos más comunes de recolección de datos en este paradigma: encuestas y
cuestionarios, experimentos y análisis de datos secundarios. Las encuestas y
cuestionarios son herramientas ampliamente utilizadas en la investigación
cuantitativa para recopilar datos de un gran número de participantes. Su diseño
puede variar desde preguntas cerradas, que ofrecen opciones limitadas de
respuesta, hasta preguntas abiertas, que permiten a los encuestados expresar sus
opiniones de manera más libre. Las encuestas se pueden administrar de diversas
formas, incluyendo en línea, por teléfono o en persona, lo que permite a los
investigadores elegir el método más adecuado según su población de estudio.
Las principales ventajas de este método son la capacidad de obtener datos de
una amplia muestra, lo que facilita la generalización de los resultados. Pero
también presenta desafíos, como la posibilidad de sesgos en las respuestas y la
necesidad de que los participantes comprendan adecuadamente las preguntas.
Los experimentos son otro método clave en la investigación cuantitativa y se
utilizan para establecer relaciones de causa y efecto. En un experimento, el
investigador manipula una o más variables independientes y observa el efecto en
una variable dependiente, mientras controla otras variables que podrían inuir
en los resultados.
Este enfoque permite a los investigadores establecer relaciones causales de
manera más precisa. Los experimentos pueden realizarse en entornos de
laboratorio o en el campo, y su diseño puede variar desde estudios controlados
hasta ensayos clínicos aleatorizados. Ahora bien, aunque los experimentos
46
ofrecen una fuerte validez interna, los investigadores deben ser cuidadosos al
tratar de generalizar los resultados a situaciones del mundo real, ya que los
contextos pueden diferir signicativamente. El análisis de datos secundarios
compromete la utilización de datos ya recopilados por otros investigadores o
instituciones, en lugar de recolectar datos nuevos.
Este método puede ser altamente eciente, ya que permite a los
investigadores acceder a grandes conjuntos de datos y realizar análisis sin la
necesidad de realizar un trabajo de campo. Los datos secundarios pueden
provenir de encuestas previas, registros administrativos, bases de datos
gubernamentales o investigaciones académicas. Sin embargo, es fundamental
que los investigadores evalúen la calidad y la relevancia de los datos antes de
utilizarlos, ya que la falta de control sobre el proceso de recolección puede afectar
la validez de los análisis realizados (Figgou y Pavlopoulos, 2015).
En suma, los métodos de recolección de datos en investigación cuantitativa
son variados y cada uno ofrece un enfoque único para obtener información
valiosa. La elección del método adecuado depende de los objetivos de la
investigación, la naturaleza de la población estudiada y los recursos disponibles.
Utilizar una combinación de estos métodos puede enriquecer el estudio y
proporcionar una comprensión más profunda del fenómeno investigado. El
análisis e interpretación de datos cuantitativos es una etapa crucial dentro del
proceso de investigación, ya que permite transformar los datos recopilados en
información útil y signicativa.
La estadística descriptiva se encarga de resumir y describir las características
principales de un conjunto de datos. Su objetivo es proporcionar una visión
general de la información a través de medidas numéricas que facilitan la
comprensión de los datos recolectados. Entre las herramientas más comunes se
encuentran las medidas de tendencia central (media, mediana y moda) y las
medidas de dispersión (rango, varianza y desviación estándar). Las
representaciones grácas, como histogramas, diagramas de caja y grácos de
dispersión, también son esenciales en esta etapa, ya que permiten visualizar
patrones, tendencias y anomalías en los datos. La estadística descriptiva favorece
a los investigadores a entender la distribución de las variables, es decir, sirve
como base para las inferencias que se realizarán en etapas posteriores del análisis.
La estadística inferencial va más allá de la simple descripción de los datos. Su
propósito es realizar generalizaciones sobre una población más amplia a partir
47
de una muestra representativa. Esto se logra a través de la formulación de
hipótesis y la aplicación de pruebas estadísticas que permiten determinar la
signicancia de los resultados. Entre las técnicas más utilizadas en la estadística
inferencial se encuentran las pruebas t, análisis de varianza (ANOVA),
correlaciones y regresiones. Estas herramientas permiten a los investigadores
evaluar relaciones entre variables, comparar grupos y hacer predicciones basadas
en los datos analizados.
La validez de las conclusiones inferenciales depende en gran medida del
tamaño de la muestra y del método de muestreo utilizado, así como del
cumplimiento de los supuestos estadísticos. La presentación de resultados es el
último paso en el análisis de datos cuantitativos y juega un papel fundamental
en la comunicación de los hallazgos de la investigación. Es esencial que los
resultados se presenten de manera clara y coherente, utilizando tanto texto como
elementos visuales que faciliten la comprensión. Los investigadores deben
estructurar sus resultados en función de las preguntas de investigación y las
hipótesis planteadas.
Además, es inuyente incluir análisis detallados y explicaciones sobre los
métodos utilizados, así como las implicaciones de los resultados obtenidos. La
claridad en la presentación asiste¿ a los lectores a entender la investigación y
evaluar la validez y relevancia de los hallazgos en el contexto más amplio de la
disciplina.
El análisis e interpretación de datos cuantitativos es un proceso complejo que
abarca desde la descripción básica hasta la inferencia y la comunicación efectiva
de los resultados. Cada una de estas etapas es fundamental para garantizar que
la investigación cuantitativa contribuya de manera signicativa al conocimiento
en el campo cientíco. El paradigma de investigación cuantitativa se erige como
un pilar fundamental en el ámbito de la investigación cientíca, proporcionando
herramientas y metodologías robustas para la exploración y comprensión de
fenómenos complejos. Es recomendable, dentro de la cuanticación, abordar sus
características denitorias, sus diferencias con otros paradigmas y su relevancia
en la ciencia, lo que nos permite concluir que su enfoque sistemático y basado en
datos numéricos es crucial para la obtención de conclusiones válidas y
generalizables.
Uno de los aspectos más destacados del paradigma cuantitativo es su
capacidad para generar evidencias a partir de la recolección y análisis de datos
48
de manera rigurosa. Las técnicas como encuestas, experimentos y el análisis de
datos secundarios suministran información precisa y veraz, establece relaciones
de causalidad y detecta patrones signicativos en los datos. Esto, a su vez,
contribuye al avance del conocimiento en diversas disciplinas, desde las ciencias
sociales hasta las ciencias naturales. Además, el uso de la estadística descriptiva
e inferencial condesciende a los investigadores a describir los fenómenos
estudiados, hacer inferencias sobre poblaciones más amplias y validar hipótesis.
La presentación clara y concisa de los resultados es esencial para la
comunicación efectiva de los hallazgos, lo que fomenta el intercambio de ideas y
el debate académico. No obstante, es considerable reconocer que el paradigma
cuantitativo no está exento de limitaciones. La reducción de la complejidad
humana a cifras y datos numéricos puede, en ocasiones, pasar por alto matices
que solo pueden capturarse a través de enfoques cualitativos. Por ello, se sugiere
un enfoque integrador que combine ambos paradigmas para proporcionar una
comprensión más completa de los fenómenos sociales.
En denitiva, el paradigma de investigación cuantitativa representa una
herramienta poderosa y necesaria en la caja de herramientas del investigador,
aprobando la acumulación de conocimiento y la fundamentación de políticas y
prácticas basadas en evidencia. Su continuo desarrollo y aplicación serán
esenciales para enfrentar el devenir de la IA y para profundizar en nuestra
comprensión del mundo que nos rodea.
i. Escalas de medición: nominal, ordinal, de intervalo y de razón. La
clasicación de los datos en diferentes escalas de medición es crucial
para determinar cómo se pueden analizar. Las escalas de medición se
dividen en cuatro categorías:
- Escala nominal: Esta escala categoriza los datos sin un orden especíco.
Ejemplos incluyen géneros (masculino, femenino) o tipos de fruta
(manzana, plátano, naranja). En este caso, los números asignados a las
categorías no tienen un signicado cuantitativo.
- Escala ordinal: A diferencia de la escala nominal, esta permite clasicar los
datos en un orden especíco, pero no indica la magnitud de la diferencia
entre las categorías. Un ejemplo sería el nivel de satisfacción en una
encuesta, donde las opciones pueden ser "muy satisfecho", "satisfecho",
"neutral", "insatisfecho" y "muy insatisfecho".
- Escala de intervalo: Esta escala permite ordenar los datos y establece
intervalos equidistantes entre las categorías. Un ejemplo clásico es la
49
temperatura en grados Celsius; pero, carece de un verdadero cero
absoluto, lo que impide realizar cálculos de proporción.
- Escala de razón: Incluye todas las características de las escalas anteriores,
pero también cuenta con un cero absoluto que permite realizar
comparaciones de proporción. Ejemplos de datos en esta escala son la
altura, peso y edad, donde un cero indica la ausencia de la cantidad
medida.
ii. Fuentes de datos: primarias y secundarias
- Datos primarios: Son aquellos que se obtienen directamente del entorno de
estudio mediante métodos como encuestas, experimentos o entrevistas.
Este tipo de datos es invaluable, ya que se recogen especícamente para la
investigación en cuestión, lo que garantiza su relevancia y actualidad.
- Datos secundarios: Se reeren a información que ya ha sido recopilada y
publicada por otros investigadores o instituciones. Estos datos pueden
incluir estadísticas ociales, informes de investigación, artículos
académicos y bases de datos. En este sentido, son útiles para
contextualizar la investigación y proporcionar antecedentes, es
fundamental evaluar su calidad y relevancia respecto a la investigación en
curso.
En relación a lo antes expuesto, entender los tipos de datos en la investigación
cuantitativa es esencial para aplicar correctamente los métodos estadísticos y
obtener resultados signicativos. La correcta clasicación y recolección de datos
inuye en el análisis e impacta en la validez de las conclusiones que se extraen
de la investigación.
2.3.1 Técnicas estadísticas descriptivas
Las técnicas estadísticas descriptivas son fundamentales en la investigación
cuantitativa, ya que permiten resumir y presentar de manera clara y concisa los
datos recolectados. Su principal objetivo es ofrecer una visión general de las
características de un conjunto de datos, facilitando así la interpretación y el
análisis de la información (Calisaya et al., 2022). Las medidas de tendencia central
son estadísticas que indican el valor central de un conjunto de datos. Las tres más
comunes son:
- Media: Es el promedio aritmético de todos los valores en un conjunto de
datos, obtenido sumando todos los valores y dividiendo entre el número
50
total de observaciones. La media es útil para datos distribuidos de manera
uniforme, pero puede ser afectada por valores extremos (atípicos).
- Mediana: Es el valor que se encuentra en el medio de un conjunto de datos
cuando se ordenan de menor a mayor. Si hay un mero par de
observaciones, se calcula como el promedio de los dos valores centrales.
La mediana es más robusta que la media, ya que no se ve inuenciada por
valores atípicos.
- Moda: Es el valor que aparece con mayor frecuencia en un conjunto de
datos. Puede haber conjuntos de datos con una única moda (unimodal),
múltiples modas (multimodal) o sin moda (amodal). La moda es
especialmente útil en datos categóricos, donde se busca la categoría más
común.
2.3.2 Medidas de dispersión: rango, varianza y desviación estándar
Las medidas de dispersión complementan las medidas de tendencia
central al proporcionar información sobre la variabilidad de los datos. Las más
relevantes son:
- Rango: Es la diferencia entre el valor máximo y el valor mínimo en un
conjunto de datos. En sí, es una medida sencilla de calcular, el rango no
ofrece información sobre la distribución de los datos entre estos extremos.
- Varianza: Indica cuánto se dispersan los valores respecto a la media,
calculándose como la media de las diferencias al cuadrado entre cada
observación y la media. La varianza permite entender la variabilidad total
en los datos, pero su unidad es el cuadrado de la unidad original, lo que
puede dicultar su interpretación.
- Desviación estándar: Es la raíz cuadrada de la varianza, proporcionando
una medida de dispersión en las mismas unidades que los datos
originales. La desviación estándar es ampliamente utilizada porque
facilita la comparación entre conjuntos de datos con diferentes unidades
de medida o escalas.
2.3.3 Representación gráca de datos: histogramas y diagramas de caja
La visualización de datos es una parte esencial del análisis estadístico
descriptivo, ya que permite identicar patrones, tendencias y anomalías de
manera más intuitiva. Dos de las representaciones grácas más comunes son:
- Histogramas: Grácos que representan la distribución de un conjunto de
datos dividiéndolos en intervalos (o "bins"). Cada barra del histograma
51
indica la frecuencia de datos que se encuentran en cada intervalo, siendo
útiles para observar la forma de la distribución y detectar la presencia de
sesgos o valores atípicos.
- Diagramas de caja: También conocidos como boxplots, estos grácos
resumen la distribución de un conjunto de datos mostrando sus cuartiles,
la mediana y los valores atípicos. Un diagrama de caja permite visualizar
de manera efectiva la dispersión y la asimetría de los datos, facilitando la
comparación entre diferentes grupos.
Las técnicas estadísticas descriptivas son herramientas esenciales en la
investigación cuantitativa, ya que proporcionan un marco para resumir y
comunicar la información de forma efectiva. Al aplicar estas técnicas, los
investigadores pueden extraer conclusiones iniciales sobre sus datos, lo que
sienta las bases para posteriores análisis inferenciales y toma de decisiones.
i. Técnicas estadísticas inferenciales
Las técnicas estadísticas inferenciales son fundamentales en la investigación
cuantitativa, ya que permiten generalizar los resultados obtenidos de una
muestra a una población más amplia. A través de estas técnicas, los
investigadores pueden hacer predicciones, establecer relaciones y tomar
decisiones informadas basadas en datos muéstrales.
ii. Pruebas de hipótesis: concepto y aplicación
Las pruebas de hipótesis son un conjunto de procedimientos que permiten
evaluar armaciones sobre parámetros poblacionales. Estas pruebas comienzan
con la formulación de dos hipótesis: la hipótesis nula (H0), que plantea que no
hay efecto o diferencia, y la hipótesis alternativa (H1), que sugiere lo contrario.
Utilizando datos muéstrales, se calcula un estadístico de prueba, que se compara
con un valor crítico para determinar si se puede rechazar la hipótesis nula. Este
proceso compromete establecer un nivel de signicancia (α), que es la
probabilidad de cometer un error tipo I, es decir, rechazar incorrectamente la
hipótesis nula. Las pruebas de hipótesis son aplicables en diversas áreas, como
estudios clínicos, encuestas sociales y experimentos controlados.
iii. Intervalos de conanza y su importancia
Los intervalos de conanza son un método estadístico que proporciona un
rango de valores dentro del cual se espera que se encuentre un parámetro
poblacional con un cierto nivel de conanza (generalmente del 95% o 99%).
52
Este enfoque ofrece una estimación más completa que un único valor puntual,
ya que considera la variabilidad de los datos muéstrales. Al estimar un
intervalo de conanza para la media de una población, se puede inferir que
existe una alta probabilidad de que la media real se encuentre dentro de ese
rango. La importancia de los intervalos de conanza radica en su capacidad
para comunicar la incertidumbre inherente a las estimaciones estadísticas,
proporcionando así un contexto valioso para la interpretación de los
resultados.
iv. Regresión y correlación: análisis de relaciones entre variables
La regresión y la correlación son técnicas que permiten analizar la relación
entre dos o más variables. La correlación mide la fuerza y la dirección de la
relación lineal entre variables, proporcionando un coeciente que varía entre -1
y 1. Un coeciente de correlación cercano a 1 indica una fuerte relación positiva,
mientras que un valor cercano a -1 sugiere una fuerte relación negativa. Por otro
lado, la regresión se utiliza para modelar la relación entre una variable
dependiente y una o más variables independientes. A través de la regresión, los
investigadores pueden hacer predicciones sobre la variable dependiente
basándose en los valores de las variables independientes. Esta técnica es
especialmente útil en campos como la economía, la biología y las ciencias
sociales, donde se busca entender cómo diferentes factores inuyen en un
resultado especíco.
En tanto, las técnicas estadísticas inferenciales son herramientas esenciales en
la investigación cuantitativa, permitiendo a los investigadores extraer
conclusiones signicativas y conables a partir de datos muéstrales. Estas
técnicas son causa-efecto para la toma de decisiones basadas en evidencia, y
consienten comprender mejor las complejidades de las relaciones entre variables
en diversos contextos de estudio.
La investigación cuantitativa se ha consolidado como una herramienta
fundamental en diversas disciplinas, desde las ciencias sociales hasta las ciencias
naturales, gracias a su capacidad para proporcionar resultados objetivos y
medibles. Los métodos estadísticos son el pilar sobre el cual se sustenta esta
forma de investigación, permitiendo a los investigadores analizar datos de
manera rigurosa y sistemática.
La utilización de técnicas estadísticas descriptivas ofrece un primer paso
esencial en el análisis de datos, ya que permite resumir y presentar información
53
de manera clara y comprensible. Medidas como la media, mediana y moda
ayudan a identicar tendencias generales en los datos, mientras que las medidas
de dispersión proporcionan información sobre la variabilidad y la consistencia
de los mismos. A su vez, la representación gráca de datos a través de
histogramas y diagramas de caja facilita la visualización de patrones y anomalías
que pueden inuir en la interpretación de los resultados.
Por otro lado, las técnicas estadísticas inferenciales amplían el alcance de la
investigación cuantitativa, permitiendo a los investigadores extraer conclusiones
sobre poblaciones más amplias a partir de muestras limitadas. A través de
pruebas de hipótesis y la construcción de intervalos de conanza, es posible
evaluar la validez de suposiciones y estimaciones, lo que a su vez refuerza la
credibilidad de los hallazgos. Además, el uso de modelos de regresión y análisis
de correlación permite explorar y entender las relaciones entre variables,
proporcionando aspectos no tangibles valiosos que pueden guiar decisiones y
políticas.
En este sentido, los todos estadísticos son esenciales para la investigación
cuantitativa, ya que proporcionan la organización y análisis de datos dentro de
un marco robusto para la toma de decisiones informadas. Sin estos métodos, los
investigadores estarían limitados a observaciones subjetivas, lo que podría
comprometer la validez y la utilidad de sus conclusiones. Así, la aplicación
rigurosa de la estadística se convierte en un componente indispensable para el
avance del conocimiento y la resolución de problemas en un mundo cada vez
más complejo y basado en datos.
2.4 Inteligencia articial generativa en investigación cuantitativa
La inteligencia articial generativa (IAG) a diferencia de las formas
tradicionales de IA que se centran en la clasicación o el reconocimiento de
patrones, la IAG se ocupa de la creación de contenido nuevo y original. Este
contenido puede variar desde texto e imágenes hasta música y modelos
tridimensionales, lo que abre un abanico de posibilidades en diversas disciplinas,
incluida la investigación cuantitativa.
La inteligencia articial generativa se reere a un conjunto de algoritmos
y modelos que tienen la capacidad de generar datos, información o contenido
nuevo a partir de conjuntos de datos existentes. Estos modelos, como las redes
generativas adversariales (GANs) y los modelos de lenguaje, utilizan técnicas de
aprendizaje automático para aprender la distribución de datos en un conjunto de
54
entrenamiento y luego crear nuevas instancias que siguen patrones similares. En
el contexto de la investigación cuantitativa, esto signica que la IAG puede crear
datos sintéticos que simulan características de datos reales, permitiendo a los
investigadores realizar análisis y experimentos sin depender exclusivamente de
datos del mundo real.
La IAG no es un concepto nuevo; tiene raíces que se remontan a varias
décadas atrás. Desde los primeros algoritmos de generación de texto en los años
50 y 60 hasta el desarrollo de modelos más sosticados en la década de 2010, la
evolución de esta tecnología ha sido notable. La llegada de las redes neuronales
profundas y, en particular, el avance en el modelado generativo, ha permitido
que los investigadores y desarrolladores creen sistemas más complejos y
ecientes. Proyectos emblemáticos, como OpenAI's GPT y las GANs, han
demostrado el potencial transformador de la IAG, en el ámbito creativo, sino en
la ciencia y la investigación, en la geología y la química (Solano et al., 2024).
La inteligencia articial generativa se presenta como una herramienta
crucial en la investigación cuantitativa. Su capacidad para generar datos
sintéticos permite a los investigadores abordar problemas relacionados con la
escasez de datos, la privacidad y la variabilidad en los conjuntos de datos.
Además, la IAG facilita la simulación de escenarios complejos, ayudando a los
investigadores a modelar y prever resultados bajo diferentes condiciones. En un
mundo donde los datos son el nuevo petróleo, la IAG se perla como un recurso
esencial para impulsar la innovación y la efectividad en la investigación
cuantitativa.
2.4.1 Aplicaciones de la inteligencia articial generativa en investigación
cuantitativa
La inteligencia articial generativa ha comenzado a transformar el paisaje
de la investigación cuantitativa, ofreciendo herramientas y métodos innovadores
que potencian la calidad y la eciencia de los estudios. La generación de datos
sintéticos compromete la creación de datos que imitan las características de un
conjunto de datos real, pero que no contienen información sensible o
identicable.
Los datos sintéticos ofrecen múltiples benecios. En primer lugar,
permiten superar las limitaciones de los conjuntos de datos reales, que a menudo
son escasos o difíciles de obtener. Al generar datos que reejan patrones y
tendencias de los datos originales, los investigadores pueden llevar a cabo
55
análisis robustos sin comprometer la privacidad. Además, los datos sintéticos son
útiles para realizar pruebas de hipótesis y validar modelos en condiciones
controladas.
En el ámbito de la investigación médica, se han utilizado datos sintéticos
para entrenar modelos de diagnóstico sin poner en riesgo la privacidad de los
pacientes. En estudios de ciencias sociales, los investigadores pueden simular
escenarios hipotéticos para estudiar comportamientos y tendencias en
poblaciones que podrían ser difíciles de observar en la realidad. La calidad de los
datos generados depende de la precisión de los modelos subyacentes, y cualquier
sesgo presente en los datos originales puede ser amplicado en los datos
sintéticos. Además, la falta de normativas y estándares en torno al uso de estos
datos puede llevar a cuestionamientos sobre su validez y aplicabilidad en
contextos reales.
La inteligencia articial generativa también ha revolucionado el análisis
de datos, permitiendo a los investigadores identicar patrones complejos que
podrían ser difíciles de discernir mediante métodos tradicionales (Solano et al.,
2024). Herramientas de análisis impulsadas por inteligencia articial, como redes
neuronales y algoritmos de aprendizaje automático, permiten a los
investigadores procesar grandes volúmenes de datos de manera más ecaz. Estas
herramientas son capaces de detectar correlaciones y tendencias que no son
evidentes a simple vista, facilitando así una comprensión más profunda de la
información.
La capacidad de la inteligencia articial generativa para modelar y simular
datos también contribuye a la identicación de patrones complejos en conjuntos
de datos multidimensionales. Esto es particularmente útil en estudios de
comportamiento del consumidor, donde los patrones de compra pueden ser
inuenciados por una variedad de factores interrelacionados. Al proporcionar
una visión más clara y precisa de los datos, la inteligencia articial generativa
impacta positivamente en la toma de decisiones. Los investigadores pueden
utilizar las percepciones derivadas de estos análisis para diseñar intervenciones
más efectivas y fundamentar sus hipótesis en datos sólidos.
La optimización de procesos es otra área donde la inteligencia articial
generativa demuestra su valor. Al automatizar tareas repetitivas y mejorar la
eciencia general de la investigación, esta tecnología contribuye a un uso más
efectivo de los recursos. La automatización de tareas rutinarias, como la
56
recopilación y limpieza de datos, permite a los investigadores dedicar más
tiempo a actividades críticas como el análisis y la interpretación.
Con procesos más ecientes, los investigadores pueden completar
proyectos en plazos más cortos, lo que es crucial en un entorno académico y
cientíco que exige resultados rápidos. La inteligencia articial generativa facilita
la integración de diferentes fuentes de datos, lo que optimiza la investigación
multidisciplinaria (Solano et al., 2024). Al proporcionar datos y análisis más
objetivos, la inteligencia articial generativa ayuda a reducir los sesgos que
pueden surgir en la investigación. Esto es especialmente signicativo en estudios
que abordan cuestiones sociales y de salud, donde los sesgos pueden tener
consecuencias signicativas.
A medida que la inteligencia articial generativa se integra cada vez más
en la investigación cuantitativa, surgen varios retos éticos y consideraciones que
deben ser abordados para garantizar un uso responsable y benecioso de esta
tecnología. Estas preocupaciones abarcan desde la transparencia en los modelos
generativos hasta la privacidad de los datos y la responsabilidad en su uso.
2.4.2 Transparencia en los modelos generativos
La transparencia es un aspecto fundamental en la investigación y el
desarrollo de modelos de inteligencia articial generativa. Dado que estos
modelos pueden tomar decisiones y generar resultados que afectan a la
investigación, es crucial que los investigadores comprendan cómo funcionan.
Esto incluye la necesidad de hacer accesibles los algoritmos, las fuentes de datos
y los procesos de entrenamiento utilizados. La falta de transparencia puede llevar
a la desconanza en los resultados obtenidos y a la posibilidad de reproducir
sesgos ocultos en los datos. Por lo tanto, establecer estándares claros de
transparencia y documentación es esencial para fomentar la conanza en la
comunidad cientíca.
La generación de datos sintéticos, plantea imperativas cuestiones sobre la
privacidad de los datos. Si bien estos datos pueden ayudar a evitar problemas
asociados con el uso de datos reales, la forma en que se generan y utilizan puede
tener implicaciones signicativas para la privacidad de los individuos. Es
fundamental garantizar que los datos utilizados para entrenar modelos
generativos no contengan información personal identicable y que se
implementen medidas robustas para proteger la condencialidad. Además, los
investigadores deben ser conscientes de las posibles repercusiones legales y
57
éticas relacionadas con la manipulación y el uso de datos personales (Goyanes y
Lopezosa, 2024).
La responsabilidad en el uso de la inteligencia articial generativa es otro
aspecto crítico que requiere atención. A medida que los modelos generativos se
vuelven más sosticados, también aumenta el riesgo de mal uso o abuso. Esto
incluye la generación de información errónea, la creación de datos falsos que
pueden ser utilizados para propósitos engañosos, o la perpetuación de sesgos
existentes en los modelos. Los investigadores y desarrolladores deben asumir la
responsabilidad de garantizar que sus modelos se utilicen de manera ética y que
se implementen salvaguardias adecuadas para mitigar los riesgos asociados.
Si bien, la inteligencia articial generativa ofrece oportunidades
emocionantes para la investigación cuantitativa, es esencial que la comunidad
investigadora aborde los retos éticos y las consideraciones necesarias para
asegurar un uso responsable y benecioso de esta tecnología. La transparencia,
la protección de la privacidad y la responsabilidad son pilares que deben ser
reforzados mientras la inteligencia articial generativa continúa evolucionando
y transformando el panorama de la investigación.
En este capítulo, hemos explorado el fascinante mundo de la inteligencia
articial generativa y su impacto en la investigación cuantitativa. La IA
generativa ha transformado la forma en que los investigadores forjan y analizan
datos, pues, ha abierto nuevas posibilidades para la optimización de procesos y
la toma de decisiones informadas. Los puntos clave que hemos abordado
incluyen la denición y evolución de la inteligencia articial generativa, sus
aplicaciones en la generación de datos sintéticos, el análisis de patrones
complejos y la mejora de la eciencia en los procesos de investigación, así como
los retos éticos que surgen de su implementación.
El futuro de la inteligencia articial generativa en la investigación
cuantitativa se presenta prometedor. A medida que las tecnologías continúan
avanzando, es probable que veamos una integración aún más profunda de la IA
en las metodologías de investigación (Goyanes y Lopezosa, 2024). Esto podría
resultar en la capacidad de generar datos aún más realistas y representativos, lo
que a su vez podría enriquecer la calidad de las conclusiones y recomendaciones
derivadas de la investigación. Además, el desarrollo de herramientas más
sosticadas para el análisis de datos permitirá a los investigadores identicar
patrones y relaciones complejas que antes eran difíciles de discernir.
58
La transparencia en los modelos, la protección de la privacidad de los
datos y la responsabilidad en su uso son aspectos que no deben ser descuidados.
La creación de marcos éticos y normativos adecuados será fundamental para
garantizar que estas tecnologías se utilicen de manera justa y responsable.
Por lo tanto, hacemos un llamado a la comunidad investigadora para que
se involucre activamente en la discusión sobre la inteligencia articial generativa.
La colaboración interdisciplinaria entre cientícos de datos, eticistas y expertos
en el campo de estudio especíco fomentará un ambiente de aprendizaje y
desarrollo donde la innovación y la ética puedan coexistir. En este sentido, es
crucial no solo adoptar estas tecnologías, sino también reexionar sobre cómo se
pueden utilizar para el bien común, maximizando su potencial mientras se
mitigan sus riesgos. La manera en que respondamos a los retos que presenta
determinará el impacto positivo que tendrá en el avance del conocimiento y la
mejora de nuestras sociedades.
59
Capítulo III
Ética y deontología en la investigación cientíca: Una
aproximación a las Redes Neuronales Articiales
La investigación cientíca juega un papel crucial en el avance del
conocimiento humano y en la mejora de la calidad de vida a través de
innovaciones en salud, tecnología y medio ambiente. Ahora bien, este proceso de
búsqueda de la verdad y el progreso no está exento de responsabilidades. La ética
y la deontología se presentan como pilares fundamentales que guían la conducta
de los investigadores, asegurando que los hallazgos cientícos se obtengan y
utilicen de manera justa y responsable (Rodríguez, 2017).
La ética se reere a los principios morales que rigen el comportamiento de
los individuos y las instituciones. En el contexto de la investigación cientíca, la
ética aborda cuestiones como el respeto por los derechos y la dignidad de los
participantes, la integridad en la recopilación y análisis de datos, y el impacto de
la investigación en la sociedad. Por otro lado, la deontología se centra en el
conjunto de normas y deberes que deben seguir los profesionales en sus
respectivas disciplinas (Ramos et al., 2018). En el ámbito cientíco, esto incluye la
obligación de realizar investigaciones de manera honesta, transparente y justa.
La intersección entre ética y deontología se vuelve especialmente relevante
en un entorno donde las decisiones de los investigadores pueden tener
consecuencias signicativas para individuos y comunidades. Las investigaciones
mal conducidas pueden comprometer la seguridad de los participantes, conducir
a la desinformación pública o afectar negativamente a grupos vulnerables. Por
ello, es indispensable establecer un marco ético y deontológico que promueva
prácticas responsables y prevenga abusos.
La ética en la investigación cientíca se fundamenta en una serie de
principios que guían la conducta de los investigadores y aseguran que la
búsqueda del conocimiento se realice de manera responsable y respetuosa
(Córdova, 2019). Estos principios son esenciales para proteger a los participantes
en la investigación, mantener la integridad del proceso cientíco y fomentar la
conanza del público en los resultados obtenidos.
El respeto por las personas es un principio ético que subraya la
importancia de reconocer la dignidad y autonomía de cada individuo. En la
investigación, esto compromete que los participantes deben ser tratados con
60
respeto y dignidad, y su capacidad para tomar decisiones informadas debe ser
valorada y protegida. Esto se traduce en la necesidad de obtener el
consentimiento informado de los participantes, asegurando que comprendan
plenamente los objetivos, métodos, riesgos y benecios de la investigación antes
de decidir participar. Este principio también abarca la protección de poblaciones
vulnerables, que pueden requerir consideraciones éticas adicionales para
salvaguardar su bienestar (Córdova, 2019).
Los principios de benecencia y no malecencia se centran en la obligación
de los investigadores de maximizar los benecios y minimizar los daños en sus
estudios. La benecencia exige que los investigadores actúen en el mejor interés
de los participantes y de la sociedad, buscando generar conocimiento que
contribuya al bienestar humano. Por otro lado, la no malecencia establece que
los investigadores deben evitar causar daño físico, psicológico o social a los
participantes. Este equilibrio es fundamental, ya que la investigación cientíca
muchas veces involucra riesgos; por lo tanto, es esencial que los investigadores
evalúen cuidadosamente los posibles efectos adversos y tomen medidas para
mitigarlos.
El principio de justicia implica que los benecios y las cargas de la
investigación deben distribuirse de manera equitativa entre todos los grupos de
la sociedad. Esto signica que ningún grupo debe ser explotado ni debe asumir
una carga desproporcionada en relación con los benecios que se obtendrán. La
justicia también se reere a la selección de los participantes, que debe ser
equitativa y no discriminar ni favorecer injustamente a ciertos grupos.
Este principio es especialmente relevante en investigaciones que
involucran a poblaciones vulnerables, asegurando que se les brinde igual acceso
a los benecios de la investigación y que no se les someta a riesgos innecesarios.
En sinopsis, los principios éticos fundamentales en la investigación cientíca
respeto por las personas, benecencia y no malecencia, y justicia— son
esenciales para guiar la práctica de los investigadores y asegurar que el avance
del conocimiento se realice de manera ética y responsable.
3.1 Normas deontológicas en la práctica cientíca
Las normas deontológicas son un conjunto de principios y directrices que
regulan la conducta de los investigadores en el ámbito cientíco. Estas normas
son esenciales para asegurar que la investigación se lleve a cabo de manera ética
61
y responsable, protegiendo tanto a los participantes como la integridad del
propio proceso cientíco.
El consentimiento informado es un pilar fundamental en la investigación
que involucra a seres humanos. Esta norma requiere que los investigadores
proporcionen a los participantes información clara y comprensible sobre el
propósito, los procedimientos, los riesgos y los benecios de la investigación.
Además, los participantes deben tener la capacidad de decidir libremente si
desean participar o no, sin coacción ni presión.
La protección de la condencialidad y la privacidad de los datos de los
participantes es otro aspecto esencial de la ética en la investigación. Los
investigadores tienen la responsabilidad de asegurar que cualquier información
personal recolectada durante el estudio sea tratada con la máxima discreción y se
utilice únicamente para los nes establecidos. Esto conlleva crear medidas de
seguridad adecuadas para resguardar los datos y garantizar que la identidad de
los participantes no sea revelada sin su consentimiento.
3.1.1 Integridad y honestidad en la investigación
La integridad y la honestidad son principios innegociables en la práctica
cientíca. Los investigadores deben presentar sus hallazgos de manera precisa,
evitar la manipulación de datos y la falsicación de resultados, y reconocer
adecuadamente las contribuciones de otros en su trabajo (Ventura y Oliveira,
2022). La transparencia en la metodología y la comunicación de los resultados,
sean estos positivos o negativos, es esencial para mantener la conanza en la
ciencia. Las normas deontológicas en la práctica cientíca son esenciales para
asegurar que la investigación se realice de manera ética y respetuosa. Estas
normas protegen a los participantes, sino que también salvaguardan la
integridad del proceso cientíco y fomentan un ambiente de conanza y respeto
en la comunidad cientíca.
La ética en la investigación cientíca es un conjunto de principios que
deben ser seguidos de profundas reexiones deontológicas en la práctica diaria
de los investigadores y en el impacto que sus trabajos pueden tener en la
sociedad. Es fundamental entender cómo la ética inuye en diferentes aspectos
de la investigación y las repercusiones que pueden derivarse de su
incumplimiento.
La falsicación de datos, el plagio y las violaciones de las normas de
consentimiento informado pueden llevar a resultados erróneos que, al ser
62
publicados, pueden inuir negativamente en políticas de salud, prácticas
médicas y la conanza pública en la ciencia. Las comisiones de ética son
entidades fundamentales en la regulación de la investigación cientíca. Su
función principal es asegurar que los estudios se realicen de manera ética,
revisando protocolos de investigación y garantizando que se respeten los
derechos de los participantes. Estas comisiones están compuestas por expertos
en ética, cientícos y, a menudo, representantes de la comunidad, lo que les
permite tener una visión amplia sobre las implicaciones de cada estudio. Su
intervención es crucial para prevenir prácticas no éticas y para fomentar un
ambiente de conanza y respeto en la investigación.
3.1.2 La educación en ética para investigadores
La formación en ética es esencial para todos los investigadores,
independientemente de su nivel de experiencia. La educación en ética debe ser
un requisito antes de iniciar investigaciones, debe ser un proceso continuo que
permita a los cientícos reexionar sobre los dilemas éticos que pueden surgir en
su desempeño profesional-académico (Ventura y Oliveira, 2022). Los programas
de capacitación en ética pueden incluir estudios de caso, discusiones sobre
dilemas éticos contemporáneos y la importancia de la transparencia y la
rendición de cuentas. Desde las graves consecuencias de las prácticas no éticas
hasta el papel crucial de las comisiones de ética y la necesidad de una formación
continua, es evidente que la ética no es solo un aspecto complementario de la
investigación, sino un pilar fundamental que garantiza la integridad y el
progreso en el ámbito cientíco.
La ética y la deontología son pilares fundamentales en el ámbito de la
investigación cientíca, ya que garantizan la signicancia y abilidad de los
resultados obtenidos, así como el respeto y la protección de los derechos de los
participantes y de la sociedad en su conjunto (Ramos et al., 2018). La
investigación, al ser un proceso que puede afectar profundamente a la vida
humana y al entorno, demanda un compromiso constante con la ética y la
deontología por parte de todos los actores involucrados.
Los principios éticos fundamentales, como el respeto por las personas, la
benecencia y la justicia, deben ser integrados en cada fase de la investigación.
El consentimiento informado, la condencialidad y la integridad son aspectos
que fortalecen la credibilidad del investigador, aseguran que la investigación se
realice de manera responsable y equitativa (Rodríguez, 2017).
63
Las violaciones a estos principios pueden tener consecuencias graves, para
los individuos involucrados, la comunidad cientíca y la sociedad en general, un
ejemplo de ello, la pérdida de conanza en la ciencia y la disminución del apoyo
público para futuras investigaciones. El papel de las comisiones de ética se vuelve
esencial en este contexto, actuando como guardianes de los principios éticos,
evaluando y supervisando los proyectos de investigación para asegurar que se
realicen de acuerdo con las normas establecidas. Asimismo, la educación en ética
para investigadores es crucial, ya que fomenta una cultura de responsabilidad y
conciencia sobre la importancia de la ética en la ciencia.
Por ende, la ética y la deontología no son meramente requisitos formales
en la investigación cientíca, sino que son componentes esenciales que
garantizan la legitimidad, la calidad y la humanidad de la ciencia (Rodríguez,
2017). A medida que enfrentamos problemas globales complejos, desde la salud
pública hasta el cambio climático, el compromiso con la ética en la investigación
se vuelve más urgente que nunca. Solo a través de la práctica ética y responsable
podremos avanzar en el conocimiento y contribuir al bienestar de la sociedad,
asegurando que la ciencia siga siendo una fuerza positiva en el mundo.
3.2 Redes neuronales articiales para el procesamiento de datos
cuantitativos
Las redes neuronales articiales (RNA) han emergido como herramientas
de procesamiento de datos cualitativos y cuantitativos, a través de software como
R o Python. Inspiradas en la estructura y funcionamiento del cerebro humano,
estas redes buscan replicar la forma en que los humanos aprenden y procesan
información. Desde su creación en la década de 1950, las RNA han evolucionado
de modelos simples a sosticadas estructuras capaces de resolver complejas
tareas de predicción y clasicación.
En el contexto del procesamiento de datos cuantitativos, las redes
neuronales han demostrado ser especialmente efectivas debido a su capacidad
para manejar grandes volúmenes de información y detectar patrones
subyacentes que pueden ser difíciles de identicar mediante métodos
tradicionales. Su exibilidad y adaptabilidad les permiten ser aplicadas en
diversas áreas, como la economía, la medicina, la ingeniería y muchas otras
disciplinas cientícas.
La popularidad de las redes neuronales ha crecido exponencialmente en
los últimos años, impulsada por el aumento en la disponibilidad de datos y el
64
avance de la potencia computacional. Esto ha permitido que investigadores y
profesionales desarrollen soluciones innovadoras que mejoran la toma de
decisiones y optimizan procesos basados en datos cuantitativos.
A medida que exploramos los principios fundamentales de las redes
neuronales, es crucial comprender los componentes clave que las constituyen y
cómo interactúan entre para realizar tareas complejas. Esta comprensión
permitirá desentrañar las capacidades de las RNA y su aplicabilidad en el análisis
y procesamiento de datos cuantitativos, sentando así las bases para su uso
efectivo en el análisis de series temporales, la predicción de tendencias y la
optimización de procesos.
Las redes neuronales articiales son modelos computacionales inspirados
en el funcionamiento del cerebro humano, diseñados para reconocer patrones y
aprender de los datos. Para comprender a fondo cómo funcionan estas
estructuras, es esencial explorar sus principios fundamentales, que abarcan su
arquitectura, las funciones de activación, el proceso de entrenamiento y los
diferentes tipos de redes neuronales.
La arquitectura de una red neuronal se reere a su estructura y
organización, que se compone de nodos o neuronas interconectadas.
Generalmente, las RNA están organizadas en capas: una capa de entrada, una o
varias capas ocultas y una capa de salida. Cada neurona en una capa recibe
entradas de las neuronas de la capa anterior, aplica una función de activación y
transmite la salida a las neuronas de la capa siguiente. Esta conexión jerárquica
permite que las redes aprendan representaciones complejas de los datos,
facilitando la extracción de características relevantes.
3.2.1 Funciones de activación y tipos de redes neuronales
Las funciones de activación son esenciales para introducir no linealidades
en el modelo, permitiendo que las redes neuronales aprendan patrones
complejos. Algunas de las funciones de activación más comunes incluyen la
función sigmoide, la función tangente hiperbólica (tanh) y la función ReLU
(Rectied Linear Unit). Cada una de estas funciones tiene sus propias
características y aplicaciones, y la elección de la función adecuada puede inuir
signicativamente en el rendimiento de la red.
El proceso de entrenamiento de una red neuronal compromete ajustar los
pesos de las conexiones entre las neuronas para minimizar la diferencia entre las
predicciones de la red y los valores reales (Castañeda et al., 2024) . Esto se logra
65
mediante el uso de algoritmos de optimización, siendo el más popular el
algoritmo de retropropagación, que utiliza el descenso del gradiente. Durante el
entrenamiento, el modelo se expone a un conjunto de datos de entrenamiento y
se evalúa su rendimiento en función de una función de pérdida. A medida que
se repiten las iteraciones, la red mejora su capacidad para generalizar a nuevos
datos.
Existen varios tipos de redes neuronales, cada una diseñada para abordar
diferentes tipos de problemas:
- Redes neuronales feedforward: Este es el tipo más simple de red neuronal,
donde las conexiones entre las neuronas solo se mueven en una dirección,
desde la capa de entrada hasta la capa de salida. Son utilizadas
principalmente para tareas de clasicación y regresión.
- Redes neuronales convolucionales (CNN): Estas redes son especialmente
efectivas en el procesamiento de datos con una estructura de cuadrícula,
como imágenes. Utilizan capas convolucionales para extraer
características locales, lo que les permite identicar patrones espaciales y
jerárquicos.
- Redes neuronales recurrentes (RNN): Diseñadas para trabajar con datos
secuenciales, las RNN tienen conexiones que permiten que la información
uya en ambas direcciones, lo que les permite mantener memoria de
entradas anteriores. Son especialmente útiles en tareas como la predicción
de series temporales y el procesamiento del lenguaje natural.
3.2.2 Aplicaciones en el procesamiento de datos cuantitativos
Las redes neuronales han demostrado ser herramientas poderosas en el
análisis y procesamiento de datos cuantitativos. Su capacidad para modelar
relaciones complejas y no lineales las hace ideales para aplicaciones como el
análisis de series temporales, donde se busca identicar patrones y tendencias en
la corrida-salida de los datos (Babativa, 2017). Además, son utilizadas en la
predicción de tendencias, lo que permite a las empresas anticipar cambios en el
mercado y ajustar sus estrategias en consecuencia. Por último, la optimización de
procesos es otra área en la que las RNA pueden aportar un valor signicativo,
ayudando a las organizaciones a mejorar la eciencia y reducir costos.
Sin embargo, debe considerarse el problema del sobreajuste, donde un
modelo se ajusta demasiado a los datos de entrenamiento y pierde su capacidad
de generalización. Además, la interpretabilidad de los modelos sigue siendo una
66
preocupación, ya que es fundamental comprender cómo y por qué una red toma
ciertas decisiones. No obstante, los avances tecnológicos y el desarrollo de nuevas
arquitecturas están abriendo nuevas posibilidades para mejorar la ecacia y la
comprensión de las redes neuronales en este campo.
Los principios fundamentales de las redes neuronales ofrecen una base
sólida para comprender cómo estas poderosas herramientas pueden ser
utilizadas en el procesamiento de datos cuantitativos. A medida que la tecnología
avanza y se desarrollan nuevas metodologías, el potencial de las RNA sigue
expandiéndose, prometiendo un futuro emocionante en el análisis de datos. La
combinación de técnicas innovadoras y un enfoque centrado en la interpretación
y el rendimiento garantizará que las redes neuronales sigan siendo un pilar
esencial en el avance de la inteligencia articial y el análisis de datos.
3.2.3 Mapas autoorganizados en investigación cuantitativa
En el campo de la investigación cuantitativa, los mapas autoorganizados
(SOM, por sus siglas en inglés) han emergido como una herramienta poderosa
para el análisis y la visualización de datos complejos. Estos modelos, que
pertenecen a la familia de las redes neuronales no supervisadas, permiten la
reducción de dimensionalidad y la agrupación de datos de manera intuitiva y
efectiva. En este capítulo, exploraremos su denición, historia y desarrollo, así
como algunas de sus aplicaciones más relevantes en la investigación.
Los mapas autoorganizados son una clase de redes neuronales que se
utilizan para la representación y organización de datos en un espacio de menor
dimensión. A través de un proceso de entrenamiento, los SOM transforman
entradas de alta dimensión en una representación bidimensional o
tridimensional, preservando al mismo tiempo la topología de los datos originales
(Li et al., 2021). Esto signica que puntos de datos similares en el espacio de
entrada se agrupan en ubicaciones cercanas dentro del mapa, facilitando la
identicación de patrones y relaciones entre los datos.
El concepto de mapas autoorganizados fue introducido por el cientíco
nlandés Teuvo Kohonen en la década de 1980. Desde entonces, su desarrollo ha
sido continuo, y se han propuesto diversas variantes y mejoras en el algoritmo
original. Kohonen desarrolló estos modelos como una forma de emular el
aprendizaje y la organización de la información en el cerebro humano,
inspirándose en la manera en que las neuronas forman conexiones y responden
a estímulos. En la crónica del paradigma cuantitativo, los SOM han encontrado
67
aplicaciones en múltiples disciplinas, incluyendo la biología, la ingeniería, la
economía y las ciencias sociales.
Los mapas autoorganizados han demostrado ser particularmente útiles en
el análisis de datos multivariantes, donde la complejidad y la cantidad de
variables pueden dicultar la interpretación (Li et al., 2021). En el ámbito de la
bioinformática, los SOM se han utilizado para clasicar y visualizar datos
genómicos, permitiendo identicar subgrupos de genes que comparten
características similares. En el ámbito del marketing, los SOM ayudan en la
segmentación de clientes al identicar patrones de comportamiento que pueden
no ser evidentes a través de métodos tradicionales. Estas aplicaciones resaltan la
versatilidad de los SOM y su capacidad para ofrecer percepciones signicativas
a partir de conjuntos de datos complejos.
Con base en la literatura, los mapas autoorganizados representan una
herramienta esencial en la investigación cuantitativa, permitiendo a los
investigadores explorar y analizar los datos de manera más efectiva. A medida
que profundizamos en los fundamentos teóricos de los SOM, podremos entender
mejor cómo funcionan y cómo pueden ser aplicados en diversas áreas de estudio.
Los mapas autoorganizados son una clase de redes neuronales no
supervisadas que se utilizan para la reducción de dimensionalidad y la
visualización de datos de alta dimensión. El algoritmo de entrenamiento de los
SOM se basa en un proceso iterativo que permite a la red aprender a representar
datos de entrada de alta dimensión en un espacio de menor dimensión,
generalmente en una rejilla bidimensional (Li et al., 2021).
Este proceso comienza con la inicialización aleatoria de los pesos de las
neuronas en la red. Para cada vector de entrada, se identica la neurona
ganadora, que es aquella cuyo peso es más cercano al vector de entrada,
utilizando una métrica de distancia, comúnmente la distancia euclidiana. Una
vez que se ha determinado la neurona ganadora, se actualizan los pesos de esta
neurona y de sus neuronas vecinas en la rejilla. Esta actualización se realiza de
acuerdo a la siguiente fórmula:
\[ W_{ij}(t+1) = W_{ij}(t) + \alpha(t) \cdot h_{ij}(t) \cdot (X(t) - W_{ij}(t)) \]
Donde \( W_{ij} \) representa los pesos de la neurona en la posición \( (i,j)
\) de la rejilla, \( \alpha(t) \) es la tasa de aprendizaje, \( h_{ij}(t) \) es la función
de vecindad y \( X(t) \) es el vector de entrada en el tiempo \( t \). A medida que
68
el entrenamiento avanza, tanto la tasa de aprendizaje como la función de
vecindad disminuyen, lo que permite que el mapa se estabilice y se adapte a la
estructura de los datos.
i. Arquitectura de red de los SOM
La arquitectura de los SOM se caracteriza por su disposición en una rejilla,
que puede ser de diferentes formas, como rectangular, hexagonal o cúbica, según
la aplicación especíca. Cada neurona en la red está conectada a un conjunto de
pesos que representan un vector en el mismo espacio que los datos de entrada.
La organización de estas neuronas permite que se agrupen en función de la
similitud de los datos de entrada que representan. Este enfoque de topología
preservada es fundamental para la ecacia de los SOM, ya que asegura que las
relaciones espaciales en el espacio de entrada se mantengan en el espacio de
salida.
ii. Funciones de vecindad y su impacto
Las funciones de vecindad son un componente crítico en el proceso de
actualización de los pesos en los SOM. Estas funciones determinan cómo la
inuencia de la neurona ganadora se extiende a sus vecinas, y su forma puede
tener un impacto signicativo en la calidad del mapa resultante (Bengio, 2009).
Comúnmente, se utilizan funciones de vecindad gaussianas, que otorgan mayor
peso a las neuronas más cercanas a la neurona ganadora y menos peso a aquellas
que están más alejadas. Matemáticamente, la función de vecindad se puede
expresar como:
\[ h_{ij}(t) = e^{-\frac{d_{ij}^2}{2\sigma(t)^2}} \]
Donde \( d_{ij} \) es la distancia entre la neurona ganadora y la neurona
\( (i,j) \) en la rejilla, y \( \sigma(t) \) es un parámetro que representa el alcance
de la función de vecindad, el cual también disminuye con el tiempo durante el
proceso de entrenamiento. La elección adecuada de la función de vecindad y su
control temporal son esenciales para lograr un mapa que represente
adecuadamente la estructura de los datos de entrada.
Para sintetizar, los fundamentos teóricos de los mapas autoorganizados,
que incluyen el algoritmo de entrenamiento, la arquitectura de red y las
funciones de vecindad, son fundamentales para comprender su funcionamiento
y su aplicación en la investigación cuantitativa. Estos elementos Los SOM son
particularmente útiles para el análisis de datos multivariantes, donde se requiere
69
la representación y visualización de múltiples variables simultáneamente. A
través de su capacidad para reducir la dimensionalidad, los SOM pueden
organizar datos complejos en una estructura visual intuitiva, facilitando la
identicación de patrones y relaciones que podrían pasar desapercibidos en
análisis más tradicionales. En estudios de genética, se han utilizado SOM para
agrupar perles de expresión génica, permitiendo a los investigadores descubrir
subgrupos de genes que comparten características similares y, por ende, pueden
estar comprometidos en procesos biológicos especícos.
iii. Segmentación de mercado y patrones de comportamiento
En el ámbito del marketing y la economía, los SOM ofrecen herramientas
efectivas para la segmentación de mercado. Al procesar grandes volúmenes de
datos de consumidores, los SOM pueden revelar segmentos signicativos dentro
de la población, basados en comportamientos de compra, preferencias y
demografía. Esta segmentación permite a las empresas personalizar sus
estrategias de marketing de manera s efectiva, optimizando recursos y
mejorando la captación de clientes. Una empresa de retail puede utilizar SOM
para identicar distintos grupos de clientes y adaptar sus ofertas según las
preferencias especícas de cada segmento, lo que puede resultar en un aumento
signicativo de las ventas.
iv. Predicción y modelado de datos complejos
Los SOM también juegan un papel crucial en la predicción y el modelado de
datos complejos. Al aplicar estos mapas a conjuntos de datos históricos, los
investigadores pueden identicar tendencias y patrones que les permiten
anticipar comportamientos futuros. En el ámbito de la economía, los SOM han
sido empleados para modelar la evolución de indicadores económicos, ayudando
a los analistas a prever crisis nancieras o cambios en el mercado laboral.
Asimismo, en el campo de la salud pública, se han utilizado para analizar la
propagación de enfermedades y la efectividad de intervenciones, ofreciendo una
herramienta valiosa para la toma de decisiones informadas.
En síntesis, las aplicaciones de los mapas autoorganizados en la investigación
cuantitativa son amplias y variadas. Desde el análisis de datos multivariantes
hasta la segmentación de mercado y la predicción de tendencias, los SOM se han
convertido en una herramienta indispensable para los investigadores que buscan
extraer valor de datos complejos y dinámicos. A medida que la tecnología y la
disponibilidad de datos continúan evolucionando, es probable que el uso de los
70
SOM en la investigación cuantitativa se expanda aún más, abriendo nuevas
oportunidades y enfoques para la comprensión de fenómenos complejos.
v. Elección de parámetros y su inuencia
La tasa de aprendizaje determina la rapidez con la que los nodos de la red se
ajustan a los datos de entrada; si es demasiado alta, la red puede converger de
manera ineciente, mientras que una tasa demasiado baja puede resultar en un
aprendizaje excesivamente lento. El tamaño de la red, que se reere a la cantidad
de nodos en la misma, también es crucial: una red demasiado pequeña puede no
capturar la complejidad de los datos, mientras que una red demasiado grande
puede resultar en un sobreajuste y en la dicultad para interpretar los resultados.
Finalmente, la función de vecindad, que dene la relación entre los nodos
durante el proceso de entrenamiento, puede inuir en la forma en que se agrupan
los datos, y su elección puede afectar signicativamente la calidad y utilidad de
los mapas generados.
vi. Interpretación de resultados obtenidos
La interpretación de los resultados generados por los SOM representa otro
desafío relevante. A menudo, los SOM producen representaciones visuales
complejas que pueden ser difíciles de interpretar, especialmente para aquellos
que no están familiarizados con el funcionamiento de esta técnica. La naturaleza
no supervisada del aprendizaje puede dar lugar a agrupaciones que no se alinean
directamente con las categorías o patrones esperados por el investigador. Por lo
tanto, es esencial contar con métodos claros y estructuras de análisis que
permitan desglosar y explicar los resultados de manera efectiva. Además, la
visualización de los mapas resultantes debe ser considerada con cuidado,
utilizando herramientas que faciliten la comprensión de la distribución y relación
de los datos en el espacio de características.
A pesar de sus ventajas, los SOM también tienen limitaciones que deben ser
reconocidas en el contexto de la investigación cuantitativa. Por ejemplo, el
rendimiento de los SOM puede verse afectado negativamente por el ruido en los
datos o por la presencia de valores atípicos, que pueden distorsionar el proceso
de aprendizaje y la formación de clústeres. Además, los SOM pueden no ser la
mejor opción para conjuntos de datos extremadamente grandes, ya que el tiempo
de entrenamiento y la complejidad computacional pueden aumentar de manera
signicativa. También es relevante mencionar que, aunque los SOM son efectivos
para la reducción de dimensionalidad, su capacidad para representar relaciones
71
no lineales en los datos puede ser limitada, lo que podría requerir la combinación
con otras técnicas o enfoques de modelado. Es fundamental que los
investigadores consideren estos dilemas y limitaciones al aplicar SOM en sus
estudios, asegurando así una implementación adecuada y resultados
signicativos.
Los mapas autoorganizados han emergido como una herramienta poderosa
en la investigación cuantitativa, permitiendo la visualización y análisis de datos
multivariantes de manera efectiva. Desde el análisis de datos complejos hasta la
segmentación de mercado, los SOM ofrecen una forma innovadora de identicar
patrones y relaciones subyacentes en grandes volúmenes de información.
También hemos discutido los fundamentos teóricos que sustentan su
funcionamiento, incluyendo el algoritmo de entrenamiento y la arquitectura de
red, así como las funciones de vecindad que afectan el rendimiento de estos
modelos.
A medida que la tecnología y la disponibilidad de datos continúan
evolucionando, los SOM presentan numerosas oportunidades para la
investigación futura. Por ende, la integración de los SOM con otras técnicas de
aprendizaje automático y análisis de datos, como el aprendizaje profundo y la
inteligencia articial, mejora la capacidad para manejar conjuntos de datos aún
más grandes y complejos, así como ofrecer soluciones más precisas en tareas
predictivas. Además, el desarrollo de nuevas métricas y métodos de
interpretación para los resultados de los SOM podría facilitar su adopción en
campos donde la comprensión de los resultados es crucial, como en la medicina
o las ciencias sociales.
Los mapas autoorganizados han demostrado ser una herramienta valiosa
para la investigación cuantitativa, proporcionando una manera única de analizar
y visualizar datos complejos. A medida que la comunidad cientíca y los
profesionales continúan explorando sus aplicaciones y renando sus técnicas, es
probable que los SOM sigan desempeñando un papel fundamental en el avance
del análisis de datos. Su capacidad para descomponer información compleja en
estructuras más comprensibles coadyuva en la toma de decisiones informadas,
abre la puerta a nuevas interrogantes de investigación que podrían transformar
nuestra comprensión de diversos fenómenos en la sociedad contemporánea.
72
Capítulo IV
Estadística basada en Redes Neuronales Articiales para
la validación de resultados de investigación
Las redes neuronales articiales (RNA) han emergido como herramientas
poderosas y versátiles en el ámbito de la investigación cientíca. Con el aumento
exponencial de datos generados por diversas disciplinas, desde la biología hasta
la física y las ciencias sociales, la necesidad de métodos ecientes para analizar y
validar estos datos se ha vuelto imperativa. Las RNA, inspiradas en el
funcionamiento del cerebro humano, ofrecen enfoques innovadores para abordar
la complejidad y la variabilidad de los datos experimentales, permitiendo a los
investigadores extraer patrones signicativos y realizar predicciones precisas.
La relevancia de las redes neuronales en la investigación radica en su
capacidad para aprender de grandes volúmenes de datos y mejorar
continuamente su rendimiento a medida que se les proporciona más
información. Este proceso de aprendizaje hace que las RNA sean especialmente
útiles en la validación de resultados, donde la interpretación de datos puede ser
compleja y propensa a errores. A través de técnicas de aprendizaje automático,
las RNA pueden identicar correlaciones y tendencias que, de otro modo,
podrían pasar desapercibidas para el análisis humano (Basheer y Hajmeer, 2000).
Además, la exibilidad de las RNA permite su aplicación en una amplia
gama de áreas, desde la medicina, donde se utilizan para diagnosticar
enfermedades a partir de imágenes médicas, hasta la economía, donde ayudan a
prever tendencias del mercado. Este potencial ha llevado a una integración
creciente de las RNA en los procesos de investigación y desarrollo, para validar
hallazgos experimentales, formular nuevas hipótesis y dirigir futuras
investigaciones. A medida que la tecnología avanza y se perfeccionan los
algoritmos de aprendizaje, las redes neuronales articiales seguirán
desempeñando un papel crucial en la investigación cientíca, transformando
cómo se analiza y se valida la información.
4.1 Fundamentos de las redes neuronales articiales
Las redes neuronales articiales (RNA) son un componente esencial del
campo de la inteligencia articial y el aprendizaje automático, que simulan el
funcionamiento del cerebro humano para procesar y analizar datos. Para
73
comprender su aplicación en la validación de resultados de investigación, es
fundamental explorar sus fundamentos.
Las redes neuronales articiales son sistemas computacionales
compuestos por nodos, conocidos como neuronas, que están organizados en
capas. Cada red típica consta de una capa de entrada, una o más capas ocultas y
una capa de salida. Las neuronas en la capa de entrada reciben las señales de los
datos de entrada, mientras que las neuronas en la capa de salida producen el
resultado nal de la red (Basheer y Hajmeer, 2000).
Cada conexión entre neuronas tiene un peso asociado que determina la
inuencia de una neurona sobre otra. Durante el proceso de entrenamiento, estos
pesos se ajustan utilizando algoritmos de optimización, como el descenso de
gradiente, con el objetivo de minimizar el error en las predicciones de la red.
Además, las neuronas aplican funciones de activación, que introducen no
linealidades en el modelo y permiten a la red aprender patrones complejos en los
datos.
Existen diversos tipos de redes neuronales, cada una diseñada para
abordar diferentes tipos de problemas. Entre los más destacados se encuentran:
- Perceptrón: Es la forma más básica de una red neuronal, que consiste en
una sola capa de neuronas. Se utiliza principalmente para problemas de
clasicación lineal.
- Redes neuronales multicapa (MLP): Estas redes contienen múltiples capas
ocultas, lo que les permite aprender patrones más complejos y no lineales
en los datos.
- Redes convolucionales (CNN): Especialmente efectivas para el
procesamiento de imágenes, las CNN utilizan capas convolucionales que
extraen características espaciales y patrones de los datos visuales.
- Redes recurrentes (RNN): Estas redes son ideales para datos secuenciales,
como series temporales y lenguaje natural, ya que tienen conexiones que
permiten la retroalimentación y retención de información en el curso de la
medición.
- Redes generativas adversariales (GAN): Compuestas por dos redes que
compiten entre sí, estas redes se utilizan para la generación de nuevos
datos a partir de un conjunto de entrenamiento, lo que puede ser útil en la
creación de simulaciones.
74
4.1.1 Funcionamiento básico: aprendizaje supervisado y no supervisado
- Aprendizaje supervisado: En este enfoque, la red se entrena utilizando un conjunto
de datos etiquetados, donde cada entrada tiene una salida conocida. El objetivo
es que la red aprenda a mapear las entradas a las salidas correctas, ajustando sus
pesos para reducir el error en las predicciones. Este método es ampliamente
utilizado en tareas de clasicación y regresión.
- Aprendizaje no supervisado: A diferencia del aprendizaje supervisado, en este caso
la red se entrena con datos no etiquetados. Aquí, el objetivo es identicar
patrones y estructuras ocultas en los datos, como agrupaciones o distribuciones.
Este tipo de aprendizaje es particularmente útil en la exploración de datos y la
detección de anomalías.
Las redes neuronales articiales han emergido como herramientas
poderosas en el ámbito de la investigación, proporcionando capacidades
avanzadas para la validación de resultados en diversas disciplinas. Su capacidad
para analizar grandes volúmenes de datos y extraer patrones signicativos
permite a los investigadores obtener conclusiones más precisas y conables.
Uno de los usos más notables de las redes neuronales es en el análisis de
datos experimentales. En investigaciones cientícas, los datos generados pueden
ser complejos y multidimensionales, lo que diculta su interpretación. Las redes
neuronales pueden procesar estos datos y ayudar a identicar relaciones entre
variables que podrían no ser evidentes a simple vista (Tito et al., 2023). En
estudios de biología molecular, las redes neuronales pueden analizar patrones de
expresión génica, permitiendo a los investigadores validar hipótesis sobre la
función de ciertos genes en condiciones especícas.
4.1.2 Predicciones y modelado de resultados
Las redes neuronales también son cruciales para realizar predicciones y
modelar resultados en investigaciones basadas en datos. A través del aprendizaje
supervisado, donde se alimentan con conjuntos de datos etiquetados, estas redes
pueden aprender a prever resultados futuros basándose en datos históricos. En
campos como la medicina, esto se traduce en la capacidad de predecir la
evolución de enfermedades o la respuesta a tratamientos especícos, lo que a su
vez puede validar la efectividad de nuevas terapias. En el análisis de imágenes
médicas, las redes convolucionales pueden ser entrenadas para detectar signos
tempranos de enfermedades, proporcionando a los investigadores una
herramienta ecaz para validar sus hallazgos clínicos.
75
La capacidad de las redes neuronales para detectar patrones y anomalías
en grandes conjuntos de datos es otra aplicación clave en la validación de
resultados de investigación. A menudo, los datos experimentales pueden
contener ruido o anomalías que, si no se detectan, podrían llevar a conclusiones
incorrectas. Las redes neuronales, mediante técnicas como el aprendizaje no
supervisado, pueden identicar estos puntos atípicos y ayudar a los
investigadores a interpretar los datos de forma más precisa (Davis et al., 2020).
En estudios de comportamiento animal, una red neuronal puede ser utilizada
para identicar patrones de actividad que dieren de la norma, lo que puede ser
indicativo de un efecto experimental o un sesgo en la recolección de datos.
Desde el análisis de datos experimentales hasta la predicción de resultados
y la detección de anomalías, estas herramientas están revolucionando la forma
en que los investigadores validan sus hallazgos, mejorando la precisión y la
ecacia del proceso cientíco. A medida que las redes neuronales articiales
ganan terreno en la validación de resultados de investigación, surgen
sustanciales consideraciones éticas que deben ser atendidas para garantizar su
uso responsable y efectivo (Córdova, 2019). Si bien afectan la calidad y la
precisión de los resultados obtenidos, también tienen implicaciones más amplias
para la conanza pública en la ciencia y la tecnología.
4.1.3 Sesgos en los datos y su impacto en los resultados
Las redes neuronales aprenden a partir de los datos que se les
proporcionan, y si estos datos están sesgados o no son representativos de la
población o fenómeno en estudio, los resultados pueden estar igualmente
sesgados (Davis et al., 2009). Esto puede llevar a conclusiones erróneas, que a su
vez pueden afectar la validez de los hallazgos de investigación. Si un modelo se
entrena con datos que subrepresentan ciertos grupos demográcos, puede no ser
capaz de generalizar adecuadamente, lo que resulta en predicciones inexactas
para esos grupos. Por lo tanto, es esencial que los investigadores sean conscientes
de la calidad y diversidad de los datos utilizados en el entrenamiento de modelos
de redes neuronales.
Es crucial que los investigadores sean capaces de explicar los procesos
detrás de sus modelos y los resultados obtenidos, especialmente cuando estos
resultados inuyen en decisiones críticas en campos como la medicina, la política
pública o la educación. La falta de explicabilidad puede obstaculizar la
76
aceptación y la implementación de soluciones basadas en inteligencia articial en
la investigación.
La creciente integración de las redes neuronales en la investigación
también plantea la necesidad de establecer regulaciones y normativas que guíen
su uso. A medida que las tecnologías avanzan, las políticas deben evolucionar
para abordar cuestiones como la protección de datos, la propiedad intelectual y
la responsabilidad en caso de errores o mal uso. Las regulaciones deben
equilibrar la innovación y el desarrollo tecnológico con la protección de los
derechos individuales y la ética en la investigación (Córdova, 2019). La
implementación de marcos normativos claros puede ayudar a mitigar los riesgos
asociados con el uso de redes neuronales y promover una cultura de
responsabilidad en la investigación cientíca.
En relación con lo antes expuesto, las redes neuronales articiales (RNA)
ofrecen un gran potencial para la validación de resultados de investigación. Es
fundamental abordar estos aspectos éticos y técnicos de manera proactiva. Solo
a través de un enfoque consciente y responsable se podrá maximizar su impacto
positivo y minimizar sus riesgos, asegurando así la integridad y la conanza en
la investigación cientíca.
En la era de la información y los datos masivos, las redes neuronales
articiales han emergido como herramientas fundamentales en la validación de
resultados de investigación. Su capacidad para procesar grandes volúmenes de
datos y extraer patrones complejos ha revolucionado la forma en que se realizan
las investigaciones, y cómo se validan y se interpretan los resultados obtenidos.
A través de su aplicación en el análisis de datos experimentales, las redes
neuronales permiten a los investigadores obtener conclusiones más precisas y
conables, minimizando el riesgo de error humano y maximizando la detección
de correlaciones que podrían pasar desapercibidas con métodos tradicionales.
Además, su capacidad para realizar predicciones y modelar resultados ofrece un
marco robusto para anticipar comportamientos y resultados, lo cual es esencial
en campos como la medicina, la biología y las ciencias sociales.
La cuestión de los sesgos en los datos es particularmente preocupante, ya
que estos pueden llevar a conclusiones erróneas y perpetuar desigualdades.
Además, la transparencia y explicabilidad de los modelos son aspectos que deben
ser prioritarios para garantizar que los resultados sean comprensibles y
conables para la comunidad cientíca y la sociedad en general.
77
Por lo tanto, el papel de las redes neuronales en la validación de la
investigación no debe ser visto únicamente desde una perspectiva tecnológica,
sino también desde un enfoque ético y regulatorio. La colaboración entre
cientícos, ingenieros y responsables de políticas es esencial para asegurar que
estas herramientas se utilicen de manera responsable y efectiva.
Las redes neuronales articiales están posicionadas como aliadas
poderosas en el proceso de validación de la investigación, proporcionando
nuevas oportunidades para mejorar la precisión y la eciencia en la obtención de
resultados. Por ello, su implementación debe ser guiada por principios éticos y
una comprensión clara de sus limitaciones, con el n de garantizar que
contribuyan a un avance cientíco que sea justo y equitativo.
4.2 Estadística paramétrica aplicada a la validación de
investigaciones
La estadística paramétrica es un conjunto de métodos estadísticos que se
basa en ciertos supuestos sobre la distribución de los datos. Esta rama de la
estadística desempeña un papel crucial en el análisis de datos, especialmente en
el contexto de la investigación cientíca, donde se busca validar hipótesis y
extraer conclusiones signicativas a partir de muestras (Flores et al., 2017). La
estadística paramétrica se reere a técnicas que asumen que los datos provienen
de una distribución especíca, comúnmente la distribución normal. Este enfoque
implica que los parámetros de la población, como la media y la varianza, son
conocidos o pueden ser estimados a partir de la muestra.
Entre las principales características de la estadística paramétrica se
encuentran su capacidad para proporcionar estimaciones precisas y su robustez
al analizar grandes muestras. Estas técnicas son particularmente útiles cuando se
busca evaluar la relación entre variables o comparar grupos en términos de
medidas numéricas. La estadística paramétrica es fundamental en la
investigación cientíca debido a su capacidad para facilitar la validación de
hipótesis. Al emplear métodos paramétricos, los investigadores pueden realizar
inferencias sobre poblaciones a partir de muestras, lo cual es esencial en
disciplinas como la medicina, la psicología y las ciencias sociales.
La precisión y la potencia estadística de estos métodos permiten detectar
efectos signicativos y realizar comparaciones que son cruciales para el
desarrollo del conocimiento cientíco. Las principales diferencias entre la
estadística paramétrica y la no paramétrica radican en los supuestos que cada
78
una de estas técnicas hace sobre los datos. Mientras que la estadística paramétrica
requiere que los datos se distribuyan normalmente y cumplan con otros
supuestos, la estadística no paramétrica es más exible y no se basa en tales
condiciones.
Esto signica que la estadística no paramétrica puede ser útil en
situaciones donde los datos no cumplen con los supuestos paramétricos, a
menudo a expensas de la potencia estadística. La estadística paramétrica se basa
en una serie de supuestos que deben cumplirse para asegurar la validez de los
resultados obtenidos a través de los métodos estadísticos paramétricos (Flores et
al., 2017). Estos supuestos son fundamentales, ya que su incumplimiento puede
llevar a conclusiones erróneas o poco ables. A continuación, se describen los
principales supuestos de la estadística paramétrica:
i. Normalidad de los datos
Uno de los supuestos más críticos en la estadística paramétrica es la
normalidad de los datos. Esto compromete que las variables que se están
analizando deben seguir una distribución normal, es decir, la mayoría de los
valores deben agruparse alrededor de la media, con una disminución gradual en
la frecuencia de valores a medida que se alejan de la media. La normalidad es
especialmente representativa en pruebas como la prueba t de Student y el análisis
de varianza (ANOVA). Existen diversas pruebas estadísticas, como la prueba de
Shapiro-Wilk o el test de Kolmogorov-Smirnov, que permiten evaluar si los datos
se distribuyen normalmente. Si los datos no son normales, se pueden considerar
transformaciones de los mismos o recurrir a métodos no paramétricos.
ii. Homogeneidad de varianzas
El segundo supuesto clave es la homogeneidad de varianzas, que establece
que las varianzas de las diferentes poblaciones de las que se extraen las muestras
deben ser iguales o, al menos, no signicativamente diferentes. Este supuesto es
fundamental en análisis como el ANOVA, donde se comparan las medias de
diferentes grupos. Si se viola este supuesto, los resultados pueden ser poco ables
y llevar a interpretaciones incorrectas. Para vericar la homogeneidad de
varianzas, se pueden utilizar pruebas como la prueba de Levene o la prueba de
Bartle. En caso de que se detecte heterocedasticidad (varianzas desiguales), se
pueden aplicar métodos alternativos o ajustar el análisis.
iii. Independencia de observaciones
79
El tercer supuesto fundamental es la independencia de las observaciones. Esto
signica que las observaciones dentro de cada grupo deben ser independientes
entre sí; es decir, el valor de una observación no debe inuir en el valor de otra.
La independencia es esencial para la validez de las inferencias estadísticas, ya que
la dependencia puede introducir sesgos en los resultados. En investigaciones
donde las observaciones no son independientes, como en estudios longitudinales
o de medidas repetidas, es necesario emplear métodos estadísticos que tengan en
cuenta esta dependencia, como los modelos de efectos mixtos.
En suma, estos supuestos son esenciales para la correcta aplicación de la
estadística paramétrica. La vericación de la normalidad, homogeneidad de
varianzas e independencia de observaciones debe hacerse de manera rigurosa
para garantizar la validez de los resultados obtenidos en la investigación
cientíca.
4.2.1 Métodos estadísticos paramétricos comunes
La estadística paramétrica ofrece una variedad de métodos que son
ampliamente utilizados en el análisis de datos. Estos métodos son fundamentales
en la validación de investigaciones, ya que permiten a los investigadores realizar
inferencias sobre poblaciones a partir de muestras.
- Prueba t de Student:
La prueba t de Student es uno de los métodos más utilizados para comparar
las medias de dos grupos. Esta prueba es especialmente útil cuando se desea
determinar si hay una diferencia signicativa entre las medias de dos
poblaciones, asumiendo que los datos siguen una distribución normal. Existen
diferentes tipos de pruebas t, como la prueba t para muestras independientes,
que se utiliza cuando los grupos son distintos, y la prueba t para muestras
dependientes, que se aplica en situaciones donde los grupos están emparejados.
La prueba t es esencial en investigaciones que buscan validar hipótesis sobre
diferencias de grupo, como en ensayos clínicos o estudios de comportamiento.
- Análisis de varianza (ANOVA):
El análisis de varianza, comúnmente conocido como ANOVA, es una técnica
que permite comparar las medias de tres o más grupos simultáneamente.
ANOVA evalúa si al menos una de las medias grupales es signicativamente
diferente de las demás, lo que ayuda a determinar si existe un efecto de un factor
categórico sobre una variable continua. Este método es particularmente útil en
80
estudios experimentales donde se tienen múltiples tratamientos o condiciones.
Existen diferentes tipos de ANOVA, como el ANOVA de un solo factor, que
examina un solo factor de interés, y el ANOVA de dos factores, que investiga la
interacción entre dos factores. La capacidad de ANOVA para manejar múltiples
grupos lo convierte en una herramienta valiosa para los investigadores que
buscan validar efectos en condiciones complejas.
- Regresión lineal:
La regresión lineal es un método paramétrico que se utiliza para modelar la
relación entre una variable dependiente y una o más variables independientes.
Este análisis permite a los investigadores entender cómo los cambios en las
variables independientes afectan a la variable dependiente y, a su vez, predecir
valores futuros. La regresión lineal asume que la relación entre las variables es
lineal y que los errores de predicción se distribuyen normalmente. Este método
es fundamental en muchos campos, como la economía, la psicología y las ciencias
sociales, ya que permite validar hipótesis sobre relaciones entre variables y
evaluar la fuerza y dirección de estas relaciones.
En denitiva, la prueba t de Student, el ANOVA y la regresión lineal son
métodos estadísticos paramétricos comunes que juegan un papel crucial en la
validación de investigaciones. Cada uno de estos métodos proporciona
herramientas esenciales para analizar datos y tomar decisiones informadas
basadas en la evidencia empírica. La estadística paramétrica desempeña un papel
fundamental en la validación de hipótesis dentro de la investigación cientíca.
Su capacidad para ofrecer inferencias precisas y robustas la convierte en una
herramienta indispensable para los investigadores que buscan establecer
relaciones signicativas entre variables. Al basarse en supuestos que, cuando se
cumplen, permiten obtener estimaciones más ecaces y conables, la estadística
paramétrica facilita la evaluación de resultados también contribuye a la
generalización de hallazgos en poblaciones más amplias.
No obstante, es crucial reconocer las limitaciones de la estadística
paramétrica. La validez de los resultados obtenidos mediante métodos
paramétricos depende en gran medida de que se cumplan los supuestos
subyacentes, tales como la normalidad de los datos y la homogeneidad de
varianzas. En contextos donde estos supuestos no se cumplen, los resultados
pueden ser engañosos. Por ello, los investigadores deben realizar pruebas
diagnósticas adecuadas y, si es necesario, considerar métodos alternativos, como
81
la estadística no paramétrica, que no requieren esos mismos supuestos. Además,
es importante tener en cuenta la magnitud del tamaño de la muestra, ya que
muestras pequeñas pueden afectar la estabilidad de las estimaciones y la potencia
estadística de las pruebas.
Con el avance continuo de la tecnología y el crecimiento exponencial de los
datos disponibles, el futuro de la estadística paramétrica se vislumbra
prometedor. La integración de técnicas de análisis más sosticadas y el uso de
software estadístico avanzado están permitiendo a los investigadores abordar
problemas más complejos y extraer conclusiones más precisas.
Asimismo, la combinación de métodos paramétricos con enfoques no
paramétricos, así como el desarrollo de modelos estadísticos más exibles, puede
ofrecer nuevas perspectivas en la validación de investigaciones. A medida que la
comunidad cientíca sigue explorando estas interacciones, la estadística
paramétrica continuará siendo un pilar esencial en la metodología de
investigación, contribuyendo a la robustez y la credibilidad del conocimiento
cientíco.
4.2.2 Estadística no paramétrica aplicada a la validación de investigaciones
La estadística no paramétrica se reere a un conjunto de todos
estadísticos que no requieren que los datos se distribuyan de una manera
especíca. A diferencia de la estadística paramétrica, que asume que los datos
siguen una distribución normal, la estadística no paramétrica ofrece exibilidad
en sus supuestos. Esta característica la convierte en una herramienta valiosa en el
análisis de datos, especialmente cuando se trabaja con muestras pequeñas o con
datos que no cumplen con los requisitos para aplicar técnicas paramétricas
(Gómez et al., 2003).
La estadística no paramétrica engloba una variedad de técnicas que se
pueden aplicar a datos ordinales o nominales, así como a datos continuos que no
cumplen con los supuestos de normalidad. Estas técnicas se centran en la
clasicación y el orden de los datos en lugar de en los parámetros de la
distribución. Ejemplos de pruebas no paramétricas incluyen la prueba de
Wilcoxon, la prueba de Kruskal-Wallis y la prueba de Friedman, entre otras. Estas
pruebas son especialmente útiles en situaciones donde la naturaleza de los datos
no permite el uso de métodos paramétricos, ofreciendo así una alternativa
robusta para el análisis.
82
La estadística no paramétrica es fundamental en la investigación debido a
su capacidad para manejar datos que no se ajustan a los supuestos de la
estadística paramétrica (Gómez et al., 2003). En muchos campos de estudio, como
las ciencias sociales, la medicina y la educación, los investigadores a menudo
enfrentan datos que son ordinales o que presentan distribuciones no normales.
La aplicación de métodos no paramétricos permite obtener conclusiones válidas
y ables, lo que contribuye a la validez de la investigación. Además, estas técnicas
son menos sensibles a la presencia de valores atípicos, lo que las hace más
robustas en ciertos contextos.
Entre las diferencias clave entre la estadística no paramétrica y la
estadística paramétrica radica en sus supuestos. Mientras que la estadística
paramétrica se basa en suposiciones sobre la distribución de los datos, como la
normalidad y la homogeneidad de varianzas, la estadística no paramétrica no
requiere estos supuestos, lo que la convierte en una opción más versátil. En tanto,
los métodos paramétricos suelen ser más potentes cuando se cumplen los
supuestos, en situaciones donde estos no son válidos, los métodos no
paramétricos pueden proporcionar resultados igualmente signicativos. La
elección entre utilizar métodos paramétricos o no paramétricos dependerá de las
características especícas de los datos y de los objetivos de la investigación. La
estadística no paramétrica, por lo tanto, se presenta como una herramienta
esencial en el arsenal del investigador moderno, permitiendo realizar análisis
precisos y signicativos en una amplia variedad de contextos de investigación.
i. Métodos comunes de estadística no paramétrica
La estadística no paramétrica ofrece una variedad de métodos útiles para
analizar datos que no cumplen con los supuestos de normalidad requeridos por
la estadística paramétrica (Ramírez y Polack, 2020). Estos métodos son
particularmente valiosos en situaciones donde los datos son ordinales, nominales
o donde las muestras son pequeñas.
- Prueba de Wilcoxon:
La prueba de Wilcoxon, también conocida como la prueba de rangos con
signo de Wilcoxon, se utiliza para comparar dos muestras relacionadas o
emparejadas. Este método es especialmente útil cuando se desea evaluar si hay
diferencias signicativas en las medianas de dos grupos relacionados. En lugar
de asumir que los datos son normalmente distribuidos, la prueba de Wilcoxon se
basa en los rangos de las diferencias entre pares de observaciones. Es una
83
alternativa robusta a la prueba t para muestras relacionadas y es ideal en
contextos donde los datos pueden estar sujetos a sesgos o no se distribuyen
normalmente.
- Prueba de Kruskal-Wallis:
La prueba de Kruskal-Wallis es un método no paramétrico para comparar tres
o más grupos independientes. Se considera una extensión de la prueba de Mann-
Whitney, que se utiliza para comparar solo dos grupos. En esta prueba, los datos
se clasican y se calculan los rangos, permitiendo evaluar si al menos uno de los
grupos presenta una mediana diferente. Este enfoque es particularmente útil en
investigaciones donde las suposiciones de normalidad y homogeneidad de
varianzas no se cumplen, lo que permite a los investigadores realizar
comparaciones signicativas sin depender de distribuciones especícas.
- Prueba de Friedman:
La prueba de Friedman es un método no paramétrico utilizado para evaluar
diferencias en tratamientos a través de múltiples mediciones en el mismo grupo.
Es especialmente útil en estudios de diseño de medidas repetidas o en casos
donde se desea comparar más de dos condiciones en un mismo grupo de sujetos.
Similar a la prueba de Kruskal-Wallis, la prueba de Friedman utiliza los rangos
de las observaciones y proporciona una alternativa robusta a la ANOVA de
medidas repetidas. Este método ayuda a los investigadores a identicar si existen
diferencias signicativas entre las condiciones evaluadas, sin requerir que los
datos sigan una distribución normal.
Estos métodos no paramétricos son herramientas valiosas en la validación de
investigaciones, permitiendo un análisis más exible y robusto en diversas
situaciones donde las suposiciones de la estadística paramétrica no se cumplen.
- Aplicaciones en la validación de investigaciones:
La estadística no paramétrica juega un papel fundamental en la validación de
investigaciones a través de diversas metodologías y enfoques. Su exibilidad y
capacidad para analizar datos que no cumplen con las suposiciones de
normalidad la convierten en una herramienta valiosa en distintos contextos,
ahora se presentan algunas de las aplicaciones más relevantes de la estadística no
paramétrica en la validación de investigaciones.
- Validación de encuestas y cuestionarios:
84
Uno de los usos más comunes de la estadística no paramétrica se encuentra
en la validación de encuestas y cuestionarios. Muchos de estos instrumentos de
recolección de datos generan resultados ordinales o categóricos, que no se ajustan
a los requisitos de las pruebas paramétricas. Métodos como la prueba de
Wilcoxon se utilizan para comparar las respuestas de diferentes grupos,
permitiendo a los investigadores evaluar si existen diferencias signicativas en
las percepciones o actitudes de los encuestados. Además, la prueba de Kruskal-
Wallis puede ser útil para analizar encuestas con más de dos grupos,
proporcionando una manera efectiva de validar la consistencia y la abilidad de
las medidas obtenidas.
- Análisis de datos en estudios clínicos:
En el ámbito de la investigación clínica, la estadística no paramétrica es
especialmente valiosa para el análisis de datos de ensayos clínicos donde las
variables pueden no seguir una distribución normal. Las pruebas como la prueba
de Friedman permiten a los investigadores analizar datos repetidos en estudios
donde se evalúan múltiples tratamientos en los mismos sujetos. Esto es crucial
para la validación de hipótesis en estudios de ecacia de tratamientos, donde las
comparaciones entre diferentes intervenciones deben realizarse con rigor. La
capacidad de estas pruebas para manejar datos no distribuidos normalmente
asegura que los resultados sean robustos y que las conclusiones sean válidas.
- Evaluación de programas educativos:
La estadística no paramétrica también se aplica en la evaluación de programas
educativos. En este contexto, los investigadores a menudo se enfrentan a datos
de rendimiento estudiantil que pueden ser ordinales, como las calicaciones en
escalas de Likert. Las pruebas no paramétricas, como la prueba de Mann-
Whitney, se utilizan para comparar el rendimiento de diferentes grupos de
estudiantes, lo que permite a los educadores y administradores evaluar la
efectividad de los programas implementados. Además, estas pruebas permiten
un análisis más inclusivo de los datos, ya que no requieren que se realicen
supuestos estrictos sobre la distribución de los datos.
La estadística no paramétrica ofrece herramientas valiosas para la validación
de investigaciones en diversas áreas, desde la evaluación de encuestas hasta el
análisis de datos clínicos y educativos. Su capacidad para manejar datos que no
cumplen con las suposiciones de normalidad la convierte en un aliado
85
indispensable para los investigadores que buscan obtener resultados
signicativos y conables en sus estudios.
En este sentido, la estadística no paramétrica se erige como una herramienta
esencial dentro del ámbito de la investigación, especialmente cuando se trabaja
con datos que no cumplen los supuestos necesarios para aplicar métodos
paramétricos. Su exibilidad y robustez la convierten en una opción preferida
para investigadores que buscan analizar datos ordinales, nominales o aquellos
que no se distribuyen normalmente.
La creciente diversidad de datos en la investigación contemporánea demanda
enfoques estadísticos que se adapten a estas variaciones. La estadística no
paramétrica ofrece una alternativa viable en estas situaciones, también estimula
un pensamiento crítico sobre la naturaleza de los datos y las pruebas que se
aplican a los mismos (Ramírez y Polack, 2020). A medida que avanzamos hacia
un futuro donde los grandes volúmenes de datos y la complejidad de los mismos
son cada vez más comunes, es probable que los métodos no paramétricos ganen
aún más relevancia en diversas disciplinas, desde la psicología hasta la medicina
y la educación.
Para los investigadores que deseen incorporar la estadística no paramétrica
en su trabajo, es fundamental familiarizarse con las pruebas más comunes, como
la prueba de Wilcoxon, la prueba de Kruskal-Wallis y la prueba de Friedman, así
como comprender cuándo y cómo utilizarlas ecazmente. Además, se
recomienda mantener una actitud abierta hacia el aprendizaje continuo, dado
que el campo de la estadística está en constante evolución. Finalmente, es crucial
considerar la naturaleza de los datos desde el inicio del diseño del estudio, lo que
permitirá seleccionar las herramientas adecuadas para el análisis y, en última
instancia, contribuirá a la validez y rigor de la investigación.
La interpretación de los resultados es un paso crítico para que los resultados
del análisis puedan compartirse de manera efectiva. De manera similar, la
signicancia de una relación teórica no sugiere la signicancia de su uso práctico;
por lo tanto, es importante cuanticar la magnitud del efecto. La signicancia
estadística se reere a la probabilidad de un resultado sin que sea un accidente.
Un umbral de signicancia se establece comúnmente, siendo 0.05 una métrica
común en los estudios de ciencias sociales. Si el valor p es menor que este umbral,
la hipótesis nula se rechaza debido a una relación o diferencia signicativa.
86
En denitiva, el análisis de datos cuantitativos es un proceso
multidimensional que se basa en técnicas estadísticas, aplicaciones de
herramientas informáticas y un enfoque de interpretación crítica para desarrollar
inferencia válida y útil. Con el progreso de la inteligencia articial, este campo
continuará expandiéndose, combinando resultados creativos y emocionales con
la expresión matemática de inferencia cuantitativa.
87
Conclusiones
De la literatura, existen diversos tipos de estudios cuantitativos, cada uno
con sus propias características y objetivos. Los estudios descriptivos se centran
en proporcionar una visión general de un fenómeno, describiendo sus
características sin intentar establecer relaciones causales. Por otro lado, los
estudios correlacionales buscan establecer la relación entre dos o más variables,
permitiendo identicar patrones y asociaciones, aunque no necesariamente
implican causalidad. En tanto, los estudios experimentales, en contraste, son
aquellos en los que el investigador manipula una o más variables independientes
para observar el efecto en una variable dependiente. Este tipo de diseño es
fundamental para establecer relaciones causales, ya que permite controlar
factores externos y asegurar que los resultados sean atribuibles a la intervención
realizada.
El diseño de investigación cuantitativa es fundamental para garantizar la
validez y la abilidad de los resultados obtenidos. Este proceso implica una
planicación cuidadosa que abarca desde la formulación de preguntas de
investigación hasta la recolección y análisis de datos. La IA puede optimizar el
análisis de datos al seleccionar automáticamente las técnicas estadísticas más
adecuadas según la naturaleza de los datos y las hipótesis planteadas.
Además, la automatización de procesos de recolección de datos, facilitada
por la IA, libera a los investigadores de tareas repetitivas y les permite
concentrarse en el análisis y la interpretación de resultados. En términos de
validez y conabilidad, la combinación de métodos cuantitativos y herramientas
de IA establece un nuevo estándar, haciendo que los estudios sean más robustos
y los resultados más generalizables.
El paradigma de investigación cuantitativa ha demostrado ser un pilar
fundamental en el ámbito cientíco, ofreciendo un enfoque sistemático y
riguroso para abordar fenómenos complejos. A través de su énfasis en la
medición objetiva y el análisis estadístico, permite a los investigadores obtener
conclusiones generalizables que pueden ser aplicadas en diversas situaciones y
contextos. La clara estructura que este paradigma proporciona, junto con sus
métodos estandarizados de recolección y análisis de datos, facilita la replicación
de estudios y contribuye a la acumulación de conocimiento.
88
Por ende, las características distintivas del enfoque cuantitativo, como su
capacidad para manejar datos masivos y su orientación hacia la validación de
hipótesis, lo diferencian de otros paradigmas de investigación, como el
cualitativo. Mientras que el paradigma cualitativo se centra en la comprensión
profunda de experiencias y signicados, el cuantitativo busca establecer patrones
y relaciones que puedan ser cuanticados. Esta complementariedad entre ambos
enfoques es esencial para una comprensión holística de los fenómenos
estudiados.
Para que los investigadores puedan aprovechar todo el potencial de la
inteligencia articial en la validación de datos, también es importante estar al
tanto de las últimas herramientas y tecnologías. Por lo tanto, sería benecioso
formar equipos interdisciplinarios que incluyan expertos en IA, matemáticos y
expertos en un campo elegido desde el que provienen los datos de validación.
Esto permitirá una mejor integración de la IA en el proceso en sí. Además, incluso
al considerar la IA, los investigadores deben ser conscientes de los problemas
éticos y de sesgo más amplios que puedan surgir.
Por lo tanto, se reitera una vez más la necesidad de que los modelos de
aprendizaje automático se entrenen en muestras equilibradas para integrar mejor
la diversidad y excluir posibles sesgos sistémicos. Con todo, también es de
destacar la cultura de apertura y colaboración entre los investigadores, viendo
las herramientas automatizadas como un suplemento de la investigación
humana, no como una sustitución. Estos algoritmos pueden ser entrenados con
datos de alta calidad para identicar patrones y anomalías que podrían ser
indicativos de errores.
En conclusión, este libro ha entrado profundamente en la importancia del
papel de la IA en la validación cientíca de las disertaciones. Desde su denición
más básica y hasta aplicaciones concretas, se ha demostrado que las tecnologías
basadas en IA pueden aumentar la calidad de los datos y la conanza en ellos, a
la vez que permiten a los investigadores centrarse en las lecciones que los
resultados intentan enseñarles, no en encontrarles errores. Al mismo tiempo,
como se mencionó en el capítulo 2, los investigadores no deben olvidar la
importancia de cuestiones como la cantidad y calidad de los datos y cómo los
investigadores humanos acogen y utilizan los modelos automatizados.
89
Bibliografía
Babativa, C.A. (2017). Investigación cuantitativa. Bogotá: Fundación Universitaria
del Área Andina
Basheer, I.A., & Hajmeer, M. (2000). Articial neural networks: fundamentals,
computing, design, and application. Journal of Microbiological Methods, 43(1), 3-31.
hps://doi.org/10.1016/S0167-7012(00)00201-3
Bengio, Y. (2009). Learning Deep Architectures for AI, Foundations and Trends®
in Machine Learning. NOW, 2(1), 1-127. hp://dx.doi.org/10.1561/2200000006
Calizaya Lopez, J., Benites Cuba, M., Vela Aquize, R.M., & Coaguila Mia, B. E.
(2022). Relevance of statistical analysis in quantitative research. Universidad
Ciencia Y Tecnología, 26(113), 49-56. hps://doi.org/10.47460/uct.v26i113.569
Castañeda-Sánchez, W.A., Polo-Escobar, B.R., y Vega-Huincho, F. (2024). Redes
neuronales articiales: una medición de aprendizajes de pronósticos como
demanda potencial. Universidad, Ciencia y Tecnología, 27(118), 51-60.
hps://doi.org/10.47460/uct.v27i118.686
Coello Valdés, E., Blanco Balbeíto, N., y Reyes Orama, Y. (2012). Los paradigmas
cuantitativos y cualitativos en el conocimiento de las ciencias médicas con
enfoque losóco-epistemológico. EDUMECENTRO, 4(2), 137-146. Recuperado
a partir de hp://scielo.sld.cu/pdf/edu/v4n2/edu17212.pdf
Córdova-Aguilar, A. (2019). Ética en la investigación y la práctica clínica: un
binomio complejo. Rev. Fac. Med. Hum., 19(4), 101-104. Recuperado a partir de
hp://www.scielo.org.pe/pdf/rfmh/v19n4/a15v19n4.pdf
Davis, N., Raina, G., & Jagannathan, K. (2020). A framework for end-to-end deep
learning-based anomaly detection in transportation networks. Transportation
Research Interdisciplinary Perspectives, 5, 100112.
hps://doi.org/10.1016/j.trip.2020.100112
Figgou, L., & Pavlopoulos, V. (2015). Social Psychology: Research Methods.
International Encyclopedia of the Social & Behavioral Sciences, 544-552.
hps://doi.org/10.1016/B978-0-08-097086-8.24028-2
Figueroa, A., Ramirez, H., y Alcala, J. (2014). Introducción a la metodología
experimental. Londres: Pearson
90
Flores-Ruiz, E., Miranda-Novales, M.G., y Villasís-Keever, M.Á. (2017). El
protocolo de investigación VI: cómo elegir la prueba estadística adecuada.
Estadística inferencial. Rev. alerg. Méx., 64(3), 364-370.
hps://doi.org/10.29262/ram.v64i3.304
Gómez, M., Danglot, C., y Vega, L. (2003). Sinopsis de pruebas estadísticas no
paramétricas. Cuándo usarlas. Revista Mexicana de Pediatría, 70(2), 91-99.
Recuperado a partir de
hps://www.ugr.es/~fmocan/MATERIALES%20DOCTORADO/Sinopsis%20de
%20pruebas%20estadisticas%20no%20parametricas.pdf
Goyanes, M., y Lopezosa, C. (2024). ChatGPT en Ciencias Sociales: revisión de la
lite-ratura sobre el uso de inteligencia articial (IA) de OpenAI en investigación
cualitativa y cuanti-tativa. Anuario ThinkEPI, 18, e18e04.
hps://doi.org/10.3145/thinkepi.2024.e18a04
Guerra, A., y García-Mayor, R. (2018). Retos éticos que plantea el uso de la
inteligencia articial en el diagnóstico y tratamiento clínico. Cuadernos de Bioética,
29(97), 303-304. hps://doi.org/10.30444/CB.15
Kolides, A., Nawaz, A., Rathor, A., Beeman, D., Hashmi, M., Fatima, S., Berdik,
D., Al-Ayyoub, M., & Jararweh, Y. (2023). Articial intelligence foundation and
pre-trained models: Fundamentals, applications, opportunities, and social
impacts. Simulation Modelling Practice and Theory, 126, 102754.
hps://doi.org/10.1016/j.simpat.2023.102754
Li, K., Sward, K., Deng, H. et al. (2021). Uso de mapas autoorganizados de
deformación temporal dinámica para caracterizar patrones diurnos en
exposiciones ambientales. Scientic Reports, 11, 24052.
hps://doi.org/10.1038/s41598-021-03515-1
Lopera, J.D., Ramírez, C.A., Ucaris, M., y Ortiz, J. (2010). El método analítico.
Revista de Psicología Universidad de Antioquia, 2(2), 77-85. Recuperado a partir de
hps://pepsic.bvsalud.org/pdf/rpsua/v2n2/v2n2a8.pdf
Ochoa, J., y Yunkor, Y. (2021). El estudio descriptivo en la investigación
cientíca. Acta Jurídica Peruana, 2(2). Recuperado a partir de
hp://revistas.autonoma.edu.pe/index.php/AJP/article/view/224
Ramírez, A., y Polack, A.M. (2020). Estadística inferencial. Elección de una prueba
estadística no paramétrica en investigación cientíca. (2020). Horizonte De La
91
Ciencia, 10(19), 191-
208. hps://doi.org/10.26490/uncp.horizonteciencia.2020.19.597
Ramos-Pozón, S., Benito-Sevillano, C., y Román-Maestre, B. (2019). Sobre las
deniciones de ética, legislación y deontología. Rev. Soc. Esp. Dolor, 26(5), 317-
318. Recuperado a partir de hps://scielo.isciii.es/pdf/dolor/v26n5/1134-8046-
dolor-26-05-00317.pdf
Rodríguez-Requena, J.R. (2017). Aspectos deontológicos de la investigación
educativa mediada por la tecnología. Revista cientíca electrónica de Educación y
Comunicación en la Sociedad del Conocimiento, 17(1), 129-147. Recuperado a partir
de hps://dialnet.unirioja.es/descarga/articulo/6045421.pdf
Sarduy-Domínguez, Y. (2007). El análisis de información y las investigaciones
cuantitativa y cualitativa. Rev Cubana Salud Pública, 33(3). Recuperado a partir de
hp://scielo.sld.cu/pdf/rcsp/v33n3/spu20307.pdf
Solano-Barliza, A.D., Ojeda, A.D., y Aarón-Gonzalvez, M. (2024). Quantitative
analysis of the perception of using ChatGPT articial intelligence in the teaching
and learning of Colombian-Caribbean undergraduate students. Formación
universitaria, 17(3), 129-138. hps://dx.doi.org/10.4067/s0718-50062024000300129
Tito Durand, R.R., Guevara Gutierrez, M.A., Moran Fuño, J.A., & Alvan Ventura,
E.Y. (2023). Use of neural networks to determine the rating of an application
published in the Google Play Store. Innovation and Software, 4(1), 161-197.
hps://doi.org/10.48168/innosoft.s11.a87
Ventura, M., y Oliveira, S.C. De. (2022). Integridade e ética na pesquisa e na
publicação cientíca. Cadernos De Saúde Pública, 38(1), e00283521.
hps://doi.org/10.1590/0102-311X00283521
Zurita-Cruz, J.N., Márquez-González, H., Miranda-Novales, G., y Villasís-
Keever, M.A. (2018). Estudios experimentales: diseños de investigación para la
evaluación de intervenciones en la clínica. Rev. alerg. Méx., 65(2), 178-186.
hps://doi.org/10.29262/ram.v65i2.376
92
De esta edición de Métodos de investigación cuantitativa aplicados a la
inteligencia artificial: Consideraciones éticas y deontológicas”, se terminó de
editar en la ciudad de Colonia del Sacramento en la República Oriental
del Uruguay el 15 de enero de 2025
93