0
1
Métodos estadísticos con inteligencia
artificial aplicados a criptomonedas y
finanzas descentralizadas
Montes Lizárraga, Carolina; Choquejahua
Acero, Remo; Pongo Mendo, Enrique Gabriel;
Centeno Ramírez, Luis; Ramirez Milla, Luis
Enrique; Alvarez Carrillo, Joaquin; Mestas
Yucra, Daisy
© Montes Lizárraga, Carolina; Choquejahua
Acero, Remo; Pongo Mendo, Enrique Gabriel;
Centeno Ramírez, Luis; Ramirez Milla, Luis
Enrique; Alvarez Carrillo, Joaquin; Mestas
Yucra, Daisy, 2025
Primera edición (1ra. ed.): Diciembre, 2025
Editado por:
Editorial Mar Caribe ®
www.editorialmarcaribe.es
Av. Gral. Flores 547, 70000 Col. del
Sacramento, Departamento de Colonia,
Uruguay.
Diseño de caratula e ilustraciones: Isbelia
Salazar Morote
Libro electrónico disponible en:
https://editorialmarcaribe.es/ark:/10951/is
bn.9789915698557
Formato: Electrónico
ISBN: 978-9915-698-55-7
ARK: ark:/10951/isbn.9789915698557
Editorial Mar Caribe (OASPA): Como miembro de la
Open Access Scholarly Publishing Association,
apoyamos el acceso abierto de acuerdo con el código
de conducta, transparencia y mejores prácticas de
OASPA para la publicación de libros académicos y de
investigación. Estamos comprometidos con los más
altos estándares editoriales en ética y deontología,
bajo la premisa de «Ciencia Abierta en América
Latina y el Caribe»
Editorial Mar Caribe, firmante 795 de 12.08.2024
de la Declaración de Berlín
"... Nos sentimos obligados a abordar los retos de Internet
como medio funcional emergente para la distribución del
conocimiento. Obviamente, estos avances pueden
modificar significativamente la naturaleza de la
publicación científica, así como el actual sistema de
garantía de calidad...." (Max Planck Society, ed. 2003.,
pp. 152-153).
CC BY-NC 4.0
Los autores pueden autorizar al público en general a
reutilizar sus obras únicamente con fines no
lucrativos, los lectores pueden utilizar una obra para
generar otra, siempre que se crédito a la
investigación, y conceden al editor el derecho a
publicar primero su ensayo bajo los términos de la
licencia CC BY-NC 4.0.
Editorial Mar Caribe se adhiere a la "Recomendación
relativa a la preservación del patrimonio documental,
comprendido el patrimonio digital, y el acceso al
mismo" de la UNESCO y a la Norma Internacional de
referencia para un sistema abierto de información
archivística (OAIS-ISO 14721). Este libro está
preservado digitalmente por ARAMEO.NET
2
Editorial Mar Caribe
Métodos estadísticos con inteligencia artificial
aplicados a criptomonedas y finanzas
descentralizadas
Colonia, Uruguay
2025
3
Índice
Introducción .............................................................................................................. 8
Capítulo I ................................................................................................................ 12
Análisis econométrico avanzado de los mecanismos de oferta y demanda en los
mercados globales ................................................................................................... 12
El paradigma estructural y el desafío de la simultaneidad ................................... 12
Fundamentos de los modelos de ecuaciones simultáneas (SEM) ...................... 13
Métodos de estimación de información limitada y completa ............................ 14
Avances en el Método Generalizado de Momentos (GMM) y endogeneidad
dinámica .............................................................................................................. 15
GMM frente a estimadores clásicos en presencia de heterocedasticidad ........... 15
Endogeneidad dinámica en datos de panel ...................................................... 16
Dinámica de series temporales y transmisión de precios internacionales ............. 16
Cointegración y modelos de corrección de errores (VECM) .............................. 17
El enigma de la autocorrelación en modelos de almacenamiento ..................... 17
Interdependencia global y el modelo Global VAR (GVAR) .................................. 18
Estructura y resolución de la dimensionalidad ................................................. 18
Dinámica de spillovers: El caso de China ......................................................... 19
Modelos de Equilibrio General Dinámico Estocástico (DSGE) de economía abierta
............................................................................................................................ 19
El modelo SIGMA y la política monetaria global .............................................. 20
Identificación de choques en periodos de crisis ................................................ 20
Heterogeneidad de agentes y modelos HANK .................................................... 21
Transmisión de la demanda y Propensión Marginal al Consumo (MPC) .......... 21
Aplicación al mercado inmobiliario y alquileres ............................................... 22
Frontera tecnológica: Machine Learning y Big Data en la economía global .......... 22
Nowcasting del comercio mundial con conjuntos de datos masivos ................. 23
Double Machine Learning (DML) para elasticidades de precio ........................ 24
Casos de estudio sectoriales: Energía y minerales críticos .................................... 24
El mercado petrolero: Agotamiento y elasticidad estructural ........................... 24
4
La econometría de los minerales críticos (Litio, Cobre, Níquel) ........................ 25
Spillovers de mercados emergentes y política comercial ...................................... 26
Modelos de gravedad y sorpresas de crecimiento ............................................ 26
El auge del proteccionismo comercial............................................................... 27
Modelización de constructos latentes en el comercio internacional ...................... 27
Integración de análisis de factores y diagramas de ruta .................................... 27
Conclusiones sobre la frontera econométrica global ............................................. 28
Capítulo II ............................................................................................................... 30
Hacia una Nueva Gobernanza Económica Basada en Datos .................................... 30
El Cambio de Paradigma: Los Datos como Activo Estratégico ............................. 30
Marcos Internacionales y el Contrato Social para los Datos .................................. 31
Recomendaciones de la OCDE y la Unión Europea .......................................... 32
La Estrategia de Transformación Digital del Perú al 2030 .................................... 33
El Rol de la Secretaría de Gobierno y Transformación Digital .......................... 33
Gobernanza Fiscal y Aduanera Inteligente: El Caso de la SUNAT ....................... 34
El Arsenal Digital de la SUNAT y la Fiscalización Predictiva ........................... 34
Comparativa Internacional en Recaudación y Big Data .................................... 35
Innovación Monetaria y el Proyecto de CBDC del BCRP ..................................... 35
Pilotos de Dinero Digital y Resultados Regionales ........................................... 36
Interoperabilidad: La Clave del Flujo de Datos en el Estado ................................ 36
El Benchmarking de Estonia y el Sistema X-Road ............................................. 37
La Plataforma de Interoperabilidad del Estado (PIDE) en Perú ........................ 37
Desafíos Estructurales: Informalidad y Brecha Regional ...................................... 38
El Impacto de la Informalidad en la Productividad .......................................... 38
La Digitalización como Motor de Formalización .............................................. 39
Tecnologías de Vanguardia: Blockchain, IoT y Gestión de Crisis ......................... 39
Blockchain y la Seguridad del Dato .................................................................. 39
Lecciones de la Gestión de Crisis (COVID-19) .................................................. 40
Ética, Privacidad y Soberanía Digital ................................................................... 40
Desafíos Éticos y Sesgos Algorítmicos .............................................................. 40
5
Ciberseguridad y Protección de Datos Personales ............................................ 41
Hacia una Síntesis de la Nueva Gobernanza Económica ...................................... 41
Capítulo III .............................................................................................................. 43
Integración de la Inteligencia Artificial en la Previsión de Flujos Comerciales:
Transformación de la Macroeconómica Global y Operativa (2025-2040) .................. 43
Dinámicas Macroeconómicas y el Papel de la Inteligencia Artificial en 2025 ........ 43
Arquitecturas de Aprendizaje Profundo para la Previsión de Series Temporales . 45
Redes Recurrentes: LSTM y GRU ..................................................................... 45
Transformers y Modelado de Largo Alcance .................................................... 47
El Ecosistema de Datos Alternativos en el Comercio Exterior .............................. 47
Imágenes Satelitales e Inteligencia Geoespacial ................................................ 48
El Papel de la Inteligencia de Documentos y el Procesamiento de Lenguaje
Natural (NLP) .................................................................................................. 48
Inteligencia Artificial en las Finanzas Comerciales y Fintech ............................... 49
Modelos de Calificación Crediticia Basados en IA ............................................ 49
Iniciativas de Interoperabilidad Transfronteriza: Proyecto Aperta ................... 50
Optimización Operativa y Resiliencia en la Cadena de Suministro ...................... 50
Previsión de la Demanda y Gestión de Inventarios .......................................... 51
Visibilidad Predictiva y Gestión de Excepciones .............................................. 51
Metodologías de Proyección Macroeconómica: El Modelo GIMF del FMI ........... 51
Estructura del Modelo GIMF para la IA ........................................................... 52
Resultados de la Simulación y Desigualdad Global .......................................... 52
El Impacto en el Mercado Laboral y la Estructura de Costos ................................ 53
Sustitución de Tareas y Primas Salariales ......................................................... 53
La Fuerza Laboral en Países en Desarrollo ....................................................... 54
Desafíos Técnicos: Silos de Datos y Fragmentación Regulatoria ........................... 54
Causas y Consecuencias de los Silos ................................................................. 55
Aprendizaje Federado como Solución de Privacidad ....................................... 55
El Marco Regulatorio Global: De la Innovación a la Restricción ........................... 56
La Ley de IA de la UE y sus Implicaciones Comerciales ................................... 56
6
AI Convergence vs. AI Divergence ................................................................... 57
Conclusiones y Perspectivas Estratégicas hacia 2040 ............................................ 57
Capítulo IV ............................................................................................................. 59
Análisis Técnico y Sistémico de Métodos Estadísticos e Inteligencia Artificial en
Estructuras Económicas No Fiduciarias................................................................... 59
Fundamentos de la Economía No Fiduciaria y la Gestión Técnica de Recursos .... 59
Comparativa Estructural de Sistemas Económicos y sus Mecanismos de Control
......................................................................................................................... 60
Modelado Estadístico y Aprendizaje Automático para la Predicción de Volatilidad
............................................................................................................................ 61
Evolución hacia Modelos de Aprendizaje Automático y Redes Neuronales ..... 62
IA y Aprendizaje por Refuerzo en la Optimización de Tokenomics ..................... 63
Mecanismos de Estabilización Algorítmica y DAOs ......................................... 64
Integridad y Seguridad en Redes Descentralizadas: Detección de Anomalías ...... 65
Metodologías de Detección y Evaluación de Modelos ...................................... 65
El Papel de la Simulación y los Datos Sintéticos en la Resiliencia Económica ....... 66
Privacidad y Cumplimiento mediante Aprendizaje Federado .......................... 66
Optimización de la Asignación de Recursos Físicos y Digitales ........................... 67
Desafíos Metodológicos y Complejidad Socio-Técnica ......................................... 68
La Paradoja de la Estabilidad Algorítmica ........................................................ 68
Hacia una Nueva Gobernanza Económica Basada en Datos ................................ 69
Capítulo V ............................................................................................................... 71
Métodos estadísticos con inteligencia artificial aplicados a plataformas Fintech ...... 71
Evolución y maduración del ecosistema Fintech global ....................................... 71
Metodologías estadísticas y aprendizaje automático en la gestión del riesgo
crediticio .............................................................................................................. 73
Comparativa de desempeño entre modelos tradicionales y avanzados ............ 73
Optimización y validación estadística de los modelos ...................................... 74
Detección de fraude y análisis de anomalías en tiempo real ................................. 75
Arquitecturas para el análisis de series temporales .......................................... 76
Biometría conductual y redes de grafos (GNN) ................................................ 76
7
Inteligencia artificial en el asesoramiento robótico y la gestión patrimonial ......... 77
Optimización de carteras más allá de la media-varianza .................................. 78
Aprendizaje por refuerzo y mitigación de sesgos ............................................. 78
Procesamiento de lenguaje natural y análisis de sentimiento financiero .............. 79
Evolución hacia la fusión bayesiana de modelos de lenguaje ........................... 79
Aplicaciones estratégicas del NLP .................................................................... 80
Trading de alta frecuencia (HFT) y sistemas multi-agente ................................... 81
La revolución de JaxMARL-HFT y la aceleración por GPU .............................. 81
Inteligencia artificial explicable (XAI) y el nuevo marco regulatorio .................... 82
Técnicas y principios de la XAI en finanzas ...................................................... 83
Casos de estudio y líderes del mercado: Nubank, Revolut y la infraestructura de
pagos ................................................................................................................... 83
Nubank: Dominancia en América Latina mediante analítica profunda ............ 84
Revolut: La super-app financiera global ........................................................... 84
Infraestructura de pagos: Stripe y Square ......................................................... 85
Conclusiones y prospectiva hacia la segunda mitad de la década ........................ 85
Conclusión .............................................................................................................. 87
Bibliografía.............................................................................................................. 89
8
Introducción
A medida que el año 2025 avanza, el mercado de criptomonedas y las finanzas
descentralizadas (DeFi) han trascendido su fase de experimentación para consolidarse
como componentes estructurales del sistema financiero global. Esta evolución no ha
sido puramente impulsada por la especulación, sino por una sofisticación tecnológica
que permite procesar volúmenes masivos de datos en tiempo real, utilizando
arquitecturas de inteligencia artificial (IA) que superan las capacidades analíticas de
los modelos econométricos tradicionales. El presente informe de investigación actúa
como una introducción exhaustiva a los métodos que definen esta era, analizando
desde la modelización estocástica de la volatilidad hasta el despliegue de agentes
autónomos agénticos en protocolos de liquidez.
Durante décadas, el análisis de mercados financieros se fundamentó en la
Hipótesis de los Mercados Eficientes (EMH), que postula que los precios reflejan toda
la información disponible de manera instantánea. No obstante, la volatilidad extrema
y las dinámicas de red intrínsecas a los activos digitales han desafiado estas nociones.
La transición hacia el año 2025 ha evidenciado que los mercados de criptomonedas,
aunque cada vez más maduros, operan bajo regímenes de ineficiencia relativa donde
los patrones no lineales y las dependencias de largo plazo ofrecen oportunidades de
arbitraje y predicción inalcanzables para los modelos lineales básicos como el ARIMA
(Autoregressive Integrated Moving Average).
La insuficiencia de los modelos tradicionales radica en su incapacidad para
capturar las "colas pesadas" (fat-tails) y los saltos bruscos de precios provocados por
eventos exógenos, como cambios regulatorios o movimientos coordinados de grandes
tenedores. En este contexto, la inteligencia artificial, particularmente a través del
aprendizaje profundo (Deep Learning), permite modelar la complejidad del mercado
9
mediante redes neuronales que no requieren supuestos previos sobre la distribución
de los datos.
Uno de los pilares fundamentales de esta investigación es la aplicación de
modelos estadísticos para la gestión del riesgo. La volatilidad de Bitcoin, por ejemplo,
registró un promedio intradía del 3.8% entre 2020 y 2022, comparado con el 0.7% del
S&P 500, una disparidad que exige herramientas de medición de precisión extrema. El
uso de modelos GARCH (Generalized Autoregressive Conditional
Heteroskedasticity) sigue siendo relevante para la estimación de la varianza
condicional, pero en 2025 estos se han integrado en marcos de redes neuronales
(GARCH-DL) para mejorar su capacidad reactiva ante choques de liquidez.
La modelización bayesiana ha resurgido como una herramienta vital para la
actualización de probabilidades en entornos de incertidumbre. Mediante la regresión
bayesiana, los inversores institucionales pueden ajustar sus expectativas de precio en
función de nuevas evidencias, como flujos de entrada en ETFs de Bitcoin o cambios
en las tasas de interés de los bancos centrales.
El trading de criptomonedas en 2025 está dominado por sistemas que operan
en milisegundos, donde la velocidad de procesamiento de datos on-chain y off-chain
es la métrica de éxito definitiva. Estos sistemas emplean una arquitectura de "fusión
multimodal", integrando datos estructurados (precios, volumen) con datos no
estructurados (noticias, sentimiento en redes sociales).
El aprendizaje por refuerzo (RL) ha revolucionado la toma de decisiones
dinámicas al permitir que un agente aprenda políticas óptimas de inversión a través
de la interacción directa con el entorno de mercado. A diferencia del aprendizaje
supervisado, el RL no requiere etiquetas de "correcto" o "incorrecto", sino que
maximiza una función de recompensa acumulada, como el ratio de Sharpe o el retorno
neto.
10
En 2025, el marco líder es el "prediction-decision framework", que utiliza una
combinación de Gradient Boosting Regression Trees (GBRT) para la previsión a corto
plazo y algoritmos de RL como Rainbow DQN o Soft Actor-Critic (SAC) para la
ejecución de órdenes.
El ecosistema DeFi ha evolucionado de simples protocolos de intercambio a
complejas infraestructuras de gobernanza y liquidez. El año 2025 marca la
consolidación de protocolos como Sky (la evolución de MakerDAO), Aave y
EigenLayer como los pilares de la nueva economía.
El año 2025 muestra un dinamismo particular en las regiones de habla hispana.
España se ha consolidado como un centro de innovación Fintech en Europa, con
ciudades como Madrid, Barcelona y Valencia albergando a cientos de empresas que
integran IA y Blockchain. Los bancos tradicionales españoles, como Santander,
lideran iniciativas de bonos verdes tokenizados, utilizando Blockchain para garantizar
la transparencia en la financiación sostenible.
En Latinoamérica, el panorama es de adopción masiva impulsada por la
necesidad de inclusión financiera y protección contra la inflación. Brasil, México,
Colombia y Argentina se encuentran entre los líderes mundiales en adopción de
criptomonedas.
La investigación presentada subraya que la aplicación de métodos estadísticos
avanzados y técnicas de inteligencia artificial no es solo una ventaja competitiva, sino
un requisito de supervivencia en el mercado criptográfico de 2025. Los modelos
híbridos, que combinan el rigor de la econometría clásica con la potencia predictiva
de las redes neuronales profundas, ofrecen el camino más sólido hacia la eficiencia del
mercado.
Por ende, la integración de la computación cuántica presenta tanto el mayor
riesgo como la mayor oportunidad. Mientras que el algoritmo de Shor amenaza con
11
comprometer las claves privadas actuales, la criptografía post-cuántica y el
aprendizaje automático cuántico prometen llevar la velocidad y seguridad de las
finanzas descentralizadas a niveles inimaginables.
En última instancia, el éxito de los "Métodos estadísticos con inteligencia
artificial aplicados a criptomonedas y finanzas descentralizadas" dependerá de la
capacidad de los investigadores y reguladores para colaborar en la creación de
sistemas que no solo sean rentables, sino también éticos, transparentes y resilientes
ante las tormentas del mercado digital. La transición hacia una economía agéntica,
donde los humanos y la IA coexisten en la cadena de bloques, ya ha comenzado, y la
modelización estadística es el lenguaje que permite traducir esa complejidad en
decisiones financieras inteligentes.
12
Capítulo I
Análisis econométrico avanzado de los
mecanismos de oferta y demanda en los
mercados globales
La evolución de la economía global en la última década ha transformado
radicalmente la manera en que los analistas y académicos abordan el estudio de los
mercados. La interconexión sistémica, la volatilidad extrema en los precios de las
materias primas y la emergencia de choques exógenos de gran escala, como la
pandemia del COVID-19 y las tensiones geopolíticas en Eurasia, han dejado obsoletos
los modelos de regresión lineal simples para el análisis de la oferta y la demanda. En
este contexto, la econometría avanzada se ha consolidado como la disciplina
fundamental para desentrañar las complejas relaciones causales, la dinámica de los
precios y la propagación de desbordamientos internacionales (spillovers). El presente
reporte analiza las metodologías de vanguardia empleadas en la modelización de
mercados globales, integrando enfoques estructurales, dinámicos y computacionales
que definen la frontera actual de la investigación macroeconómica y sectorial.
El paradigma estructural y el desafío de la
simultaneidad
La determinación del precio y la cantidad en un mercado global no es un
proceso unidireccional, sino el resultado de un sistema de interacciones simultáneas.
Este fenómeno constituye el problema central de la endogeneidad en la econometría
13
de oferta y demanda.1 Cuando el precio de una mercancía se determina por la
intersección de las curvas de oferta y demanda, dicho precio está correlacionado con
los términos de error de ambas ecuaciones. En consecuencia, el uso de Mínimos
Cuadrados Ordinarios (OLS) produce estimadores sesgados e inconsistentes, ya que
se viola el supuesto de exogeneidad de los regresores.1
Fundamentos de los modelos de ecuaciones simultáneas (SEM)
Para abordar esta problemática, la teoría económica recurre a los Modelos de
Ecuaciones Simultáneas (SEM). Estos modelos describen el comportamiento de una
economía o mercado a través de un conjunto de ecuaciones estructurales que
representan relaciones teóricas explícitas.1 En un sistema típico, tenemos M variables
endógenas, cuyos valores se determinan dentro del sistema, y K variables exógenas o
predeterminadas, cuyos valores se consideran dados fuera del modelo.1 La
representación matricial de este sistema es:
Y \Gamma + X B = E
Donde Y es una matriz de variables endógenas de dimensión T \times M, X es
una matriz de variables exógenas de dimensión T \times K, \Gamma y B son las
matrices de parámetros estructurales, y E es la matriz de perturbaciones estocásticas.1
La identificación del modelo es un requisito previo para la estimación. Según la
condición de orden, para que una ecuación esté identificada, el número de variables
exógenas excluidas de dicha ecuación debe ser al menos igual al número de variables
endógenas incluidas menos uno.3
La forma estructural del modelo refleja la teoría económica subyacente, pero
para fines de estimación y pronóstico, a menudo se deriva la "forma reducida".1 Al
post-multiplicar la ecuación estructural por \Gamma^{-1} (asumiendo que es no
14
singular), obtenemos:
Y = X \Pi + V
Donde \Pi = -B \Gamma^{-1} es la matriz de parámetros de la forma reducida
y V = E \Gamma^{-1} es el nuevo término de error. Cada variable endógena se expresa
ahora como una función lineal únicamente de las variables exógenas del sistema, lo
que permite la aplicación de OLS de manera consistente en la forma reducida, aunque
no necesariamente permite recuperar todos los parámetros estructurales a menos que
el modelo esté exactamente identificado.1
Métodos de estimación de información limitada y completa
La literatura econométrica ha desarrollado una jerarquía de estimadores para
resolver el sesgo de simultaneidad, cada uno con diferentes propiedades de eficiencia
y robustez. El método de Mínimos Cuadrados en Dos Etapas (2SLS) es la herramienta
más común para la estimación de ecuaciones individuales dentro de un sistema.4 En
la primera etapa, se regresan las variables endógenas explicativas sobre todos los
instrumentos exógenos para obtener valores proyectados que, por construcción, están
descorrelacionados con el término de error estructural. En la segunda etapa, se utiliza
esta proyección como regresor para obtener estimadores consistentes del efecto
causal.4
Sin embargo, cuando se busca eficiencia sistémica, el método de Mínimos
Cuadrados en Tres Etapas (3SLS) supera al 2SLS. El 3SLS es un estimador de
"información completa" que estima todas las ecuaciones simultáneamente,
aprovechando la estructura de covarianza de los términos de error entre ecuaciones.4
Esto es particularmente relevante en mercados globales interconectados donde un
15
choque en la demanda de crudo en Asia puede estar correlacionado con un choque en
la oferta de gas natural en Europa debido a factores macroeconómicos subyacentes no
observados.6
El 3SLS se reduce a Mínimos Cuadrados Ordinarios si no hay endogeneidad y
a Regresiones Aparentemente no Relacionadas (SUR) si todos los regresores son
exógenos.5 Investigaciones empíricas indican que mientras el 3SLS ofrece mejores
estimaciones asintóticas, en muestras pequeñas, métodos como el MVR (Multivariate
Regression) pueden tener un desempeño superior.8
Avances en el Método Generalizado de Momentos
(GMM) y endogeneidad dinámica
En las últimas décadas, el Método Generalizado de Momentos (GMM) ha
emergido como el estándar de oro para el tratamiento de la endogeneidad en sistemas
complejos.9 A diferencia de los métodos de máxima verosimilitud que requieren
supuestos sobre la distribución de los errores, el GMM solo exige que se cumplan
ciertas condiciones de momento u ortogonalidad entre los instrumentos y las
perturbaciones.4
GMM frente a estimadores clásicos en presencia de
heterocedasticidad
El GMM es intrínsecamente más flexible que el 3SLS cuando los datos
presentan heterocedasticidad o autocorrelación, problemas comunes en las series de
precios internacionales.10 El estimador GMM minimiza una forma cuadrática de las
condiciones de momento utilizando una matriz de pesos óptima que, en su versión
16
robusta, tiene en cuenta la estructura de varianza de los errores.11
En la práctica, la implementación de GMM para sistemas de ecuaciones
grandes puede ser computacionalmente intensiva. Mientras que el 3SLS utiliza una
solución de matriz cerrada rápida, el GMM requiere optimización numérica no
lineal.11 No obstante, estudios comparativos demuestran que el HCGMM
(Heteroscedasticity-Consistent GMM) es el estimador más eficiente bajo violaciones
severas de los supuestos clásicos, superando sistemáticamente al 2SLS y al 3SLS en
términos de Error Cuadrático Medio (RMSE) y sesgo.10
Endogeneidad dinámica en datos de panel
El análisis de oferta y demanda global a menudo utiliza datos de panel para
capturar la variación tanto temporal como entre países o regiones. Aquí surge el
problema de la endogeneidad dinámica, donde los valores rezagados de la variable
dependiente (por ejemplo, el consumo de energía del año pasado) afectan los valores
actuales y están correlacionados con los efectos fijos no observados.9 Los modelos de
GMM en Diferencias (Arellano-Bond) y GMM en Sistema (Blundell-Bond) se han
vuelto herramientas indispensables para corregir este sesgo, permitiendo estimar la
persistencia de la demanda global de materias primas con una precisión inalcanzable
para los modelos estáticos.4
Dinámica de series temporales y transmisión de
precios internacionales
La econometría de la oferta y demanda global no puede limitarse a
instantáneas estáticas del equilibrio; debe capturar la evolución temporal de los
17
precios y las cantidades. Los modelos de Vectores Autorregresivos (VAR) y sus
extensiones han revolucionado este campo al permitir que todas las variables del
sistema sean tratadas como endógenas, capturando las retroalimentaciones entre
ellas.12
Cointegración y modelos de corrección de errores (VECM)
Cuando se analizan mercados de productos básicos como el trigo, el petróleo
o los metales, es crucial determinar si los precios en diferentes regiones geográficas
están integrados. El concepto de cointegración, introducido por Engle y Granger y
perfeccionado por Johansen, postula que si dos o más series de precios no
estacionarias comparten una tendencia común a largo plazo, existe una relación de
equilibrio estable entre ellas.14
Un Modelo de Corrección de Errores Vectoriales (VECM) permite
descomponer la dinámica de los precios en dos componentes: el ajuste hacia el
equilibrio de largo plazo y las desviaciones transitorias de corto plazo.14 Por ejemplo,
en el mercado mundial del trigo, se ha observado que los precios domésticos en
grandes productores como India están cointegrados con los precios de exportación de
Estados Unidos y Argentina.14, 15
El enigma de la autocorrelación en modelos de almacenamiento
Un avance significativo en la econometría aplicada a commodities es la
modelización del almacenamiento estratégico. Históricamente, los economistas
enfrentaron el "rompecabezas de la autocorrelación": los precios de las materias
primas muestran una persistencia mucho mayor de la que sugieren los choques de
producción anuales.16 Modelos recientes de expectativas racionales con
18
almacenamiento han resuelto este dilema al demostrar que las decisiones de
inventario actúan como un mecanismo de amortiguación.
Investigaciones de vanguardia indican que aproximadamente el 40% de la
autocorrelación anual observada en los precios de los granos se explica por las
decisiones de almacenamiento, que transfieren excedentes de periodos de abundancia
a periodos de escasez.16 Además, estos modelos sugieren una asimetría crítica:
mientras que el almacenamiento protege contra colapsos de precios ante choques de
oferta positivos, los picos dramáticos de precios suelen ser causados por choques de
demanda positivos masivos que agotan las existencias disponibles.16
Interdependencia global y el modelo Global VAR
(GVAR)
En un mundo globalizado, los choques económicos ya no se limitan a fronteras
nacionales. La crisis financiera de 2008 y la reciente crisis energética han subrayado la
necesidad de marcos que capturen las interdependencias macroeconómicas y
financieras a escala planetaria. El modelo GVAR (Global Vector Autoregression) es la
respuesta metodológica a este desafío.17
Estructura y resolución de la dimensionalidad
El GVAR aborda la "maldición de la dimensionalidad" la proliferación de
parámetros que ocurre cuando se intenta incluir muchas variables de muchos países
en un solo VAR mediante un enfoque de dos etapas.17 Primero, se estiman modelos
individuales para cada país (VARX*) que incluyen variables domésticas y variables
externas ponderadas (variables "estrella"), como el PIB extranjero o la inflación global,
19
que actúan como proxies de factores globales comunes.17 Segundo, estos modelos
individuales se combinan en un sistema global único que puede ser resuelto
simultáneamente para todos los países.18
Dinámica de spillovers: El caso de China
El análisis de los efectos de desbordamiento de China ilustra la utilidad del
GVAR. Al comparar los patrones comerciales de principios de los 2000 con los de 2020,
los modelos GVAR revelan una transformación estructural en la vulnerabilidad
global.20 La participación de China en el comercio mundial ha pasado de niveles
marginales a ser el principal socio para la mayoría de las economías.
Los resultados del GVAR indican que un choque negativo en el PIB de China
tiene hoy un impacto tres veces mayor en el crecimiento de Estados Unidos y Europa
que hace dos décadas.20 Esto se debe no solo al volumen comercial, sino a la
integración de China en los mercados financieros y su influencia en los precios
globales de las materias primas, de las cuales es el principal consumidor.20 El modelo
GVAR permite a los bancos centrales realizar análisis de escenarios contrafactuales,
evaluando, por ejemplo, el impacto de una guerra comercial o de una devaluación del
yuan sobre las balanzas comerciales de terceros países.19
Modelos de Equilibrio General Dinámico
Estocástico (DSGE) de economía abierta
Mientras que los modelos VAR son predominantemente empíricos y basados
en datos, los modelos DSGE representan el núcleo de la teoría macroeconómica
moderna, proporcionando microfundamentos sólidos basados en la optimización del
20
comportamiento de hogares y empresas.22
El modelo SIGMA y la política monetaria global
El modelo SIGMA, desarrollado por la Reserva Federal de Estados Unidos, es
un ejemplo prominente de un DSGE de economía abierta y multipaís diseñado para
el análisis cuantitativo de políticas.24 SIGMA incorpora fricciones nominales (precios
y salarios rígidos) y reales (costes de ajuste en la inversión y el consumo) que permiten
al modelo replicar la persistencia observada en los datos macroeconómicos.25
Una característica distintiva de SIGMA es el tratamiento de las expectativas. A
diferencia de los modelos de expectativas adaptativas tradicionales, SIGMA asume
expectativas racionalmente consistentes con el modelo, pero introduce "fricciones de
información".25 Los agentes utilizan filtros de Kalman para distinguir entre choques
permanentes y transitorios en la productividad o la política fiscal, lo que genera
respuestas graduales y "hump-shaped" en el consumo y la inversión que se alinean
con la evidencia empírica de los modelos VAR.25
Identificación de choques en periodos de crisis
Durante la recuperación post-pandemia de 2021-2022, el marco DSGE se
utilizó para discernir si la inflación era impulsada por un exceso de demanda o por
restricciones de oferta.26 Al modelar restricciones de capacidad de producción como
cuellos de botella físicos, los analistas de la Fed pudieron demostrar que estas
restricciones actuaban de manera similar a choques de "markup" o de empuje de
costes, elevando las curvas de Phillips de precios domésticos e importados.26 Las
simulaciones indicaron que las restricciones vinculantes explicaron aproximadamente
la mitad del aumento de la inflación en ese periodo, validando la narrativa de que la
21
demanda robusta chocó contra una oferta global inflexible.26
Sin embargo, los modelos DSGE han sido objeto de intensas críticas por su
incapacidad para predecir crisis sistémicas profundas, como la de 2008.27 Muchos
investigadores argumentan que la dependencia de linealizaciones alrededor del
estado estacionario y la exclusión de fricciones financieras complejas limitan su
utilidad como herramientas de alerta temprana.22 En respuesta, la nueva generación
de modelos DSGE está integrando sectores financieros detallados y mecanismos de no
linealidad para capturar mejor los riesgos de cola.22
Heterogeneidad de agentes y modelos HANK
Uno de los avances más disruptivos en la econometría de la última década ha
sido el paso de modelos con un "Agente Representativo" (RANK) a modelos con
"Agentes Heterogéneos" (HANK).29 Los modelos RANK asumen que todos los
consumidores son iguales, lo que implica que responden de manera idéntica a los
cambios en los tipos de interés o la política fiscal. HANK rompe este supuesto al
incorporar una distribución realista de riqueza, ingresos y liquidez.30
Transmisión de la demanda y Propensión Marginal al Consumo
(MPC)
En los modelos HANK, la transmisión de la política económica ocurre de
manera muy diferente. Mientras que en RANK el canal principal es la sustitución
intertemporal (la gente ahorra más si los tipos suben), en HANK el canal dominante
es el efecto de equilibrio general sobre los ingresos.30
La evidencia empírica muestra que los hogares tienen una Propensión
22
Marginal al Consumo (MPC) agregada de entre el 15% y el 20% en el primer trimestre,
comparado con el minúsculo 0.5% a 1% que predicen los modelos de agente
representativo.30 Esto se debe a la existencia de hogares "hand-to-mouth" (viven al
día), que consumen inmediatamente cualquier incremento en sus ingresos líquidos.
En consecuencia, los choques de demanda global tienen efectos multiplicadores
mucho más potentes y persistentes en economías con alta desigualdad o restricciones
de crédito.30
Aplicación al mercado inmobiliario y alquileres
Investigaciones recientes utilizando modelos HANK han analizado la
transmisión de la política monetaria a los mercados de vivienda.32 Al modelar la
elección entre ser propietario o inquilino bajo restricciones de endeudamiento, se ha
descubierto que una subida de tipos de interés genera una caída inmediata y profunda
en los precios de las casas, pero mantiene los precios de los alquileres estables o
incluso al alza a corto plazo.32 Los propietarios, enfrentados a mayores costes
hipotecarios, intentan trasladar el coste a los inquilinos, pero la fricción en la búsqueda
de vivienda y los contratos a largo plazo moderan esta transmisión, creando
dinámicas de mercado divergentes que los modelos agregados no pueden capturar.32
Frontera tecnológica: Machine Learning y Big Data
en la economía global
La disponibilidad masiva de datos y el aumento del poder computacional han
permitido la integración del aprendizaje automático (Machine Learning) en el arsenal
econométrico tradicional. Estos métodos son particularmente eficaces para manejar
no linealidades y conjuntos de datos de alta dimensionalidad que antes eran
23
inabarcables.33
Nowcasting del comercio mundial con conjuntos de datos
masivos
El comercio mundial es un indicador temprano crucial de la actividad
económica, pero los datos oficiales suelen publicarse con retrasos de meses. Para
obtener estimaciones en tiempo real (nowcasting), los economistas del BCE y otras
instituciones han desarrollado enfoques de Machine Learning que procesan hasta
11,000 series de indicadores económicos.35
Un enfoque secuencial de tres pasos ha demostrado ser superior a las técnicas
tradicionales de OLS o modelos de factores dinámicos:
1. Pre-selección: Uso de algoritmos de penalización como Lasso o LARS para
identificar los predictores más relevantes entre cientos de variables de alta
frecuencia (PMI, datos de puertos, imágenes satelitales).33
2. Extracción de factores: Aplicación de PCA para condensar la información
seleccionada en unos pocos factores ortogonales que resumen el estado de la
economía global.33
3. Regresión de Machine Learning: Uso de Macroeconomic Random Forest (MRF) o
Gradient Boosting para realizar la predicción final, capturando interacciones no
lineales que surgen especialmente durante periodos de crisis.33
Este enfoque ha demostrado que el Machine Learning es más efectivo cuando
se utiliza como complemento de la estructura econométrica clásica (reduciendo el
ruido primero mediante factores) en lugar de aplicarse directamente sobre los datos
brutos.33
24
Double Machine Learning (DML) para elasticidades de precio
La estimación de la elasticidad precio de la demanda es una tarea crítica pero
difícil debido a la endogeneidad del precio. El Double Machine Learning (DML) aborda
este problema combinando la potencia predictiva de algoritmos como XGBoost con la
inferencia estadística robusta.7
El proceso de DML utiliza la "ortogonalización": se entrena un modelo de ML
para predecir la cantidad demandada a partir de variables de confusión (clima,
temporada, festivos, competidores) y otro modelo para predecir el precio a partir de
las mismas variables.7 Al restar estas predicciones de los valores reales, se obtienen
residuos que representan la variación en el precio y la cantidad que no puede ser
explicada por factores externos. La elasticidad se estima finalmente mediante una
regresión de los residuos de la cantidad sobre los residuos del precio, proporcionando
una medida puramente causal del impacto del precio.7 Esta técnica ha revelado
elasticidades mucho más precisas en sectores minoristas y de transporte, donde los
precios cambian dinámicamente cada minuto.7
Casos de estudio sectoriales: Energía y minerales
críticos
La aplicación de estas técnicas avanzadas es particularmente evidente en el
análisis de los mercados de energía y de las materias primas necesarias para la
transición energética.
El mercado petrolero: Agotamiento y elasticidad estructural
El Fondo Monetario Internacional (FMI) utiliza modelos estructurales
25
dinámicos para el mercado del crudo que integran factores geológicos y económicos.40
La oferta de petróleo se modela considerando el agotamiento natural de los campos
convencionales (estimado en 3-4% anual) y la exploración endógena que responde a
los precios.40
El modelo estructural revela una dualidad en la oferta: mientras que la
producción de petróleo convencional es muy inelástica en el corto plazo debido a los
largos tiempos de inversión, la producción de shale oil es extremadamente sensible a
los precios, actuando como un equilibrador del mercado global.40 En el lado de la
demanda, el crecimiento secular de las economías emergentes (China e India) sigue
compensando las ganancias de eficiencia energética en los países de la OCDE,
manteniendo una presión alcista sobre el equilibrio de largo plazo.41
La econometría de los minerales críticos (Litio, Cobre, Níquel)
La transición hacia vehículos eléctricos y energías renovables ha disparado la
demanda de minerales estratégicos. La Agencia Internacional de la Energía (IEA) y el
USGS emplean modelos de ecuaciones simultáneas para estimar la disponibilidad de
estos recursos en el horizonte 2024-2040.43
Un hallazgo econométrico clave, utilizando 2SLS, es que la demanda de litio
se ha vuelto significativamente menos elástica (-0.11) desde 2020.45 Esto indica que los
fabricantes de baterías están dispuestos a aceptar precios mucho más altos para
asegurar el suministro físico, lo que aumenta el riesgo de volatilidad extrema. El
mercado del litio, en particular, enfrenta un "gran desconecte": mientras que la
demanda proyectada crecerá 3.5 veces para 2030, la oferta minera tarda entre 5 y 25
años en entrar en operación, creando cuellos de botella estructurales.46
26
La concentración geográfica de la oferta con China procesando el 65% del
litio y el 85% de las tierras raras introduce riesgos geopolíticos que los modelos
econométricos ahora integran mediante variables de "riesgo de país" y simulaciones
de interrupción de suministros.43 El uso de GMM en estos contextos permite estimar
la sensibilidad de la transición energética global ante choques en los costes de capital
o cambios en las políticas de subsidios (como el Inflation Reduction Act en EE. UU.).48
Spillovers de mercados emergentes y política
comercial
El informe de perspectivas mundiales (WEO) del FMI ha documentado un
cambio fundamental en el origen de los choques económicos. Los mercados
emergentes del G20 (EM G20) ya no son solo receptores de choques de las economías
avanzadas; se han convertido en motores de propagación global.50
Modelos de gravedad y sorpresas de crecimiento
Utilizando modelos de gravedad estándar para datos de comercio bilateral, el
FMI ha cuantificado que la integración comercial de los EM G20 se ha acelerado
drásticamente en la última década, incluso si se excluye a China del análisis.51 La
correlación entre las "sorpresas de crecimiento" (la diferencia entre el crecimiento real
y el proyectado) de los emergentes y las economías avanzadas se ha vuelto
estadísticamente significativa desde 2014.51
El análisis VAR estructural estima que un choque de crecimiento en los EM
G20 explica ahora el 5% de la fluctuación del PIB en las economías avanzadas, lo cual
es masivo considerando que hace dos décadas este impacto era casi nulo.51 Canales
27
como los precios de las materias primas y la integración financiera a través de los tipos
de interés globales son los principales conductores de estos efectos de
desbordamiento.51
El auge del proteccionismo comercial
Desde 2019, la econometría de la oferta y la demanda global ha tenido que
incorporar una nueva variable: la explosión en el uso de políticas comerciales
distorsivas.52 Utilizando modelos de factores dinámicos sobre bases de datos de gran
escala (como GTA y TMDB), los investigadores han documentado un giro estructural
hacia el nacionalismo económico.52 Estas políticas, a menudo justificadas por la
seguridad nacional o la autonomía estratégica en minerales críticos, desplazan las
curvas de oferta global hacia la izquierda y aumentan la rigidez de los precios, lo que
complica la tarea de los bancos centrales para controlar la inflación sin generar
recesiones.50
Modelización de constructos latentes en el
comercio internacional
En síntesis, un área en expansión es el uso de Modelos de Ecuaciones
Estructurales (SEM) con variables latentes.53 Muchos de los factores que impulsan la
oferta y la demanda global no son directamente observables, como la "incertidumbre
política", la "confianza del consumidor" o la "resiliencia de la cadena de suministro".53,
54
Integración de análisis de factores y diagramas de ruta
El SEM con variables latentes combina el análisis de factores que permite
28
inferir un constructo oculto a partir de indicadores observables (por ejemplo, inferir
la "resiliencia económica" a partir de la volatilidad del PIB y los déficits fiscales) con
el análisis de rutas causales.54 Esto permite a los economistas purgar los errores de
medición de las variables explicativas, algo que los modelos de regresión estándar no
pueden hacer.56
En el ámbito del comercio internacional, el SEM se utiliza para validar teorías
sobre cómo la inversión en infraestructura (observable) mejora la productividad
(latente) y, a su vez, impulsa las exportaciones.54 Las metodologías más recientes
permiten integrar variables latentes con modelos de compuestos, utilizando
estimadores de máxima verosimilitud que manejan datos faltantes de manera
eficiente, lo que es vital cuando se trabaja con países en desarrollo que tienen
estadísticas incompletas.55
Conclusiones sobre la frontera econométrica
global
El análisis avanzado de la oferta y la demanda global ha trascendido la
búsqueda de coeficientes estáticos para convertirse en una disciplina que modela
sistemas dinámicos, heterogéneos y altamente interconectados. La integración de los
modelos estructurales clásicos (SEM) con las innovaciones del aprendizaje automático
(Double ML) y la microfundamentación detallada (HANK) permite una comprensión
mucho más profunda de los mecanismos de mercado.
Las principales lecciones de la literatura contemporánea sugieren que:
1. La simultaneidad es la norma, no la excepción, requiriendo el uso sistemático de
estimadores de sistemas como 3SLS y GMM robustos para evitar sesgos de
29
política.
2. La dinámica del almacenamiento y la cointegración son fundamentales para
entender la persistencia de los precios en los mercados de commodities, donde
los choques de demanda positivos son los principales responsables de las crisis
de precios.
3. El mapa de spillovers globales se ha redibujado; la salud económica de los
mercados emergentes del G20 es ahora tan crítica para la estabilidad global como
la de las potencias tradicionales.
4. La tecnología de Big Data y Nowcasting es la única herramienta capaz de
proporcionar la agilidad necesaria para la toma de decisiones en tiempo real ante
choques sistémicos de gran escala.
En un entorno marcado por la fragmentación comercial y la transición
energética acelerada, la econometría avanzada no es solo una herramienta académica,
sino un componente esencial de la infraestructura de seguridad económica global. La
capacidad de predecir cómo se ajustarán los mercados ante restricciones de capacidad
física, cambios en la distribución de la riqueza o nuevas barreras comerciales definirá
el éxito de las políticas macroeconómicas en la próxima década.
30
Capítulo II
Hacia una Nueva Gobernanza Económica
Basada en Datos
La metamorfosis de la economía global en el siglo XXI no se limita a una simple
digitalización de procesos analógicos, sino que representa una reorganización basal
de la lógica de producción, el intercambio y la toma de decisiones impulsada por la
inteligencia artificial y el procesamiento masivo de información.1 Esta transición hacia
una gobernanza económica basada en datos implica el despliegue de tecnologías
donde las máquinas ejecutan funciones cognitivas tradicionalmente humanas como
aprender, analizar y resolver problemas complejos para optimizar la política
pública y la eficiencia de los mercados.1 En este contexto, la información extraída de
las interacciones sociales y de objetos interconectados genera beneficios económicos
sustanciales, pero también exige un giro estructural en la forma en que el Estado y la
sociedad interactúan.1
El Cambio de Paradigma: Los Datos como Activo
Estratégico
La gobernanza económica moderna se fundamenta en el reconocimiento de los
datos como un activo estratégico indispensable para la competitividad y el bienestar
social.3 A diferencia de los modelos tradicionales de administración, la gobernanza
basada en datos permite transitar de un modelo reactivo a uno predictivo, donde el
Estado es capaz de anticipar las necesidades de la ciudadanía y simplificar su relación
con los usuarios eliminando barreras burocráticas innecesarias.2 La implementación
31
de un gobierno digital eficaz requiere, por tanto, una arquitectura que integre la
institucionalidad, un marco jurídico sólido, infraestructura tecnológica de vanguardia
y una formación continua en capacidades digitales.2
La inteligencia artificial se percibe hoy como el mayor catalizador de
oportunidad comercial en la economía global, con un impacto comparable al
descubrimiento de la electricidad durante la Segunda Revolución Industrial.5 Como
nuevo factor de producción que trasciende al capital y al trabajo, la IA tiene el
potencial de agregar hasta 4.4 billones de dólares anuales a la economía mundial,
permitiendo ahorros de tiempo de hasta el 70\% para los trabajadores mediante la
automatización inteligente y la optimización de procesos complejos.5 No obstante, este
potencial económico debe gestionarse con cautela para garantizar que promueva un
desarrollo integrador y participativo, evitando que el ciberespacio se convierta en un
campo de batalla o en una herramienta de exclusión.1
Marcos Internacionales y el Contrato Social para
los Datos
Para que la economía de los datos florezca de manera equitativa, es
fundamental establecer un marco de gobernanza que aplique los principios de
confianza, valor y equidad.6 El Banco Mundial propone que la gobernanza de datos
debe entenderse como un contrato social donde el desarrollo de la infraestructura
asegure que tanto las personas como los países más pobres tengan acceso asequible a
los servicios digitales.6 Actualmente, se estima que los países de ingresos bajos están
solo a un 30\% del camino hacia la implementación de buenas prácticas de
gobernanza, mientras que los países de ingresos altos alcanzan un 50\%, lo que
32
evidencia una brecha significativa en la capacidad institucional para capturar el valor
de la información.6
Recomendaciones de la OCDE y la Unión Europea
La Organización para la Cooperación y el Desarrollo Económicos (OCDE)
enfatiza que los gobiernos deben tratar los datos como activos estratégicos, definiendo
su valor y midiendo su impacto de forma constante.3 Los beneficios sociales y
económicos del intercambio de datos en los sectores público y privado se estiman
entre el 1\% y el 2.5\% del Producto Bruto Interno (PBI), aunque estos niveles no se
han alcanzado plenamente debido a la desconfianza y los conflictos de interés entre
los distintos actores.3 Las recomendaciones internacionales instan a los gobiernos a:
Reforzar la confianza en todo el ecosistema de datos mediante la protección de la
privacidad y la propiedad intelectual.3
Estimular la inversión y el intercambio de información a través de incentivos
claros.3
Fomentar el uso responsable y transfronterizo de los datos para abordar desafíos
globales como el cambio climático o las crisis sanitarias.3
En la Unión Europea, el Reglamento de Gobernanza de Datos (Data
Governance Act) busca aumentar la disponibilidad de datos facilitando su
reutilización en sectores estratégicos como la salud, el medio ambiente, la energía y
las finanzas.7 Este marco legal fomenta el desarrollo de Espacios Comunes de Datos
Europeos, donde intermediarios confiables aseguran que la información se comparta
de acuerdo con los valores de la Unión, promoviendo la innovación y la creación de
empleo.7 La normativa introduce también el "altruismo de datos", permitiendo que
ciudadanos y empresas compartan su información de manera voluntaria para fines de
33
interés público, como la investigación médica de enfermedades raras.9
La Estrategia de Transformación Digital del Perú al
2030
El Perú ha emprendido un proceso decidido de transformación digital
alineado con sus aspiraciones de adhesión a la OCDE.10 La Política Nacional de
Transformación Digital al 2030 (PNTD) es el instrumento rector que define los
lineamientos para alcanzar una ciudadanía digital plena, donde las personas puedan
ejercer sus derechos y deberes en un entorno seguro y de calidad.12 Esta política se
articula sobre seis objetivos prioritarios que buscan impactar directamente en la
productividad y la equidad social del país.12
El Perú ha logrado avances notables en el índice de desarrollo de gobierno
electrónico (EGDI) de las Naciones Unidas, alcanzando en 2024 una puntuación de
0.807, situándose en el grupo de "muy alto nivel de desempeño" y ocupando el puesto
5 a nivel de América Latina y el Caribe.14 Este progreso refleja la madurez de la
gobernanza digital, con un 100\% de cumplimiento en la designación de oficiales de
seguridad y confianza digital en los ministerios, y una creciente interoperabilidad a
través del Sistema Nacional de Transformación Digital.11
El Rol de la Secretaría de Gobierno y Transformación Digital
Bajo el liderazgo de la Presidencia del Consejo de Ministros (PCM) y la
Secretaría de Gobierno y Transformación Digital (SGTD), se han desplegado servicios
críticos como la plataforma Facilita Perú, que ha digitalizado más de 10,859 trámites
desde 2020, facilitando la interacción ciudadana con las entidades del Estado.14 El
34
modelo peruano entiende la transformación digital como un cambio cultural
disruptivo que utiliza el análisis de datos para generar valor económico y social.13 Un
indicador clave de esta estrategia es el aumento de la capacidad digital de la
población: mientras que en 2020 la ciudadanía ejercía menos de dos de las ocho
capacidades digitales reconocidas, la meta para el 2030 es que cada ciudadano ejerza
al menos cuatro, lo que implica un salto cuantitativo en la inclusión digital activa.13
Gobernanza Fiscal y Aduanera Inteligente: El Caso
de la SUNAT
La administración tributaria representa uno de los campos de aplicación más
avanzados de la analítica de datos en el Perú. La Superintendencia Nacional de
Aduanas y de Administración Tributaria (SUNAT) ha integrado el uso masivo de
datos e inteligencia artificial en su Plan Estratégico Institucional 2024-2028 para
combatir la evasión y la elusión fiscal de manera más eficiente.15 La estrategia se
orienta al cierre de brechas de cumplimiento, contribuyendo a la sostenibilidad fiscal
y la competitividad del país.15
El Arsenal Digital de la SUNAT y la Fiscalización Predictiva
La SUNAT ha desplegado herramientas tecnológicas diseñadas para hacer la
fiscalización más precisa y menos intrusiva para el contribuyente cumplidor.18
Mediante el uso de Big Data, la institución realiza cruces de información que permiten
detectar incrementos patrimoniales no justificados, gestionando más de 45 millones
de transacciones virtuales solo en 2023.18 La implementación de la asistente virtual
"SOFIA" permite una atención masiva las 24 horas, mientras que el análisis predictivo
ayuda a identificar patrones de riesgo antes de que se consume el incumplimiento.18
35
Las acciones estratégicas de la SUNAT incluyen:
Mejorar los medios de detección de la informalidad (ingresos no declarados)
mediante el uso intensivo de IA.17
Facilitar el cumplimiento voluntario a través de borradores de declaraciones
prellenadas, lo que reduce errores y tiempos de gestión.18
Fortalecer la capacidad de respuesta ante cambios en las modalidades de evasión,
adaptando los servicios a la conectividad móvil.17
Comparativa Internacional en Recaudación y Big Data
A nivel global, la tendencia hacia la fiscalización inteligente es imparable. En
España, la Agencia Tributaria (AEAT) utiliza el análisis masivo de datos para
controlar a los grandes patrimonios "deslocalizados" que simulan residencia en el
extranjero.19 De manera similar, en Brasil, la Receita Federal ha evolucionado su
ecosistema de datos desde un almacén de datos corporativo en 2001 hacia un complejo
"data lake" que integra cientos de sistemas transaccionales para optimizar la
inspección y la recaudación.20
Innovación Monetaria y el Proyecto de CBDC del
BCRP
El Banco Central de Reserva del Perú (BCRP) se encuentra en la vanguardia de
la innovación financiera con el desarrollo de una Moneda Digital de Banco Central
(CBDC por sus siglas en inglés).22 El objetivo principal de este proyecto no es
reemplazar al efectivo ni competir con los pagos digitales existentes, sino expandir el
acceso a la población no bancarizada y reducir los altos costos del manejo de efectivo
36
en una economía con alta informalidad.22
Pilotos de Dinero Digital y Resultados Regionales
El BCRP ha iniciado la fase de evaluación de sus pilotos de innovación con
dinero digital, destacando el notable crecimiento de usuarios activos y la
transaccionalidad a nivel nacional.23 En colaboración con empresas tecnológicas como
Bitel, el primer piloto ha permitido que el número de usuarios crezca de 805,000 a 2.5
millones entre octubre de 2024 y abril de 2025.24 Un hallazgo fundamental es que en
las ocho regiones con menores niveles de inclusión financiera, el crecimiento de
usuarios fue del 229\%, demostrando que la tecnología digital puede romper las
barreras geográficas del sistema bancario tradicional.24
La implementación de la CBDC busca garantizar:
1. Pagos inmediatos e irrevocables: Especialmente para transacciones de menor
monto que hoy dependen exclusivamente del efectivo.22
2. Inclusión financiera rural: Al utilizar infraestructuras de telecomunicaciones, se
permite llegar a zonas donde no existen sucursales bancarias, como Puno o
Madre de Dios, donde la inclusión financiera apenas ronda el 30\%.24
3. Reducción de riesgos: El modelo híbrido adoptado permite que el banco central
mantenga el control sobre los saldos mientras las entidades privadas gestionan
la interfaz con el cliente, minimizando los riesgos de desintermediación
financiera.24
Interoperabilidad: La Clave del Flujo de Datos en
el Estado
37
La gobernanza económica basada en datos requiere que las instituciones
estatales no operen como silos aislados, sino como un sistema integrado. La
interoperabilidad es la capacidad de las organizaciones para intercambiar
información y conocimiento de manera eficiente a través de sus procesos de negocio
y el intercambio de datos entre sus sistemas de TI.25
El Benchmarking de Estonia y el Sistema X-Road
Estonia es el referente mundial de este modelo gracias a X-Road, una
plataforma descentralizada que permite el intercambio seguro de datos entre el sector
público y el privado.27 Este sistema ha permitido que el 99\% de los servicios estatales
sean digitales, incluyendo el voto electrónico y la creación de empresas en menos de
15 minutos.29 El éxito de Estonia radica en principios arquitectónicos como el "once-
only" (una sola vez), que obliga al Estado a no pedir al ciudadano información que ya
reside en alguna base de datos gubernamental.29
El impacto económico de X-Road es tangible: se estima que cada año ahorra a
la población estonia una cantidad de tiempo equivalente a 1.48 millones de horas
mensuales, lo que representa un multiplicador de la productividad nacional.28
Además, el sistema garantiza la soberanía del dato, permitiendo que los ciudadanos
vean en tiempo real quién ha consultado su información personal, fortaleciendo la
confianza en las instituciones.28
La Plataforma de Interoperabilidad del Estado (PIDE) en Perú
En el Perú, la Plataforma de Interoperabilidad del Estado (PIDE), gestionada
por la Secretaría de Gobierno y Transformación Digital de la PCM, es la herramienta
que facilita la simplificación administrativa y la reutilización de datos entre más de
38
450 entidades.26 Al no almacenar datos, la PIDE actúa como un puente seguro que
reduce costos operativos y evita que el ciudadano deba presentar documentos que el
Estado ya posee.26 El fortalecimiento de la PIDE es fundamental para alcanzar las
metas de la Política Nacional de Competitividad y Productividad, orientando los
recursos hacia una asignación más eficiente.31
Desafíos Estructurales: Informalidad y Brecha
Regional
A pesar de los avances tecnológicos, la gobernanza económica en el Perú
enfrenta el reto persistente de la informalidad, que se sitúa por encima del 70\% a
nivel nacional.32 La informalidad no es solo una evasión de impuestos, sino una
respuesta distorsionada de la economía ante un marco normativo agobiante y
servicios públicos ineficientes.32 Esta situación genera un círculo vicioso: las empresas
informales se mantienen pequeñas para evitar el control, lo que limita su
productividad y su capacidad de acceso al crédito formal.32
El Impacto de la Informalidad en la Productividad
La evidencia sugiere que la informalidad induce a una asignación deficiente
de recursos, congestionando la infraestructura pública sin contribuir a su
financiamiento.32 Existe una correlación directa entre la pobreza monetaria y la
informalidad laboral; regiones como Puno, Pasco y Huancavelica presentan índices
de pobreza superiores al 40\%, coincidiendo con las tasas más altas de empleo
informal.34 En contraste, Lima Metropolitana concentra el 42.8\% del PBI nacional y
el 59.4\% del aparato industrial, lo que evidencia un proceso centralizador que la
digitalización aún no ha logrado revertir totalmente.34
39
La Digitalización como Motor de Formalización
El Ceplan identifica el avance de la digitalización del Estado como una
oportunidad estratégica para impulsar la formalización laboral y productiva
regional.33 El desarrollo de plataformas digitales y servicios en línea reduce las
barreras burocráticas y los costos de entrada a la formalidad, permitiendo que más
trabajadores accedan a derechos como salud y pensiones.33 La formalización no solo
eleva el bienestar individual, sino que fortalece la recaudación fiscal y permite al
Estado ofrecer mejores servicios públicos, cerrando el círculo de la productividad.33
Tecnologías de Vanguardia: Blockchain, IoT y
Gestión de Crisis
La nueva gobernanza económica también se nutre de tecnologías emergentes
que garantizan la integridad de los datos en entornos descentralizados. El Blockchain,
el Internet de las Cosas (IoT) y la IA son los pilares de la transición hacia un "gobierno
inteligente" capaz de proveer servicios personalizados y confiables.35
Blockchain y la Seguridad del Dato
El Blockchain ofrece una solución transformadora para los desafíos de
seguridad y escalabilidad del IoT, permitiendo la comunicación segura entre miles de
millones de dispositivos sin necesidad de una autoridad central.37 En el ámbito
gubernamental, el uso de blockchain puede agilizar los procesos burocráticos y
hacerlos más seguros, facilitando la sincronización de datos entre diferentes
departamentos estatales.36 La transparencia y la inmutabilidad de los registros en
blockchain son críticas para áreas como la gestión de la cadena de suministro, la salud
40
y las ciudades inteligentes.37
Lecciones de la Gestión de Crisis (COVID-19)
La pandemia del COVID-19 actuó como un catalizador forzoso para la
gobernanza de datos. Los países que contaban con infraestructuras digitales más
robustas pudieron implementar respuestas fiscales y sanitarias más efectivas.38 El uso
de analítica avanzada permitió a ciudades en el mundo cuantificar costos de
iniciativas de emergencia y guiar recursos escasos hacia las áreas de mayor necesidad
en tiempo real.39 En el Perú, la pandemia impulsó la adopción de pagos digitales en
programas sociales para fortalecer la entrega de apoyos económicos a la población
más vulnerable.10
Ética, Privacidad y Soberanía Digital
El tránsito hacia una economía basada en datos no está exento de riesgos éticos
profundos. El inmenso poder que otorga el control de la información puede derivar
en una "colonización digital", donde grandes plataformas tecnológicas extraen y
analizan datos de usuarios locales con un beneficio nominal para los generadores de
la información.5 La gobernanza debe, por tanto, equilibrar la innovación con la
protección de la intimidad y la autonomía personal.40
Desafíos Éticos y Sesgos Algorítmicos
Uno de los principales temores en el uso de la IA para la política pública es la
discriminación algorítmica. Los sesgos en los datos o en el diseño de los modelos
pueden producir resultados injustos, discriminando a grupos poblacionales
específicos o privilegiando arbitrariamente a otros.5 Para mitigar estos riesgos, es
41
imperativo:
Exigir transparencia en los algoritmos de toma de decisiones.40
Establecer límites éticos al uso preventivo de la información para evitar la
manipulación psicológica o política.40
Garantizar que la tecnología se diseñe bajo principios de sostenibilidad y
equidad, incorporando el bienestar de las generaciones futuras.40
Ciberseguridad y Protección de Datos Personales
La ciberseguridad debe ser el pilar de la privacidad moderna. Ante la
convergencia de tecnologías operacionales e informáticas, las infraestructuras críticas
son cada vez más vulnerables a ataques masivos de datos sensibles.42 El enfoque de
"privacidad por diseño" es esencial para asegurar que las nuevas tecnologías nazcan
protegidas y que el Estado mantenga la soberanía sobre sus infraestructuras de
datos.28 En el Perú, la Ley de Protección de Datos Personales y el Centro Nacional de
Seguridad Digital son las herramientas que buscan mitigar estas amenazas en el
entorno digital.14
Hacia una Síntesis de la Nueva Gobernanza
Económica
La construcción de una nueva gobernanza económica basada en datos es un
imperativo para la competitividad del Perú y del mundo en la era de la inteligencia
artificial. Esta transición requiere no solo de cables y servidores, sino de un nuevo
contrato social donde el dato se entienda como un bien público que genera valor,
confianza y equidad.1
42
La experiencia internacional muestra que el éxito radica en la
interoperabilidad, la transparencia y la formación de talento digital.12 En el caso
peruano, la Política Nacional de Transformación Digital al 2030 marca una ruta clara
para integrar la economía informal, modernizar la administración tributaria y
democratizar el acceso al sistema financiero mediante la innovación monetaria del
BCRP.12 El reto final consiste en asegurar que esta revolución digital no amplifique las
desigualdades existentes, sino que sirva como el motor definitivo para un desarrollo
inclusivo y sostenible en todas las regiones del país. La gobernanza de datos es, en
última instancia, la gestión de la inteligencia colectiva de una nación para el bienestar
de todos sus ciudadanos.
43
Capítulo III
Integración de la Inteligencia Artificial
en la Previsión de Flujos Comerciales:
Transformación de la Macroeconómica
Global y Operativa (2025-2040)
La economía global atraviesa un periodo de volatilidad estructural donde la
previsibilidad de los flujos comerciales se ha convertido en el activo estratégico más
valioso para gobiernos, instituciones financieras y empresas multinacionales. En 2025,
la integración de la inteligencia artificial (IA) en la previsión de flujos comerciales ha
dejado de ser una innovación periférica para constituirse en el núcleo de la resiliencia
económica. Este fenómeno no solo responde a la necesidad de gestionar datos
masivos, sino también a la imperativa de navegar un entorno caracterizado por
tensiones geopolíticas crecientes, reordenamientos de prioridades políticas y una
digitalización acelerada de los servicios. La evidencia recopilada en informes de la
Organización Mundial del Comercio (OMC), el Fondo Monetario Internacional (FMI)
y el Banco Mundial sugiere que la IA tiene el potencial de incrementar el comercio
mundial entre un 34% y un 37% para el año 2040, impulsando simultáneamente un
crecimiento del Producto Interno Bruto (PIB) global de hasta el 13%.1
Dinámicas Macroeconómicas y el Papel de la
Inteligencia Artificial en 2025
El año 2025 se define por una "resiliencia tenue" en medio de una
44
incertidumbre persistente.4 Con un crecimiento global proyectado en el 3.2%, la
economía mundial se enfrenta a vientos en contra derivados de la fragmentación
geoeconómica y la aplicación de aranceles masivos que han alcanzado niveles no
vistos en un siglo.5 En este contexto, la IA actúa como un amortiguador de choques
externos, permitiendo a los actores económicos anticipar distorsiones en las cadenas
de suministro y optimizar la asignación de recursos. Las empresas han comenzado a
utilizar modelos predictivos para el "front-loading" o adelanto de importaciones ante
la inminencia de cambios en la política arancelaria, redirigiendo flujos comerciales
hacia terceros países para mitigar el impacto de las barreras comerciales.6
La inversión en tecnología de IA ha seguido un patrón comparable al auge de
Internet en la década de 1990, con valoraciones de mercado en aumento y una fuerte
inversión en propiedad intelectual y equipos.6 No obstante, el FMI advierte sobre el
riesgo de una mala asignación de recursos si los subsidios en sectores estratégicos,
como los vehículos eléctricos y los paneles solares, no se acompañan de ganancias de
productividad agregadas.7 La IA se posiciona como la herramienta clave para corregir
estas ineficiencias, facilitando una "globalización de precisión" donde los flujos
comerciales se optimizan mediante el análisis en tiempo real de variables exógenas y
endógenas.
El impacto de la IA es particularmente notable en el comercio de servicios
prestados digitalmente. Mientras que el sector manufacturero espera un crecimiento
impulsado por la IA de entre el 22% y el 24%, los servicios digitales podrían
experimentar una expansión de hasta el 42%.2 Esta disparidad refleja la alta
comerciabilidad de los servicios de IA y la reducción de los costos operativos
transfronterizos que esta tecnología facilita.
45
Arquitecturas de Aprendizaje Profundo para la
Previsión de Series Temporales
La previsión de flujos comerciales depende de la capacidad de los modelos
para interpretar datos secuenciales complejos. Las técnicas tradicionales de
econometría, como los modelos ARIMA, han sido superadas por arquitecturas de
aprendizaje profundo que manejan relaciones no lineales y dependencias a largo
plazo de manera más robusta.8
Redes Recurrentes: LSTM y GRU
Las redes de Memoria a Largo Plazo (LSTM) y las Unidades Recurrentes Gated
(GRU) son fundamentales en el análisis de series temporales financieras y comerciales.
La arquitectura LSTM utiliza un mecanismo de compuertas para regular el flujo de
información, lo que permite que el modelo retenga información relevante de periodos
pasados sin sufrir el problema del gradiente desvanecido que afectaba a las redes
neuronales recurrentes (RNN) estándar.9
El proceso de una celda LSTM se rige por las siguientes ecuaciones
matemáticas que definen sus compuertas:
1. Compuerta de Olvido (Forget Gate): Determina qué información del estado de
la celda anterior debe descartarse.
f_t = \sigma(W_f \cdot [h_{t-1}, x_t] + b_f)
11
2. Compuerta de Entrada (Input Gate): Decide qué nueva información se
almacenará en el estado de la celda.
46
i_t = \sigma(W_i \cdot [h_{t-1}, x_t] + b_i)
11
3. Estado de la Celda Candidato: Crea un vector de nuevos valores potenciales
que podrían añadirse al estado.
\tilde{c}_t = \tanh(W_c \cdot [h_{t-1}, x_t] + b_c)
11
4. Actualización del Estado de la Celda: Combina la información filtrada del
pasado con los nuevos datos.
c_t = f_t \odot c_{t-1} + i_t \odot \tilde{c}_t
11
5. Compuerta de Salida (Output Gate): Define qué parte del estado de la celda se
enviará como salida.
o_t = \sigma(W_o \cdot [h_{t-1}, x_t] + b_o)
11
h_t = o_t \odot \tanh(c_t)
11
Por su parte, el modelo GRU ofrece una alternativa más eficiente al combinar
las compuertas de entrada y olvido en una sola compuerta de actualización,
reduciendo el número de parámetros y el tiempo de entrenamiento sin sacrificar
significativamente la precisión en contextos de alta frecuencia.10 En comparaciones
experimentales, el modelo GRU ha demostrado un rendimiento superior en la
47
predicción de tasas de cambio de divisas y flujos de caja a corto plazo debido a su
estructura simplificada.12
Transformers y Modelado de Largo Alcance
La introducción de la arquitectura Transformer ha revolucionado la previsión
comercial al permitir el procesamiento paralelo de secuencias de datos y el uso de
mecanismos de auto-atención.10 A diferencia de las RNN, que procesan los datos paso
a paso, los Transformers consideran la relación entre todos los puntos de la secuencia
simultáneamente, lo que los hace excepcionalmente aptos para capturar patrones
estacionales y tendencias de largo plazo en el comercio internacional.10
Marcos avanzados como el Temporal Fusion Transformer (TFT) integran
múltiples tipos de entrada, incluyendo metadatos estáticos, variables futuras
conocidas (como calendarios de aranceles o festivos) y variables observadas en el
pasado.12 El TFT ha demostrado alcanzar resultados de vanguardia al proporcionar
interpretabilidad sobre qué variables (como el sentimiento de noticias o precios de
materias primas) influyen más en el pronóstico final.14 Además, nuevos modelos como
FutureTST utilizan atención cruzada para integrar la influencia de variables exógenas
futuras conocidas, mejorando la precisión de las predicciones endógenas en sistemas
económicos reales.16
El Ecosistema de Datos Alternativos en el
Comercio Exterior
La precisión de los modelos de IA en 2025 depende fundamentalmente de la
calidad y diversidad de los datos. El concepto de "datos alternativos" se ha
48
consolidado como un pilar para obtener ventajas competitivas, proporcionando
información en tiempo real que las estadísticas oficiales suelen reportar con meses de
retraso.17
Imágenes Satelitales e Inteligencia Geoespacial
El uso de imágenes satelitales permite un monitoreo objetivo y continuo de la
actividad física global. Los analistas financieros y los gestores de cadenas de
suministro utilizan estas imágenes para evaluar la congestión en puertos marítimos,
la ocupación de centros logísticos y los niveles de inventario en patios industriales.19
Un estudio técnico reciente de 2024 describe un sistema que utiliza redes
neuronales convolucionales (CNN) para analizar las sombras proyectadas por los
contenedores en las terminales portuarias. Este método permite estimar de forma
dinámica el número de contenedores apilados verticalmente y el nivel de congestión
del patio sin necesidad de información estadística interna de la terminal.21 Al integrar
estos datos con el Sistema de Identificación Automática (AIS) de los buques, los
modelos pueden predecir con una precisión del 96% las variaciones en los índices de
flete de contenedores, como el SCFI de Shanghái.23
El Papel de la Inteligencia de Documentos y el Procesamiento de
Lenguaje Natural (NLP)
El comercio internacional sigue siendo una actividad intensiva en
documentos. Sin embargo, la integración de la IA generativa y los modelos de lenguaje
(LLM) está transformando el papeleo en flujos de datos estructurados. Los sistemas
de Procesamiento Inteligente de Documentos (IDP) utilizan OCR avanzado para
extraer datos de facturas comerciales, listas de empaque y certificados de origen con
49
una mínima intervención humana.24
Plataformas como iCustoms han demostrado que la IA puede automatizar la
clasificación de códigos del Sistema Armonizado (HS), sugiriendo códigos basados en
descripciones de productos y aprendiendo de las correcciones de los expertos
humanos para mejorar su precisión futura.25 Esta automatización no solo acelera el
despacho de aduanas, sino que alimenta los modelos de previsión de flujos con datos
más precisos y granulares sobre las mercancías que cruzan las fronteras.
Inteligencia Artificial en las Finanzas Comerciales
y Fintech
El financiamiento del comercio es el lubricante de la economía global, pero
enfrenta una brecha de financiamiento de más de 2.5 billones de dólares, afectando
desproporcionadamente a las PYMES en mercados emergentes.27 Las empresas de
tecnología financiera (fintech) están utilizando la IA para cerrar esta brecha mediante
modelos de riesgo más inclusivos y procesos automatizados.
Modelos de Calificación Crediticia Basados en IA
Tradicionalmente, la calificación crediticia dependía de historiales financieros
estáticos. Los sistemas modernos de IA aprovechan una gama mucho más amplia de
datos, incluyendo la actividad en redes sociales, comportamiento de pago de servicios
públicos y patrones de flujo de caja en tiempo real.27 Esto permite a instituciones como
HSBC y Citibank, así como a fintechs como Kabbage y Tala, realizar evaluaciones de
riesgo más precisas para empresas que carecen de un historial crediticio extenso.26
La integración de la IA con la tecnología blockchain y los contratos inteligentes
50
permite una automatización completa de los acuerdos de financiación comercial. En
estos sistemas, la IA valida los documentos comerciales y el cumplimiento de los hitos
logísticos, tras lo cual el contrato inteligente ejecuta el pago de forma inmutable.26
Plataformas colaborativas como Surecomp RIVO conectan a proveedores, fabricantes y
bancos en un ecosistema digital que utiliza API abiertas para facilitar la transparencia
y la velocidad en la aprobación de créditos.27
Iniciativas de Interoperabilidad Transfronteriza: Proyecto Aperta
Un hito fundamental en la integración financiera global es el Proyecto Aperta,
lanzado por el Hub de Innovación del BIS en colaboración con bancos centrales de los
Emiratos Árabes Unidos, Brasil, el Reino Unido y Hong Kong.32 Aperta es un
prototipo de red de interoperabilidad multilateral que permite la portabilidad de
datos financieros de forma segura y cifrada a través de API. El objetivo es permitir
que una empresa en una jurisdicción comparta sus datos de facturación, cartas de
crédito o conocimientos de embarque electrónicos con una institución financiera en
otro país de forma instantánea. Esta eliminación de la fricción de datos permite la
creación de "pasaportes de crédito" transfronterizos, facilitando que las PYMES
accedan a financiamiento internacional de manera significativamente más rápida y
económica.30
Optimización Operativa y Resiliencia en la Cadena
de Suministro
En la fase operativa, la IA ha pasado de ser una herramienta de soporte a ser
el motor que orquesta los procesos logísticos de extremo a extremo. En 2025, el éxito
de los equipos logísticos se mide por su capacidad para reducir el ruido de los datos
51
y comprimir los ciclos de decisión.34
Previsión de la Demanda y Gestión de Inventarios
Las empresas más exitosas han refinado sus pronósticos integrando una
mezcla más amplia de señales externas, como fluctuaciones meteorológicas,
calendarios de eventos locales y sentimiento social en categorías específicas.34 La
capacidad de la IA para absorber estas variables en tiempo real permite ajustes
dinámicos en los niveles de stock de seguridad y el reequilibrio diario del transporte.34
Investigaciones en puertos automatizados muestran que nuevos algoritmos
basados en programación lineal entera mixta (MIP) pueden reducir las tasas de
reubicación de contenedores a niveles de entre el 12% y el 18%, manteniendo tiempos
de respuesta de milisegundos que son esenciales para la programación en tiempo real
de grúas y vehículos autónomos.36 Estos sistemas integran modelos de gemelos
digitales para simular escenarios de congestión y optimizar la secuencia de carga y
descarga en función del puerto de destino y las prioridades temporales.36
Visibilidad Predictiva y Gestión de Excepciones
Las plataformas de visibilidad logística ahora utilizan modelos predictivos de
hora estimada de llegada (ETA) que filtran falsas alarmas y agrupan retrasos
relacionados.34 Al analizar datos históricos de rendimiento de transportistas y
patrones de congestión en puertos, la IA puede predecir interrupciones semanas antes
de que ocurran, permitiendo a los comerciantes ajustar sus rutas y proteger sus
acuerdos de nivel de servicio (SLA).24
Metodologías de Proyección Macroeconómica: El
52
Modelo GIMF del FMI
Para comprender el impacto global de la IA, el FMI utiliza el Modelo
Monetario y Fiscal Integrado Global (GIMF), un modelo de equilibrio general
dinámico (DSGE) multiregión y multisector que permite simular choques tecnológicos
y cambios en la productividad.25
Estructura del Modelo GIMF para la IA
El modelo GIMF divide la economía de cada región en tres sectores clave para
capturar la heterogeneidad de la adopción de la IA:
1. Sector No Transable: Compuesto principalmente por servicios y construcción,
donde la IA puede generar grandes saltos de productividad que impactan el
bienestar doméstico.
2. Sector Transable: Incluye agricultura, manufactura, minería y transporte.
3. Sector Intensivo en IA: Un sector compuesto por bienes transables y servicios
más expuestos a la IA (como farmacéutica, computación, finanzas y
telecomunicaciones). Este sector se caracteriza por cadenas de valor globales
donde las empresas utilizan la producción de este mismo sector como insumo
intermedio.38
El impacto de la IA entra en el modelo a través de un canal de Productividad
Total de los Factores (TFP). La magnitud del choque se calibra en función de tres
factores críticos por país: Exposición (composición sectorial y de tareas), Preparación
(infraestructura digital y habilidades de la fuerza laboral) y Acceso (disponibilidad de
datos y hardware esencial).38
Resultados de la Simulación y Desigualdad Global
53
Las simulaciones indican que la IA exacerbará la desigualdad de ingresos entre
países, beneficiando de manera desproporcionada a las economías avanzadas. El
impacto estimado en el crecimiento de las economías avanzadas podría ser más del
doble que en los países de bajos ingresos.38 En un escenario de alta productividad, la
IA podría impulsar el crecimiento del PIB de las economías de ingresos altos en un
14%, en comparación con solo un 8% para las economías de bajos ingresos que
enfrentan barreras estructurales para la adopción tecnológica.1
Además, la IA podría generar un "efecto Balassa-Samuelson inverso".
Tradicionalmente, un aumento de la productividad en el sector transable tiende a
apreciar el tipo de cambio real. Sin embargo, dado que la IA tiene un impacto masivo
en la productividad del sector no transable (servicios), este mecanismo podría verse
alterado, reduciendo el papel tradicional de los ajustes del tipo de cambio en el
equilibrio comercial global.38
El Impacto en el Mercado Laboral y la Estructura
de Costos
La adopción de la IA está transformando la naturaleza del trabajo y la
composición de la demanda laboral en el comercio internacional. La OMC señala que
la sustitución de tareas laborales por IA será más pronunciada en las ocupaciones de
habilidades medias y altas que en las de bajas habilidades.1
Sustitución de Tareas y Primas Salariales
Contrario a la automatización robótica anterior que afectó principalmente a los
trabajadores manuales de baja calificación, la IA generativa y analítica tiene como
54
objetivo tareas de procesamiento de información y toma de decisiones.40 Se estima que
entre el 7% y el 9% de las tareas de los trabajadores calificados podrían ser
reemplazadas por IA, mientras que en sectores como la manufactura textil, clasificada
como de baja intensidad en IA, el impacto es de solo el 3%.2
Este cambio podría llevar a un estrechamiento de la brecha salarial en las
economías avanzadas, no por un aumento de los salarios bajos, sino por una reducción
en la demanda de mano de obra de oficina y analítica de alto costo.1 Simultáneamente,
el costo de utilizar capital (la tasa de alquiler del capital) aumentará en relación con
los salarios debido a que la IA es una tecnología intensiva en capital y datos.1
La Fuerza Laboral en Países en Desarrollo
Muchos países en desarrollo ya están participando en la cadena de valor de la
IA a través de actividades de recolección de datos, anotación y moderación de
contenido.1 Sin embargo, garantizar una compensación justa y protección laboral en
este "trabajo de datos" sigue siendo un desafío sistémico. Además, la IA podría
erosionar la ventaja comparativa de las economías que dependen de la mano de obra
de bajo costo y baja calificación si la producción se vuelve excesivamente intensiva en
capital.1
Desafíos Técnicos: Silos de Datos y Fragmentación
Regulatoria
El potencial de la IA en el comercio se ve limitado por barreras estructurales
relacionadas con la gestión de la información. Los "silos de datos" depósitos de
información aislados inaccesibles para otros departamentos o sistemas son el
55
principal obstáculo para obtener una visión holística de las operaciones comerciales.41
Causas y Consecuencias de los Silos
Los silos de datos surgen de decisiones de herramientas a nivel de equipo,
sistemas heredados que no se integran y una gobernanza de datos inmadura.42 En el
comercio transfronterizo, esto se traduce en una falta de visibilidad en la cadena de
suministro, discrepancias en los indicadores clave de rendimiento (KPI) y una toma
de decisiones lenta y reactiva. Además, las preocupaciones sobre la seguridad y el
cumplimiento de leyes como el GDPR o las leyes de localización de datos en China
incentivan a las organizaciones a mantener sus datos "amurallados".44
Para romper estos silos, las organizaciones están adoptando arquitecturas de
"Reverse ETL" y plataformas de datos automatizadas que crean una "fuente única de
verdad" accesible para todos los usuarios autorizados en tiempo real.41 Sin embargo,
la integración de datos de fuentes internacionales sigue siendo compleja debido a la
falta de estándares universales y la persistencia de riesgos de soberanía digital.43
Aprendizaje Federado como Solución de Privacidad
Una respuesta técnica prometedora a los riesgos de privacidad y
confidencialidad es el Aprendizaje Federado (Federated Learning). Esta técnica permite
entrenar modelos de IA en conjuntos de datos sensibles sin mover los datos de su
ubicación original.47 En lugar de centralizar los datos, el algoritmo se envía a cada
"nodo" (por ejemplo, un banco o una aduana), donde se entrena localmente. Solo las
actualizaciones del modelo (gradientes) se envían de vuelta a un servidor central para
ser agregadas en un modelo global mejorado.47
En un caso de uso práctico coordinado por Swift, diez instituciones financieras
56
utilizaron el aprendizaje federado para identificar transacciones anómalas y fraudes.
El modelo, entrenado en datos locales de cada banco sin compartir información de
clientes, fue el doble de efectivo en identificar fraudes que los modelos entrenados en
un solo conjunto de datos institucional.50 El aprendizaje federado cumple con los
principios de "privacidad por diseño" del GDPR al garantizar la minimización de
datos y la limitación de la finalidad.47
El Marco Regulatorio Global: De la Innovación a la
Restricción
El año 2025 marca un punto de inflexión en la regulación de la IA. La Ley de
IA de la Unión Europea ha entrado en vigor de forma escalonada, estableciendo
prohibiciones sobre prácticas inaceptables y requisitos estrictos para los sistemas de
IA de alto riesgo.51
La Ley de IA de la UE y sus Implicaciones Comerciales
Desde febrero de 2025, están prohibidas en la UE las prácticas de IA que
impliquen manipulación dañina o explotación de vulnerabilidades.51 Para agosto de
2025, entraron en vigor las reglas para modelos de IA de propósito general (GPAI),
exigiendo transparencia y cumplimiento de las normas de derechos de autor. Las
empresas que operan en el mercado europeo deben realizar evaluaciones de riesgo
adecuadas, garantizar la alta calidad de los conjuntos de datos para minimizar sesgos
discriminatorios y permitir la supervisión humana.51
Simultáneamente, surge una brecha regulatoria entre las diferentes regiones.
Mientras que la UE se enfoca en la protección de derechos y la seguridad, otras
57
jurisdicciones avanzan con políticas más orientadas a la soberanía digital y la
promoción de campeones nacionales.44 Esta fragmentación regulatoria aumenta los
costos de cumplimiento para los proveedores de servicios digitales transfronterizos y
puede actuar como una barrera comercial no arancelaria, restringiendo el flujo de
servicios esenciales para la innovación.44
AI Convergence vs. AI Divergence
El Foro Económico Mundial (WEF) advierte sobre dos escenarios posibles para
el futuro del comercio digital:
1. AI Convergence (Convergencia de IA): Un escenario donde la implementación
exitosa y coordinada de la IA aumenta el crecimiento real del comercio en 13.6
puntos porcentuales, con beneficios distribuidos de manera uniforme entre todas
las economías gracias a la interoperabilidad y la confianza mutua.3
2. AI Divergence (Divergencia de IA): Un escenario donde los beneficios se
concentran en "islas comerciales" impulsadas por IA, exacerbando la desigualdad
global y limitando la participación de las economías que no pueden cumplir con
los altos estándares tecnológicos o regulatorios.3
Conclusiones y Perspectivas Estratégicas hacia
2040
La integración de la IA en la previsión de flujos comerciales es una fuerza
transformadora que redefine la competitividad de las naciones y la eficiencia de las
corporaciones. Las proyecciones hacia 2040 sugieren un panorama donde el comercio
mundial será significativamente más digital, rápido y resiliente, pero también más
intensivo en capital y datos.1
58
Para navegar este nuevo paradigma, los tomadores de decisiones deben
centrarse en cuatro pilares fundamentales de implementación:
Asegurar la interoperabilidad de los sistemas: El éxito de iniciativas como el
Proyecto Aperta demuestra que la armonización de protocolos técnicos y
estándares de API es esencial para que los datos fluyan sin fricciones a través de
las fronteras.3
Fomentar la confianza y la transparencia: La adopción de marcos éticos y
herramientas de IA explicable es crítica para que los sistemas de cumplimiento
aduanero y calificación crediticia sean aceptados por las autoridades y el
público.3
Invertir en infraestructura y capital humano: Cerrar la brecha digital requiere
no solo centros de datos y cables submarinos, sino también una fuerza laboral
capaz de colaborar con la IA y gestionar infraestructuras complejas de gemelos
digitales y logística autónoma.3
Fortalecer las alianzas público-privadas: La alineación de incentivos entre
gobiernos y empresas tecnológicas es necesaria para desarrollar ecosistemas de
innovación locales que puedan adaptarse a las realidades específicas de cada
mercado.3
El comercio internacional en 2025 se encuentra en una encrucijada. La IA
ofrece el mapa para salir de la incertidumbre macroeconómica, proporcionando las
herramientas para una previsión más precisa y una operación más ágil. Sin embargo,
el riesgo de una nueva "brecha digital" es real. Solo mediante una cooperación
internacional robusta en estándares, gobernanza de datos y transferencia tecnológica,
la IA podrá cumplir su promesa de ser el motor de un crecimiento global inclusivo y
sostenible durante las próximas dos décadas.
59
Capítulo IV
Análisis cnico y Sistémico de Métodos
Estadísticos e Inteligencia Artificial en
Estructuras Económicas No Fiduciarias
La arquitectura de los sistemas económicos globales se encuentra en un punto
de inflexión histórico, impulsado por la erosión de la confianza en los modelos
fiduciarios tradicionales y la emergencia de tecnologías de computación avanzada que
permiten una gestión de valor basada en leyes matemáticas y recursos físicos.
Mientras que el dinero fiduciario carece de valor intrínseco y deriva su utilidad del
decreto gubernamental y el acuerdo colectivo para el intercambio 1, los sistemas no
fiduciarios proponen un retorno a la escasez demostrable, ya sea a través de
mercancías físicas como el oro o mediante algoritmos descentralizados que limitan la
oferta de activos digitales.2 En este escenario, la aplicación de métodos estadísticos
complejos y modelos de inteligencia artificial (IA) no es simplemente una mejora
operativa, sino un requisito estructural para garantizar la estabilidad, la eficiencia y la
seguridad de sistemas que carecen de una autoridad centralizada para intervenir en
momentos de crisis.3
Fundamentos de la Economía No Fiduciaria y la
Gestión Técnica de Recursos
La distinción fundamental entre los sistemas fiduciarios y los no fiduciarios
radica en su mecanismo de respaldo y suministro. El dinero fiduciario es emitido por
60
gobiernos y controlado por bancos centrales, lo que permite una política monetaria
discrecional que puede derivar en procesos inflacionarios o deflacionarios según las
necesidades del Estado.1 Por el contrario, los sistemas no fiduciarios, como las
criptomonedas o la economía basada en recursos (EBR), operan bajo reglas
predefinidas. En el caso de las criptomonedas, la oferta suele estar limitada
algorítmicamente como el tope de 21 millones de Bitcoin, mientras que la EBR se
fundamenta en lo que es posible lograr con los recursos materiales, tecnológicos y
humanos disponibles en lugar del capital financiero.1
La transición hacia una gestión técnica de la economía requiere un sistema de
monitoreo en tiempo real que reemplace la toma de decisiones políticas subjetivas por
una administración basada en datos objetivos.5 En una EBR, el objetivo principal es la
satisfacción de las necesidades humanas y la sostenibilidad ambiental, lo que exige
una red de sensores y satélites que capturen constantemente información sobre la
producción, el consumo y la disponibilidad de materias primas.5 Esta infraestructura
de datos permite que sistemas de cómputo centralizados analicen la información en
fracciones de segundo, eliminando la necesidad de procesos democráticos lentos o
juicios humanos falibles en la asignación de recursos.5
Comparativa Estructural de Sistemas Económicos y sus
Mecanismos de Control
El diseño de estos sistemas busca resolver el problema de la escasez artificial.
En el modelo actual, si una cosecha es abundante, los precios bajan, lo que a menudo
lleva a la destrucción de excedentes para proteger los márgenes de ganancia.5 Una
economía basada en recursos, gestionada mediante IA, priorizaría la distribución
eficiente de esa abundancia, utilizando algoritmos de logística para enviar los recursos
61
allí donde la demanda real lo requiera, eliminando el desperdicio inherente al sistema
de precios.5
Modelado Estadístico y Aprendizaje Automático
para la Predicción de Volatilidad
Los activos no fiduciarios, especialmente en el ámbito digital, presentan una
volatilidad significativamente mayor que las monedas fiduciarias debido a la ausencia
de mecanismos de estabilización institucional y a la especulación intensa.1 Los
métodos estadísticos tradicionales, como los modelos ARIMA (Autoregressive
Integrated Moving Average), han sido utilizados históricamente para el análisis de
series temporales, asumiendo que el valor futuro de una variable es una función lineal
de sus valores pasados y errores anteriores.9 Sin embargo, la naturaleza altamente no
lineal y los cambios de régimen frecuentes en los mercados criptográficos limitan la
eficacia de estos modelos lineales.8
Para abordar estas complejidades, se han integrado modelos de la familia
GARCH (Generalized Autoregressive Conditional Heteroskedasticity), los cuales
permiten modelar la varianza condicional como un proceso que cambia en el tiempo.8
El modelo estándar GARCH(1,1) se expresa mediante la ecuación:
\sigma_t^2 = \omega + \alpha \epsilon_{t-1}^2 + \beta \sigma_{t-1}^2
Donde \sigma_t^2 es la varianza en el tiempo t, \omega es una constante,
\epsilon_{t-1}^2 representa los choques del periodo anterior y \sigma_{t-1}^2 es la
varianza del periodo anterior.8 A pesar de su capacidad para capturar el
agrupamiento de volatilidad (volatility clustering), estos modelos estadísticos a
menudo ignoran la asimetría de los choques, donde las noticias negativas suelen
62
generar una mayor volatilidad que las positivas.8 Esto ha llevado al desarrollo de
modelos como el EGARCH (Exponential GARCH), que utiliza logaritmos para
asegurar que la varianza siempre sea positiva y permite capturar efectos asimétricos
de manera más precisa.8
Evolución hacia Modelos de Aprendizaje Automático y Redes
Neuronales
La inteligencia artificial ha transformado el pronóstico de volatilidad mediante
el uso de redes neuronales recurrentes (RNN) y, más específicamente, de modelos de
Memoria a Corto y Largo Plazo (LSTM).12 Las LSTM están diseñadas para superar el
problema del desvanecimiento del gradiente en las RNN tradicionales, permitiendo
que el modelo retenga información de dependencias temporales largas, algo crucial
en mercados donde los eventos históricos pueden influir en el comportamiento actual
de manera no obvia.8
Estudios comparativos indican que los modelos de aprendizaje automático
basados en conjuntos (Ensemble Learning), como Random Forest y XGBoost, ofrecen
una robustez superior frente al ruido del mercado en comparación con los modelos
econométricos clásicos.11 Estos modelos funcionan mediante la construcción de
múltiples árboles de decisión y la combinación de sus resultados para reducir la
varianza y el sesgo.11 La integración de indicadores técnicos, datos de volumen y
sentimiento de redes sociales en estos modelos permite capturar la dinámica del
mercado con una precisión reportada de hasta el 72% en la clasificación de la dirección
del precio.11
La efectividad de estos modelos depende críticamente de la calidad de los
63
datos y de la ingeniería de características (feature engineering). En el contexto de
activos no fiduciarios, es esencial incluir datos de libros de órdenes, métricas on-chain
(como el movimiento de carteras "ballena") y análisis de sentimiento extraído de
plataformas como X (Twitter) o Reddit mediante procesamiento de lenguaje natural
(NLP).6
IA y Aprendizaje por Refuerzo en la Optimización
de Tokenomics
En los sistemas económicos descentralizados, la tokenomics el conjunto de
reglas que rigen la economía del token actúa como la política monetaria
programada del ecosistema.6 Los modelos tradicionales de tokenomics suelen ser
rígidos, con programas de emisión fijos que no pueden adaptarse a choques externos
o cambios bruscos en la demanda, lo que a menudo resulta en colapsos de liquidez o
hiperinflación.6 La inteligencia artificial, y específicamente el Aprendizaje por
Refuerzo (Reinforcement Learning - RL), permite la creación de modelos de emisión
y quema dinámicos que se autoajustan en tiempo real para mantener el equilibrio
económico.16
Un agente de RL aprende a interactuar con un entorno económico mediante
un proceso de prueba y error, donde cada acción (como aumentar la recompensa de
staking o acelerar la quema de tokens) genera una recompensa o penalización basada
en un objetivo predefinido, como la estabilidad del precio o la retención de usuarios.6
Este proceso se formaliza habitualmente como un Proceso de Decisión de Markov
(MDP), definido por la estructura (S, A, T, R, \gamma) 17:
Espacio de Estados (S): Incluye variables como liquidez total bloqueada (TVL),
64
volumen de intercambio y volatilidad actual.6
Espacio de Acciones (A): Parámetros ajustables por el protocolo, como la tasa de
emisión de nuevos tokens o el porcentaje de comisiones que se queman.6
Función de Transición (T): La probabilidad de que el ecosistema pase a un estado
más estable dadas las acciones del agente.17
Función de Recompensa (R): Diseñada para incentivar comportamientos que
alineen los intereses de los desarrolladores, inversores y usuarios.17
Mecanismos de Estabilización Algorítmica y DAOs
Las Organizaciones Autónomas Descentralizadas (DAOs) utilizan estos
modelos para automatizar la gobernanza. La IA puede analizar datos históricos de
votaciones y propuestas para prever las consecuencias de ciertas decisiones
económicas que los humanos podrían pasar por alto.6 Además, en ecosistemas de
finanzas descentralizadas (DeFi), los modelos de IA protegen la paridad de las
stablecoins algorítmicas mediante la contracción de la oferta cuando hay presión de
venta o su expansión cuando la demanda aumenta excesivamente, actuando como un
banco central autónomo y transparente.6
La personalización de incentivos es otra aplicación clave del RL. En lugar de
sistemas de recompensas uniformes que a menudo atraen capital "mercenario" de
corto plazo, la IA puede identificar a los usuarios que aportan valor genuino al
ecosistema como aquellos con compromisos de staking a largo plazo o participación
activa en la gobernanza y asignarles incentivos específicos.16 Esto fortalece la lealtad
del usuario y previene la inflación innecesaria provocada por recompensas
indiscriminadas.16
65
Integridad y Seguridad en Redes Descentralizadas:
Detección de Anomalías
La naturaleza abierta y seudónima de los sistemas económicos no fiduciarios
los hace susceptibles a actividades ilícitas como el lavado de dinero y el fraude
transaccional.19 La detección de anomalías mediante IA ha evolucionado desde
simples reglas estáticas hacia modelos predictivos que analizan patrones de
comportamiento complejos en conjuntos de datos masivos.21 Estos sistemas
identifican irregularidades que podrían indicar fraude o ataques antes de que causen
daños significativos, permitiendo una respuesta proactiva en lugar de reactiva.20
Metodologías de Detección y Evaluación de Modelos
Los sistemas de detección de anomalías emplean tres enfoques principales:
1. Detección Estadística: Utiliza técnicas como puntuaciones Z y distribuciones de
probabilidad para encontrar desviaciones del comportamiento "normal"
establecido históricamente.21
2. Aprendizaje Supervisado: Utiliza datos etiquetados de fraudes conocidos para
entrenar clasificadores como XGBoost, que ha demostrado una precisión
superior al 95% en la detección de fraudes con tarjetas de crédito y
criptomonedas.19
3. Aprendizaje No Supervisado: Crucial cuando no hay datos etiquetados
disponibles. Algoritmos como Isolation Forest aislan puntos de datos atípicos
dividiendo el espacio de características de manera aleatoria; las anomalías suelen
requerir menos divisiones para ser aisladas.21
66
Un desafío crítico en la detección de fraude es el desbalanceo de los datos,
donde las transacciones fraudulentas suelen representar menos del 1% del total.19 La
precisión simple puede ser engañosa en estos casos (un modelo que predice siempre
"no fraude" tendría un 99% de precisión), por lo que se priorizan métricas como el F1-
score y el Recall para asegurar que la mayoría de los fraudes sean capturados, incluso
a costa de una mayor carga de revisión manual por falsos positivos.19
El Papel de la Simulación y los Datos Sintéticos en
la Resiliencia Económica
La falta de datos históricos para eventos de crisis extrema los denominados
"Cisnes Negros" dificulta el entrenamiento de modelos de IA robustos en sistemas
no fiduciarios que son relativamente jóvenes.12 La generación de datos sintéticos surge
como una solución técnica que crea conjuntos de datos artificiales que mantienen las
propiedades estadísticas de los datos reales sin comprometer la privacidad ni
depender de la historia limitada.24
Mediante el uso de Redes Generativas Antagónicas (GANs), los investigadores
pueden simular miles de escenarios económicos posibles para probar la resistencia de
un protocolo antes de su lanzamiento.24 En una GAN, un generador crea datos
sintéticos mientras un discriminador intenta diferenciar entre los datos reales y los
artificiales. Este proceso competitivo refina el generador hasta que los datos sintéticos
son estadísticamente indistinguibles de los reales, permitiendo a los economistas
diseñar estrategias de mitigación de riesgos para situaciones que nunca han ocurrido
pero que son teóricamente probables.24
Privacidad y Cumplimiento mediante Aprendizaje Federado
67
La gestión de datos en sistemas descentralizados debe equilibrar la utilidad
analítica con la privacidad del usuario y las regulaciones internacionales como el
GDPR.28 El Aprendizaje Federado (Federated Learning) permite que múltiples
instituciones colaboren en el entrenamiento de un modelo global de detección de
fraude o gestión de recursos sin intercambiar sus bases de datos locales.19 Solo los
parámetros del modelo (gradientes) se comparten y se agregan mediante protocolos
seguros en la cadena de bloques, garantizando que la información sensible
permanezca bajo el control del propietario original.19
Optimización de la Asignación de Recursos Físicos
y Digitales
Más allá de los mercados financieros, la IA aplicada a economías no fiduciarias
como la EBR busca la optimización absoluta de los recursos físicos. En un sistema
donde no existe el dinero, la eficiencia se mide por el ahorro energético y la reducción
del desperdicio.5 Los modelos de optimización basados en algoritmos lineales y no
lineales se utilizan para planificar presupuestos de recursos y producción industrial.26
Por ejemplo, los sistemas de gestión energética en ciudades inteligentes
utilizan IA para predecir la demanda de electricidad basándose en patrones
meteorológicos y de ocupación, optimizando el uso de fuentes renovables y
reduciendo el consumo total entre un 20% y un 40%.30 En el ámbito digital, el
aprendizaje por refuerzo se aplica para optimizar la infraestructura de computación
en la nube, logrando mejoras del 38.7% en el rendimiento y reducciones del 42.3% en
el consumo de energía en el entrenamiento de modelos de IA a gran escala.31
Esta eficiencia se extiende a la "producción perimetral", un concepto de la EBR
68
donde la IA diseña ciudades de manera circular para que los alimentos y la energía se
produzcan en la periferia inmediata de los centros de población, minimizando la
necesidad de transporte de larga distancia y los riesgos asociados a las interrupciones
en las cadenas de suministro globales.5
Desafíos Metodológicos y Complejidad Socio-
Técnica
A pesar de los beneficios evidentes, la aplicación de IA a sistemas económicos
no fiduciarios enfrenta obstáculos significativos derivados de la propia complejidad
de los sistemas adaptativos. Los modelos de IA no operan en el vacío; están inmersos
en entornos donde las instituciones, los mercados y los usuarios responden
estratégicamente a las regulaciones y a las capacidades tecnológicas.33 Esto significa
que las intervenciones regulatorias pueden tener efectos no lineales, donde pequeños
cambios producen resultados desproporcionados o grandes intervenciones son
neutralizadas por la adaptación del sistema.33
La dependencia de datos históricos también presenta riesgos. Los modelos de
IA entrenados en datos pasados pueden fallar catastróficamente ante situaciones sin
precedentes, ya que carecen de la capacidad de razonamiento causal y comprensión
del mundo físico que poseen los humanos.34 Además, la concentración de poder en
los proveedores de infraestructura de IA (especialmente en términos de hardware
especializado como las GPUs) introduce nuevos riesgos de estabilidad financiera, ya
que las fallas correlacionadas en estos proveedores podrían paralizar gran parte de la
economía digital descentralizada.36
La Paradoja de la Estabilidad Algorítmica
69
Un hallazgo crítico en la teoría de juegos aplicada a la estabilidad financiera es
que la IA puede disminuir la volatilidad diaria pero aumentar el riesgo de cola (tail
risk).4 Al procesar la información de manera más eficiente y actuar a velocidades de
máquina, los algoritmos de IA tienden a suavizar las fluctuaciones menores del
mercado. Sin embargo, en momentos de estrés genuino, el uso de modelos similares
y fuentes de datos comunes puede llevar a un comportamiento sincronizado que
amplifica los choques, haciendo que las crisis sean más rápidas e intensas que las
experimentadas históricamente.4
Este fenómeno se ve exacerbado por la "opacidad del sistema" y el
apalancamiento excesivo en sectores no bancarios (NBFI), que ahora juegan un papel
creciente en los mercados de criptoactivos y crédito privado.38 Las autoridades
financieras enfrentan el reto de supervisar un entorno donde la velocidad de
innovación supera la capacidad de recolección de datos y actualización de marcos
legales.37
Hacia una Nueva Gobernanza Económica Basada
en Datos
La convergencia de la inteligencia artificial y los sistemas económicos no
fiduciarios ofrece una oportunidad sin precedentes para rediseñar la interacción
humana con el valor y los recursos. Mientras que los sistemas fiduciarios dependen
de la gestión política de la escasez, los sistemas emergentes permiten una gestión
técnica de la abundancia y la estabilidad algorítmica. La implementación exitosa de
estos métodos requiere no solo avances en la precisión de los modelos estadísticos,
sino también una profunda comprensión de la ética de los datos, la privacidad y la
resiliencia sistémica frente a comportamientos emergentes.
70
La transición hacia una economía basada en recursos o un sistema financiero
puramente algorítmico no está exenta de riesgos, pero la capacidad de la IA para
procesar la complejidad, detectar fraudes de manera autónoma y optimizar la
distribución de bienes sugiere que el futuro de la economía será menos una cuestión
de opinión política y más un campo de ingeniería de alta precisión. La clave de la
estabilidad en esta nueva era no reside en resistir el cambio tecnológico, sino en
asegurar que los marcos de gobernanza evolucionen a la par de las capacidades de los
agentes económicos artificiales.
La integración de métodos estadísticos con inteligencia artificial en sistemas
no fiduciarios representa el paso definitivo hacia una economía post-fiduciaria donde
el valor se gestiona mediante la transparencia del código y la realidad física de los
recursos. La superioridad de los modelos de aprendizaje automático frente a los
métodos estadísticos tradicionales en la predicción de volatilidad y la detección de
fraudes es un indicador de la madurez tecnológica alcanzada. Sin embargo, la
resiliencia del sistema a largo plazo dependerá de la capacidad de los diseñadores de
protocolos para integrar mecanismos de seguridad federados, generar simulaciones
robustas de escenarios extremos y evitar la homogeneización de algoritmos que
podría inducir fallas sistémicas. En última instancia, la inteligencia artificial actúa
como el sistema nervioso central de una nueva estructura económica que prioriza la
eficiencia, la sostenibilidad y la autonomía individual sobre el control centralizado.
71
Capítulo V
Métodos estadísticos con inteligencia
artificial aplicados a plataformas Fintech
La industria de los servicios financieros ha convergido hacia un estado de
digitalización absoluta, donde la distinción entre las instituciones bancarias
tradicionales y las empresas de tecnología financiera, o Fintech, se ha vuelto casi
imperceptible debido a la adopción masiva de métodos estadísticos avanzados y
arquitecturas de inteligencia artificial.1 En el umbral de 2025, el sector Fintech no solo
representa una alternativa ágil a la banca convencional, sino que se ha consolidado
como el motor principal de la innovación económica global, democratizando el acceso
a servicios que antes eran exclusivos de segmentos institucionales o de alto
patrimonio.3 Esta transformación estructural se apoya en una sofisticación sin
precedentes de los algoritmos de aprendizaje automático, el procesamiento de
grandes volúmenes de datos en tiempo real y una integración profunda de modelos
probabilísticos que permiten una gestión del riesgo y una personalización del servicio
con niveles de precisión quirúrgica.5
Evolución y maduración del ecosistema Fintech
global
El crecimiento del sector Fintech ha sido exponencial, especialmente en
regiones con alta demanda de inclusión financiera como América Latina y el Caribe,
donde el número de plataformas tecnológicas ha crecido un 340% desde 2017,
72
superando las 3,000 empresas activas al cierre de 2023.4 Este fenómeno no es aislado;
responde a una tendencia global de migración hacia modelos de negocio digitales que
priorizan la agilidad, la reducción de costos operativos y la capacidad de atender a
segmentos de la población históricamente desatendidos, como las micro, pequeñas y
medianas empresas (mipymes), mujeres y jóvenes.3 En las economías emergentes, las
Fintech han logrado penetrar en áreas rurales utilizando estrategias multicanal que
combinan redes de agentes con servicios multilingües y educación financiera,
superando las barreras de acceso a internet que todavía afectan a gran parte de la
población mundial.3
La infraestructura técnica que sustenta este crecimiento ha evolucionado hacia
la estandarización global de los datos. La adopción del estándar ISO 20022 para la
mensajería financiera es un pilar fundamental en 2025, permitiendo una
interoperabilidad fluida entre sistemas de pagos de alto valor (HVPS+), pagos
transfronterizos (CBPR+) y sistemas de pagos instantáneos (IP+).7 Esta estandarización
no solo mejora la eficiencia del procesamiento directo y reduce los costos de
conciliación, sino que proporciona un diccionario de datos común que alimenta los
modelos de inteligencia artificial con información estructurada y de alta calidad,
facilitando la detección de fraudes y el cumplimiento regulatorio a nivel
internacional.7
La inversión en tecnología financiera, aunque experimentó una corrección en
términos de capital de riesgo entre 2021 y 2022, ha mostrado una resiliencia notable,
representando el 43% del total de la inversión en el rubro tecnológico en regiones
clave.4 Este flujo de capital se ha redirigido desde el crecimiento a cualquier costo
hacia la rentabilidad y la solidez operativa, donde la inteligencia artificial juega un
papel crítico. El 80% de las Fintech encuestadas en 2025 afirma haber implementado
73
IA en múltiples áreas de su negocio, principalmente en la automatización de procesos
y el servicio al cliente, logrando mejoras significativas en la experiencia del usuario y
en la reducción de gastos operativos.3
Metodologías estadísticas y aprendizaje
automático en la gestión del riesgo crediticio
El modelado del riesgo de crédito constituye el corazón operativo de cualquier
plataforma de préstamos o financiamiento. La transición desde los métodos
estadísticos tradicionales, basados en regresiones logísticas simples, hacia
arquitecturas de aprendizaje profundo y modelos de ensamble ha redefinido la
precisión de las predicciones de incumplimiento.8 Mientras que la regresión logística
(LR) y el análisis discriminante lineal (LDA) han sido los pilares históricos debido a
su interpretabilidad y alineación con las normativas de Basilea, su capacidad para
capturar interacciones no lineales complejas es limitada en comparación con las
técnicas modernas.10
Comparativa de desempeño entre modelos tradicionales y
avanzados
Estudios recientes realizados entre 2024 y 2025 demuestran que algoritmos
como Random Forest (RF), XGBoost y las Redes Neuronales Profundas (DNN)
superan consistentemente a los modelos econométricos clásicos en métricas de
precisión, sensibilidad y el área bajo la curva (AUC).8 Por ejemplo, en el análisis de la
probabilidad de incumplimiento (Probability of Default), las redes neuronales han
mostrado un Accuracy Ratio de hasta el 71%, superando en cinco puntos porcentuales
a la regresión logística tradicional, que promedia un 66%.13 Esta mejora, aunque
74
parezca marginal en términos porcentuales, se traduce en ahorros de millones de
dólares en capital de reserva y pérdidas por impagos para las instituciones financieras
de gran escala.10
La potencia de los modelos de Machine Learning reside en su capacidad para
integrar fuentes de datos no convencionales. Las plataformas Fintech evalúan ahora
la solvencia crediticia analizando el historial de transacciones detallado, los patrones
de gasto en comercio electrónico, el comportamiento en redes sociales e incluso la
cadencia de uso de aplicaciones móviles.6 Este enfoque permite la inclusión de clientes
con "archivos delgados" (thin-files) o sin historial crediticio previo, expandiendo el
mercado direccionable de las Fintech mientras se mantiene un control estricto sobre el
riesgo.6
Optimización y validación estadística de los modelos
Para garantizar la estabilidad y el rendimiento óptimo de estos sistemas, se
emplean técnicas sofisticadas de ajuste de hiperparámetros. La optimización
bayesiana, utilizando marcos de trabajo como Optuna, permite encontrar las
configuraciones ideales para los modelos de ensamble (Stacking Ensembles) de
manera eficiente, superando las búsquedas de cuadrícula (grid search) tradicionales.11
Además, la validación de estos modelos ya no se limita a pruebas simples de precisión;
se aplican pruebas estadísticas rigurosas como el test de McNemar y pruebas t-
pareadas para confirmar la significancia estadística de las mejoras de rendimiento
antes de su despliegue en entornos de producción.11
La evaluación del rendimiento se basa en fórmulas matemáticas
estandarizadas que permiten la comparación objetiva entre diferentes arquitecturas:
1. Tasa de Precisión (Accuracy Rate):
75
Accuracy = \frac{T_0 + T_1}{(T_0 + F_1) + (F_0 + T_1)}
Donde T_0 y T_1 son verdaderos positivos y negativos, mientras que F_0
y F_1 representan falsos negativos y positivos respectivamente.12
F1 Score:
F1 = 2 \cdot \frac{Precision \cdot Recall}{Precision + Recall}
Siendo esta métrica vital en conjuntos de datos desbalanceados,
comunes en el riesgo crediticio donde los casos de
incumplimiento son una minoría.12
2. Matriz de Confusión: Una herramienta esencial para desglosar el tipo de
errores que comete el modelo, permitiendo a los gestores de riesgo decidir
si prefieren minimizar los falsos positivos (denegar crédito a buenos
clientes) o los falsos negativos (aprobar crédito a clientes que
incumplirán).12
Detección de fraude y análisis de anomalías en
tiempo real
La ciberseguridad y la prevención del fraude han pasado de ser funciones de
soporte a convertirse en pilares de la confianza del cliente en el ecosistema Fintech.
Los sistemas basados en reglas estáticas y revisiones manuales, que antes eran el
estándar, han demostrado ser insuficientes frente a la sofisticación de los ataques
modernos, generando tasas de falsos positivos que pueden oscilar entre el 12% y el
76
20%.15 En 2025, la detección de fraude mediante inteligencia artificial permite procesar
flujos masivos de datos en milisegundos, identificando patrones de comportamiento
sospechosos antes de que la transacción se complete.15
Arquitecturas para el análisis de series temporales
El fraude financiero es intrínsecamente un problema de series temporales. Las
transacciones de un usuario forman una secuencia con dependencias temporales y
contextuales que deben ser analizadas para detectar desviaciones.15 Las redes
neuronales recurrentes (RNN) y, específicamente, las arquitecturas de memoria de
corto y largo plazo (LSTM), son fundamentales en este ámbito. Las LSTM superan el
problema del desvanecimiento del gradiente de las RNN tradicionales, permitiendo
al sistema "recordar" patrones de gasto a largo plazo y detectar si una serie de
transacciones recientes, aunque parezcan normales individualmente, conforman una
secuencia anómala indicativa de un ataque de toma de control de cuenta (ATO).15
Además de las LSTM, las Redes Convolucionales Temporales (TCN) han ganado
tracción en 2025. A diferencia de las arquitecturas recurrentes, las TCN procesan la
información de manera paralela a través de capas convolucionales, lo que las hace más
rápidas de entrenar y, a menudo, más precisas en la detección de anomalías en datos
de alta frecuencia.19 Estudios comparativos indican que las TCN pueden alcanzar una
estabilidad de modelo superior y una menor latencia de inferencia, factores críticos
para los sistemas de bloqueo de transacciones en tiempo real.18
Biometría conductual y redes de grafos (GNN)
Una de las innovaciones más profundas es el uso de la biometría conductual
asistida por IA. Los sistemas monitorean continuamente micro-patrones como la
77
cadencia de las pulsaciones de teclas, la presión ejercida sobre la pantalla táctil del
móvil y las trayectorias del ratón.15 Estas señales forman una "firma de
comportamiento" única que es extremadamente difícil de replicar para un atacante o
un bot. Cuando el sistema detecta una desviación de esta línea base, puede forzar una
verificación adicional o bloquear la cuenta de forma preventiva.15
Por otro lado, el análisis relacional mediante Redes Neuronales de Grafos
(GNN) permite identificar estructuras de fraude complejas que el análisis tabular
ignoraría. Las GNN analizan las conexiones entre cuentas, dispositivos, direcciones IP
y ubicaciones geográficas, facilitando la detección de redes de lavado de dinero,
cuentas "mula" y ataques coordinados de ingeniería social.15
La eficiencia de estos sistemas se mide por su capacidad de adaptación. El
concepto de "deriva de concepto" (concept drift) es central en 2025: dado que los
patrones de fraude evolucionan constantemente, los modelos de IA deben ser capaces
de actualizarse de forma dinámica mediante aprendizaje en línea o reentrenamientos
frecuentes basados en nuevos datos etiquetados.5 Plataformas modernas como Nected
y Rapid Innovation ya implementan estos ciclos de retroalimentación, logrando
reducciones drásticas en las pérdidas financieras por transacciones no autorizadas.16
Inteligencia artificial en el asesoramiento robótico
y la gestión patrimonial
Los asesores robóticos (Robo-advisors) han pasado de ser simples calculadoras
de asignación de activos a sistemas de gestión de patrimonio hiper-personalizados
que integran principios de finanzas conductuales con optimización estadística
avanzada.22 En 2025, el mercado global de robo-advisors se estima en más de 2 billones
78
de dólares en activos bajo gestión, impulsado por una base de usuarios que valora las
bajas comisiones, la accesibilidad 24/7 y la toma de decisiones basada en datos
objetivos.24
Optimización de carteras más allá de la media-varianza
El modelo clásico de Markowitz, aunque sigue siendo una referencia, presenta
limitaciones significativas, como la asunción de una distribución normal de los
retornos y la sensibilidad extrema a los errores de estimación.25 Para superar esto, los
robo-advisors modernos utilizan el concepto de Dominancia Estocástica (SD) y, más
específicamente, la Dominancia Estocástica de Segundo Grado Casi Absoluta
(ASSD).26 Este marco permite identificar carteras que superan a un índice de referencia
para cualquier inversor con aversión al riesgo, considerando la distribución completa
de las probabilidades en lugar de solo los dos primeros momentos (media y
varianza).26
Además, el modelado de dependencias complejas entre activos se realiza
mediante pulas Multivariantes. Las cópulas permiten separar la estructura de
dependencia de las distribuciones marginales de cada activo, lo que es crucial para
capturar la "dependencia de cola" o el comportamiento conjunto de los mercados
durante crisis financieras, donde las correlaciones tradicionales suelen romperse.27 El
uso de vine copulas jerárquicas facilita la construcción de modelos de riesgo para
carteras globales diversificadas, mejorando la robustez del sistema ante eventos
extremos.27
Aprendizaje por refuerzo y mitigación de sesgos
El aprendizaje por refuerzo (RL) ofrece una ventaja estratégica en la gestión
79
dinámica de carteras. A diferencia de las estrategias basadas en reglas fijas, los
algoritmos de RL, como el Deep Reinforcement Learning (DRL), aprenden a través de la
interacción directa con el entorno de mercado, optimizando las señales de compra y
venta para maximizar los retornos a largo plazo ajustados al riesgo.23 Estos sistemas
pueden simular millones de escenarios de mercado para encontrar la política de
inversión óptima que se adapte a las condiciones cambiantes de volatilidad.23
Un aspecto crítico de los robo-advisors en 2025 es su capacidad para identificar
y mitigar los sesgos cognitivos de los inversores humanos. Mediante el uso de
modelos predictivos de comportamiento, las plataformas pueden detectar signos de
exceso de confianza o aversión extrema a la pérdida en los patrones de trading de los
usuarios. Cuando se identifica un sesgo, el sistema puede intervenir mediante
notificaciones educativas, ajustes automáticos de la tolerancia al riesgo o la
implementación de una arquitectura de elección que fomente decisiones financieras
más lógicas y racionales.31
Procesamiento de lenguaje natural y análisis de
sentimiento financiero
La capacidad de interpretar el lenguaje humano ha abierto una nueva
dimensión en el análisis de mercado. En un entorno donde la información fluye
instantáneamente a través de noticias, redes sociales y comunicados corporativos, el
Procesamiento de Lenguaje Natural (NLP) permite a las Fintech transformar datos no
estructurados en señales operativas.33
Evolución hacia la fusión bayesiana de modelos de lenguaje
80
El análisis de sentimiento financiero en 2025 ya no depende de diccionarios de
palabras clave simples. El uso de modelos basados en transformadores, como BERT,
FinBERT (especializado en términos financieros) y los modelos de la familia GPT (4o
y 4o-mini), permite capturar matices semánticos, sarcasmo y jerga técnica con una
precisión asombrosa.36 Una de las metodologías más avanzadas introducidas
recientemente es el Bayesian Network LLM Fusion (BNLF).37
El marco BNLF integra las predicciones de múltiples modelos de lenguaje
(como FinBERT, RoBERTa y BERTweet) actuando como nodos en una red bayesiana.
Esta arquitectura de "fusión tardía" modela las dependencias probabilísticas entre las
predicciones de cada modelo, permitiendo que el sistema ajuste dinámicamente el
peso de cada entrada según el contexto del texto.37 Por ejemplo, en textos ruidosos
procedentes de redes sociales, el peso del modelo BERTweet (entrenado en dicho
dominio) aumenta automáticamente, mejorando la precisión general del sentimiento
en aproximadamente un 6% sobre los modelos individuales.37
Aplicaciones estratégicas del NLP
Las aplicaciones del NLP en el ecosistema Fintech son vastas:
1. Análisis de llamadas de ganancias: El sistema procesa transcripciones de
llamadas trimestrales en segundos, detectando el tono de la gerencia y
comparándolo con resultados históricos para predecir movimientos en el precio
de las acciones.33
2. Monitoreo de cumplimiento: Los algoritmos de NLP revisan miles de
documentos legales y regulatorios para asegurar que la plataforma cumple con
las normativas vigentes, reduciendo el riesgo de sanciones.34
3. Servicio al cliente hiper-personalizado: Los chatbots impulsados por modelos
81
de lenguaje de gran escala (LLMs) proporcionan respuestas contextuales que no
solo resuelven problemas técnicos, sino que también identifican el estado
emocional del cliente, derivando casos sensibles a humanos cuando se detecta
frustración.34
La integración de estos sentimientos en modelos de series temporales
estructurales bayesianas permite a los analistas cuantificar el impacto exacto de una
noticia o un rumor en la volatilidad de un activo, facilitando estrategias de trading
basadas en eventos que antes eran imposibles de automatizar con tal nivel de detalle.35
Trading de alta frecuencia (HFT) y sistemas multi-
agente
El trading de alta frecuencia representa la cúspide de la aplicación de la
inteligencia artificial en la ejecución financiera. En 2025, el mercado ha evolucionado
desde algoritmos de ejecución simples hacia sistemas de Aprendizaje por Refuerzo
Multi-Agente (MARL), donde múltiples entidades autónomas interactúan y compiten
en milisegundos.29
La revolución de JaxMARL-HFT y la aceleración por GPU
La investigación y el despliegue de estos sistemas se han visto transformados
por herramientas como JaxMARL-HFT. Este entorno, basado en JAX, aprovecha la
aceleración por GPU para reducir el tiempo de entrenamiento de los modelos hasta
240 veces en comparación con las implementaciones tradicionales.42 Esta velocidad
permite a las Fintech realizar barridos de hiperparámetros masivos y entrenar agentes
utilizando años de datos de libros de órdenes (Limit Order Book - LOB) con cientos de
82
millones de registros.29
Los resultados de estas estrategias son significativos. Agentes entrenados
mediante algoritmos como Proximal Policy Optimization (PPO) y Value Decomposition
Networks (VDN) han demostrado superar consistentemente a los puntos de referencia
tradicionales en tareas de creación de mercado y ejecución de órdenes grandes,
minimizando el impacto en el precio y maximizando los rendimientos ajustados al
riesgo con Sharpe ratios reportados de hasta 3.42.28
A pesar de los beneficios en términos de liquidez y descubrimiento de precios,
la proliferación de sistemas HFT basados en IA plantea desafíos para la estabilidad
del mercado. La supervisión regulatoria en 2025 se centra en prevenir el
"comportamiento colusivo algorítmico" y garantizar que la velocidad de ejecución no
erosione la equidad para los participantes humanos.41 Los modelos de optimización
estocástica, como la integración de Euler-Maruyama y métodos basados en Heun, se
utilizan para modelar la dinámica de precios en alta dimensión y evaluar el riesgo
sistémico derivado de estas interacciones rápidas.43
Inteligencia artificial explicable (XAI) y el nuevo
marco regulatorio
A medida que los modelos estadísticos se vuelven más complejos, la necesidad
de transparencia se ha vuelto imperativa. La "IA explicable" (XAI) no es solo una rama
de la investigación en 2025, sino un requisito legal fundamental bajo normativas como
la Ley de IA de la Unión Europea y la Ley Dodd-Frank en Estados Unidos.44 Las
instituciones financieras deben ser capaces de justificar por qué una IA denegó un
crédito o maruna transacción como fraudulenta, no solo para cumplir con la ley,
83
sino para mantener la confianza del consumidor.44
Técnicas y principios de la XAI en finanzas
La explicabilidad en el entorno Fintech se rige por varios principios clave:
transparencia, interpretabilidad, equidad y rendición de cuentas.44 Para lograrlo, se
emplean diversas técnicas estadísticas:
1. SHAP (SHapley Additive Explanations): Basado en la teoría de juegos, asigna a
cada variable de entrada un valor de importancia para una predicción específica.
Es el estándar de oro para explicar modelos de caja negra como XGBoost o redes
neuronales en el scoring crediticio.10
2. LIME (Local Interpretable Model-agnostic Explanations): Crea modelos locales
simplificados (como regresiones lineales) alrededor de una predicción específica
para explicar el comportamiento del modelo complejo en ese punto.10
3. Mapas de calor y visualización de atención: Utilizados principalmente en
modelos de visión o NLP para mostrar qué partes de un documento o una
imagen influyeron más en la decisión del algoritmo.44
La integración de la XAI en el ciclo de vida del desarrollo de software Fintech
permite una gobernanza más sólida. Los equipos de cumplimiento pueden auditar los
modelos en busca de sesgos discriminatorios (por ejemplo, por género o etnia) antes
de que afecten a los clientes reales.44 Además, la XAI facilita la supervisión humana
(Human-in-the-loop), permitiendo que los expertos validen los resultados algorítmicos
mediante explicaciones en lenguaje natural, lo que reduce drásticamente el tiempo de
auditoría y aumenta la confianza de los reguladores.45
Casos de estudio y líderes del mercado: Nubank,
84
Revolut y la infraestructura de pagos
El éxito de la aplicación de estos métodos se refleja en las métricas operativas
de los líderes del sector. Empresas como Nubank y Revolut han demostrado que la
ventaja tecnológica se traduce directamente en rentabilidad y cuota de mercado.
Nubank: Dominancia en América Latina mediante analítica
profunda
Nubank se ha consolidado como uno de los bancos digitales más rentables del
planeta, con más de 114 millones de usuarios en 2025.47 Su modelo se basa en una
plataforma de bajo costo y alta escala, donde la adquisición de clientes se apoya en un
80% en recomendaciones orgánicas impulsadas por una experiencia de usuario
superior.47 Mediante el uso de analítica avanzada y finanzas abiertas (Open Finance),
Nubank ha logrado penetrar en segmentos de préstamos de nómina y crédito de
consumo con tasas de morosidad notablemente bajas para la región.47 Su capacidad
para extraer un ingreso promedio por cliente de 80 USD, frente a costos de servicio
mínimos, es un testimonio de la eficiencia operativa lograda a través de la
automatización inteligente.48
Revolut: La super-app financiera global
Revolut, con una valoración de 45 mil millones de dólares, representa el
modelo de expansión agresiva y diversificación de producto.47 Con presencia en más
de 30 países y 50 millones de clientes, la plataforma utiliza IA para gestionar cuentas
multi-divisa, trading de criptomonedas y servicios de gestión de gastos en una
interfaz unificada.48 En 2023, la empresa reportó ingresos de 2.2 mil millones de
dólares y beneficios récord, superando las dudas iniciales sobre la rentabilidad de los
85
neobancos.49 Su éxito reside en la agilidad para lanzar productos financieros
complejos como el staking de cripto o planes de seguros personalizados
utilizando modelos predictivos para anticipar la demanda del mercado.47
Infraestructura de pagos: Stripe y Square
Más allá de los bancos digitales, las Fintech de infraestructura como Stripe y
Square han redefinido el comercio global mediante APIs simples y seguridad robusta.
Stripe, operando en 46 países, utiliza modelos de IA para la prevención de fraudes y
la optimización de las tasas de autorización de pagos, sirviendo desde startups hasta
empresas de la lista Fortune 500.50 Por su parte, Square (Block) ha integrado servicios
de préstamos para comerciantes (Square Capital) que utilizan datos de ventas en
tiempo real para evaluar el riesgo crediticio, eliminando la necesidad de garantías
tradicionales y acelerando el crecimiento de las pequeñas empresas.50
Conclusiones y prospectiva hacia la segunda mitad
de la década
El análisis exhaustivo de los métodos estadísticos y la inteligencia artificial en
el sector Fintech revela una industria en su fase de madurez técnica. La convergencia
de datos estandarizados bajo el ISO 20022, la potencia computacional de herramientas
basadas en GPU como JAX, y la sofisticación de modelos de lenguaje y aprendizaje
por refuerzo han creado un ecosistema financiero que es, por primera vez en la
historia, verdaderamente predictivo y proactivo.7
La inteligencia artificial no es simplemente una herramienta añadida a las
finanzas; es el nuevo sustrato sobre el cual se construye la economía del siglo XXI. Las
86
plataformas que logren integrar de manera fluida la precisión estadística con la
empatía hacia el usuario y la responsabilidad ética serán las que definan el panorama
financiero de las próximas décadas.1
87
Conclusión
La presente investigación ha permitido trazar un puente robusto entre el rigor
de los métodos estadísticos clásicos y la capacidad adaptativa de la inteligencia
artificial, aplicados a un ecosistema tan volátil y complejo como el de las
criptomonedas y las Finanzas Descentralizadas (DeFi). A lo largo de este estudio, se
han validado tres pilares fundamentales que marcarán el futuro del sector:
1. Superación de la Eficiencia de Mercado
Se ha demostrado que los modelos lineales tradicionales resultan insuficientes
para capturar la naturaleza estocástica y de "colas pesadas" de los criptoactivos. La
integración de redes neuronales recurrentes (como las LSTM) y algoritmos de
Gradient Boosting ha permitido identificar patrones de microestructura de mercado
que antes eran invisibles, logrando una precisión predictiva superior en entornos de
alta frecuencia.
2. Gestión de Riesgos en Ecosistemas DeFi
La aplicación de modelos de aprendizaje por refuerzo (Reinforcement Learning)
en protocolos DeFi ha revelado una capacidad inédita para optimizar el yield farming
y mitigar el riesgo de liquidación. La inteligencia artificial no solo actúa como una
herramienta de rentabilidad, sino como un mecanismo de seguridad algorítmica
capaz de anticipar crisis de liquidez antes de que se propaguen por la cadena de
bloques.
3. Democratización y Transparencia del Dato
Uno de los hallazgos más significativos es la sinergia entre la transparencia del
on-chain data y el procesamiento masivo de datos. A diferencia de las finanzas
tradicionales, el análisis estadístico en cripto se beneficia de una fuente de verdad
pública y auditable, lo que permite que los modelos de IA sean más explicables y
88
menos dependientes de intermediarios.
La transición hacia un sistema financiero descentralizado no es solo un cambio
tecnológico, sino una evolución matemática. La inteligencia artificial no sustituye el
juicio estadístico, sino que lo potencia para navegar en un mercado que nunca duerme
y que se expande de forma exponencial.
La investigación concluye que la integración de la Inferencia Bayesiana dentro
de arquitecturas de Aprendizaje por Refuerzo (Bayesian Reinforcement Learning)
resuelve uno de los desafíos más críticos en las finanzas descentralizadas: el equilibrio
entre exploración y explotación en entornos de alta incertidumbre. Mientras que un
agente de RL convencional puede incurrir en riesgos excesivos al buscar políticas
óptimas, un Agente Bayesiano utiliza distribuciones de probabilidad a posteriori para
modelar la incertidumbre del entorno.
Mediante el uso de Muestreo de Thompson o Redes Neuronales Bayesianas,
el sistema evalúa no solo el retorno esperado de una estrategia de liquidez o trading,
sino también la varianza de esa predicción. Esto permite una gestión de capital
dinámica donde el agente reduce automáticamente su exposición cuando la
incertidumbre del modelo aumenta, permitiendo que los protocolos DeFi operen bajo
una lógica de seguridad proactiva. En última instancia, esta convergencia transforma
a los algoritmos de cajas negras en sistemas de decisión estadística capaces de
autogestionar el riesgo en tiempo real.
89
Bibliografía
1. Huaranga, J. (2017). Distribución asintótica de los estimadores MCO en
una regresión lineal con variables explicativas que siguen procesos
estocásticos strong-mixing y tendencia. (2018). Pesquimat, 20(2), 65-
83. https://doi.org/10.15381/pes.v20i2.14516
2. Jáuregui Iparraguirre, P. K. (2024). El Impacto del Gobierno Digital en la
Modernización del Estado: Revisión Sistemática. Revista Científica Visión
De Futuro, 29(1). Recuperado a partir de
https://revistacientifica.fce.unam.edu.ar/index.php/visiondefuturo/articl
e/view/848
3. Fernández, R.A., & Ruff, T.E. (2017). Estimación del multiplicador
keynesiano del turismo internacional en Argentina. Estudios y perspectivas
en turismo, 26(2), 248-266
4. Damgaard, C. (2021). Adaptive management plans rooted in quantitative
ecological predictions of ecosystem processes: putting monitoring data
to practical use. Environmental Conservation, 49(1), 27-32.
https://doi.org/10.1017/s0376892921000357
5. Montero Granados, R. (2016). Modelos de regresión lineal ltiple.
Documentos de Trabajo en Economía Aplicada. Universidad de Granada.
España
6. Camilo, J., & Ossa, K. (2024). Análisis sobre el uso de las plataformas
digitales por los clientes, en los procesos bancarios. (2024). Ingeniería:
Ciencia, tecnología E innovación, 11(1), 135-
90
152. https://doi.org/10.26495/mctajh44
7. Espinosa-Zúñiga, Javier Jesús. (2020). Aplicación de algoritmos Random
Forest y XGBoost en una base de solicitudes de tarjetas de
crédito. Ingeniería, investigación y tecnología, 21(3), 00002. Epub 02 de
diciembre de 2020. https://doi.org/10.22201/fi.25940732e.2020.21.3.022
8. Siddique, A. B., Munshi, T. A., Rakin, N. I., Hashan, M., Chnapa, S. S., &
Jahan, L. N. (2025). Application of supervised machine learning and
unsupervised data compression models for pore pressure prediction
employing drilling, petrophysical, and well log data. Scientific
reports, 15(1), 24706. https://doi.org/10.1038/s41598-025-89199-3
9. Coutin Marie, G. (2007). Utilización de modelos ARIMA para la
vigilancia de enfermedades transmisibles. Revista Cubana de Salud
Pública, 33(2), 1-11. Recuperado de
http://scielo.sld.cu/pdf/rcsp/v33n2/spu12207.pdf
10. Ercan Ş. (2023). Comparación de la métrica Sigma calculada con tres
métodos de estimación del sesgo en 33 magnitudes químicas y 26 de
inmunoensayo. Advances in laboratory medicine, 4(3), 246257.
https://doi.org/10.1515/almed-2023-0095
11. Martínez, C., (2013). Un análisis del aporte de estimadores GMM en
sistemas y diferencias a la estimación de ecuaciones dinámicas en
economía. Cuadernos del CIMBAGE, (15), 19-31
12. Orihuela, E., Javier Soto, A., Bendezú Jiménez, H., & Achata Huayhuas,
L. (2023). Un Modelo Vectorial Autorregresivo (VAR) aplicado a las
exportaciones de materias primas (oro y cobre) y la balanza de pagos: el
91
caso peruano (2012- 2022). Compendium: Cuadernos De EconomíA Y
AdministracióN, 10(1), 63-75.
https://doi,org/10.46677/compendium.v10i1.1167
13. Támara-Ayús, A. L., Vargas-Ramírez, H., Cuartas, J. J., & Chica-Arrieta,
I. E. (2019). Regresión logística y redes neuronales como herramientas
para realizar un modelo Scoring1. Revista Lasallista de Investigación,
16(1), 187-200. https://doi.org/10.22507/rli.v16n1a5
14. Campo. J., & Sarmiento, V. (2011). Un modelo de corrección de errores
para la relación entre el consumo de energía y el PIB en Colombia (1970-
2009). Finanzas y Política Económica, 3(1), 59-70. Recuperado de
https://dialnet.unirioja.es/descarga/articulo/4033170.pdf
15. Tello, M. (2017). Análisis de equilibrio general: Modelos y aplicaciones para
países en desarrollo. Lima: Pontificia Universidad Católica del Perú
16. Stiglitz, J. (2017). Hacia una sociedad justa. New York: Prensa de la
Universidad de Columbia
17. Landa, N. (11 octubre, 2021). La maldición de la dimensionalidad. Medium.
https://medium.com/@nicolasarrioja/la-maldici%C3%B3n-de-la-
dimensionalidad-f7a6248cf9a
18. S. Ponnusamy and P. Gupta. (2024). "Scalable Data Partitioning Techniques for
Distributed Data Processing in Cloud Environments: A Review," in IEEE Access,
12, 26735-26746. https:/doi.org/10.1109/ACCESS.2024.3365810
19. Abdelaziz, A., Mahmoud, AN, Santos, V. y Freire, MM (2025). Integración de
redes convolucionales temporales con optimización metaheurística para la
predicción precisa de defectos de software. PloS one , 20 (5), e0319562.
https://doi.org/10.1371/journal.pone.0319562
92
20. Chávez Lazo, I. B., & Burgos Zavaleta, V. F. J. (2021). Factores económicos
externos en el crecimiento de la economía peruana: Un modelo vector
autorregresivo (VAR). Quipukamayoc, 29(61), 37-
46. https://doi.org/10.15381/quipu.v29i61.21628
21. Tejera, G., & Marzoa, M. (2024). Detecci´on de defectos estructurales en saneamiento
usando redes neuronales [Tesis de grado]. Universidad de la República Uruguay
22. G. Haldane, A., y E. Turrell, A. (2018). Un modelo interdisciplinario para la
macroeconomía. Revista de Economía Institucional, 21(40), 69110.
https://doi.org/10.18601/01245996.v21n40.03
23. Apellido, N. N. (año). Reporte del sistema nacional de pagos y del sector Fintech en
Pe. Banco Central de Reserva del Perú (BCRP).
https://www.bcrp.gob.pe/docs/Publicaciones/reporte-del-sistema-nacional-de-
pagos/2025/marzo/rspf-marzo-2025.pdf
24. Rendón, A. H., Gónzalez, H. F., & Alonso Botero García, J. (2011). Los modelos
DSGE: una respuesta de la discusión macroeconómica. Estudios
económicos, 28(57), 5978. https://doi.org/10.52292/j.estudecon.2011.773
25. Lizarazu Alanez, E. (2006). La macroeconomía IS-LM. Una retrospección
teorética estilizada. Investigación económica, 65(256), 103-129
26. Muth, M., Lingenfelder, M. y Nufer, G. (2025). La aplicación del aprendizaje
automático para la predicción de la demanda en condiciones de volatilidad
macroeconómica: una revisión sistemática de la literatura. Manag. Rev. Q., 75,
27592802 (2025). https://doi.org/10.1007/s11301-024-00447-8
27. Blanchard, O. (2016). ¿Tienen futuro los modelos DSGE?. Revista de Economía
Institucional, 18(35), 3946. https://doi.org/10.18601/01245996.v18n35.03
28. Consejo Económico y Social España (2025). Economía, Trabajo Y Sociedad Memoria
Sobre La Situación Socioeconómica Y Laboral España 2024. Huertas: Consejo
93
Económico y Social.
29. Cerquera Losada, O. H., Manrique Parra, S., & Ovalle Díaz, A. L. (2021). Análisis
teórico de los modelos de agentes heterogéneos y el Covid-19. Civilizar, 21(41),
1-13. https://doi.org/10.22518/jour.ccsh/2021.2a01
30. Paniagua, P. (2023). La complejidad que desafía a la macroeconomía. Cambridge
Journal of Economics, 47(3), 575592, https://doi.org/10.1093/cje/bead002
31. Ministerio de Economía y Finanzas Perú. (2019, 31 de enero). Competitividad y
Productividad: 9 Objetivos Prioritarios para impulsar y consolidar el crecimiento
económico del país [Comunicado de prensa].
https://www.mef.gob.pe/es/?option=com_content&language=es-
ES&Itemid=101108&view=article&catid=100&id=5892&lang=es-ES
32. Torres Gutiérrez, J. J. (2023). La transmisión de la política monetaria al mercado
inmobiliario español. Revista De Estudios Empresariales. Segunda Época, 2, 127-
164. https://doi.org/10.17561/ree.n2.2023.7914
33. Sarián Gonzalez, M. (2024). Integración de Inteligencia Artificial en la
Inteligencia de Negocio: potencial de los datos no estructurados para la toma
de decisiones estratégicas. UCV-Scientia, 16(2), 48-
55. https://doi.org/10.18050/revucv-scientia.v16n2a5
34. Loaiza, N. (2008). Causas y consecuencias de la informalidad en el Perú. Estudios
Económicos BCRP, 15(3), 43-64. Recuperado de
https://www.bcrp.gob.pe/docs/Publicaciones/Revista-Estudios-
Economicos/15/Estudios-Economicos-15-3.pdf .
35. Barrios, J., Martín, L., Escobar, J., Peña, W., & Leslie, J. (2021). Nowcasting para
predecir actividad económica en tiempo real: los casos de Belice y El Salvador.
Washington: BID
36. Chan, W., Gai, K., Yu, J. y Zhu, L. (2025). Identidades autosuficientes en
94
educación asistidas por blockchain: un estudio. Blockchains , 3 (1), 3.
https://doi.org/10.3390/blockchains3010003
37. Kim S, Zhang A, Liao R, Zheng W, Hu Z, Sun Z. (2022). Muestreo de
aplicaciones de ciudades inteligentes basadas en blockchain entre Corea del Sur,
Estados Unidos y China. Journal of Smart Cities and Society. 1(1), 53-70.
https://doi.org/10.3233/SCS-210120
38. Pabón Trujillo , H., Carlos Castillo, J., Dayana Rangel, A., Fabián Patiño, O.,
Angarita Bautista, R. E., & Cáceres Cárdenas, J. Z. (2025). El Impacto Global de
la IA en la Seguridad en el Trabajo, Oportunidades y Desafíos para el Futuro
del Trabajo. Ciencia Latina Revista Científica Multidisciplinar, 9(2), 7500-7513.
https://doi.org/10.37811/cl_rcm.v9i2.17476
39. Maldonado Benítez, VM, Morales Matamoros, O., y Moreno Escobar, JJ (2025).
Hacia Ciudades Resilientes: Revisión Sistemática de la Literatura sobre el Uso
de IA para Optimizar la Captación de Agua y Mitigar la Escasez. Water , 17 (13),
1978. https://doi.org/10.3390/w17131978
40. Aguirre, U. (2017). Recursos naturales y desarrollo: Los dilemas de una relación
crítica. Serie Documentos De Trabajo, 1-100. Recuperado de
https://www.ucm.es/data/cont/media/www/pag-
82472/DT39_RafaelAguirre.pdf
41. Concha, J.R., & Pichler, B. (2010). Crecimiento De La Economía China Y Su
Impacto En Su Estratégica Energética. Estudios Gerenciales, 26(117), 131-
144. https://doi.org/10.1016/S0123-5923(10)70138-8
42. Morales-Sáenz, FI, Medina-Quintero, JM, y Reyna-Castillo, M. (2024). Más allá
de la protección de datos: Explorando la convergencia entre la ciberseguridad y
el desarrollo sostenible en las empresas. Sustainability , 16 (14), 5884.
https://doi.org/10.3390/su16145884
95
43. Thompson, S. (2023). Análisis estratégico de la transición a la electricidad
renovable: ¿Energía para el mundo sin emisiones de carbono? Energies , 16 (17),
6183. https://doi.org/10.3390/en16176183
44. Diez, H., Pérez, M., Pérez, F. y Montes, M. (2012). Medición del desempeño y
éxito en la dirección de proyectos. Perspectiva del Manager público. Revista
EAN, (73), 60-79. http://dx.doi.org/10.21158/01208160.n73.2012.586
45. Obaya, M., & Asinsten, J. (2025). Oportunidades y desafíos para América Latina y el
Caribe en el nuevo contexto global de la industria del litio y la transición hacia la
electromovilidad. Washington: Banco Interamericano de Desarrollo
46. Guía Minera de Chile. (s/f). Mercado del litio 2025-2026: entre la sobreoferta, la
volatilidad y el reposicionamiento estratégico. Guía Minera de Chile.
https://www.guiaminera.cl/mercado-del-litio-2025-2026-entre-la-sobreoferta-
la-volatilidad-y-el-reposicionamiento-estrategico/
47. Moshawrab, M., Adda, M., Bouzouane, A., Ibrahim, H. y Raad, A. (2024).
Garantizar el aprendizaje federado: enfoques, mecanismos y
oportunidades. Electrónica , 13 (18), 3675.
https://doi.org/10.3390/electronics13183675
48. Guix, R. (2023). El impacto de la Inflation Reduction Act en las relaciones
transatlánticas. Real Instituto Elcano. Recuperado de
https://media.realinstitutoelcano.org/wp-content/uploads/2023/04/el-impacto-
de-la-inflation-reduction-act-en-las-relaciones-transatlanticas-real-instituto-
elcano.pdf
49. Giudice Baca, V., & Zapata Tito, R. (2020). Neobancos Nuevo Reto en el
Mercado Financiero Peruano. Newman Business Review, 6(1), 105125.
https://doi.org/10.22451/3006.nbr2020.vol6.1.10048
50. Fondo Monetario Internacional (FMI). (2024). Perspectivas de la economía mundial.
96
Washington: FMI
51. Angulo-Bustinza, H. & Lis-Gutiérrez, J. (2023). Comercio y crecimiento
económico inclusivo: China y América Latina (2004-2021). Retos Revista de
Ciencias de Administración y Economía, 13(26), 309-323.
https://doi.org/10.17163/ret.n26.2023.08
52. García, G., & Baeza, R. (2016). Las políticas monetarias heterodoxas en el
contexto de la Gran Recesión. Un comparativo entre el Sistema de la Reserva
Federal y el Banco Central Europeo. (2018). Análisis Económico, 31(77), 177-
204. https://analisiseconomico.azc.uam.mx/index.php/rae/article/view/55
53. Al Omoush, K., Lassala, C., & Ribeiro-Navarrete, S. (2025), "The role of digital
business transformation in frugal innovation and SMEs’ resilience in emerging
markets". International Journal of Emerging Markets, 20(1), 366386.
https://doi.org/10.1108/IJOEM-12-2022-1937
54. Ortiz, Manuel S., & Fernández-Pera, M. (2018). Modelo de Ecuaciones
Estructurales: Una guía para ciencias médicas y ciencias de la salud. Terapia
psicológica, 36(1), 51-57. https://dx.doi.org/10.4067/s0718-48082017000300047
55. Arroyo-Menéndez, M., Gutiérrez-Láiz, N., y Criado-Quesada, B. (2022). La
digitalización de las personas mayores: análisis de la confluencia múltiple de
las brechas sociales y espaciales. Land , 11 (6), 953.
https://doi.org/10.3390/land11060953
56. Finch, H. (2024). Comparación de métodos para sintetizar resultados de
investigaciones previas con el fin de obtener valores previos para el modelado
bayesiano de ecuaciones estructurales. Psych , 6 (1), 45-88.
https://doi.org/10.3390/psych6010004
97
De esta edición de “Métodos estadísticos con inteligencia artificial aplicados
a criptomonedas y finanzas descentralizadas, se terminó de editar en la
ciudad de Colonia del Sacramento en la República Oriental del
Uruguay el 15 de diciembre de 2025
98