Pรกg. 1
Pรกg. 2
Ciencia de datos e inteligencia artificial: Finanzas, polรญticas y gobernanza
Erlin Guillermo Cabanillas Oliva, Ulises Octavio Irigoin Cabrera, Juan Carlos Lรกzaro Guillermo,
Cesar Augusto Agurto Cherre, Oscar Raรบl Esquivel Ynjante, Carlos Mariano Alvez Valles
ยฉ Erlin Guillermo Cabanillas Oliva, Ulises Octavio Irigoin Cabrera, Juan Carlos Lรกzaro
Guillermo, Cesar Augusto Agurto Cherre, Oscar Raรบl Esquivel Ynjante, Carlos Mariano Alvez
Valles, 2024
Primera ediciรณn: Septiembre, 2024
Editado por:
Editorial Mar Caribe
www.editorialmarcaribe.es
Av. General Flores 547, Colonia, Colonia-Uruguay.
RUC: 15605646601
Diseรฑo de cubierta: Yelitza Sรกnchez Cรกceres
Libro electrรณnico disponible en https://editorialmarcaribe.es/ciencia-de-datos-e-inteligencia-
artificial-finanzas-politicas-y-gobernanza/
Formato: electrรณnico
ISBN: 978-9915-9706-3-9
ARK: ark:/10951/isbn.9789915970639
Aviso de derechos de atribuciรณn no comercial: Los autores pueden autorizar al pรบblico en general a
reutilizar sus obras รบnicamente con fines no lucrativos, los lectores pueden usar una obra para generar otra
obra, siempre y cuando se dรฉ el crรฉdito de investigaciรณn y, otorgan a la editorial el derecho de publicar
primero su ensayo bajo los tรฉrminos de la licencia CC BY-NC 4.0.
Pรกg. 3
Editorial Mar Caribe
Ciencia de datos e inteligencia artificial: Finanzas,
polรญticas y gobernanza
Colonia, Uruguay
2024
Pรกg. 4
Sobre los autores y la publicaciรณn
Erlin Guillermo Cabanillas Oliva
https://orcid.org/0000-0001-9815-6228
Universidad Nacional de la Amazonia
Peruana, Perรบ
Ulises Octavio Irigoin Cabrera
https://orcid.org/0009-0007-6168-7415
Universidad Cientรญfica del Perรบ, Perรบ
Juan Carlos Lรกzaro Guillermo
https://orcid.org/0000-0002-4785-9344
Universidad Nacional Intercultural de la
Amazonia, Perรบ
Cesar Augusto Agurto Cherre
https://orcid.org/0000-0001-6494-3567
Universidad Nacional de Ucayali, Perรบ
Oscar Raรบl Esquivel Ynjante
https://orcid.org/0000-0002-5097-831X
Universidad Nacional Intercultural de la
Amazonia, Perรบ
Carlos Mariano Alvez Valles
calvezv@unmsm.edu.pe
https://orcid.org/0000-0003-2341-6191
Universidad Nacional Mayor de San
Marcos, Perรบ
Libro resultado de investigaciรณn:
Publicaciรณn original e inรฉdita, cuyo contenido es resultado de un proceso de investigaciรณn
realizado antes de su publicaciรณn, ha sido revisada por pares externos a doble ciego, el libro ha
sido seleccionado por su calidad cientรญfica y porque contribuye significativamente en el รกrea del
saber e ilustra una investigaciรณn completamente desarrollada y completada. Ademรกs, la
publicaciรณn ha pasado por un proceso editorial que garantiza su estandarizaciรณn bibliogrรกfica y
usabilidad.
Pรกg. 5
รndice
Introducciรณn ......................................................................................................................... 6
Capรญtulo 1 ............................................................................................................................. 9
Redes Neuronales Artificiales: Riesgos financieros en instituciones crediticias ........ 9
Beneficios de IA en las finanzas ...................................................................................... 10
Cartera y gestiรณn de activos ............................................................................................. 11
Los fondos de cobertura y ETF impulsados por IA ..................................................... 14
El trading de algoritmos ................................................................................................... 15
La consecuencias imprevistas y posibles riesgos de la IA ................................. 19
Capรญtulo 2 ............................................................................................................................. 26
BigTech, servicios financieros y blockchain ........................................................................ 26
IA y productos financieros basados en Blockchain ...................................................... 28
La IA aumenta las capacidades de los contratos inteligentes ........................... 32
Los contratos inteligentes de autoaprendizaje y gobernanza de DLT ............. 35
Los riesgos emergentes del uso de IA/ML/Big: herramientas de mitigaciรณn de riesgos
.............................................................................................................................................. 39
Los datos y su gestiรณn ............................................................................................. 40
Capรญtulo 3 ............................................................................................................................. 47
Los datos y competencia en los servicios financieros basados en inteligencia artificial ..... 47
La parcialidad y discriminaciรณn ............................................................................ 49
La explicabilidad ...................................................................................................... 52
Robustez y resiliencia de los modelos de IA ....................................................... 59
Capรญtulo 4 ............................................................................................................................. 68
La gobernanza de los sistemas de IA ................................................................................... 68
Consideraciones reglamentarias ........................................................................... 74
Los riesgos laborales ............................................................................................... 77
Implicaciones polรญticas ..................................................................................................... 79
La actividad polรญtica en torno a las RNA en las finanzas .................................. 79
Consideraciones polรญticas ....................................................................................... 88
Conclusiones ........................................................................................................................ 97
Bibliografรญa .......................................................................................................................... 99
Pรกg. 6
Introducciรณn
La incorporaciรณn de inteligencia artificial (IA) y big data al anรกlisis de sentimientos
para detectar patrones, tendencias y seรฑales comerciales es una tendencia creciente que
existe desde hace algรบn tiempo. Durante aรฑos, los operadores han analizado
cuidadosamente noticias e informes de gestiรณn, tratando de comprender cรณmo la
informaciรณn no financiera afecta los precios de las acciones.
Sin embargo, el uso de tecnologรญas avanzadas como la minerรญa de textos, el anรกlisis
de redes sociales y los algoritmos de procesamiento del lenguaje natural (PNL) ha llevado
este mรฉtodo a un nuevo nivel. Estas herramientas innovadoras permiten a los
comerciantes tomar decisiones informadas al automatizar la recopilaciรณn y el anรกlisis de
datos, asรญ como identificar patrones o comportamientos consistentes en una escala que
los humanos no pueden manejar.
Por lo tanto, el comercio impulsado por IA se diferencia del comercio sistemรกtico
en el uso del aprendizaje por refuerzo y en su capacidad para ajustar el modelo de IA a
las condiciones cambiantes del mercado. Por el contrario, las estrategias metodolรณgicas
tradicionales suelen tardar mรกs en ajustar los parรกmetros debido a la amplia participaciรณn
humana. Es posible que las estrategias tradicionales de backtesting basadas en datos
histรณricos no produzcan un rendimiento รณptimo en tiempo real cuando las tendencias
preestablecidas ya no son vรกlidas. Por otro lado, la implementaciรณn de modelos de
aprendizaje automรกtico permite que los anรกlisis se centren en predecir y analizar
tendencias en tiempo real.
Por ejemplo, se utilizan pruebas predictivas en lugar de pruebas retrospectivas.
Estas pruebas predicen y se adaptan a las tendencias en tiempo real, minimizando asรญ el
riesgo de sobreajuste o ajuste de curvas observado en el backtesting basado รบnicamente
Pรกg. 7
en datos y tendencias histรณricos. La aplicaciรณn de la inteligencia artificial en el comercio
ha pasado por muchas etapas de desarrollo y se ha vuelto cada vez mรกs compleja,
integrรกndose en cada etapa con el comercio algorรญtmico tradicional. Inicialmente, los
algoritmos eran relativamente simples, con รณrdenes de compra o venta predefinidas y
parรกmetros bรกsicos.
Posteriormente, se introdujeron algoritmos mรกs avanzados que permitieron
precios flexibles. La prรณxima generaciรณn de algoritmos se centra en minimizar el impacto
en el mercado dividiendo pedidos grandes, llamados "algoritmos de ejecuciรณn", para
lograr precios รณptimos. Hoy en dรญa, las estrategias avanzadas utilizan redes neuronales
profundas para optimizar la colocaciรณn y ejecuciรณn de รณrdenes, con el objetivo de
minimizar el impacto en el mercado. Inspiradas en el cerebro humano, las redes
neuronales profundas utilizan algoritmos que pueden reconocer patrones y requieren
menos intervenciรณn humana para operar y aprender. Utilizando estas tรฉcnicas, los
creadores de mercado pueden mejorar la gestiรณn de inventarios y reducir los costos del
balance.
A medida que la inteligencia artificial continรบa desarrollรกndose, los algoritmos
avanzan hacia la automatizaciรณn, confiando mรกs en la programaciรณn informรกtica y
aprendiendo de los datos de entrada, reduciendo asรญ la necesidad de intervenciรณn
humana. En aplicaciones prรกcticas, actualmente se utilizan formas mรกs avanzadas de IA
principalmente para detectar seรฑales de problemas en el comercio basado en flujos que
pueden no tener mucho valor noticioso. Estos incidentes son menos visibles, plantean
mayores desafรญos para identificarlos y extraer valor de ellos es una tarea mรกs difรญcil.
En lugar de simplemente mejorar la velocidad de ejecuciรณn, la IA en realidad se
utiliza para filtrar el ruido de los datos y convertir esa informaciรณn en decisiones
procesables. Por otro lado, los algoritmos menos complejos se utilizan principalmente
Pรกg. 8
para eventos ricos en informaciรณn, como noticias financieras, que son fรกciles de entender
para todos los participantes y requieren una implementaciรณn rรกpida.
Por lo tanto, en la etapa actual de desarrollo, los modelos basados en ML tienen un
propรณsito diferente a las estrategias HFT, que se centran en actuar rรกpidamente y obtener
una ventaja en el comercio. En cambio, los modelos de ML se utilizan principalmente
fuera de lรญnea para tareas como ajustar parรกmetros de algoritmos y optimizar la lรณgica de
decisiones en lugar de realizar operaciones reales.
Sin embargo, a medida que la tecnologรญa de inteligencia artificial avanza y
aumentan sus aplicaciones, tiene el potencial de mejorar el comercio algorรญtmico
tradicional en el futuro.
Esto es posible cuando las tecnologรญas de inteligencia artificial se integran en la fase de
ejecuciรณn comercial, proporcionando caracterรญsticas avanzadas de ejecuciรณn comercial
automatizada y cubriendo cada etapa, desde la recopilaciรณn de seรฑales hasta la estrategia
y la realizaciรณn de transacciones.
Los algoritmos de ejecuciรณn basados en ML permitirรกn un ajuste automรกtico y
dinรกmico de la lรณgica de decisiรณn durante la negociaciรณn. En tales casos, los requisitos
actuales para el comercio algorรญtmico, como salvaguardias en los sistemas de gestiรณn de
riesgos previos a la negociaciรณn y mecanismos de control automatizados para detener los
algoritmos cuando exceden los lรญmites de riesgo, deberรญan ampliarse para incluir el
comercio algorรญtmico guiado por inteligencia artificial.
Pรกg. 9
Capรญtulo 1
Redes Neuronales Artificiales: Riesgos financieros en instituciones
crediticias
Desde la innovadora investigaciรณn realizada por Beaver a finales de la dรฉcada de
1960, ha habido un gran interรฉs en utilizar los ratios financieros como medio para
predecir el fracaso financiero. Este aumento en el interรฉs puede atribuirse al influyente
trabajo de Altman en 1968, donde combinรณ cinco ratios financieros en un รบnico predictor
conocido como factor Z, diseรฑado especรญficamente para evaluar la probabilidad de
fracaso empresarial (Tan, 1997). Una ventaja notable de la metodologรญa de Altman es su
capacidad para establecer un punto de referencia estรกndar para comparar empresas
dentro de la misma industria, al tiempo que proporciona una medida consolidada de la
solidez financiera derivada de las cuentas financieras de una empresa. Sin embargo, a
pesar de su atractivo, esta metodologรญa no estรก exenta de limitaciones, puesto que los
รญndices pueden variar significativamente entre diferentes sectores industriales y mรฉtodos
contables utilizados.
Las limitaciones se vuelven mรกs evidentes cuando se utilizan indicadores
financieros para pronosticar los desafรญos financieros que enfrentan las instituciones
financieras. El alto apalancamiento inherente de estas instituciones dificulta la aplicaciรณn
de modelos que fueron desarrollados originalmente para el sector empresarial. Sin
embargo, ha habido una creciente aceptaciรณn del uso de estos modelos en el sector
financiero al considerar a las instituciones financieras como una categorรญa distinta de
empresas. En Australia, ha habido casos en los que investigadores, han realizado anรกlisis
inรฉditos sobre las dificultades financieras entre las instituciones financieras no bancarias.
Pรกg. 10
Estos estudios emplean un modelo Probit para abordar la naturaleza limitada de las
variables dependientes observadas en los datos de dificultades financieras.
En esta secciรณn del libro la atenciรณn se centra principalmente en la eficacia de las
RNA como indicador temprano de problemas financieros dentro de las cooperativas de
crรฉdito. Para proporcionar una evaluaciรณn imparcial, el modelo basado en ANN (siglas
en ingles de Redes Neuronales Artificiales) desarrollado en este estudio se compara con
el modelo Probit creado por Hall y Byron, utilizando el mismo conjunto de datos. Los
hallazgos sugieren que el mรฉtodo ANN supera ligeramente al modelo probit al examinar
el mismo conjunto de datos. Ademรกs, se explora posibles modificaciones al diseรฑo del
modelo ANN para mejorar su rendimiento como predictor de alerta temprana.
Beneficios de IA en las finanzas
La adopciรณn de la inteligencia artificial (IA) en la industria financiera estรก siendo
impulsada por la disponibilidad significativa y en continuo aumento de datos, asรญ como
por la ventaja que la IA y el aprendizaje automรกtico (ML) pueden brindar a las empresas
de servicios financieros. Con la explosiรณn de datos y los avances en la potencia
informรกtica, particularmente a travรฉs de la computaciรณn en la nube, los modelos de
aprendizaje automรกtico pueden analizar eficazmente esta gran cantidad de datos y
descubrir patrones y relaciones ocultos que superan las capacidades humanas.
Como resultado, las empresas del sector financiero utilizan cada vez mรกs la IA/ML
y big data para obtener una ventaja competitiva. Esto incluye mejorar la eficiencia
operativa reduciendo costos y mejorando la calidad de los productos de servicios
financieros para satisfacer las demandas de los clientes. Se espera que esta tendencia
amplifique aรบn mรกs la ventaja competitiva de las empresas financieras en el futuro
(OECD, 2021).
Pรกg. 11
Cartera y gestiรณn de activos
Los modelos de ML tienen la capacidad de monitorear y analizar continuamente
miles de factores de riesgo diariamente. Ademรกs, pueden simular y evaluar el
rendimiento de la cartera en miles de escenarios econรณmicos y de mercado. Este nivel de
anรกlisis avanzado y evaluaciรณn de riesgos puede mejorar enormemente las prรกcticas de
gestiรณn de riesgos para los administradores de activos y otros grandes inversores
institucionales. Una aplicaciรณn especรญfica de la IA, conocida como generaciรณn de lenguaje
natural (NLG), puede resultar especialmente valiosa para los asesores financieros. NLG
permite a los asesores analizar y presentar datos complejos de una manera mรกs
comprensible y relacionable para sus clientes. Al "humanizar" y simplificar el anรกlisis y
la presentaciรณn de informes de datos, NLG puede ayudar a los asesores a comunicar
eficazmente estrategias de inversiรณn y conocimientos a sus clientes.
Asรญ, la utilizaciรณn de IA y ML en la gestiรณn de activos ofrece multitud de beneficios.
Desde mejorar la eficiencia operativa hasta mejorar las prรกcticas de gestiรณn de riesgos y
ofrecer una experiencia superior al cliente, estas tecnologรญas tienen el potencial de
revolucionar la industria. A medida que el campo de la IA continรบa avanzando, se espera
que los administradores de activos y las instituciones financieras adopten cada vez mรกs
estas tecnologรญas para mantenerse a la vanguardia en un mercado en constante evoluciรณn.
En tรฉrminos de beneficios operativos, la implementaciรณn de tecnologรญas de inteligencia
artificial puede resultar en importantes reducciones de costos para los administradores
de inversiones.
Al automatizar tareas que antes se realizaban manualmente, como los procesos de
conciliaciรณn, la IA puede optimizar las operaciones y reducir los gastos administrativos.
Ademรกs, la mayor eficiencia y velocidad que ofrece la IA puede generar potencialmente
Pรกg. 12
mayores ahorros de costos para los administradores de activos. La integraciรณn de la
inteligencia artificial (IA) y el aprendizaje automรกtico (ML) en la gestiรณn de activos tiene
el potencial de mejorar en gran medida la eficiencia y precisiรณn de diversos flujos de
trabajo operativos. Este avance tecnolรณgico no solo promete mejorar el desempeรฑo
general, sino tambiรฉn fortalecer las prรกcticas de gestiรณn de riesgos y mejorar la
experiencia general del cliente.
Al utilizar grandes cantidades de datos, los modelos de aprendizaje automรกtico
pueden ofrecer a los administradores de activos recomendaciones valiosas que pueden
afectar su proceso de toma de decisiones con respecto a la asignaciรณn de carteras y la
selecciรณn de acciones. Con la llegada del big data, los conjuntos de datos tradicionales se
han vuelto ampliamente accesibles para todos los inversores, lo que ha llevado a los
gestores de activos a aprovechar este recurso para obtener informaciรณn valiosa sobre sus
estrategias de inversiรณn.
En toda la comunidad inversora, la informaciรณn siempre ha desempeรฑado un
papel crucial, y los datos sirven como base para diversos enfoques de inversiรณn, como el
anรกlisis fundamental y el comercio sistemรกtico. Si bien los datos estructurados han sido
durante mucho tiempo el punto focal de estas estrategias "tradicionales", la abundancia
de datos sin procesar o no estructurados/semiestructurados ahora presenta una
oportunidad para que los inversores utilicen la IA para obtener una nueva ventaja
informativa. Al emplear IA, los administradores de activos pueden procesar de manera
eficiente grandes cantidades de datos de mรบltiples fuentes y extraer rรกpidamente
informaciรณn valiosa para informar sus estrategias.
La utilizaciรณn de inteligencia artificial y aprendizaje automรกtico, junto con el
anรกlisis de big data, tiende a ser mรกs comรบn entre grandes gestores de activos e inversores
institucionales debido a su capacidad financiera y recursos disponibles para invertir en
Pรกg. 13
tecnologรญas de IA. Como resultado, los actores mรกs pequeรฑos pueden enfrentar
dificultades para adoptar estas tรฉcnicas, ya que carecen de la inversiรณn necesaria en
tecnologรญa y de profesionales capacitados para manejar grandes cantidades de big data
no estructurados y desarrollar modelos de aprendizaje automรกtico.
Aun cuando, si la implementaciรณn de IA y modelos propietarios proporciona una
ventaja competitiva, puede limitar aรบn mรกs la participaciรณn de actores mรกs pequeรฑos que
no pueden incorporar tรฉcnicas internas de IA o acceder a fuentes de informaciรณn de big
data. En consecuencia, esto podrรญa reforzar la actual tendencia de concentraciรณn entre
unos pocos actores importantes en el sector de los fondos de cobertura, ya que estos
grupos mรกs grandes superan a sus competidores mรกs รกgiles.
La participaciรณn limitada de entidades mรกs pequeรฑas en el sector continuarรก hasta
que las herramientas que necesitan estรฉn ampliamente disponibles o sean ofrecidas por
proveedores externos. Ademรกs, es posible que los conjuntos de datos de terceros no
cumplan con los mismos estรกndares de la industria, por lo que los usuarios de estas
herramientas deberรกn generar confianza en la precisiรณn y confiabilidad de la informaciรณn
en la que confรญan. Este nivel de confianza en la validez de los big data es necesario para
que los actores mรกs pequeรฑos se sientan lo suficientemente cรณmodos como para adoptar
y utilizar estas herramientas.
El uso de modelos de IA idรฉnticos en mรบltiples administradores de activos tiene
el potencial de generar un comportamiento gregario y crear mercados unidireccionales.
Esto podrรญa presentar ciertos peligros para la liquidez y la estabilidad generales del
sistema, particularmente durante perรญodos de tensiรณn econรณmica. La apariciรณn de una
volatilidad significativa en el mercado puede intensificarse debido a actividades
simultรกneas de compra o venta a gran escala, introduciendo asรญ nuevas vulnerabilidades
en el sistema.
Pรกg. 14
Existe la posibilidad de que la incorporaciรณn de IA/ML y big data en las estrategias
de inversiรณn tenga el potencial de revertir la tendencia predominante de inversiรณn pasiva.
Si estas tecnologรญas innovadoras demuestran una capacidad constante para generar alfa,
lo que indica una relaciรณn causa-efecto entre el uso de la IA y un rendimiento superior,
presenta una oportunidad para que la comunidad inversora activa revitalice su enfoque
y brindar oportunidades alfa adicionales a sus clientes.
Los fondos de cobertura y ETF impulsados por IA
Los fondos de cobertura han estado liderando el camino en la adopciรณn y
utilizaciรณn de tecnologรญa financiera de vanguardia, como el anรกlisis de big data, la
inteligencia artificial (IA) y el aprendizaje automรกtico (ML), en sus estrategias comerciales
y operaciones administrativas. En tiempos mรกs recientes, ha surgido una nueva
generaciรณn de fondos de cobertura, comรบnmente conocidos como fondos "AI pure play",
que dependen exclusivamente de tecnologรญas de IA y ML para impulsar sus decisiones
de inversiรณn y gestiรณn de cartera (por ejemplo, Aidiyia Holdings, Cerebellum Capital,
Taaffeite Capital Management y Numerai).
Hasta ahora, ha habido una notable ausencia de cualquier evaluaciรณn acadรฉmica o
imparcial de la efectividad de los fondos impulsados por inteligencia artificial (IA),
realizada por una entidad fuera de la industria financiera. Esta evaluaciรณn tendrรญa como
objetivo comparar los numerosos fondos que afirman su dependencia de la tecnologรญa de
inteligencia artificial. Dado que los administradores de fondos emplean diversos niveles
de integraciรณn de IA en sus operaciones y estrategias, naturalmente retienen sus
metodologรญas para mantener una ventaja competitiva. En consecuencia, resulta difรญcil
comparar el desempeรฑo de varios productos autoproclamados impulsados por IA, ya que
Pรกg. 15
el grado de utilizaciรณn de la IA y la madurez de su implementaciรณn difieren
significativamente entre estos fondos.
El sector privado ofrece รญndices de fondos de cobertura impulsados por IA que
superan claramente a los รญndices de fondos de cobertura convencionales proporcionados
por la misma fuente. Es importante seรฑalar que los รญndices de terceros a menudo estรกn
influenciados por sesgos como el sesgo de supervivencia y autoselecciรณn de los fondos
incluidos en el รญndice, asรญ como el backfilling. Por tanto, es aconsejable abordar estos
รญndices con cautela.
Ademรกs, cada vez hay mรกs pruebas que sugieren que los modelos de aprendizaje
automรกtico (ML) superan los pronรณsticos tradicionales en lo que respecta a indicadores
macroeconรณmicos, como la inflaciรณn y el PIB. Esta mejora en el desempeรฑo es
particularmente evidente en tiempos de tensiรณn econรณmica, cuando los pronรณsticos
precisos son cruciales. Asรญ, las tรฉcnicas basadas en inteligencia artificial han demostrado
ser superiores a la hora de identificar correlaciones previamente desconocidas en la
apariciรณn de crisis financieras. Los modelos de ML han superado notablemente a los
modelos de regresiรณn logรญstica en la predicciรณn y previsiรณn de crisis financieras en
pruebas fuera de muestra.
El trading de algoritmos
La inteligencia artificial tiene el potencial de revolucionar la industria comercial al
ofrecer sugerencias de estrategias comerciales e impulsar los sistemas comerciales
automatizados. Estos sistemas basados en IA son capaces de hacer predicciones,
determinar el mejor curso de acciรณn y ejecutar operaciones sin necesidad de intervenciรณn
humana. Utilizan tรฉcnicas avanzadas de inteligencia artificial, como computaciรณn
Pรกg. 16
evolutiva, aprendizaje profundo y lรณgica probabilรญstica para identificar y ejecutar
operaciones en el mercado.
Asimismo, las tรฉcnicas de inteligencia artificial, como las ruedas algorรญtmicas,
pueden elaborar estrategias sistemรกticamente para las prรณximas operaciones mediante la
aplicaciรณn de un proceso de pensamiento lรณgico "si/entonces". Este nivel de integraciรณn
de la IA en el comercio permite capacidades predictivas que superan con creces las de los
algoritmos tradicionales en los sectores financiero y comercial, particularmente
considerando la interconexiรณn actual entre clases de activos y geografรญas.
Asรญ, los sistemas comerciales impulsados por IA tienen el potencial de ayudar
enormemente a los operadores a gestionar eficazmente tanto su riesgo como su flujo de
รณrdenes. Estas aplicaciones de vanguardia pueden monitorear y analizar la exposiciรณn al
riesgo, permitiรฉndoles ajustar o salir automรกticamente de posiciones segรบn las
preferencias y requisitos del usuario. El aspecto notable de estos sistemas de IA es que
poseen la capacidad de autoentrenarse y adaptarse a las condiciones del mercado en
constante cambio, minimizando asรญ la necesidad de intervenciรณn humana. De igual
forma, estos sistemas pueden facilitar la gestiรณn fluida de los flujos entre intermediarios,
asegurando una ejecuciรณn fluida de operaciones predeterminadas. Y tambiรฉn, tienen la
capacidad de regular las comisiones y asignar liquidez entre varios intercambios,
teniendo en cuenta factores como las preferencias del mercado regional, consideraciones
monetarias y otros parรกmetros esenciales involucrados en la gestiรณn de una orden.
En los mercados tecnolรณgicamente avanzados de hoy, particularmente en los
campos de productos de acciones y divisas, la implementaciรณn de soluciones de
inteligencia artificial tiene un gran potencial en tรฉrminos de proporcionar precios
competitivos, gestiรณn eficiente de la liquidez y procesos de ejecuciรณn optimizados. Una
de las ventajas cruciales de utilizar algoritmos de inteligencia artificial en el comercio es
Pรกg. 17
su capacidad para mejorar la gestiรณn de la liquidez y facilitar la ejecuciรณn de รณrdenes
importantes sin causar perturbaciones sustanciales en el mercado. Estos algoritmos
poseen la capacidad de ajustar dinรกmicamente el tamaรฑo, la duraciรณn y el tamaรฑo de la
orden, segรบn las condiciones predominantes del mercado, garantizando asรญ un
rendimiento รณptimo.
La integraciรณn de inteligencia artificial (IA) y big data en el anรกlisis de sentimientos
para detectar patrones, tendencias y seรฑales comerciales es una tendencia creciente que
ha estado presente desde hace bastante tiempo. Los operadores llevan aรฑos examinando
noticias y declaraciones de la direcciรณn de la empresa, intentando comprender cรณmo la
informaciรณn no financiera afecta los precios de las acciones. Sin embargo, el uso de
tecnologรญas avanzadas como la minerรญa de textos, el anรกlisis de redes sociales y los
algoritmos de procesamiento del lenguaje natural (PNL) ha llevado esta prรกctica a nuevas
alturas. Estas herramientas innovadoras permiten a los comerciantes tomar decisiones
informadas al automatizar el proceso de recopilaciรณn y anรกlisis de datos, asรญ como
identificar patrones o comportamientos consistentes en una escala que serรญa imposible de
manejar para un humano.
En consecuencia, el comercio gestionado por IA se distingue del comercio
sistemรกtico debido a su utilizaciรณn del aprendizaje por refuerzo y la capacidad de ajustar
el modelo de IA de acuerdo con las condiciones cambiantes del mercado. Por el contrario,
las estrategias sistemรกticas tradicionales a menudo requieren mรกs tiempo para ajustar los
parรกmetros debido a la amplia participaciรณn humana. Las estrategias convencionales de
backtesting, que se basan en datos histรณricos, podrรญan no ofrecer un rendimiento รณptimo
en tiempo real cuando las tendencias previamente identificadas ya no se mantienen. Por
otro lado, la implementaciรณn de modelos de aprendizaje automรกtico permite que el
anรกlisis se centre en predecir y analizar tendencias en tiempo real. Por ejemplo, se
Pรกg. 18
emplean pruebas de predicciรณn en lugar de pruebas retrospectivas. Estas pruebas
predicen y se adaptan a las tendencias en tiempo real, mitigando asรญ el riesgo de
sobreajuste o ajuste de curvas observado en el backtesting basado รบnicamente en datos y
tendencias histรณricos.
La aplicaciรณn de la IA en el comercio ha pasado por varias fases de desarrollo y
complejidad creciente, integrรกndose con el comercio algorรญtmico tradicional en cada
etapa. Inicialmente, los algoritmos eran relativamente simples, con รณrdenes de compra o
venta predefinidas y parรกmetros bรกsicos. Posteriormente, se introdujeron algoritmos mรกs
avanzados que permitieron fijar precios dinรกmicos. La prรณxima generaciรณn de algoritmos
se centrรณ en minimizar el impacto en el mercado fragmentando grandes รณrdenes,
conocidos como "algoritmos de ejecuciรณn", cuyo objetivo era obtener precios รณptimos.
Actualmente, las estrategias de vanguardia utilizan redes neuronales profundas
para optimizar la colocaciรณn y ejecuciรณn de รณrdenes, con el objetivo de minimizar el
impacto en el mercado. Las redes neuronales profundas, inspiradas en el cerebro
humano, emplean algoritmos que son capaces de reconocer patrones y requieren menos
intervenciรณn humana para operar y aprender. Al utilizar estas tรฉcnicas, los creadores de
mercado pueden mejorar su gestiรณn de inventario y reducir los costos del balance. A
medida que la IA sigue avanzando, los algoritmos se estรกn desplazando hacia la
automatizaciรณn, confiando mรกs en la programaciรณn informรกtica y aprendiendo de los
datos de entrada, reduciendo asรญ la necesidad de intervenciรณn humana.
En el รกmbito de la aplicaciรณn prรกctica, las formas mรกs avanzadas de inteligencia
artificial se utilizan actualmente predominantemente para detectar seรฑales de incidentes
en el comercio basado en flujos que pueden no tener un valor noticioso significativo. Estos
incidentes se caracterizan por ser menos manifiestos, plantear mayores desafรญos en la
identificaciรณn y extraer valor de ellos es una tarea mรกs ardua. En lugar de limitarse a
Pรกg. 19
mejorar la velocidad de ejecuciรณn, la IA se emplea en realidad para filtrar el ruido de los
datos y transformar esta informaciรณn en decisiones procesables. Por otro lado, los
algoritmos menos sofisticados se emplean principalmente en eventos cargados de
informaciรณn, como noticias financieras, que son mรกs fรกcilmente comprensibles para todos
los participantes y requieren una ejecuciรณn rรกpida.
Por lo tanto, en la etapa actual de su desarrollo, los modelos basados en ML tienen
un propรณsito diferente en comparaciรณn con las estrategias HFT, que se centran en una
acciรณn rรกpida y en obtener una ventaja en las operaciones. En cambio, los modelos de ML
se utilizan principalmente fuera de lรญnea para tareas como refinar los parรกmetros del
algoritmo y mejorar la lรณgica de toma de decisiones en lugar de para la ejecuciรณn real de
operaciones. Si bien, a medida que la tecnologรญa de inteligencia artificial avanza y
encuentra mรกs aplicaciones, tiene el potencial de mejorar el comercio algorรญtmico
tradicional en el futuro. Esto podrรญa suceder cuando las tรฉcnicas de inteligencia artificial
se incorporen en la fase de ejecuciรณn comercial, proporcionando capacidades avanzadas
para la ejecuciรณn comercial automatizada y cubriendo cada paso, desde la captura de
seรฑales hasta la estrategia y ejecuciรณn comercial.
Los algoritmos de ejecuciรณn basados en ML permitirรญan un ajuste autรณnomo y
dinรกmico de la lรณgica de decisiรณn durante la negociaciรณn. En tales casos, los requisitos
existentes para el comercio algorรญtmico, como salvaguardias en los sistemas de gestiรณn de
riesgos previos a la negociaciรณn y mecanismos de control automatizados para detener los
algoritmos cuando superen los lรญmites de riesgo, deberรญan ampliarse para incluir el
comercio algorรญtmico impulsado por IA.
La consecuencias imprevistas y posibles riesgos de la IA
Pรกg. 20
La adopciรณn generalizada de modelos idรฉnticos o similares por parte de
numerosos operadores en diversos mercados puede tener consecuencias no deseadas
para la competencia y podrรญa exacerbar las tensiones dentro de esos mercados. Si estos
modelos llegaran a ser ampliamente utilizados por los comerciantes, naturalmente
disminuirรญan las oportunidades de arbitraje, lo que resultarรญa en menores mรกrgenes de
beneficio. Sin embargo, esto beneficiarรญa en รบltima instancia a los consumidores, ya que
reducirรญa la diferencia entre los precios de compra y de venta.
Por otro lado, tambiรฉn podrรญa conducir a una convergencia del mercado, donde
los comerciantes siguen las mismas estrategias, creando una mentalidad de rebaรฑo y
haciendo que los mercados se muevan en una sola direcciรณn. Esto podrรญa afectar
potencialmente a la estabilidad y la liquidez del mercado, especialmente en momentos
de gran tensiรณn. Al igual que cualquier algoritmo, el uso extensivo de algoritmos de IA
similares conlleva el riesgo de que se produzcan ciclos de retroalimentaciรณn que se
refuerzan a sรญ mismos, lo que puede desencadenar importantes fluctuaciones de precios.
Asimismo, el uso de la IA en actividades maliciosas tiene el potencial de dar lugar
a ataques autรณnomos ofensivos. Estos ataques pueden llevarse a cabo sin intervenciรณn
humana, lo que los hace aรบn mรกs peligrosos. No sรณlo se pueden atacar los sistemas
vulnerables en el comercio, sino que tambiรฉn estรกn en riesgo los mercados financieros en
su conjunto, incluidos los diversos participantes en ellos. Esto pone de relieve el amplio
alcance del impacto potencial de los ciberataques basados en IA.
En esencia, la convergencia de las tecnologรญas de IA no sรณlo mejora las capacidades
de los ciberdelincuentes para explotar sistemas interconectados sino que tambiรฉn permite
la ejecuciรณn de ataques autรณnomos. Estos ataques pueden tener graves consecuencias
tanto para el comercio como para los mercados financieros, lo que requiere mayores
medidas de ciberseguridad para mitigar los riesgos. La convergencia de las tecnologรญas
Pรกg. 21
de IA presenta no sรณlo oportunidades sino tambiรฉn riesgos, particularmente en el รกmbito
de los ciberataques. A medida que los sistemas de IA se vuelven mรกs interconectados y
unificados en sus acciones, los ciberdelincuentes pueden explotar esta unidad en su
beneficio. Les resulta mรกs fรกcil manipular e influir en agentes que comparten
comportamientos similares que en aquellos con comportamientos distintos y
diferenciados. Esta convergencia plantea una amenaza importante para la
ciberseguridad.
La utilizaciรณn de modelos exclusivos que no se pueden replicar juega un papel
crucial para permitir a los operadores mantener cualquier forma de ventaja competitiva.
Ademรกs, estos modelos propietarios pueden contribuir a una falta deliberada de
transparencia, exacerbando asรญ el desafรญo de comprender y explicar los modelos de
aprendizaje automรกtico. La renuencia mostrada por los usuarios de tรฉcnicas de
aprendizaje automรกtico a divulgar la efectividad de sus modelos se debe al miedo a
comprometer su ventaja competitiva, lo que a su vez genera preocupaciones con respecto
a la supervisiรณn de los algoritmos y modelos de aprendizaje automรกtico.
La utilizaciรณn de algoritmos en el comercio tambiรฉn puede facilitar y aumentar la
probabilidad de resultados colusorios en los mercados digitales. Ademรกs, existe la
preocupaciรณn de que los sistemas basados en IA puedan empeorar las prรกcticas ilegales
destinadas a manipular los mercados, como la "suplantaciรณn de identidad", al crear
dificultades para que los reguladores detecten dichas actividades cuando las mรกquinas
coluden. La falta de explicabilidad de los modelos de aprendizaje automรกtico utilizados
para respaldar el comercio puede plantear dificultades a la hora de ajustar las estrategias
durante perรญodos de malos resultados comerciales. Los algoritmos comerciales ya no
siguen procesos lineales basados en modelos (donde la entrada A conduce a la ejecuciรณn
Pรกg. 22
de la estrategia comercial B) que pueden rastrearse e interpretarse fรกcilmente, lo que hace
menos claro quรฉ parรกmetros influyeron en los resultados.
Al considerar las posibles consecuencias negativas en el mercado, se puede
argumentar que la utilizaciรณn de tecnologรญas de inteligencia artificial en el comercio y el
comercio de alta frecuencia (HFT) podrรญa potencialmente intensificar la volatilidad del
mercado mediante la ejecuciรณn de grandes compras o ventas simultรกneas. Esto introduce
nuevas vulnerabilidades dentro del mercado. En particular, ciertas estrategias algo-HFT
han estado implicadas en la apariciรณn de volatilidad extrema del mercado, disminuciรณn
de la liquidez y crisis repentinas exacerbadas, que se han vuelto mรกs frecuentes en los
รบltimos aรฑos. Dado que los HFT desempeรฑan un papel importante a la hora de
proporcionar liquidez al mercado y mejorar su eficiencia en condiciones normales,
cualquier interrupciรณn en el funcionamiento de sus modelos en tiempos de crisis puede
provocar una retirada de liquidez del mercado, lo que podrรญa afectar a su resiliencia.
En el รกmbito de la inversiรณn, la utilizaciรณn generalizada de modelos de inteligencia
artificial preexistentes por parte de varios participantes del mercado tiene el potencial de
tener un gran impacto en la liquidez y la estabilidad del mercado. Este impacto surge de
la tendencia de estos modelos a fomentar la formaciรณn de rebaรฑos y mercados
unidireccionales. Tal comportamiento no sรณlo magnifica los riesgos asociados con la
volatilidad, la prociclicidad y los cambios imprevistos del mercado, sino que tambiรฉn
afecta su escala y direcciรณn. Ademรกs, el comportamiento gregario puede dar lugar a
mercados ilรญquidos si no hay "colchones" o creadores de mercado presentes para realizar
transacciones desde el lado opuesto.
La introducciรณn de la IA en el comercio tiene el potencial de crear conexiones
imprevistas entre los mercados financieros y las instituciones, lo que lleva a un aumento
de la correlaciรณn y dependencia de variables que antes no estaban relacionadas. La
Pรกg. 23
utilizaciรณn de algoritmos que generan ganancias o retornos sin ninguna correlaciรณn
puede en realidad resultar en la correlaciรณn de variables no relacionadas si su uso se
generaliza lo suficiente. Ademรกs, el uso de la IA puede magnificar el impacto de los
efectos de red, provocando cambios inesperados en el tamaรฑo y la direcciรณn de los
movimientos del mercado.
Para abordar los riesgos asociados con la implementaciรณn de la IA en el comercio,
puede ser necesario establecer medidas de protecciรณn para el comercio algorรญtmico
impulsado por la IA. Estas salvaguardias, integradas en los sistemas de gestiรณn de riesgos
previos a la negociaciรณn, estรกn diseรฑadas para prevenir y detener el posible uso indebido
de estos sistemas. Cabe seรฑalar que la IA tambiรฉn se estรก utilizando para mejorar los
sistemas de riesgo previos a la negociaciรณn, que abarcan pruebas obligatorias de cada
versiรณn de algoritmo, que se aplican igualmente a aquellos basados en IA. Como defensa
final para los profesionales del mercado, existen mecanismos de control automatizados
para cerrar inmediatamente el modelo cuando supera los lรญmites del sistema de riesgos.
Estos mecanismos implican "desconectar" y sustituir cualquier tecnologรญa con
intervenciรณn humana. Sin embargo, tales medidas pueden considerarse subรณptimas
desde el punto de vista de las polรญticas, ya que desconectan los sistemas precisamente
cuando mรกs se necesitan en tiempos de tensiรณn y generan vulnerabilidades operativas.
Ademรกs de implementar salvaguardias en las bolsas donde se realizan las
transacciones, podrรญa ser imperativo utilizar varias medidas defensivas. Estas medidas
podrรญan implicar la cancelaciรณn automรกtica de pedidos cada vez que el sistema de IA
experimente un estado fuera de lรญnea, asรญ como el empleo de tรฉcnicas que brinden
resiliencia contra formas sofisticadas de manipulaciรณn facilitadas por la tecnologรญa.
Tambiรฉn, existe la posibilidad de modificar los disyuntores, que actualmente se activan
ante caรญdas significativas en las operaciones, para que tambiรฉn reconozcan y se activen
Pรกg. 24
en respuesta a un volumen sustancial de operaciones mรกs pequeรฑas ejecutadas por
sistemas impulsados por IA, logrando asรญ un resultado similar.
IA: โ€œalgo wheelsโ€
Algo wheels se refiere a un concepto amplio que incluye soluciones totalmente
automatizadas diseรฑadas para guiar el flujo impulsado por el operador. En este contexto,
una rueda algorรญtmica basada en IA representa un proceso de enrutamiento
automatizado que integra tรฉcnicas de inteligencia artificial para asignar un algoritmo de
corredor adecuado a las รณrdenes de una lista predeterminada de soluciones algorรญtmicas.
Esencialmente, las ruedas de algoritmos basadas en IA sirven como modelos que
determinan la estrategia y el corredor mรกs ventajoso para dirigir la orden, teniendo en
cuenta las condiciones predominantes del mercado, asรญ como los objetivos y requisitos
especรญficos de la actividad comercial.
Las empresas de inversiรณn suelen utilizar ruedas algorรญtmicas para dos propรณsitos
principales:
โ€ข En primer lugar, emplean estas ruedas para mejorar el rendimiento al lograr una
mejor calidad de ejecuciรณn.
โ€ข En segundo lugar, aprovechan las ruedas de algoritmos para optimizar su flujo de
trabajo al automatizar el manejo de pedidos mรกs pequeรฑos e implementar
convenciones de nomenclatura estandarizadas para los algoritmos de los
corredores.
Los defensores de las ruedas de algoritmos argumentan que mitigan efectivamente
el sesgo de los comerciantes cuando se trata de elegir corredores y los algoritmos que
implementan en el mercado.
Pรกg. 25
Segรบn estimaciones recientes, aproximadamente el 20 % de los flujos comerciales
utilizan actualmente ruedas algorรญtmicas, un mecanismo que estรก ganando popularidad
para categorizar y medir sistemรกticamente la eficacia de los algoritmos utilizados por los
intermediarios de alto rendimiento. Curiosamente, aquellos que emplean algo wheels
asignan un significativo 38% de su flujo comercial a esta herramienta (OECD, 2021). Esto
sugiere que si se adoptaran ampliamente las ruedas algorรญtmicas, podrรญa conducir a un
aumento significativo en el volumen general del comercio electrรณnico, lo que a su vez
podrรญa generar diversas ventajas para el panorama competitivo del corretaje electrรณnico.
Pรกg. 26
Capรญtulo 2
BigTech, servicios financieros y blockchain
A medida que los gigantes tecnolรณgicos continรบan utilizando su acceso irrestricto
a grandes cantidades de datos de clientes para impulsar sistemas impulsados por IA para
brindar servicios financieros, existe una necesidad creciente de examinar las
implicaciones de su implementaciรณn de IA en la privacidad de los datos. Esto ha generado
preocupaciรณn con respecto a la posible explotaciรณn de la recopilaciรณn, el almacenamiento
y la utilizaciรณn de datos personales para obtener ganancias comerciales. Las prรกcticas
empleadas por las BigTech a este respecto tienen el potencial de impactar negativamente
a los clientes, particularmente a travรฉs de prรกcticas discriminatorias que afectan la
disponibilidad y los precios del crรฉdito.
El acceso que tienen las BigTech a los datos de los clientes les otorga una ventaja
significativa sobre los proveedores de servicios financieros tradicionales. Se espera que
esta ventaja se fortalezca aรบn mรกs a medida que incorporen inteligencia artificial en sus
servicios, permitiendo la entrega de ofertas รบnicas, personalizadas y mรกs eficientes. Si
bien, el dominio de las BigTech en determinadas รกreas del mercado puede dar lugar a
una concentraciรณn excesiva y una mayor dependencia de un pequeรฑo nรบmero de actores
importantes.
Dependiendo del tamaรฑo y alcance de estas empresas, esto podrรญa tener
implicaciones sistรฉmicas y generar preocupaciones sobre riesgos potenciales para los
consumidores financieros. Es posible que estos consumidores no tengan acceso a la
misma gama de opciones de productos, precios o asesoramiento que estarรญan disponibles
a travรฉs de los proveedores de servicios financieros tradicionales. Y, los supervisores
Pรกg. 27
pueden enfrentar desafรญos a la hora de monitorear y regular las actividades financieras
de estas grandes empresas tecnolรณgicas.
Otro riesgo relacionado con esta cuestiรณn es el potencial de comportamiento
anticompetitivo y la concentraciรณn del poder de mercado en el รกmbito tecnolรณgico de la
prestaciรณn de servicios. Esto podrรญa ocurrir si solo emergen unos pocos actores
dominantes en los mercados de soluciones y servicios de IA que utilizan tecnologรญas de
IA. Esta tendencia ya se estรก observando en ciertas regiones del mundo. Asรญ tambiรฉn, el
panorama competitivo se ve aรบn mรกs comprometido por la posiciรณn ventajosa que
ocupan las grandes empresas tecnolรณgicas en tรฉrminos de datos de clientes. Estas
empresas pueden explotar su ventaja en materia de datos para establecer posiciones
monopรณlicas, obteniendo una ventaja en la adquisiciรณn de clientes mediante una
discriminaciรณn de precios efectiva y creando importantes barreras de entrada para las
empresas mรกs pequeรฑas.
En general, la Ley de Mercados Digitales representa un paso significativo hacia la
regulaciรณn y supervisiรณn de las actividades de las plataformas digitales dominantes con
el fin de promover la competencia leal y proteger los intereses de los usuarios
comerciales. La Ley de Mercados Digitales incluye una serie de obligaciones que los
guardianes de acceso deberรญan cumplir. Una de esas obligaciones es proporcionar acceso
a los datos generados por sus actividades a los usuarios comerciales. Asimismo, los
guardianes estarรญan obligados a ofrecer portabilidad de datos, lo que permitirรญa a los
usuarios transferir fรกcilmente sus datos a otras plataformas. Para evitar la competencia
desleal, a los guardianes tambiรฉn se les prohibirรญa utilizar datos obtenidos de usuarios
comerciales para competir contra ellos.
A finales de 2020, la Uniรณn Europea y el Reino Unido publicaron conjuntamente
un conjunto de propuestas regulatorias conocidas como Ley de Mercados Digitales. Estas
Pรกg. 28
propuestas estรกn diseรฑadas para crear un marco proactivo para regular las plataformas
digitales dominantes, comรบnmente conocidas como "guardianes", como las grandes
empresas de tecnologรญa. El objetivo principal de estas propuestas es abordar los riesgos
asociados con estas plataformas y establecer mercados digitales justos y abiertos.
Otro aspecto clave de la propuesta es la introducciรณn de medidas para abordar los
riesgos asociados con el doble papel de los guardianes. Esto implicarรญa implementar
soluciones para abordar problemas como la autorreferencia, donde los Gatekeepers
priorizan sus propios servicios sobre los de terceros. La propuesta tambiรฉn pretende
garantizar que los servicios ofrecidos por los guardianes de acceso no reciban un trato
preferencial ni sean favorecidos con respecto a los proporcionados por plataformas de
terceros.
IA y productos financieros basados en Blockchain
En los รบltimos aรฑos, ha habido un aumento significativo en la utilizaciรณn de
tecnologรญas de contabilidad distribuida (DLT), particularmente blockchain, en varios
sectores, con un fuerte enfoque en la industria financiera. Este aumento en las
aplicaciones blockchain se puede atribuir a los numerosos beneficios que ofrecen, como
mayor velocidad, eficiencia y transparencia. Estas tecnologรญas innovadoras, impulsadas
por la automatizaciรณn y la desintermediaciรณn, han ganado fuerza debido a su potencial
para revolucionar diferentes รกreas, incluidos los mercados de valores (como las
actividades de emisiรณn y posnegociaciรณn), los pagos (como las monedas digitales y las
monedas estables de los bancos centrales) y los activos o tokenizaciรณn en general. Como
resultado, la adopciรณn de DLT en las finanzas tiene el potencial de remodelar las
funciones y modelos de negocio de los operadores financieros, como los custodios.
Pรกg. 29
La industria aboga por la fusiรณn de la inteligencia artificial (IA) y la tecnologรญa de
contabilidad distribuida (DLT) en el รกmbito de las finanzas basadas en blockchain. Se cree
que esta integraciรณn mejora la eficacia general de estos sistemas al aprovechar la
automatizaciรณn para maximizar la eficiencia prometida por las soluciones basadas en
blockchain. Sin embargo, actualmente no estรก claro si el alcance de la implementaciรณn de
la IA en proyectos basados en blockchain es lo suficientemente sustancial como para
fundamentar las afirmaciones de una verdadera convergencia entre estas dos tecnologรญas.
En la prรกctica, en lugar de ver convergencia, lo que observamos es la
implementaciรณn de aplicaciones de IA en sistemas blockchain especรญficos para casos de
uso particulares, como la gestiรณn de riesgos. Asimismo, somos testigos de la integraciรณn
de soluciones DLT en ciertos mecanismos de IA, particularmente para fines de gestiรณn de
datos. La integraciรณn implica el uso de DLT para proporcionar informaciรณn a los modelos
de aprendizaje automรกtico, aprovechando las caracterรญsticas de inmutabilidad y
desintermediaciรณn de la cadena de bloques.
Sin duda la integraciรณn permite compartir informaciรณn confidencial de forma
segura manteniendo la confidencialidad y la privacidad. Se prevรฉ que la incorporaciรณn
de DLT en los mecanismos de IA permitirรก a los usuarios monetizar los datos que poseen,
que son utilizados por modelos de aprendizaje automรกtico y otros sistemas impulsados
por IA como el Internet de las cosas (IoT). La adopciรณn de estos casos de uso de IA estรก
motivada por el potencial de la tecnologรญa para mejorar la eficiencia de la automatizaciรณn
y la desintermediaciรณn en sistemas y redes basados en DLT.
La inteligencia artificial tiene el potencial de mejorar significativamente las
funciones de automatizaciรณn de los contratos inteligentes en el รกmbito de las finanzas
basadas en DLT. Esta contribuciรณn se puede observar en numerosos casos de uso dentro
de las redes DLT, incluidos, entre otros, el cumplimiento y la gestiรณn de riesgos. Por
Pรกg. 30
ejemplo, la IA puede desempeรฑar un papel crucial en la lucha contra actividades
fraudulentas mediante la implementaciรณn de restricciones automatizadas en la red.
Ademรกs, la IA tambiรฉn puede mejorar el funcionamiento de los orรกculos, que son
esenciales para la gestiรณn y la inferencia de datos. Sin embargo, es importante seรฑalar que
estas aplicaciones aรบn estรกn en desarrollo y perfeccionamiento.
La IA tiene el potencial de mejorar significativamente la seguridad y la
funcionalidad de las redes blockchain, particularmente en el รกmbito de las aplicaciones
de pago. Si bien no puede eliminar por completo las vulnerabilidades de seguridad, la IA
puede mitigarlas eficazmente. Al aprovechar la tecnologรญa de inteligencia artificial, los
usuarios de las redes blockchain pueden detectar y abordar actividades irregulares que
pueden ser indicativas de robo o comportamiento fraudulento, aunque estos eventos
generalmente requieren el compromiso de claves pรบblicas y privadas.
De forma similar, las aplicaciones de IA pueden desempeรฑar un papel
fundamental en la racionalizaciรณn de los procedimientos de incorporaciรณn a la red, como
la utilizaciรณn de datos biomรฉtricos para la identificaciรณn basada en IA y el refuerzo de los
controles contra el lavado de dinero y la financiaciรณn del terrorismo (AML/CFT) para los
servicios financieros basados en DLT. La integraciรณn de la IA en sistemas basados en DLT
tambiรฉn ofrece ventajas notables en tรฉrminos de cumplimiento y gestiรณn de riesgos. Por
ejemplo, las herramientas impulsadas por IA pueden generar resultados de anรกlisis de
gobernanza de carteras, que pueden servir como recursos valiosos para fines de
cumplimiento normativo o evaluaciones de riesgos internos de las partes de la
transacciรณn. No obstante, es importante reconocer que la eliminaciรณn de los
intermediarios financieros de las transacciones financieras puede socavar la eficacia de
los enfoques regulatorios existentes que se centran principalmente en las entidades
reguladas.
Pรกg. 31
Al incorporar soluciones impulsadas por IA en sistemas de tecnologรญa de
contabilidad distribuida (DLT) a nivel de protocolo, los reguladores pueden lograr de
manera efectiva sus objetivos regulatorios. Esto se puede lograr a travรฉs de varios medios,
como facilitar el intercambio de datos fluido y en tiempo real entre entidades y
autoridades reguladas, asรญ como incorporar requisitos regulatorios directamente en el
cรณdigo del programa para garantizar el cumplimiento automรกtico. El concepto de que los
reguladores se conviertan en nodos en redes descentralizadas ha sido un tema de
discusiรณn dentro del mercado, ya que presenta una soluciรณn potencial a los desafรญos de
supervisar plataformas que operan sin una autoridad central.
En relaciรณn a los datos de los sistemas basados en DLT, la IA tiene el potencial de
favorecer enormemente estos procesos. Al trasladar la responsabilidad de la conservaciรณn
de datos de nodos de terceros a sistemas independientes y automatizados impulsados
por IA, la calidad de los datos introducidos en la cadena se puede mejorar
significativamente. Esto, a su vez, conduce a un registro e intercambio de informaciรณn
mรกs sรณlidos, ya que los sistemas de inteligencia artificial son menos propensos a la
manipulaciรณn. Un รกrea en la que la IA puede marcar una diferencia particular es en el
funcionamiento de los nodos fuera de la cadena de terceros, comรบnmente conocidos
como "Oracles", que desempeรฑan un papel crucial en la introducciรณn de datos externos
en la red.
La utilizaciรณn de โ€œoraclesโ€ en redes de tecnologรญa de contabilidad distribuida
(DLT) expone un riesgo potencial de que se ingresen datos errรณneos o inapropiados en la
red, lo que surge de la posibilidad de que haya nodos fuera de la cadena de terceros
maliciosos o con un rendimiento deficiente. Para abordar este problema, la integraciรณn
de la inteligencia artificial (IA) en la cadena podrรญa mejorar la desintermediaciรณn al hacer
innecesarios los proveedores de informaciรณn de terceros, como los oracles.
Pรกg. 32
Al incorporar IA, el sistema puede verificar la exactitud e integridad de los datos
proporcionados por los orรกculos, evitando asรญ ataques cibernรฉticos y manipulaciรณn del
suministro de datos de terceros dentro de la red. La implementaciรณn de aplicaciones de
IA podrรญa mejorar potencialmente la confianza de los participantes en la red, ya que
pueden verificar la informaciรณn proporcionada por los orรกculos e identificar cualquier
compromiso dentro del sistema. Sin embargo, es importante seรฑalar que la IA no resuelve
inherentemente el problema de la mala calidad o de los datos de entrada inadecuados, ya
que este desafรญo tambiรฉn estรก presente en los mecanismos y aplicaciones basados en la
IA.
La IA aumenta las capacidades de los contratos inteligentes
La integraciรณn de tรฉcnicas de inteligencia artificial en sistemas basados en
blockchain tiene el potencial de generar cambios significativos, particularmente en el
รกmbito de los contratos inteligentes. Esta integraciรณn puede tener implicaciones prรกcticas
en la gobernanza y la gestiรณn de riesgos de estos contratos y puede introducir varios
efectos hipotรฉticos, que aรบn no se han probado, en las funciones y procesos de las redes
basadas en tecnologรญa de contabilidad distribuida (DLT). En esencia, utilizar la IA en este
contexto puede allanar el camino para cadenas DLT autorreguladas que funcionen de
forma autรณnoma.
Los contratos inteligentes existen desde hace un tiempo considerable, antes de la
apariciรณn de las aplicaciones de inteligencia artificial, y operan con un cรณdigo de software
sencillo. Actualmente, la mayorรญa de los contratos inteligentes ampliamente utilizados no
incorporan mรฉtodos de IA. En consecuencia, numerosas ventajas propuestas para
incorporar IA en los sistemas DLT siguen siendo principalmente teรณricas, y es aconsejable
abordar las afirmaciones hechas por la industria con respecto a la integraciรณn de
Pรกg. 33
capacidades de IA y DLT en productos comercializados con un sentido de cuidadosa
consideraciรณn.
Dicho esto, la utilizaciรณn de la IA en diversos escenarios resulta muy ventajosa
cuando se trata de mejorar las capacidades de los contratos inteligentes, particularmente
en las รกreas de gestiรณn de riesgos y la identificaciรณn de fallas dentro del cรณdigo. Las
metodologรญas de IA, como el procesamiento del lenguaje natural (NLP), pueden evaluar
eficazmente los patrones de ejecuciรณn de los contratos inteligentes, permitiendo asรญ la
detecciรณn de actividades fraudulentas y la mejora de la seguridad general del sistema.
Asimismo, la IA posee la capacidad de realizar pruebas de cรณdigo de una manera
que supera las capacidades de los revisores de cรณdigo humanos en tรฉrminos de velocidad
y nivel de detalle, asรญ como de anรกlisis de escenarios. Dado que el cรณdigo constituye la
base fundamental de la automatizaciรณn de contratos inteligentes, la naturaleza impecable
del proceso de codificaciรณn es crucial para garantizar la resiliencia y confiabilidad de
estos contratos.
El potencial para mejorar las capacidades de automatizaciรณn de los contratos
inteligentes mediante la integraciรณn de la IA es un concepto prometedor. Al incorporar
IA en contratos inteligentes, se puede aumentar el nivel de autonomรญa, permitiendo que
el cรณdigo subyacente se adapte dinรกmicamente a las condiciones ambientales y del
mercado cambiantes. Un รกrea especรญfica de la IA, conocida como procesamiento del
lenguaje natural (PLN), tiene el potencial de ampliar las capacidades analรญticas de los
contratos inteligentes, particularmente en relaciรณn con los contratos, la legislaciรณn y los
fallos judiciales tradicionales. Al aprovechar la PNL, los contratos inteligentes pueden
profundizar en la comprensiรณn de las intenciones de las partes involucradas. Si bien, vale
la pena mencionar que estas aplicaciones de IA para contratos inteligentes siguen siendo
puramente teรณricas y aรบn no se han puesto a prueba en escenarios del mundo real.
Pรกg. 34
Todavรญa hay desafรญos que deben abordarse en lo que respecta a los riesgos
operativos, asรญ como la compatibilidad e interoperabilidad entre la infraestructura
tradicional y una basada en tecnologรญas DLT e IA. El uso de tรฉcnicas de IA, como el
aprendizaje profundo, requiere una cantidad significativa de recursos computacionales,
lo que puede dificultar su efectividad en Blockchain. Algunos expertos sostienen que, en
la etapa actual de desarrollo de la infraestructura, serรญa mejor almacenar datos fuera de
la cadena para garantizar que los motores de recomendaciรณn en tiempo real funcionen
correctamente y minimizar la latencia y los costos. Los riesgos operativos asociados con
DLT aรบn no estรกn resueltos y deberรกn abordarse a medida que tanto la tecnologรญa como
las aplicaciones que permite sigan madurando.
Los contratos inteligentes en sistemas basados en DLT:
โ€ข Son aplicaciones descentralizadas que se crean e implementan en blockchain. Estas
aplicaciones se componen de contratos autoejecutables que se escriben como
cรณdigo en el libro mayor de la cadena de bloques. Estรกn diseรฑados para ejecutarse
automรกticamente cuando ocurren ciertos eventos predeterminados, que tambiรฉn
estรกn escritos en el cรณdigo. Esta tecnologรญa ha sido reconocida y discutida por la
Organizaciรณn para la Cooperaciรณn y el Desarrollo Econรณmico en 2019.
โ€ข Son esencialmente programas informรกticos que se ejecutan en la cadena de
bloques Ethereum. Estos programas estรกn diseรฑados para determinar el
funcionamiento y el calendario de determinadas acciones. Al igual que los
contratos tradicionales, establecen un conjunto de reglas que luego se aplican
automรกticamente mediante el uso de cรณdigo, solo cuando se cumplen las
condiciones predefinidas.
Pรกg. 35
โ€ข Operan de forma autรณnoma en la red y se ejecutan segรบn un cronograma
predeterminado, eliminando la necesidad del control del usuario. Los usuarios
pueden participar en contratos inteligentes iniciando transacciones que activan
funciones especรญficas descritas en el contrato.
โ€ข Desempeรฑan un papel crucial a la hora de permitir la desintermediaciรณn que
pueden aprovechar las redes de tecnologรญa de contabilidad distribuida (DLT).
Ofrecen una importante fuente de eficiencia que estas redes prometen ofrecer. Al
permitir la automatizaciรณn de diversas acciones como pagos y transferencias de
activos en funciรณn de condiciones predefinidas registradas en el cรณdigo, los
contratos inteligentes eliminan la necesidad de intervenciรณn humana. Sin
embargo, a pesar de sus posibles beneficios, el estatus legal de los contratos
inteligentes aรบn es incierto en muchas jurisdicciones. Todavรญa no son ampliamente
reconocidos como contratos legales. Esta falta de claridad genera preocupaciones
sobre la aplicabilidad y la protecciรณn financiera cuando se trata de contratos
inteligentes. Ademรกs, auditar el cรณdigo de estos contratos requiere recursos
adicionales de los participantes del mercado que quieran garantizar la legitimidad
y confiabilidad de los procesos subyacentes.
Los contratos inteligentes de autoaprendizaje y gobernanza de DLT
Segรบn los investigadores, los contratos inteligentes impulsados por IA tienen el
potencial de crear cadenas autorreguladas. En el futuro, la IA podrรญa utilizarse para
pronosticar y automatizar procesos dentro de contratos inteligentes de "autoaprendizaje",
de forma similar a la aplicaciรณn de tรฉcnicas de IA de aprendizaje por refuerzo.
Bรกsicamente, la IA puede extraer y analizar informaciรณn en tiempo real de los sistemas e
incorporar esos datos en contratos inteligentes. Como resultado, el cรณdigo de contratos
Pรกg. 36
inteligentes podrรญa adaptarse automรกticamente, eliminando la necesidad de intervenciรณn
humana en la gobernanza de la cadena. Esto conducirรญa al establecimiento de cadenas
descentralizadas totalmente autรณnomas y autorreguladas.
Las organizaciones autรณnomas descentralizadas (DAO) son entidades que operan
de forma autรณnoma en una cadena de bloques y, si bien ya se han establecido, la
incorporaciรณn de tรฉcnicas basadas en inteligencia artificial podrรญa mejorar su
funcionalidad. Por ejemplo, la IA podrรญa proporcionar datos en tiempo real al cรณdigo,
permitiรฉndole calcular el curso de acciรณn รณptimo. Los contratos inteligentes de
autoaprendizaje que integran la IA desempeรฑarรญan un papel crucial en la expansiรณn de
las capacidades de la lรณgica de la cadena de bloques. Estos contratos aprenderรญan de las
experiencias pasadas de blockchain, adaptarรญan o introducirรญan nuevas reglas y, en รบltima
instancia, gobernarรญan el funcionamiento general de blockchain.
Actualmente, la mayorรญa de los proyectos DeFi son administrados por DAO que
poseen ciertos elementos centralizados, como la votaciรณn en cadena por parte de los
poseedores de tokens y el consenso fuera de la cadena. Estos elementos que involucran
intervenciรณn humana podrรญan estar sujetos a regulaciรณn. Sin embargo, al integrar la IA en
las DAO, es posible mejorar la descentralizaciรณn y disminuir la relevancia de los enfoques
regulatorios tradicionales.
La utilizaciรณn de inteligencia artificial en la construcciรณn de cadenas totalmente
autรณnomas presenta importantes obstรกculos e incertidumbres tanto para los usuarios
como para el ecosistema en general. En tales entornos, la ejecuciรณn de decisiones y el
funcionamiento de los sistemas se confiarรญan a contratos inteligentes de IA en lugar de a
la participaciรณn humana, lo que darรญa lugar a preocupaciones รฉticas cruciales. Ademรกs, la
implementaciรณn de mecanismos automatizados para desactivar instantรกneamente el
Pรกg. 37
modelo es particularmente desafiante en estas redes descentralizadas, lo cual es un
problema principal que tambiรฉn enfrenta el espacio DeFi.
La inclusiรณn de inteligencia artificial (IA) en las cadenas de bloques tiene el
potencial de beneficiar enormemente a las aplicaciones de finanzas descentralizadas
(DeFi) al agilizar los procesos y mejorar la eficiencia en la prestaciรณn de diversos servicios
financieros. Por ejemplo, la integraciรณn de modelos de IA puede permitir
recomendaciones personalizadas para los usuarios sobre diferentes productos y
servicios, facilitar la calificaciรณn crediticia basada en datos en lรญnea y ofrecer servicios de
asesoramiento sobre inversiones y comercio basados en datos. Asimismo, la aplicaciรณn
del aprendizaje por refuerzo en procesos basados en blockchain abre mรกs posibilidades
para la IA en DeFi. Vale la pena seรฑalar que la incorporaciรณn de la IA a DeFi puede
ampliar las capacidades de los casos de uso de la tecnologรญa de contabilidad distribuida
(DLT) al introducir nuevas funcionalidades. Si bien, es importante reconocer que es
posible que la introducciรณn de la IA no transforme completamente los modelos de
negocio subyacentes en estas aplicaciones.
IA para la inversiรณn ESG
Las calificaciones ESG
1
pueden diferir significativamente entre varios proveedores
de calificaciones ESG debido al uso de diferentes marcos, medidas, indicadores clave y
mรฉtricas, asรญ como al juicio subjetivo y la ponderaciรณn de las subcategorรญas. Esta
disparidad en las calificaciones se ve exacerbada aรบn mรกs por la falta de herramientas
necesarias, como datos consistentes, mรฉtricas comparables y metodologรญas transparentes,
1
La puntuaciรณn ESG se determina recopilando y analizando datos relacionados con diferentes aspectos y
evaluรกndolos en funciรณn de una escala predefinida. La puntuaciรณn ESG evalรบa los logros y acciones de una
empresa en diferentes รกreas, que incluyen, entre otras, el control de emisiones, la protecciรณn de los derechos
humanos y la promociรณn de prรกcticas de compra sostenibles.
Pรกg. 38
que son cruciales para informar la toma de decisiones en el mercado. La importancia de
los datos se vuelve aรบn mรกs crucial cuando se analizan aspectos no financieros del
desempeรฑo de la empresa relacionados con cuestiones de sostenibilidad. Sin embargo,
persisten preocupaciones con respecto a la calidad de los datos ESG, incluidas lagunas en
la disponibilidad de datos, posibles inexactitudes y la falta de comparabilidad entre
diferentes proveedores.
La inteligencia artificial y los big data tienen el potencial de revolucionar la
inversiรณn ESG al proporcionar un medio para evaluar los datos de las empresas, los datos
no comerciales y la coherencia y comparabilidad de las calificaciones. El uso de la IA
puede mejorar significativamente la toma de decisiones al reducir los sesgos subjetivos y
cognitivos que a menudo surgen de los mรฉtodos de anรกlisis tradicionales, ademรกs de
minimizar el ruido en los datos ESG y aprovechar los datos no estructurados. El
procesamiento del lenguaje natural (PNL) puede analizar especรญficamente grandes
cantidades de datos no estructurados, como geolocalizaciรณn e informaciรณn de redes
sociales, para realizar anรกlisis de sentimientos e identificar patrones y relaciones. Estos
anรกlisis se pueden utilizar luego para asignar valores cuantitativos a parรกmetros
cualitativos de sostenibilidad, utilizando tรฉcnicas avanzadas de inteligencia artificial.
En los รบltimos aรฑos, se ha presenciado el surgimiento de proveedores alternativos
de calificaciรณn ESG, y estos proveedores ofrecen calificaciones basadas en inteligencia
artificial para facilitar una evaluaciรณn externa mรกs imparcial del desempeรฑo de
sostenibilidad de las empresas. Al aprovechar el poder de la inteligencia artificial, estos
proveedores de calificaciรณn pretenden abordar el problema del lavado verde, que ocurre
cuando las empresas adoptan medidas superficiales de sostenibilidad mientras
continรบan con sus estrategias comerciales convencionales. Mediante el uso de IA, estos
proveedores pueden descubrir informaciรณn crucial sobre las prรกcticas y acciones de
Pรกg. 39
sostenibilidad de las empresas, a la que de otro modo no serรญa fรกcilmente accesible. Este
enfoque innovador tiene un inmenso potencial para mejorar la transparencia y la
rendiciรณn de cuentas en el mundo empresarial.
Hay datos empรญricos disponibles que respaldan el uso de calificaciones ESG
alternativas basadas en IA. Esta evidencia sugiere que estas calificaciones tienen varios
beneficios clave en comparaciรณn con los enfoques tradicionales. Estas ventajas incluyen
un mayor nivel de normalizaciรณn, un proceso de agregaciรณn mรกs democrรกtico y la
utilizaciรณn de anรกlisis rigurosos en tiempo real. Aun cuando, es poco probable que estos
mรฉtodos reemplacen completamente a los modelos tradicionales en el futuro. En cambio,
tienen el potencial de funcionar junto con los enfoques tradicionales de calificaciรณn ESG,
proporcionando informaciรณn adicional a los inversores sobre informaciรณn no divulgada
sobre las entidades que se califican.
Por lo tanto, es importante reconocer que las propias empresas de renombre
pueden utilizar la IA para oscurecer potencialmente su desempeรฑo en materia de
sostenibilidad. Al aprovechar las tรฉcnicas de inteligencia artificial, estas entidades
pueden obtener una comprensiรณn mรกs profunda de sus operaciones e identificar con
precisiรณn รกreas que deben destacarse estratรฉgicamente en tรฉrminos de divulgaciรณn de
informaciรณn para mejorar sus calificaciones ambientales, sociales y de gobernanza (ESG).
Esto les permite manipular sus calificaciones ESG enfatizando estas รกreas especรญficas,
creando en รบltima instancia una imagen distorsionada de su desempeรฑo general en
materia de sostenibilidad.
Los riesgos emergentes del uso de IA/ML/Big: herramientas de mitigaciรณn de riesgos
La expansiรณn y diversificaciรณn de la tecnologรญa IA/ML en los mercados financieros
ha generado numerosos desafรญos y riesgos que requieren una cuidadosa atenciรณn por
Pรกg. 40
parte de los participantes del mercado, los profesionales de la industria y los
formuladores de polรญticas. Estos desafรญos se pueden observar en varios niveles, incluido
el nivel de datos, el nivel de modelo y de negocio, asรญ como el nivel social y sistรฉmico.
En el campo de la IA en las finanzas, en rรกpida expansiรณn, existen varios desafรญos
que merecen atenciรณn y consideraciรณn cuidadosas. Estos desafรญos incluyen la gestiรณn y
concentraciรณn de datos, el potencial de sesgo y discriminaciรณn, la necesidad de modelos
de IA explicables, garantizar la solidez y resiliencia de los sistemas de IA, establecer
marcos eficaces de gobernanza y rendiciรณn de cuentas, abordar las preocupaciones
regulatorias y gestionar los riesgos y habilidades ocupacionales. Para mitigar estos
riesgos, es importante explorar posibles estrategias y soluciones.
Los datos y su gestiรณn
Los datos desempeรฑan un papel central en todas las aplicaciones de RNA
gestionadas por IA, modelos de aprendizaje automรกtico y big data presenta numerosas
posibilidades para mejorar la eficacia, reducir gastos y aumentar la satisfacciรณn del cliente
al ofrecer servicios y productos superiores.
Los riesgos que surgen cuando se utiliza big data en RNA impulsada por IA en el
sector financiero, tienen su origen en varios factores, incluida la calidad de los datos
utilizados, las preocupaciones sobre la privacidad y la confidencialidad de los datos, las
amenazas a la ciberseguridad y las consideraciones de justicia y equidad. Un riesgo clave
es la posibilidad de sesgo y discriminaciรณn involuntarios contra ciertos grupos de
personas, que pueden ocurrir cuando los datos se utilizan indebidamente o cuando se
utilizan datos inapropiados en modelos, como en la suscripciรณn de crรฉditos. Asimismo,
las preocupaciones por la protecciรณn del consumidor en el รกmbito financiero, el uso de
Pรกg. 41
big data y modelos de aprendizaje automรกtico tambiรฉn puede generar problemas de
competencia, particularmente si hay una alta concentraciรณn de proveedores de mercado.
La representatividad y pertinencia de los datos
Uno de los aspectos clave del big data, comรบnmente conocido como una de las
cuatro "V", es la veracidad, referido al nivel de incertidumbre que rodea la confiabilidad
y precisiรณn de los big data. Esta incertidumbre puede surgir de varios factores, como
fuentes cuestionables, calidad inadecuada de los datos o la inadecuaciรณn de los datos que
se utilizan. En el รกmbito de los macrodatos, la veracidad de las observaciones puede verse
influida por comportamientos especรญficos observados en las plataformas de redes
sociales, la presencia de sistemas de recopilaciรณn de datos ruidosos o sesgados, como
sensores o el Internet de las cosas (IoT). Como resultado, la veracidad de los macrodatos
puede no ser suficiente para prevenir o mitigar impactos dinรกmicos dispares, lo que
complica aรบn mรกs su confiabilidad y usabilidad.
El concepto de representatividad y relevancia de los datos es mรกs significativo
cuando se trata de aplicaciones (RNA) de IA que la veracidad de los datos. La
representatividad de los datos se centra en si los datos utilizados proporcionan una
representaciรณn integral y equilibrada de la poblaciรณn que se estudia, incluidos todos los
subgrupos relevantes. Esto es particularmente importante en los mercados financieros
para garantizar que ciertos grupos de operadores no estรฉn sobrerrepresentados o
insuficientemente representados, lo que lleva a una formaciรณn de modelos mรกs precisa.
En el contexto de la calificaciรณn crediticia, la representatividad de los datos puede
contribuir a promover la inclusiรณn financiera entre los grupos minoritarios. Por otro lado,
la relevancia de los datos se refiere al grado en que los datos utilizados describen con
precisiรณn el fenรณmeno que se estudia sin incluir informaciรณn engaรฑosa. Por ejemplo, al
Pรกg. 42
evaluar las calificaciones crediticias, es fundamental evaluar cuidadosamente la
relevancia de la informaciรณn sobre el comportamiento o la reputaciรณn de personas fรญsicas
o jurรญdicas antes de incorporarla al modelo. Aunque, evaluar el conjunto de datos caso
por caso para mejorar la precisiรณn y la idoneidad puede resultar engorroso debido al
enorme volumen de datos involucrados, lo que podrรญa socavar la eficiencia obtenida con
la implementaciรณn de la IA.
La privacidad y confidencialidad de los datos
El uso de datos en sistemas de IA plantea varias preocupaciones con respecto a la
protecciรณn y privacidad de los datos debido a su volumen, prevalencia y flujo continuo.
Aparte de las preocupaciones tรญpicas sobre la recopilaciรณn y utilizaciรณn de datos
personales, el campo de la IA introduce complejidades adicionales. Por ejemplo, la
capacidad de la IA para extraer inferencias a partir de extensos conjuntos de datos puede
crear problemas de compatibilidad. Las prรกcticas de privacidad tradicionales como "aviso
y consentimiento" pueden no ser prรกcticas para garantizar la protecciรณn de la privacidad
en los modelos de aprendizaje automรกtico.
Igualmente, surgen desafรญos relacionados con la conectividad de datos y la
transferencia de datos a travรฉs de fronteras. Esto enfatiza la importancia de la
conectividad de datos en la industria financiera y la necesidad crรญtica de tener la
capacidad de agregar, almacenar, procesar y transmitir datos a nivel internacional
mientras se implementan salvaguardas y estรกndares de gobernanza adecuados.
El proceso de fusionar mรบltiples conjuntos de datos puede presentar numerosas
ventajas para quienes son nuevos en el trabajo con big data. Al combinar datos de
diversas fuentes, las personas pueden obtener una imagen mรกs amplia y completa de la
informaciรณn que estรกn analizando. Esto es particularmente beneficioso cuando se trata de
Pรกg. 43
bases de datos que se han recopilado en diferentes condiciones, como diferentes
poblaciones, regulaciones o mรฉtodos de muestreo. Al reunir estas diversas fuentes de
datos, surgen nuevas oportunidades analรญticas que no habrรญan sido posibles al examinar
cada conjunto de datos individualmente. Sin embargo, es importante seรฑalar que la
fusiรณn de conjuntos de datos heterogรฉneos tambiรฉn introduce ciertos desafรญos y
complejidades. Por ejemplo, la combinaciรณn de datos de diferentes entornos puede
generar factores de confusiรณn, sesgos en la selecciรณn de muestras y sesgos que surgen al
comparar diferentes poblaciones.
La presencia de riesgos de ciberseguridad, riesgos de piraterรญa informรกtica y otros
riesgos operativos en el รกmbito de los productos y servicios financieros digitales tiene un
impacto directo en la privacidad y confidencialidad de los datos. Aunque el uso de la
tecnologรญa de IA no introduce nuevas vรญas para las infracciones cibernรฉticas, tiene el
potencial de amplificar las vulnerabilidades existentes. Esta amplificaciรณn puede ocurrir
a travรฉs de diversos medios, como la conexiรณn entre datos falsificados y ciberataques, lo
que lleva a la apariciรณn de nuevos ataques que pueden alterar la funcionalidad del
algoritmo al introducir datos manipulados en sus modelos. Ademรกs, la IA tambiรฉn puede
facilitar la modificaciรณn de ataques ya existentes.
El intercambio y la utilizaciรณn de informaciรณn financiera y no financiera de los
consumidores es cada vez mรกs frecuente, a menudo sin su total comprensiรณn o
consentimiento. Si bien la obtenciรณn del consentimiento informado es la base legal para
utilizar los datos, es posible que los consumidores no siempre sean conscientes de cรณmo
se maneja su informaciรณn o dรณnde se utiliza, lo que genera posibles lagunas en su
comprensiรณn y consentimiento. El mayor uso de mรฉtodos de seguimiento avanzados para
monitorear las actividades en lรญnea y el intercambio de datos por parte de proveedores
externos aumentan aรบn mรกs estos riesgos. Asรญ, tambiรฉn los conjuntos de datos que se
Pรกg. 44
recopilan sin la entrada directa del cliente, como la geolocalizaciรณn o los datos de
transacciones con tarjetas de crรฉdito, son particularmente susceptibles a posibles
infracciones de las polรญticas de privacidad y las leyes de protecciรณn de datos.
La industria sugiere nuevos mรฉtodos para proteger la privacidad del consumidor
al calcular la confidencialidad. Un enfoque consiste en crear y utilizar conjuntos de datos
sintรฉticos personalizados con fines de aprendizaje automรกtico. Otro enfoque es utilizar
tecnologรญas de mejora de la privacidad (PET), cuyo objetivo es mantener las caracterรญsticas
generales de los datos originales y al mismo tiempo mantener la confidencialidad de las
muestras de datos individuales. Los PET abarcan tรฉcnicas como privacidad diferencial,
anรกlisis federado, cifrado homomรณrfico y computaciรณn multipartita segura. La
privacidad diferencial, en particular, ofrece garantรญas de privacidad mรกs sรณlidas y permite
cรกlculos mรกs precisos en comparaciรณn con los conjuntos de datos sintรฉticos. La ventaja de
estas tรฉcnicas es que los modelos entrenados con datos sintรฉticos funcionan casi tan bien
como los entrenados con datos reales. Los mรฉtodos tradicionales de anonimizaciรณn de
datos, por otro lado, no ofrecen garantรญas sรณlidas de privacidad, especialmente
considerando las inferencias realizadas por los modelos de IA.
El empleo de big data en modelos basados en IA tiene el potencial de ampliar
enormemente el alcance de lo que se considera informaciรณn confidencial. Estos modelos
tienen la capacidad de identificar con precisiรณn a usuarios individuales mediante el
anรกlisis eficaz de diversos factores, como la tecnologรญa de reconocimiento facial y datos
inferidos, como los perfiles de los clientes. Al combinar esta informaciรณn con otras fuentes
de datos, los modelos de IA pueden hacer inferencias sobre las caracterรญsticas de los
usuarios, como el gรฉnero, o incluso volver a identificar individuos a partir de bases de
datos anรณnimas mediante referencias cruzadas con informaciรณn disponible
pรบblicamente. En รบltima instancia, este proceso conduce a la atribuciรณn de informaciรณn
Pรกg. 45
confidencial a individuos especรญficos. Ademรกs, la mayor dimensionalidad de los
conjuntos de datos de ML, que permite considerar un nรบmero ilimitado de variables en
comparaciรณn con las tรฉcnicas estadรญsticas tradicionales, aumenta la probabilidad de
incluir informaciรณn confidencial en el anรกlisis.
Por lo tanto, los reguladores han reavivado el enfoque en la privacidad y la
protecciรณn de datos debido a la creciente digitalizaciรณn de la economรญa. Un ejemplo de
ello es el Reglamento General de Protecciรณn de Datos (GDPR) de la Uniรณn Europea, que
busca mejorar la protecciรณn del consumidor y reequilibrar la dinรกmica de poder entre
empresas e individuos. El objetivo general es empoderar a los consumidores y fomentar
la transparencia y la confianza en la forma en que las empresas manejan los datos de los
consumidores. La salvaguardia de los datos y la privacidad de los consumidores es un
principio fundamental descrito en los Principios de Alto Nivel sobre Protecciรณn del
Consumidor Financiero del G20 y la OCDE. Ademรกs, la Autoridad Monetaria de
Singapur estรก comprometida a defender la justicia, la รฉtica, la responsabilidad y la
transparencia en el uso de la inteligencia artificial en el sector financiero, con especial
รฉnfasis en la protecciรณn de los datos personales de las personas.
El sector financiero enfrenta desafรญos para mejorar la gobernanza de datos para las
empresas debido a la percepciรณn de fragmentaciรณn en la responsabilidad regulatoria y de
supervisiรณn con respecto a los datos. Existe incertidumbre sobre quรฉ instituciones
deberรญan implementar las prรกcticas de gobernanza de datos mรกs efectivas, incluidas รกreas
como calidad de datos, definiciones, estandarizaciรณn, arquitectura y de duplicaciรณn. Esta
cuestiรณn se vuelve aรบn mรกs compleja cuando se consideran las actividades
transfronterizas.
El campo del uso de datos en economรญa estรก experimentando una transformaciรณn
debido a la adopciรณn generalizada de modelos de aprendizaje automรกtico en la industria
Pรกg. 46
financiera. Como resultado, han surgido algunas empresas especializadas en conjuntos
de datos alternativos para satisfacer la creciente demanda de datos que sirvan de base
para las tรฉcnicas de inteligencia artificial. Si bien, estos corredores de conjuntos de datos
operan con una supervisiรณn y transparencia mรญnimas, lo que genera preocupaciones
sobre la legalidad de la adquisiciรณn y el uso de sus datos por parte de los proveedores de
servicios financieros. Ademรกs, los crecientes costos de cumplimiento asociados con las
regulaciones diseรฑadas para proteger a los consumidores pueden tener un profundo
impacto en la economรญa de la utilizaciรณn de big data en el mercado financiero. Esto, a su
vez, probablemente influirรก en la forma en que los proveedores de los mercados
financieros aborden el uso de la inteligencia artificial y los macrodatos.
Pรกg. 47
Capรญtulo 3
Los datos y competencia en los servicios financieros basados en inteligencia
artificial
Los avances en IA tienen el potencial de crear ventajas competitivas que podrรญan
impactar negativamente en los mercados eficientes y competitivos, debido a que los
consumidores pueden tener una capacidad limitada para tomar decisiones informadas si
existe una alta concentraciรณn de proveedores de mercado. El uso de IA puede dar a ciertos
proveedores de servicios financieros una ventaja sobre competidores mรกs pequeรฑos que
tal vez no tengan los recursos para adoptar estas tecnologรญas. Ademรกs, el acceso desigual
a los datos y el dominio de unas pocas grandes empresas de BigTech en la obtenciรณn de
big data podrรญan dificultar que los actores mรกs pequeรฑos compitan en el mercado de
productos y servicios basados en IA.
Los riesgos de concentraciรณn y dependencia de unos pocos actores dominantes se
ven aumentados por el potencial de efectos de red, que podrรญan resultar en el surgimiento
de nuevos actores que tengan un impacto significativo en todo el sistema. Las BigTech,
en particular, ejemplifican este riesgo, y el hecho de que operen fuera de los lรญmites
regulatorios complica aรบn mรกs los desafรญos asociados con este tema. Esto se debe
principalmente a la forma en que las grandes empresas tecnolรณgicas acceden y utilizan
los datos, lo que se ve amplificado aรบn mรกs por el uso de tรฉcnicas de inteligencia artificial
para generar ganancias a partir de esos datos. Ademรกs, estamos siendo testigos de una
creciente influencia de un pequeรฑo nรบmero de proveedores de datos alternativos en la
industria de las bases de datos, lo que podrรญa conducir a una concentraciรณn de poder en
ese mercado.
Pรกg. 48
Cuando se trata de ingresar al mercado de la IA, las empresas mรกs pequeรฑas
pueden encontrar obstรกculos relacionados con los datos, ya que es posible que necesiten
invertir en herramientas costosas como software avanzado de extracciรณn de datos y
tecnologรญa de aprendizaje automรกtico, asรญ como en infraestructura fรญsica como centros de
datos. Las inversiones son mรกs rentables para las empresas mรกs grandes debido a las
economรญas de escala. Ademรกs, los algoritmos necesitan acceder a una amplia gama de
datos de diversas fuentes para identificar nuevas relaciones y patrones. Puesto que las
empresas mรกs pequeรฑas sin los recursos necesarios o sin presencia en mรบltiples mercados
pueden tener dificultades para desarrollar algoritmos que puedan competir eficazmente
con los actores establecidos. Como resultado, pueden enfrentar barreras de entrada que
obstaculizan su capacidad para tener รฉxito en el mercado de la IA.
La presencia de una competencia sana en el mercado de productos y servicios
financieros basados en IA es crucial para que los proveedores aprovechen plenamente las
ventajas de esta tecnologรญa, particularmente en el comercio y la inversiรณn. La utilizaciรณn
de modelos de proveedores externos o subcontratados puede ayudar a determinar las
ventajas de estas herramientas para las empresas que las implementan, pero tambiรฉn
tiene el potencial de crear mercados unilaterales y fomentar el comportamiento gregario
entre los consumidores financieros. Asรญ, los profesionales de las finanzas pueden
comenzar a adoptar estrategias comerciales y de inversiรณn similares, lo que resultarรก en
una convergencia dentro de la industria.
Colusiones tรกcitas: riesgos
La implementaciรณn de modelos basados en IA a gran escala podrรญa generar
preocupaciones sobre la competencia, ya que permite la posibilidad de una colusiรณn
tรกcita sin ningรบn acuerdo formal o interacciรณn humana. La colusiรณn tรกcita se refiere a una
Pรกg. 49
situaciรณn en la que los competidores deciden de forma independiente estrategias para
maximizar sus propios beneficios, lo que en รบltima instancia conduce a un resultado no
competitivo. En tรฉrminos mรกs simples, el uso de algoritmos hace que sea mรกs sencillo
para los participantes del mercado mantener ganancias por encima del nivel competitivo
sin coludir explรญcitamente, reemplazando esencialmente la colusiรณn explรญcita por una
coordinaciรณn tรกcita.
Aunque la colusiรณn tรกcita suele ocurrir en mercados que son transparentes y tienen
un nรบmero limitado de participantes, hay pruebas que sugieren que la colusiรณn se vuelve
mรกs manejable y observable en los mercados digitales que involucran algoritmos. Estos
mercados digitales se caracterizan por un alto nivel de transparencia y una interacciรณn
frecuente.
La capacidad de los modelos de IA de autoaprendizaje y aprendizaje profundo
para adaptarse y aprender dinรกmicamente tiene el potencial de aumentar el riesgo de que
estos modelos reconozcan y se ajusten al comportamiento y las acciones de otros
participantes del mercado o modelos de IA. Esto podrรญa llevar a que se alcancen
resultados colusorios sin ninguna intervenciรณn humana, y posiblemente incluso sin que
el propio modelo de IA sea consciente de ello. Si bien tal colusiรณn no necesariamente viola
las leyes de competencia, genera preocupaciones sobre cรณmo abordar y regular el modelo
y sus usuarios mediante medidas coercitivas.
La parcialidad y discriminaciรณn
Los mรฉtodos de IA tienen la capacidad de mitigar la discriminaciรณn por parte de
los humanos en diversas interacciones o amplificar los prejuicios, el trato injusto y la
discriminaciรณn en el รกmbito de los servicios financieros. Al confiar al algoritmo la
responsabilidad de la toma de decisiones, las personas que utilizan modelos basados en
Pรกg. 50
IA pueden evitar los sesgos inherentes asociados con el juicio humano. Sin embargo, es
esencial reconocer que la adopciรณn de aplicaciones de IA tambiรฉn presenta la posibilidad
de introducir sesgos o discriminaciรณn debido al posible refuerzo de los sesgos existentes
encontrados en los datos. Esto puede ocurrir mediante el entrenamiento de modelos
utilizando datos sesgados o la identificaciรณn de correlaciones engaรฑosas.
El uso de datos defectuosos o inapropiados en las redes neuronales puede dar
lugar a una toma de decisiones incorrecta o sesgada. Cuando se utilizan datos de mala
calidad, se pueden tomar decisiones sesgadas o discriminatorias de dos maneras. Los
modelos de aprendizaje automรกtico que se entrenan con datos inadecuados pueden
producir resultados inexactos, incluso cuando se ingresan datos de buena calidad. De
manera similar, los modelos de aprendizaje automรกtico entrenados con datos de alta
calidad aรบn pueden generar resultados cuestionables si se alimentan con datos
inadecuados, a pesar de ser algoritmos bien entrenados. En consecuencia, los modelos de
LA bien intencionados pueden producir involuntariamente conclusiones sesgadas que
discriminen a ciertos grupos protegidos. La utilizaciรณn de datos incorrectos, inexactos
(como mal etiquetados o incompletos) o fraudulentos en los modelos de aprendizaje
automรกtico plantea el riesgo de "basura que entra, basura sale", donde la calidad del
resultado del modelo depende en gran medida de la calidad de los datos.
Tambiรฉn pueden existir sesgos en los datos utilizados como variables, y debido a
que el modelo estรก entrenado con datos de fuentes externas que pueden haber ya
incorporado ciertos sesgos, continรบa manteniendo estos sesgos histรณricos. Igualmente, las
decisiones sesgadas o discriminatorias tomadas por los modelos de aprendizaje
automรกtico no son necesariamente intencionales y pueden ocurrir incluso con datos de
alta calidad y bien etiquetados. Esto puede suceder mediante inferencias y proxies, o
porque resulta difรญcil identificar correlaciones entre variables sensibles y no sensibles
Pรกg. 51
dentro de bases de datos extensas. Dado que los macrodatos abarcan grandes cantidades
de informaciรณn que refleja la sociedad, las RNA basadas en IA tienen el potencial de
perpetuar los sesgos existentes presentes en la sociedad y reflejados en estas bases de
datos.
La implicaciรณn de los humanos en los procesos de toma de decisiones basados en
inteligencia artificial es crucial para detectar y rectificar cualquier sesgo que pueda estar
presente en los datos o en el diseรฑo del modelo. Ademรกs, los humanos desempeรฑan un
papel vital en la interpretaciรณn y explicaciรณn de los resultados del modelo, aunque la
viabilidad de lograrlo en su mรกxima extensiรณn aรบn es incierta. El factor humano es
esencial tanto en la etapa de ingreso de datos como en la de consulta del sistema, y es
importante abordar los resultados del modelo con cierto nivel de escepticismo para
minimizar los riesgos potenciales de resultados o toma de decisiones sesgados.
El diseรฑo y la auditorรญa de un modelo de ML desempeรฑan un papel crucial para
garantizar la solidez del modelo y minimizar posibles sesgos. Si los modelos de IA/ML
no se diseรฑan y controlan adecuadamente, pueden amplificar involuntariamente los
sesgos existentes y hacer que sea aรบn mรกs difรญcil detectar la discriminaciรณn. La realizaciรณn
de auditorรญas de modelos y algoritmos que comparen los resultados del modelo con
conjuntos de datos de referencia puede ayudar a prevenir el trato injusto y la
discriminaciรณn.
Es esencial que los usuarios y supervisores puedan probar los sistemas de
puntuaciรณn para garantizar la equidad y la precisiรณn. Asรญ como tambiรฉn, se pueden
realizar pruebas para comprobar si las clases protegidas se pueden inferir a partir de otros
atributos de los datos, y se pueden emplear diversas tรฉcnicas para identificar y rectificar
la discriminaciรณn en los modelos de ML. Asimismo, es importante gobernar los modelos
de IA/ML y asignar responsabilidad a los humanos involucrados en el proyecto para
Pรกg. 52
proteger a los prestatarios potenciales de sesgos injustos. Al evaluar los sesgos, es
fundamental evitar comparar la toma de decisiones basada en el aprendizaje automรกtico
con un estado imparcial ideal y, en su lugar, utilizar puntos de referencia realistas
comparando estos mรฉtodos con los modelos estadรญsticos tradicionales y la toma de
decisiones basada en humanos, ya que ambos enfoques tienen sus limitaciones y sesgos
potenciales.
La explicabilidad
Uno de los principales desafรญos que enfrentan los modelos de ML es la dificultad
para desglosar el resultado del modelo y comprender los factores que contribuyen a su
proceso de toma de decisiones. Este concepto, conocido como "explicabilidad", se refiere
a la capacidad de justificar o racionalizar las decisiones y resultados producidos por el
modelo. Los modelos basados en IA son intrรญnsecamente complejos debido a la
naturaleza de la tecnologรญa utilizada, y el ocultamiento intencional del funcionamiento
interno de estos modelos por parte de los agentes del mercado aumenta aรบn mรกs la falta
de explicabilidad. Simplemente tener acceso al cรณdigo subyacente no es suficiente para
comprender completamente la mecรกnica del modelo, especialmente considerando la falta
generalizada de conocimiento tรฉcnico entre los consumidores finales. Este problema se
ve exacerbado aรบn mรกs por el desajuste entre la complejidad de los modelos de IA y las
capacidades cognitivas de los humanos en tรฉrminos de razonamiento e interpretaciรณn.
La falta de confianza que los usuarios y supervisores tienen en las aplicaciones de
IA se debe principalmente a la incapacidad de comprender y explicar el funcionamiento
de los modelos de aprendizaje automรกtico. En el campo de las finanzas, los enfoques
impulsados por la IA se han vuelto cada vez mรกs complejos y opacos, lo que dificulta que
las personas comprendan cรณmo estos modelos toman decisiones. Incluso si los principios
Pรกg. 53
matemรกticos subyacentes de estos modelos pueden explicarse, todavรญa carecen de una
explicaciรณn clara y explรญcita de su conocimiento.
Por lo tanto, esta falta de transparencia socava la confianza entre los consumidores
financieros y los reguladores, especialmente en los servicios financieros crรญticos. Para
abordar este problema, es fundamental mejorar la explicabilidad de las aplicaciones de
IA, ya que puede ayudar a mantener la confianza en la industria. Desde una perspectiva
de control interno y gobernanza, es importante garantizar que los modelos de IA tengan
un nivel mรญnimo de explicabilidad. Esto permite que un comitรฉ de modelado analice
exhaustivamente el modelo y se sienta seguro en su implementaciรณn.
Asรญ, la ausencia de explicabilidad puede no coincidir con las regulaciones
existentes que requieren la comprensiรณn y divulgaciรณn de la lรณgica subyacente. Por
ejemplo, las regulaciones pueden exigir una comprensiรณn y explicaciรณn integral de los
algoritmos a lo largo de su vida รบtil. Otras polรญticas pueden otorgar a las personas el
derecho a recibir una explicaciรณn de las decisiones tomadas por algoritmos, junto con
informaciรณn sobre la lรณgica involucrada, como el GDPR en la UE19, que se aplica a las
decisiones crediticias y a los precios de los seguros.
Otro ejemplo es la posible utilizaciรณn de LD para calcular los requisitos
regulatorios, como los activos ponderados por riesgo (RWA) para el riesgo crediticio. Los
estรกndares actuales requieren que estos modelos sean explicables o al menos estรฉn sujetos
a supervisiรณn y juicio humanos, como se describe en el Marco de Basilea para el cรกlculo
de los APR para el riesgo de crรฉdito.
El uso de modelos basados en ML en los mercados financieros podrรญa representar
un riesgo significativo si los reguladores no monitorean de cerca su falta de
explicabilidad. Esta falta de transparencia dificulta que tanto las empresas financieras
Pรกg. 54
como los supervisores anticipen cรณmo estos modelos afectarรกn a los mercados. Esto es
particularmente preocupante porque la tecnologรญa de IA tiene el potencial de introducir
o amplificar riesgos sistรฉmicos, como la mayor probabilidad de comportamiento gregario
y convergencia de estrategias entre usuarios de modelos genรฉricos proporcionados por
proveedores externos.
Sin una comprensiรณn profunda de cรณmo funcionan estos modelos, los usuarios
tienen una capacidad limitada para predecir su impacto en las condiciones del mercado
o identificar si estรกn contribuyendo a las perturbaciones. Ademรกs, los usuarios no pueden
adaptar sus estrategias ante un desempeรฑo deficiente o tensiones en el mercado, lo que
puede provocar una mayor volatilidad del mercado y perรญodos de iliquidez. Esto puede
exacerbar aรบn mรกs eventos como accidentes repentinos. La falta de una comprensiรณn
clara de la mecรกnica del modelo tambiรฉn crea riesgos de manipulaciรณn del mercado, como
suplantaciรณn de identidad y colusiรณn tรกcita entre los participantes del mercado.
Los profesionales financieros en el campo de los mercados financieros que utilizan
RNA basadas en IA se enfrentan a un mayor escrutinio con respecto a su capacidad para
explicar cรณmo funcionan sus modelos. Esta mayor atenciรณn ha llevado a muchos
participantes del mercado a centrarse en mejorar la explicabilidad de estos modelos. Al
hacerlo, esperan comprender mejor cรณmo se comportan los modelos tanto en condiciones
normales de mercado como en momentos de tensiรณn, asรญ como gestionar eficazmente los
riesgos asociados.
Si bien, lograr la explicabilidad por diseรฑo, es decir, incorporar la explicabilidad
en el propio mecanismo de la IA, es una tarea desafiante. Esto se debe principalmente a
varias razones: en primer lugar, el pรบblico en general puede tener dificultades para
comprender la lรณgica subyacente del modelo; en segundo lugar, algunos modelos, como
determinadas redes neuronales, son intrรญnsecamente complejos y no pueden
Pรกg. 55
comprenderse plenamente; y en tercer lugar, revelar plenamente el mecanismo implicarรญa
esencialmente revelar la propiedad intelectual detrรกs del modelo.
La cuestiรณn de la explicabilidad en relaciรณn con la IA ha provocado un debate que
invita a la reflexiรณn sobre cรณmo el nivel de explicabilidad requerido para la IA difiere del
necesario para otros modelos matemรกticos complejos en el sector financiero. Una
preocupaciรณn es que las aplicaciones de IA puedan considerarse mรกs exigentes, lo que
conlleva una mayor carga de explicabilidad en comparaciรณn con otras tecnologรญas. Esta
posible disparidad podrรญa tener un efecto perjudicial sobre la innovaciรณn dentro del
campo. En lugar de centrarse รบnicamente en el potencial matemรกtico de los modelos de
IA, es crucial que los comitรฉs prioricen el anรกlisis de los riesgos inherentes a los que estos
modelos pueden exponer a las empresas, determinando si estos riesgos se pueden
gestionar de forma eficaz.
Los proveedores de servicios financieros deben lograr un equilibrio adecuado
entre la explicabilidad del modelo y la precisiรณn/rendimiento para poder sortear el
equilibrio entre ambos. Es crucial que estos proveedores tengan un cierto nivel de
comprensiรณn sobre cรณmo opera el modelo y la lรณgica subyacente que sigue para evitar ser
percibidos como "cajas negras". Al tener este conocimiento, los proveedores de servicios
financieros pueden cumplir con las obligaciones regulatorias y generar confianza con los
consumidores. En ciertas jurisdicciones como Alemania, no se aceptan modelos que
carezcan de algรบn grado de explicabilidad.
Es importante seรฑalar que no existe un principio o enfoque รบnico que pueda
explicar completamente los modelos LD, y el nivel de explicabilidad variarรก segรบn el
contexto especรญfico. Al evaluar la interpretabilidad de un modelo, es necesario considerar
la pregunta que se formula y las predicciones realizadas por el modelo. Ademรกs, es
fundamental comprender que garantizar la explicabilidad del modelo no garantiza
Pรกg. 56
automรกticamente su confiabilidad. Para alinear efectivamente la explicabilidad con el
pรบblico, es necesario un cambio de enfoque hacia la "explicabilidad del riesgo". Esto
significa poner mรกs รฉnfasis en comprender los riesgos potenciales asociados con el uso
del modelo, en lugar de centrarse รบnicamente en la metodologรญa detrรกs del modelo. La
Oficina del Comisionado de Informaciรณn del Reino Unido ha proporcionado
recientemente orientaciรณn sobre el uso de cinco factores contextuales (alcance, impacto,
datos utilizados, urgencia y audiencia) para evaluar el tipo de explicaciรณn requerida.
La auditabilidad de los algoritmos
El uso de modelos de "caja negra" en servicios financieros, como los prรฉstamos,
presenta desafรญos en lo que respecta a la transparencia regulatoria y la auditorรญa. Estos
modelos son complejos y difรญciles de descomponer, lo que hace casi imposible
comprender los factores subyacentes de su producciรณn. Esta falta de explicabilidad
dificulta la capacidad de realizar auditorรญas y limita la comprensiรณn del supervisor del
proceso de toma de decisiones del modelo. En algunas jurisdicciones, las leyes y
regulaciones exigen auditabilidad y transparencia, lo que puede ser difรญcil de lograr las
RNA. La capacidad de seguir una pista de auditorรญa depende de la interpretabilidad del
modelo, que a menudo estรก limitada en los modelos de IA. Como las decisiones tomadas
por estos modelos ya no son lineales y su interpretabilidad es limitada, es crucial
encontrar formas de mejorar la explicabilidad de los resultados de la IA manteniendo al
mismo tiempo la responsabilidad y una gobernanza sรณlida en los sistemas basados en IA.
Hay esfuerzos de investigaciรณn en curso tanto en el sector acadรฉmico como en el
industrial destinados a mejorar la comprensibilidad de las aplicaciones de inteligencia
artificial (IA) y hacer que los modelos de aprendizaje automรกtico (ML) sean mรกs accesibles
para su examen antes y despuรฉs de su implementaciรณn.
Pรกg. 57
La divulgaciรณn
Los Principios de las RNA sustentadas por IA de la OCDE enfatizan la importancia
de la transparencia y la divulgaciรณn responsable cuando se trata de sistemas de IA. Esto
significa que es crucial que las personas tengan una comprensiรณn clara de los resultados
basados en la IA y tengan la capacidad de cuestionarlos o desafiarlos. Para abordar la
cuestiรณn de la opacidad de los sistemas basados en algoritmos, se propone implementar
requisitos de transparencia. Esto implicarรญa proporcionar informaciรณn clara sobre las
capacidades y limitaciones del sistema de IA. El objetivo de la divulgaciรณn por separado
es informar a los consumidores sobre el uso de la IA en la entrega de un producto y su
interacciรณn con un sistema de IA en lugar de un ser humano, como en el caso de los robo-
advisors. Al disponer de esta informaciรณn, los clientes pueden tomar decisiones
informadas y elegir entre diferentes productos de la competencia.
Hasta el momento, no existe un estรกndar ampliamente aceptado sobre la cantidad
de informaciรณn que debe revelarse a los inversores y consumidores financieros, asรญ como
sobre la proporcionalidad de dicha informaciรณn. Los reguladores del mercado sugieren
que el nivel de transparencia deberรญa variar segรบn el tipo de inversor (minorista o
institucional) y el รกrea de aplicaciรณn (front o back office). Estos reguladores argumentan
que los requisitos de idoneidad, como los que se aplican a la venta de productos de
inversiรณn, podrรญan ayudar a las empresas a evaluar si los clientes potenciales poseen una
comprensiรณn integral de cรณmo la utilizaciรณn de la IA afecta la provisiรณn del producto o
servicio.
Los requisitos para que las empresas financieras documenten los detalles
operativos y las caracterรญsticas de diseรฑo de los modelos financieros ya existรญan incluso
antes de la apariciรณn de la IA. Algunos reguladores ahora estรกn utilizando la
Pรกg. 58
documentaciรณn de la lรณgica del algoritmo como un medio para garantizar que los
resultados del modelo puedan explicarse, rastrearse y repetirse.
La Uniรณn Europea, por ejemplo, estรก contemplando la implementaciรณn de
requisitos para divulgar documentaciรณn sobre metodologรญas, procesos, programaciรณn y
tรฉcnicas de capacitaciรณn utilizadas en el desarrollo, prueba y validaciรณn de sistemas de
IA, incluida documentaciรณn sobre el algoritmo en sรญ (OECD, 2021). El Consejo de Polรญticas
Pรบblicas de la Asociaciรณn de Maquinaria de Computaciรณn (USACM) de EE. UU. ha
propuesto un conjunto de principios que priorizan la transparencia y la auditabilidad en
el uso de algoritmos, sugiriendo que los modelos, datos, algoritmos y decisiones deben
registrarse para permitir la auditorรญa en caso de sospecha. daรฑo. La orientaciรณn de la
Reserva Federal sobre la gestiรณn de riesgos de modelos tambiรฉn enfatiza la necesidad de
una documentaciรณn detallada del desarrollo y validaciรณn del modelo, que permita a las
personas que no estรกn familiarizadas con el modelo comprender su funcionamiento,
limitaciones y supuestos (OECD, 2021).
Los proveedores de servicios financieros se enfrentan a desafรญos cada vez mayores
a la hora de documentar el proceso de los modelos basados en IA que se utilizan con fines
de supervisiรณn. Esta dificultad surge de la naturaleza compleja de estos modelos, lo que
dificulta explicar cรณmo funcionan y posteriormente documentarlos. Este desafรญo no se
limita al tamaรฑo del proveedor de servicios, ya que incluso los proveedores mรกs
pequeรฑos enfrentan los mismos obstรกculos.
En respuesta a esto, algunas jurisdicciones han propuesto un enfoque doble para
supervisar los modelos de IA:
Pรกg. 59
โ€ข El primer aspecto es analรญtico y combina el cรณdigo fuente y el anรกlisis de datos para
documentar los algoritmos de IA, los modelos predictivos y los conjuntos de datos,
preferiblemente siguiendo mรฉtodos estandarizados.
โ€ข El segundo aspecto es empรญrico y utiliza tรฉcnicas que brindan explicaciones para
decisiones individuales o el comportamiento general del algoritmo.
Esto se logra mediante el uso de modelos desafiantes, que se utilizan para
compararlos con el modelo que se estรก probando, asรญ como conjuntos de datos de
evaluaciรณn comparativa seleccionados por auditores.
Ademรกs, aparte de las dificultades asociadas con la explicaciรณn de los modelos
basados en IA, existe la complejidad aรฑadida de configurar numerosos parรกmetros que
afectan en gran medida el rendimiento y los resultados del modelo. El proceso de
parametrizaciรณn puede considerarse "arbitrario" y subjetivo, ya que a menudo se basa en
la intuiciรณn mรกs que en una validaciรณn exhaustiva y estรก fuertemente influenciado por el
individuo que diseรฑa el modelo. Aunque revelar los parรกmetros elegidos podrรญa aliviar
algunos de los problemas, explicar cรณmo estos parรกmetros interactรบan con el modelo
todavรญa plantea un desafรญo importante.
Robustez y resiliencia de los modelos de IA
Es crucial que los sistemas de IA funcionen de manera efectiva, segura y confiable
en cada etapa de su existencia, y es imperativo evaluar y mitigar continuamente cualquier
riesgo potencial que puedan plantear. Para mejorar la solidez de los sistemas de IA, es
esencial entrenar diligentemente los modelos y evaluar minuciosamente su desempeรฑo
en consonancia con los objetivos previstos.
Entrenamiento modelos de IA
Pรกg. 60
Para tener en cuenta relaciones mรกs complejas y la no linealidad de los datos,
puede ser necesario entrenar modelos utilizando conjuntos de datos mรกs grandes. Esto
se debe a que las interacciones de orden superior pueden ser mรกs difรญciles de alcanzar y
requerir mรกs datos para descubrirse. Por lo tanto, es crucial tener conjuntos de datos
suficientemente grandes para el entrenamiento a fin de capturar relaciones no lineales y
eventos raros en los datos. Sin embargo, esto presenta desafรญos en la prรกctica, ya que los
eventos de cola son poco frecuentes y el conjunto de datos puede no ser lo
suficientemente sรณlido como para producir resultados รณptimos. Ademรกs, existe una
compensaciรณn, ya que el uso de conjuntos de datos cada vez mรกs grandes para entrenar
modelos corre el riesgo de hacerlos menos adaptables, comprometiendo potencialmente
su rendimiento y capacidad para aprender de manera efectiva.
El sistema financiero estรก en riesgo debido a que la industria no ha logrado
entrenar modelos en conjuntos de datos que incluyan eventos raros e inesperados. Esto
debilita la confiabilidad de los modelos de IA en tiempos de crisis y limita su utilidad a
condiciones de mercado estables. Un problema potencial es el sobreajuste, donde un
modelo funciona bien con los datos con los que fue entrenado, pero mal con datos nuevos
y desconocidos. Para solucionar esto, los creadores de modelos dividen los datos en
conjuntos de entrenamiento y validaciรณn y utilizan el conjunto de entrenamiento para
crear mรบltiples modelos con diferentes configuraciones. Luego, el conjunto de validaciรณn
se utiliza para probar la precisiรณn de los modelos y optimizar sus parรกmetros. Al analizar
los errores en el conjunto de validaciรณn, se puede determinar el mejor conjunto de
parรกmetros del modelo.
Anteriormente, los cientรญficos creรญan que el rendimiento medido de los modelos de
validaciรณn proporcionaba una estimaciรณn imparcial de su rendimiento general. Sin
embargo, estudios recientes realizados por Westerhuis et al. (2008) y Harrington (2018)
Pรกg. 61
han demostrado que este supuesto no siempre es exacto. Estos estudios enfatizan la
importancia de tener un conjunto de datos de prueba ciego adicional que no se utilice
durante el proceso de selecciรณn y validaciรณn del modelo. Este conjunto de datos de prueba
es esencial para obtener una estimaciรณn mรกs confiable de la capacidad del modelo para
generalizar. Los procesos de validaciรณn mencionados en estos estudios implican algo mรกs
que simplemente realizar pruebas retrospectivas del modelo con datos histรณricos para
evaluar sus capacidades predictivas. Tambiรฉn tienen como objetivo garantizar que los
resultados obtenidos del modelo sean reproducibles.
Se estรกn utilizando conjuntos de datos sintรฉticos generados artificialmente como
conjuntos de prueba con fines de validaciรณn. Estos conjuntos de datos presentan una
alternativa intrigante debido a su capacidad de proporcionar cantidades ilimitadas de
datos simulados. Ademรกs, ofrecen un enfoque potencialmente mรกs rentable para mejorar
la precisiรณn predictiva y reforzar la resiliencia de los modelos de aprendizaje automรกtico.
Esto resulta especialmente beneficioso en situaciones en las que obtener datos reales
resulta complicado y costoso. En ciertos casos, los organismos reguladores, como los de
Alemania, exigen la evaluaciรณn de los resultados del modelo de IA dentro de escenarios
de prueba definidos por las autoridades supervisoras.
El seguimiento y la validaciรณn continuos de los modelos a lo largo de su vida รบtil
son cruciales para gestionar eficazmente los riesgos asociados con cualquier tipo de
modelo. La validaciรณn del modelo se lleva a cabo despuรฉs del entrenamiento del modelo
y sirve para confirmar que el modelo se ha implementado correctamente y funciona
segรบn lo previsto. Abarca una serie de procesos y actividades destinadas a garantizar que
los modelos se alineen con sus objetivos de diseรฑo y propรณsitos comerciales, al mismo
tiempo que garantizan su solidez. Esto implica identificar posibles limitaciones e
hipรณtesis y evaluar su impacto potencial. El proceso de validaciรณn debe abarcar todos los
Pรกg. 62
aspectos del modelo, incluidos los datos de entrada, el procesamiento y la presentaciรณn
de informes. Se aplica tanto a los modelos desarrollados internamente como a los
obtenidos de fuentes externas o de terceros. Las actividades de validaciรณn deben llevarse
a cabo continuamente para monitorear las limitaciones conocidas del modelo e identificar
las nuevas, particularmente durante perรญodos de tensiรณn econรณmica o financiera que
pueden no reflejarse en el conjunto de datos de capacitaciรณn.
Las pruebas continuas de los modelos ML son extremadamente importantes para
detectar y rectificar cualquier desviaciรณn en los modelos denominada "desviaciones del
modelo". Estas desviaciones pueden ocurrir en forma de desviaciones de conceptos o
desviaciones de datos. Las derivas de conceptos se refieren a situaciones en las que las
caracterรญsticas estadรญsticas de la variable objetivo que analiza el modelo sufren cambios,
alterando asรญ el concepto fundamental que el modelo pretende predecir. Por ejemplo, a
medida que pasa el tiempo, la comprensiรณn del fraude puede evolucionar debido a la
apariciรณn de nuevos mรฉtodos utilizados para actividades ilegales. Esta evoluciรณn en la
definiciรณn de fraude darรญa lugar en รบltima instancia a una deriva del concepto.
Las desviaciones de datos ocurren cuando las caracterรญsticas estadรญsticas de los
datos de entrada sufren alteraciones, lo que afecta la capacidad del modelo para hacer
predicciones precisas. Un ejemplo digno de menciรณn de estas desviaciones de los datos
es el pronunciado cambio en los sentimientos y las inclinaciones de los consumidores
hacia el comercio electrรณnico y la banca digital. Estos cambios, que no se tuvieron en
cuenta en el conjunto de datos de entrenamiento original, pueden provocar una
disminuciรณn en el rendimiento del modelo.
El seguimiento y la validaciรณn continuos de los modelos de aprendizaje
automรกtico (ML) desempeรฑan un papel crucial a la hora de prevenir y abordar las
desviaciones. Al implementar procedimientos estandarizados para este proceso de
Pรกg. 63
monitoreo, podemos mejorar la resiliencia de los modelos y determinar si es necesario
algรบn ajuste, redesarrollo o reemplazo. Es de suma importancia establecer una
arquitectura eficiente que facilite el rรกpido reentrenamiento de modelos con datos
actualizados, especialmente cuando cambia la distribuciรณn de los datos, ya que esto
ayuda a mitigar los riesgos potenciales asociados con la deriva del modelo.
Ademรกs de monitorear y evaluar continuamente el cรณdigo o modelo que se utiliza,
ciertos organismos reguladores han implementado el requisito de incluir "kill switch" u
otros mecanismos de control automatizados que activen alertas en situaciones de alto
riesgo. Los interruptores de apagado sirven como ejemplo de tales mecanismos de
control, ya que pueden desactivar rรกpidamente una RNA basada en IA si se desvรญa de su
propรณsito previsto. A modo de ejemplo, en Canadรก, las empresas tienen el mandato de
incorporar funciones de "anulaciรณn" que pueden apagar automรกticamente el sistema o
permitir el apagado remoto si se considera necesario. Estos interruptores de apagado
deben someterse a pruebas rigurosas y un monitoreo continuo para garantizar que las
empresas puedan depender de ellos si surge la necesidad.
Es necesario mejorar las funciones y procesos de gestiรณn de riesgos existentes
diseรฑados especรญficamente para que los modelos basados en IA aborden los riesgos
emergentes y las consecuencias no deseadas. Para garantizar la eficacia de los modelos,
es fundamental realizar pruebas de rendimiento en condiciones extremas del mercado.
Esto es esencial para prevenir la apariciรณn de riesgos y vulnerabilidades sistรฉmicos que
puedan surgir durante tiempos estresantes. Sin embargo, cabe seรฑalar que es posible que
los datos utilizados para entrenar estos modelos no capturen completamente los efectos
de las condiciones de estrรฉs del mercado o los cambios en diversos factores, como
exposiciones, actividades o comportamientos.
Pรกg. 64
En consecuencia, esta limitaciรณn podrรญa afectar negativamente el rendimiento del
modelo. Ademรกs, dado que estos modelos son relativamente nuevos, su capacidad para
abordar eficazmente los riesgos en condiciones financieras cambiantes aรบn no se ha
puesto a prueba. Para mitigar esto, es importante incorporar una multitud de escenarios
con fines de prueba y backtesting. Al considerar diferentes comportamientos y tendencias
del mercado, existe la esperanza de minimizar la posibilidad de subestimar los riesgos en
tales escenarios.
Las investigaciones han indicado que la explicabilidad de un sistema de una
manera que los humanos puedan entender fรกcilmente puede tener un impacto sustancial
en cรณmo los usuarios perciben su precisiรณn, independientemente de la verdadera
precisiรณn observada. Segรบn la OECD (2020), cuando las explicaciones se brindan de una
manera menos comprensible para los humanos, los usuarios estรกn menos inclinados a
evaluar con precisiรณn la exactitud de una tรฉcnica que no se basa en principios fรกcilmente
comprensibles.
Aprendizaje sin sentido
La convergencia de la inferencia causal y el aprendizaje automรกtico se ha
convertido en un campo de estudio floreciente, como lo indica el rรกpido crecimiento de
la investigaciรณn en esta รกrea. Si bien los sistemas de reconocimiento de patrones carecen
de la capacidad de comprender las relaciones causa-efecto, comprender dichas relaciones
es un aspecto fundamental de la inteligencia humana. En consecuencia, existe un
reconocimiento creciente entre los investigadores del aprendizaje profundo sobre la
importancia de estas investigaciones y las estรกn incorporando a sus estudios. Sin
embargo, es importante seรฑalar que esta รกrea particular de investigaciรณn aรบn se encuentra
en sus etapas incipientes.
Pรกg. 65
Los usuarios que utilizan modelos de aprendizaje automรกtico pueden correr el
riesgo de interpretar errรณneamente correlaciones sin sentido observadas en los patrones
de actividad como relaciones causales. Esto puede dar lugar a resultados del modelo
cuestionables. Es crucial ir mรกs allรก de la mera correlaciรณn y profundizar en la causalidad
para comprender las circunstancias en las que un modelo podrรญa fallar. Esta comprensiรณn
nos permitirรก determinar si el patrรณn observado seguirรก siendo predictivo con el tiempo.
Igualmente, la inferencia causal juega un papel vital en la replicaciรณn de los
resultados empรญricos de un modelo en nuevos entornos, entornos o poblaciones,
asegurando asรญ la validez externa de los resultados del modelo. La capacidad de transferir
los efectos causales aprendidos de un conjunto de datos de prueba a un nuevo conjunto
de datos, donde solo se pueden realizar estudios observacionales, se denomina
transportabilidad. Este concepto es fundamental para la utilidad y solidez de los modelos
de aprendizaje automรกtico. A los supervisores puede resultarles beneficioso obtener
informaciรณn sobre los supuestos causales hechos por los usuarios de los modelos de IA
para evaluar mejor los posibles riesgos asociados.
Es crucial evaluar exhaustivamente los resultados de los modelos de inteligencia
artificial, y el juicio humano juega un papel vital en este proceso, particularmente cuando
se trata de determinar la causalidad. Sin una buena dosis de escepticismo o precauciรณn,
confiar รบnicamente en la correlaciรณn identificada por modelos basados en IA puede dar
lugar a una toma de decisiones sesgada o inexacta, ya que la causalidad puede no estar
necesariamente presente. Las investigaciones han demostrado que los modelos son
propensos a adquirir estrategias subรณptimas si no consideran el consejo humano, incluso
en los casos en que las decisiones humanas pueden ser menos precisas que las propias
habilidades de los modelos.
Pรกg. 66
El ejemplo de la crisis de COVID-19
Si bien Las RNA basadas en IA estรกn diseรฑados para adaptarse y aprender de
nuevos datos a lo largo del tiempo, pueden tener dificultades para manejar eventos
รบnicos e imprevistos como la crisis de COVID-19. Estos eventos no se tienen en cuenta en
los datos utilizados para entrenar los modelos, lo que dificulta su funcionamiento eficaz.
Los sistemas comerciales gestionados por IA, que se basan en modelos dinรกmicos
entrenados a partir de datos histรณricos, suelen tener รฉxito siempre que el entorno del
mercado siga siendo coherente con el pasado.
Si bien, una encuesta realizada a bancos del Reino Unido indica que
aproximadamente el 35% de ellos experimentaron un impacto negativo en el rendimiento
de sus modelos de aprendizaje automรกtico durante la pandemia (OECD, 2020). Esto
puede atribuirse a cambios significativos en las variables macroeconรณmicas causados por
la pandemia, como el aumento del desempleo y los cambios en los prรฉstamos
hipotecarios, que requirieron recalibrar tanto el aprendizaje automรกtico como los
modelos tradicionales. Eventos imprevistos como la pandemia interrumpen la
continuidad de los conjuntos de datos, lo que genera desviaciones en los modelos que
socavan las capacidades predictivas de estos modelos.
Los eventos de cola se refieren a sucesos inesperados que conducen a cambios
imprevistos en el comportamiento de la variable objetivo, lo que afecta la precisiรณn de las
predicciones del modelo. Estos eventos tambiรฉn provocan alteraciones no reconocidas
previamente en la estructura de datos y los patrones subyacentes del conjunto de datos
utilizado para el entrenamiento del modelo, todo debido a cambios en la dinรกmica del
mercado durante tales eventos. Dado que estos cambios no se tienen en cuenta en el
conjunto de datos original, es probable que den como resultado una disminuciรณn en el
Pรกg. 67
rendimiento del modelo. Para abordar esto, futuros conjuntos de datos sintรฉticos creados
para el entrenamiento de modelos podrรญan incorporar eventos de cola similares, junto
con datos del perรญodo COVID-19, con el fin de volver a entrenar y distribuir modelos
actualizados.
Por lo tanto, es crucial participar en pruebas continuas de modelos utilizando
conjuntos de datos de validaciรณn que abarquen escenarios extremos. Ademรกs, es vital
monitorear continuamente cualquier desviaciรณn en los modelos. Esto es esencial para
minimizar los riesgos potenciales que puedan surgir durante perรญodos de estrรฉs o
incertidumbre. Vale la pena mencionar que se prevรฉ que los modelos basados en el
aprendizaje por refuerzo, en los que el modelo se entrena utilizando condiciones
simuladas, exhibirรกn un rendimiento superior durante eventos raros e imprevistos que
plantean riesgos extremos. Esto se debe a que dichos modelos son comparativamente mรกs
fรกciles de entrenar al incorporar escenarios condicionales, incluso aquellos que
involucran tendencias de mercado extraordinarias y sin precedentes que no se han
observado en el pasado.
Pรกg. 68
Capรญtulo 4
La gobernanza de los sistemas de IA
El establecimiento de estructuras de gobernanza sรณlidas y mecanismos de
rendiciรณn de cuentas transparentes es crucial a la hora de implementar RNA en
escenarios crรญticos de toma de decisiones, como determinar el acceso al crรฉdito o asignar
carteras de inversiรณn. Es imperativo que las organizaciones y las personas involucradas
en el desarrollo, implementaciรณn u operaciรณn de sistemas de IA asuman la
responsabilidad de garantizar su funcionamiento eficaz y responsable. Como lo afirma la
OCDE, es necesario adoptar medidas estrictas para hacer cumplir la rendiciรณn de cuentas.
Igualmente, la Comisiรณn Europea (2020) enfatiza la importancia de la supervisiรณn
humana durante todo el ciclo de vida de los productos y sistemas de IA para que sirva
como protecciรณn contra posibles riesgos y sesgos.
En la actualidad, las personas involucradas en el mercado financiero que utilizan
la IA dependen de los mecanismos existentes de gobernanza y supervisiรณn cuando
utilizan estas tecnologรญas. Esto se debe a que los algoritmos basados en IA no se
consideran fundamentalmente diferentes de los algoritmos tradicionales. Los marcos de
gobernanza actuales que se aplican a los modelos pueden servir como base para
desarrollar o adaptarse a la actividad de la IA, ya que muchas de las consideraciones y
riesgos asociados con la IA tambiรฉn son relevantes para otros tipos de modelos.
Al implementar marcos de gobernanza explรญcitos que establezcan claramente
lรญneas de responsabilidad para el desarrollo y la supervisiรณn de los sistemas basados en
IA a lo largo de todo su ciclo de vida, desde el desarrollo hasta el despliegue, se pueden
fortalecer aรบn mรกs los acuerdos operativos existentes relacionados con la IA. Estos
marcos de gobierno interno pueden incluir estรกndares mรญnimos o directrices sobre
Pรกg. 69
mejores prรกcticas y enfoques para implementar estas directrices. El establecimiento de
comitรฉs de modelos internos desempeรฑa un papel clave en el establecimiento de
estรกndares de gobernanza de modelos y los procesos que siguen los proveedores de
servicios financieros al crear, documentar y validar modelos de cualquier tipo, incluidos
los modelos de aprendizaje automรกtico basados en IA.
Los marcos de gobernanza de modelos actuales aรบn no han considerado los
desafรญos รบnicos que plantean los modelos de IA, que tienen una existencia transitoria y
sufren cambios frecuentes. El problema radica en adaptar los procesos de gobernanza de
modelos existentes para dar cabida a modelos de IA mรกs avanzados que tengan la
capacidad de reconstruirse a sรญ mismos en cortos perรญodos de tiempo. Una posible
soluciรณn para abordar este problema es preservar los datos y el cรณdigo utilizados en el
modelo, permitiendo la generaciรณn de rรฉplicas de las entradas y salidas del modelo
basadas en fechas pasadas. Sin embargo, es importante tener en cuenta que muchos
modelos de ML no son deterministas, lo que significa que incluso con los mismos datos
de entrada, no hay garantรญa de que se produzca exactamente el mismo modelo.
Incorporar los resultados deseados para los consumidores en un marco de
gobernanza es de suma importancia, y esto debe ir acompaรฑado de una evaluaciรณn de si
estos resultados se logran mediante el uso de tecnologรญas de IA y cรณmo. Cuando se trata
de modelos avanzados de aprendizaje profundo, puede haber preocupaciones sobre
quiรฉn controla en รบltima instancia el modelo, ya que la IA podrรญa actuar
involuntariamente de una manera que vaya en contra de los mejores intereses de los
consumidores. Por ejemplo, los resultados sesgados en la suscripciรณn de crรฉditos, como
se mencionรณ anteriormente, podrรญan ser una consecuencia potencial. Ademรกs, el
comportamiento autรณnomo que exhiben determinados sistemas de IA a lo largo de su
ciclo de vida puede provocar cambios significativos en el producto, que podrรญan afectar
Pรกg. 70
a su seguridad. En consecuencia, puede ser necesaria una nueva evaluaciรณn de riesgos en
tales casos, como destacรณ la Comisiรณn Europea en 2020.
La responsabilidad final de los sistemas basados en IA recae en los niveles
ejecutivo y de gestiรณn del proveedor de servicios financieros. Deben establecer un
enfoque integral para gestionar el riesgo del modelo y garantizar que estรฉ dentro de
niveles aceptables. Ademรกs, otras funciones como ingenieros, programadores y analistas
de datos, que tradicionalmente no han sido centrales para la revisiรณn de los supervisores,
ahora pueden enfrentar un mayor escrutinio debido a su creciente importancia en la
implementaciรณn de productos y servicios financieros basados en IA.
Por lo tanto, es posible que la responsabilidad de los sistemas relacionados con la
IA deba extenderse mรกs allรก de la alta direcciรณn y la junta directiva, hacia los profesionales
responsables de la programaciรณn, el desarrollo de modelos y el uso del sistema. Es crucial
que estas funciones tรฉcnicas cuenten con un mecanismo para brindar servicios a los
clientes y explicar eficazmente estos modelos a los altos directivos y a la junta directiva.
En algunas jurisdicciones, puede ser necesario que una auditorรญa de un tercero valide el
desempeรฑo del modelo de acuerdo con su propรณsito previsto. Una gobernanza sรณlida
tambiรฉn implica una documentaciรณn exhaustiva del desarrollo y la validaciรณn del
modelo.
Normalmente, los proveedores de servicios financieros emplean procedimientos
similares para el desarrollo, la documentaciรณn y la validaciรณn de modelos de aprendizaje
automรกtico (ML) que los que utilizan para los modelos estadรญsticos convencionales.
La implementaciรณn de mejores prรกcticas de gobernanza de modelos ha estado
vigente desde la adopciรณn de modelos estadรญsticos convencionales para determinaciones
de crรฉdito y financiamiento al consumo. Es imperativo que las instituciones financieras
Pรกg. 71
garanticen que los modelos se construyan utilizando conjuntos de datos apropiados y se
abstengan de incorporar ciertos datos en los modelos. Asimismo, es fundamental evitar
el uso de datos sustitutos que puedan potencialmente discriminar a los grupos
protegidos. Tambiรฉn es esencial realizar pruebas y validaciones rigurosas de los modelos,
a veces realizadas por validadores independientes. Ademรกs, cuando los modelos se
utilizan en operaciones reales, es vital garantizar que los datos de entrada se alineen con
los datos utilizados durante la fase de desarrollo del modelo. Se mantienen registros de
auditorรญa y documentaciรณn adecuados para realizar un seguimiento de diversos aspectos,
como las decisiones de implementaciรณn, diseรฑo y producciรณn.
Los marcos de gobernanza modelo tambiรฉn enfatizan la importancia de
monitorear los modelos para garantizar que no generen resultados que indiquen un trato
desigual. Por lo tanto, es fundamental tener la capacidad de comprender el razonamiento
detrรกs del resultado del modelo. En el sector de servicios financieros, las organizaciones
establecen comitรฉs de gobierno modelo o juntas de revisiรณn de modelos para desarrollar,
autorizar y supervisar la implementaciรณn de procedimientos de gobierno modelo.
La validaciรณn del modelo es un aspecto crucial de varios procedimientos que
implican la utilizaciรณn de conjuntos de datos retenidos. Ademรกs de esto, existen otros
procedimientos convencionales, como examinar la coherencia y confiabilidad de las
entradas, salidas y parรกmetros. A medida que la adopciรณn de la IA se vuelve mรกs
frecuente en la industria financiera, se prevรฉ que el establecimiento de comitรฉs internos
para supervisar estos procesos se vuelva cada vez mรกs comรบn. Ademรกs, es probable que
estos comitรฉs experimenten mejoras en sus funciones y competencias para adaptarse a la
naturaleza intrincada de los modelos basados en IA. Es importante seรฑalar que la
frecuencia y las metodologรญas empleadas para la validaciรณn de modelos en el contexto de
los modelos basados en IA deben ser distintas de las aplicadas a los modelos lineales.
Pรกg. 72
La inteligencia artificial tambiรฉn se utiliza con fines de tecnologรญa regulatoria
(RegTech). Para garantizar una gobernanza eficaz de los modelos, las empresas de
servicios financieros estรกn trabajando activamente para mejorar los procedimientos
automatizados que supervisan y regulan los datos utilizados por los modelos en
funcionamiento. Ademรกs, tambiรฉn se centran en mejorar los sistemas automatizados que
monitorean y evalรบan los resultados generados por estos modelos.
La subcontrataciรณn: terceros proveedores
Un aspecto de los riesgos involucra la dinรกmica competitiva, especรญficamente los
riesgos de concentraciรณn. Cuando las empresas dependen de un รบnico tercero para sus
necesidades de IA, existe el riesgo de volverse demasiado dependientes de ese proveedor.
Esto puede crear una situaciรณn en la que la empresa tenga opciones y poder de
negociaciรณn limitados, lo que podrรญa generar costos mรกs altos o servicios inferiores. Asรญ,
si el tercero elegido experimenta dificultades financieras o cierra, puede interrumpir las
operaciones de inteligencia artificial de la empresa y causar reveses importantes.
Asimismo, la subcontrataciรณn de tรฉcnicas de IA puede generar vulnerabilidades
sistรฉmicas, particularmente relacionadas con un mayor riesgo de convergencia. El riesgo
de convergencia se refiere al potencial de que mรบltiples sistemas o procesos se
interconecten y dependan unos de otros. Al subcontratar tรฉcnicas de IA a terceros, las
empresas estรกn introduciendo un elemento externo en sus operaciones, lo que puede
aumentar la complejidad y la interconexiรณn de sus sistemas. Esto puede hacer que la
empresa sea mรกs vulnerable a fallas o interrupciones en la infraestructura de inteligencia
artificial de terceros, lo que podrรญa provocar interrupciones operativas o comprometer la
seguridad de los datos.
Pรกg. 73
Existen riesgos adicionales que deben considerarse al subcontratar tรฉcnicas de IA
a terceros. Estos riesgos se pueden clasificar en dos รกreas principales: dinรกmica
competitiva y vulnerabilidades sistรฉmicas. Esencialmente, la subcontrataciรณn de tรฉcnicas
de IA a terceros presenta riesgos adicionales mรกs allรก de los beneficios iniciales. Estos
riesgos incluyen riesgos de concentraciรณn, donde las empresas se vuelven demasiado
dependientes de un รบnico proveedor, y vulnerabilidades sistรฉmicas que surgen de un
mayor riesgo de convergencia. Es esencial que las empresas evalรบen y mitiguen
cuidadosamente estos riesgos para garantizar la implementaciรณn y el funcionamiento
exitosos de las tรฉcnicas de IA subcontratadas.
Los posibles riesgos de concentraciรณn asociados con proveedores externos
especรญficos pueden aumentar cuando se trata de la recopilaciรณn y gestiรณn de datos, como
proveedores de conjuntos de datos, o en el รกmbito del suministro de tecnologรญa, como
proveedores de modelos externos, e infraestructura, como como proveedores de nube. A
medida que los modelos y tรฉcnicas de inteligencia artificial (IA) se vuelven mรกs fรกcilmente
disponibles a travรฉs de la adopciรณn de la nube, existe un mayor riesgo de depender de
proveedores de soluciones subcontratados, lo que genera nuevos desafรญos en tรฉrminos de
dinรกmica competitiva y la posible formaciรณn de estructuras de mercado oligopรณlicas
dentro de estos servicios.
Por lo tanto, la utilizaciรณn de modelos de terceros tiene el potencial de crear riesgos
de convergencia tanto a nivel de empresas individuales como a nivel sistรฉmico mรกs
amplio. Este riesgo aumenta particularmente cuando hay una falta de diversidad entre
los modelos de terceros en el mercado. En tiempos de tensiรณn financiera, como los de baja
liquidez, este riesgo de convergencia puede dar lugar a la formaciรณn de manadas y casos
de iliquidez, lo que puede ser perjudicial para la estabilidad general del mercado.
Igualmente, la disminuciรณn de la capacidad de almacenamiento de los creadores de
Pรกg. 74
mercado tradicionales agrava aรบn mรกs este problema, ya que no pueden proporcionar
suficiente liquidez en momentos de tensiรณn en el mercado mediante la creaciรณn activa de
mercado. Las entidades mรกs pequeรฑas son particularmente vulnerables al impacto de los
rebaรฑos, ya que a menudo dependen de terceros para manejar el desarrollo y la gestiรณn
de modelos de aprendizaje automรกtico debido a la falta de experiencia interna en esta
รกrea.
La subcontrataciรณn de tรฉcnicas de inteligencia artificial o de las tecnologรญas e
infraestructura que las habilitan presenta desafรญos en tรฉrminos de responsabilidad y
riesgos de concentraciรณn. Para gestionar eficazmente estos riesgos, es fundamental
establecer acuerdos de gobernanza y modalidades contractuales adecuados, similares a
los utilizados en otros sectores de servicios. Los proveedores de financiaciรณn deben
poseer las habilidades necesarias para auditar y realizar la debida diligencia sobre los
servicios ofrecidos por entidades de terceros. Sin embargo, una dependencia excesiva de
la subcontrataciรณn puede aumentar la probabilidad de interrupciones en los servicios, lo
que podrรญa tener importantes impactos sistรฉmicos en los mercados. Por lo tanto, es
imperativo contar con planes de contingencia y seguridad que garanticen que la empresa
pueda operar sin problemas incluso si surge alguna vulnerabilidad.
Consideraciones reglamentarias
Si bien un nรบmero significativo de paรญses ha establecido estrategias integrales de
IA, vale la pena seรฑalar que solo unas pocas jurisdicciones han implementado
regulaciones y requisitos especรญficos relacionados especรญficamente con algoritmos y RNA
basadas en IA. En la mayorรญa de los casos, la supervisiรณn y el control de las aplicaciones
de aprendizaje automรกtico se rigen por directrices generales para sistemas y controles.
Estas directrices suelen hacer hincapiรฉ en el examen y la evaluaciรณn meticulosos de los
Pรกg. 75
algoritmos antes de su introducciรณn en el mercado, asรญ como en la evaluaciรณn continua
de su eficacia y funcionalidad a lo largo de su vida operativa.
Muchas jurisdicciones adoptan un enfoque tecnolรณgicamente neutral cuando se
trata de regular los productos del mercado financiero, lo que incluye la supervisiรณn de la
gestiรณn de riesgos, la gobernanza y el uso de algoritmos. Sin embargo, este enfoque puede
enfrentar desafรญos a medida que el uso innovador de la tecnologรญa en las finanzas se
vuelve mรกs complejo. Con los avances en inteligencia artificial, particularmente en รกreas
como el aprendizaje profundo, es posible que los marcos regulatorios existentes en el
sector financiero no aborden adecuadamente los riesgos sistรฉmicos que podrรญan surgir de
la adopciรณn generalizada de estas tรฉcnicas.
Tambiรฉn, cabe seรฑalar que es posible que determinadas tรฉcnicas avanzadas de IA
no se ajusten a los requisitos legales o reglamentarios vigentes. Este problema surge
debido a la falta de transparencia y explicabilidad de algunos modelos de aprendizaje
automรกtico, asรญ como a la naturaleza en constante evoluciรณn de los modelos de
aprendizaje profundo que se adaptan continuamente. Estos factores pueden
potencialmente crear un conflicto con las regulaciones existentes.
Asimismo, pueden surgir inconsistencias en el รกmbito de la recopilaciรณn y gestiรณn
de datos. Por ejemplo, el Reglamento General de Protecciรณn de Datos (GDPR) de la Uniรณn
Europea impone restricciones al almacenamiento de datos individuales durante un
perรญodo de tiempo limitado. Si bien, las regulaciones relacionadas con la IA podrรญan
requerir que las empresas mantengan un registro completo de los conjuntos de datos
utilizados para entrenar sus algoritmos con fines de auditorรญa. Esto crea un dilema, ya
que los conjuntos de datos utilizados para entrenar estos algoritmos suelen ser
extremadamente grandes, lo que genera desafรญos prรกcticos y costos asociados con el
registro de datos con fines de monitoreo.
Pรกg. 76
Ciertas jurisdicciones, como la Uniรณn Europea (UE), han reconocido la necesidad
de modificar o aclarar las leyes existentes en รกreas especรญficas, como la responsabilidad,
para garantizar la implementaciรณn y el cumplimiento efectivo de estas regulaciones. La
razรณn detrรกs de esta necesidad es la falta de transparencia en los sistemas de IA, lo que
crea desafรญos para identificar y probar posibles violaciones de las leyes. Esto incluye
disposiciones legales que salvaguardan los derechos fundamentales, establecen
responsabilidades y permiten obtener una compensaciรณn. En el futuro previsible, los
reguladores y supervisores pueden considerar necesario modificar las regulaciones y
ajustar sus enfoques de supervisiรณn para adaptarse a las nuevas realidades generadas por
el despliegue de la IA, como una mayor concentraciรณn y subcontrataciรณn.
El panorama regulatorio que rodea a la IA corre el riesgo de fragmentarse en varios
niveles, incluidos el nacional, el internacional y el sectorial. Los participantes de la
industria enfatizan la necesidad de una mayor coherencia en las regulaciones para
garantizar que las tรฉcnicas de IA puedan utilizarse de manera efectiva a travรฉs de las
fronteras. Ademรกs de las regulaciones existentes para modelos y sistemas de IA, en los
รบltimos aรฑos se han publicado numerosos principios, directrices y mejores prรกcticas. Si
bien estos recursos se consideran valiosos para abordar riesgos potenciales, existen
opiniones divergentes sobre su utilidad prรกctica y los desafรญos de traducirlos en una guรญa
efectiva con ejemplos de la vida real.
La disponibilidad y simplicidad de las herramientas de inteligencia artificial
estandarizadas tienen el potencial de incentivar a entidades no reguladas a ofrecer
asesorรญa de inversiรณn u otros servicios sin obtener la certificaciรณn o licencia necesaria,
operando asรญ de manera no conforme. Este fenรณmeno de arbitraje regulatorio no sรณlo se
observa entre las grandes empresas tecnolรณgicas, sino tambiรฉn dentro de sus operaciones,
Pรกg. 77
donde utilizan conjuntos de datos accesibles a travรฉs de sus principales actividades
comerciales.
Los riesgos laborales
Los proveedores de servicios financieros y los supervisores deben estar
tรฉcnicamente capacitados para operar, inspeccionar los sistemas basados en IA e
intervenir cuando sea necesario. La falta de competencias adecuadas es una fuente
potencial de vulnerabilidades tanto para el sector como para los organismos reguladores
y supervisores, y puede dar lugar a posibles problemas de empleo en el sector financiero.
El despliegue de la IA y los macrodatos en las finanzas requiere diferentes competencias
que posee un segmento relativamente pequeรฑo de profesionales financieros. En
consonancia con las importantes inversiones que deberรกn realizarse para desarrollar
modelos y herramientas basados en IA, las empresas tambiรฉn tendrรกn que desarrollar
capital humano con las habilidades necesarias para obtener valor de estas tecnologรญas y
explotar el valor de grandes cantidades de fuentes de datos no estructurados.
Desde el punto de vista de la industria, el despliegue de las RNA implica el uso de
profesionales que combinen conocimientos cientรญficos en el รกrea de la IA, conocimientos
informรกticos (programaciรณn, codificaciรณn) y experiencia en el sector financiero. Mientras
que los actuales participantes en los mercados financieros han aislado de alguna manera
las funciones de los especialistas en TI o finanzas, el uso generalizado de la IA por parte
de las instituciones financieras dependerรก cada vez mรกs de expertos que combinen con
รฉxito los conocimientos financieros con la experiencia en informรกtica, y generarรก una
mayor demanda de los mismos. Es importante que los profesionales del cumplimiento y
los gestores de riesgos comprendan adecuadamente el funcionamiento de las tรฉcnicas y
modelos de IA para poder auditar, supervisar, cuestionar y aprobar su uso. Del mismo
Pรกg. 78
modo, los altos directivos, que en la mayorรญa de los casos son responsables del uso de
estas tรฉcnicas, deben ser capaces de comprender y seguir su desarrollo y aplicaciรณn.
La adopciรณn generalizada de la IA y el ML por parte del sector financiero puede
plantear algunos retos en materia de empleo. Por un lado, se espera que la demanda de
empleados con conocimientos aplicables en mรฉtodos de IA, matemรกticas avanzadas,
ingenierรญa de software y ciencia de datos sea significativa. Por otro lado, los ejecutivos de
las empresas de servicios financieros prevรฉn que la aplicaciรณn de estas tecnologรญas puede
dar lugar a pรฉrdidas de empleo potencialmente significativas en todo el sector. En la
prรกctica, se espera que los profesionales de los mercados financieros y los expertos en
gestiรณn de riesgos adquieran experiencia y conocimientos en IA a medio plazo, ya que
los modelos de IA coexistirรกn con los modelos tradicionales y hasta el momento en que
la IA se generalice.
La dependencia excesiva de sistemas totalmente automatizados basados en la IA
puede dar lugar a un mayor riesgo de interrupciรณn del servicio con posibles
repercusiones sistรฉmicas en los mercados. Si los mercados que dependen de tales
sistemas se enfrentan a perturbaciones tรฉcnicas o de otro tipo, los proveedores de
servicios financieros deben asegurarse de que, desde el punto de vista de los recursos
humanos, estรกn preparados para sustituir los sistemas automatizados de IA por seres
humanos bien formados que actรบen como red de seguridad humana y sean capaces de
garantizar que no se produzcan perturbaciones en los mercados. Es probable que estas
consideraciones sean cada vez mรกs importantes, a medida que el despliegue de la IA se
generalice en los mercados.
La cuestiรณn de las cualificaciones y los conocimientos tรฉcnicos es cada vez mรกs
importante tambiรฉn desde el punto de vista de la regulaciรณn y la supervisiรณn. Los
reguladores y supervisores del sector financiero pueden tener que seguir el ritmo de la
Pรกg. 79
tecnologรญa y mejorar las competencias necesarias para supervisar eficazmente las
aplicaciones financieras basadas en la IA. Es posible que las autoridades encargadas de
velar por el cumplimiento de la normativa deban estar tรฉcnicamente capacitadas para
inspeccionar los sistemas basados en IA y facultadas para intervenir cuando sea
necesario. La capacitaciรณn de los responsables polรญticos tambiรฉn les permitirรก ampliar su
propio uso de la IA en RegTech y SupTech, un importante รกmbito de aplicaciรณn de la
innovaciรณn en el sector oficial.
El uso de RNA en las finanzas debe considerarse una tecnologรญa que aumenta las
capacidades humanas en lugar de sustituirlas. Se podrรญa argumentar que una
combinaciรณn de "hombre y mรกquina", en la que la IA informe al juicio humano en lugar
de sustituirlo (ayuda a la toma de decisiones en lugar de responsable de la toma de
decisiones), podrรญa permitir aprovechar los beneficios de la tecnologรญa, manteniendo al
mismo tiempo las salvaguardias de responsabilidad y control en cuanto a la toma de
decisiones en รบltima instancia. En el estado actual de madurez de las soluciones de IA, y
para garantizar que se minimizan las vulnerabilidades y los riesgos derivados del uso de
tรฉcnicas basadas en la IA, sigue siendo necesario cierto nivel de supervisiรณn humana de
las tรฉcnicas de IA. La identificaciรณn de puntos de convergencia en los que se integren el
ser humano y la IA serรก fundamental para la aplicaciรณn prรกctica de este enfoque
combinado โ€œhombre-mรกquinaโ€.
Implicaciones polรญticas
La actividad polรญtica en torno a las RNA en las finanzas
Con el poder de revolucionar diversas industrias y la apariciรณn de nuevos riesgos
asociados con la implementaciรณn de las redes neuronales y su efecto potenciador sobre la
Pรกg. 80
inteligencia artificial (IA), รฉsto se ha convertido en un foco cada vez mรกs importante en
los debates polรญticos. En mayo de 2019, la Organizaciรณn para la Cooperaciรณn y el
Desarrollo Econรณmicos (OCDE) presentรณ sus Principios de IA, que marcan el primer
conjunto de directrices aceptadas a nivel mundial para el uso responsable y รฉtico de la
IA. Estos principios fueron formulados por un grupo diverso de expertos de diversos
sectores, lo que garantiza un enfoque integral para la implementaciรณn responsable de una
IA confiable. La amplitud de los temas cubiertos por los Principios de IA de la OCDE y
su conexiรณn directa con el fomento del crecimiento sostenible e inclusivo los hacen
particularmente relevantes al considerar su aplicaciรณn en el รกmbito de las finanzas
globales.
La Recomendaciรณn sobre IA fue adoptada oficialmente por el Consejo de la OCDE
durante una reuniรณn a nivel ministerial celebrada los dรญas 22 y 23 de mayo de 2019. Este
importante hito significa el compromiso de la OCDE para abordar los desafรญos y
oportunidades asociados con las tecnologรญas de inteligencia artificial (IA). Los Principios
de IA de la OCDE, que constituyen el nรบcleo de esta recomendaciรณn, enfatizan el papel
crucial de los gobiernos en la configuraciรณn de un enfoque centrado en el ser humano
para una IA confiable.
Al promover el uso de sistemas de IA innovadores y confiables, estos principios
tienen como objetivo garantizar la protecciรณn de los derechos humanos y la preservaciรณn
de los valores democrรกticos. Este marco integral sirve como guรญa para los formuladores
de polรญticas y las partes interesadas, y ofrece una hoja de ruta para el desarrollo y la
implementaciรณn responsables de tecnologรญas de IA en todo el mundo.
La Recomendaciรณn presenta un conjunto de cinco principios interrelacionados
arraigados en valores รฉticos que deberรญan guiar la gestiรณn responsable de una IA
confiable. Estos principios enfatizan la importancia de la contribuciรณn de la IA a la
Pรกg. 81
promociรณn del crecimiento inclusivo, el desarrollo sostenible y el bienestar general tanto
de las personas como del medio ambiente.
โ€ข Los sistemas de inteligencia artificial deben crearse teniendo muy en cuenta los
principios del estado de derecho, los derechos humanos, los valores democrรกticos
y la diversidad. Es esencial que estos sistemas incorporen salvaguardias
adecuadas, como disposiciones para la intervenciรณn humana cuando se considere
necesaria, a fin de promover una sociedad justa y garantizar la justicia y la
igualdad para todos.
โ€ข Para garantizar la comprensiรณn y la rendiciรณn de cuentas de los sistemas de IA, es
imperativo contar con prรกcticas de transparencia y divulgaciรณn responsable. Esto
permite a las personas comprender los resultados generados por la IA y les brinda
la oportunidad de cuestionar o impugnar estos resultados.
โ€ข Los sistemas de IA deben funcionar de manera confiable y segura en todo
momento durante su existencia, y cualquier peligro potencial debe evaluarse y
controlarse constantemente.
โ€ข Las organizaciones y personas que desarrollen, implementen o utilicen sistemas
de inteligencia artificial deben ser responsables de su correcto funcionamiento de
acuerdo con los principios anteriores.
La OCDE tambiรฉn ofrece cinco recomendaciones a los gobiernos:
โ€ข Para fomentar el avance de una IA confiable, es importante promover y apoyar
inversiones pรบblicas y privadas en investigaciรณn y desarrollo, lo que a su vez
fomentarรก la innovaciรณn en este campo.
Pรกg. 82
โ€ข Promover el desarrollo de ecosistemas de IA abiertos e inclusivos que estรฉn
respaldados por infraestructuras digitales avanzadas, tecnologรญas y mecanismos
eficientes para el intercambio de datos y conocimientos.
โ€ข Crear un entorno polรญtico propicio que promueva la implementaciรณn de sistemas
de IA confiables y confiables.
โ€ข Una forma de crear un impacto significativo es brindar a las personas las
habilidades necesarias en IA y ofrecer apoyo a los trabajadores durante el proceso
de transiciรณn hacia un futuro mรกs equitativo.
โ€ข Para promover la gestiรณn responsable de una IA confiable, es esencial que
diferentes paรญses e industrias trabajen juntos y colaboren. Al trascender fronteras
y sectores, podemos esforzarnos colectivamente por lograr prรกcticas de IA รฉticas y
confiables.
En el aรฑo 2020, la Comisiรณn Europea publicรณ un Libro Blanco que presentaba
varias estrategias y regulaciones para establecer un "ecosistema de IA para la excelencia
y la confianza". Esta propuesta no solo describe medidas especรญficas para apoyar el
desarrollo y la adopciรณn de la IA en la economรญa y la administraciรณn pรบblica de la UE,
sino que tambiรฉn ofrece opciones potenciales para un futuro marco regulatorio para la
IA.
Asimismo, el Libro Blanco examina consideraciones importantes como la
seguridad y la responsabilidad en el campo de la IA. La Comisiรณn Europea tambiรฉn estรก
tomando medidas prรกcticas para implementar estas ideas, incluidas iniciativas como los
proyectos piloto del consorcio Infinitech, financiado por la CE. Estos proyectos tienen
como objetivo reducir los obstรกculos a la innovaciรณn impulsada por la IA, mejorar el
cumplimiento normativo y fomentar las inversiones en el sector.
Pรกg. 83
El proyecto Infinitech es una empresa ambiciosa encabezada por un consorcio
colaborativo formado por 48 participantes procedentes de 16 paรญses miembros de la
Uniรณn Europea. Esta innovadora iniciativa ha recibido una financiaciรณn sustancial del
prestigioso Programa de Investigaciรณn e Innovaciรณn Horizonte 2020 de la Comisiรณn
Europea. El objetivo principal del proyecto Infinitech gira en torno a la realizaciรณn de una
amplia gama de experimentos y pruebas que abarcan mรกs de 20 proyectos piloto e
instituciones financieras. Estas pruebas profundizan especรญficamente en el รกmbito de las
finanzas digitales, aprovechando el poder transformador de tecnologรญas de vanguardia
como la inteligencia artificial, el big data y el Internet de las cosas (IoT).
Infinitech ofrece una amplia gama de productos y servicios innovadores
impulsados por inteligencia artificial. Estos incluyen una variedad de aplicaciones como
Conozca a su cliente (KYC), anรกlisis de clientes, gestiรณn de cartera personalizada,
evaluaciรณn de riesgo crediticio, prevenciรณn de fraude y delitos financieros, servicios de
seguros y herramientas RegTech. Estas herramientas estรกn diseรฑadas especรญficamente
para incorporar capacidades de gobernanza de datos y garantizar el cumplimiento de
regulaciones como PSD2, 4AMLD y MIFiD II. Al aprovechar la tecnologรญa avanzada de
inteligencia artificial, Infinitech puede brindar soluciones de vanguardia que mejoran las
experiencias de los clientes, mejoran los procesos de evaluaciรณn de riesgos, previenen
actividades fraudulentas y agilizan el cumplimiento normativo para las empresas de los
sectores financiero y de seguros.
โ€ข Infinitech ha llevado a cabo numerosos proyectos piloto que sirven como ejemplos
brillantes de su enfoque innovador y compromiso para superar los lรญmites en el
campo.
โ€ข Se ha desarrollado una plataforma avanzada y automatizada para evaluar el riesgo
crediticio de las pequeรฑas y medianas empresas (PYME). Esta plataforma utiliza
Pรกg. 84
big data, inteligencia artificial (IA) y tecnologรญa Blockchain para proporcionar
calificaciones de riesgo crediticio precisas para las pymes.
โ€ข La evaluaciรณn de riesgos en tiempo real en el campo de la banca de inversiรณn
implica la implementaciรณn de un sistema de seguimiento y evaluaciรณn de riesgos
en tiempo real que se centra en dos mรฉtricas de riesgo de uso comรบn, a saber, VaR
(valor en riesgo) y ES (dรฉficit esperado). Este procedimiento permite una
evaluaciรณn integral de los riesgos potenciales, proporcionando informaciรณn
valiosa sobre las pรฉrdidas potenciales que una instituciรณn puede enfrentar. Al
monitorear y analizar continuamente estas mรฉtricas de riesgo, los bancos de
inversiรณn pueden identificar y mitigar de manera proactiva los riesgos potenciales,
salvaguardando asรญ su estabilidad financiera y optimizando sus estrategias de
inversiรณn.
โ€ข El anรกlisis de datos colaborativo centrado en el cliente es cada vez mรกs importante
en la industria de servicios financieros. Una tendencia emergente en esta รกrea es el
uso de herramientas de soporte basadas en inteligencia artificial (IA) para mejorar
los nuevos servicios al cliente. Estas herramientas se basan en un sistema
sofisticado que facilita el intercambio de datos, incorpora un sistema de
calificaciรณn crediticia y emplea medidas contra el lavado de dinero (AML) basadas
en tecnologรญas semรกnticas. Ademรกs, este sistema utiliza tecnologรญa de contabilidad
distribuida (DLT) para permitir un intercambio de datos seguro y eficiente. Al
aprovechar estas tecnologรญas avanzadas, los proveedores de servicios financieros
pueden mejorar su capacidad para analizar los datos de los clientes, ofrecer
servicios personalizados y garantizar el cumplimiento normativo.
โ€ข Construcciรณn de cartera impulsada por IA para la gestiรณn patrimonial, adaptada a
las necesidades individuales, independientemente del tamaรฑo de la cartera.
Pรกg. 85
โ€ข El objetivo principal de la plataforma de supervisiรณn contra el lavado de dinero es
mejorar la eficiencia de las prรกcticas de supervisiรณn actuales, como informes de
anรกlisis, evaluaciรณn de riesgos y herramientas de detecciรณn, mediante la utilizaciรณn
de tรฉcnicas de procesamiento de Big Data. Al aprovechar el poder de Big Data, la
plataforma tiene como objetivo optimizar la eficacia general de los esfuerzos
contra el lavado de dinero.
โ€ข Se realizan anรกlisis de ciberseguridad en tiempo real sobre una gran cantidad de
datos de transacciones financieras, centrรกndose especรญficamente en las
transacciones de banca mรณvil. Este anรกlisis incorpora modelos de aprendizaje
automรกtico y emplea tรฉcnicas de anรกlisis avanzadas para manejar de manera
efectiva la afluencia masiva de datos. Al hacerlo, permite la pronta identificaciรณn
y respuesta a cualquier actividad anormal con las contramedidas adecuadas.
En el aรฑo 2019, la junta directiva de IOSCO (Organizaciรณn Internacional de
Comisiรณn de valores) puso especial รฉnfasis en el tema de la inteligencia artificial (IA) y su
posible conexiรณn con el lavado de dinero. Este reconocimiento de la importancia de la IA
continuรณ durante el aรฑo siguiente, ya que en 2020, IOSCO publicรณ un informe de consulta
que aborda especรญficamente la utilizaciรณn de la IA por parte de intermediarios del
mercado y administradores de activos. La intenciรณn detrรกs de este informe era presentar
seis medidas distintas que podrรญan ayudar a los miembros de IOSCO a establecer
estructuras regulatorias adecuadas para supervisar de manera efectiva a estos
intermediarios que operan dentro del mercado, asรญ como a los administradores de activos
que emplean estas tecnologรญas avanzadas.
Estos aspectos incluyen:
Pรกg. 86
โ€ข Establecimiento de estructuras de gobernanza, controles y marcos de supervisiรณn
adecuados para gobernar el desarrollo, las pruebas, el uso y el seguimiento de los
sistemas de inteligencia artificial y aprendizaje automรกtico (ML).
โ€ข La consulta enfatiza la importancia de equipar al personal con conocimientos,
habilidades y experiencia adecuados para implementar, monitorear y desafiar de
manera efectiva los resultados de la IA y el ML.
โ€ข Para mejorar la solidez general y la coherencia de los sistemas de IA y ML, IOSCO
enfatiza la necesidad de que las empresas adopten procesos claros y bien definidos
para el desarrollo y las pruebas, que les permitan identificar y abordar problemas
potenciales antes del despliegue completo de la IA y el ML.
โ€ข Por รบltimo, la consulta subraya la importancia de la transparencia y la divulgaciรณn,
destacando la necesidad de que las empresas proporcionen informaciรณn suficiente
a los inversores, reguladores y otras partes interesadas relevantes sobre el uso de
tecnologรญas de IA y ML en sus operaciones.
Los esfuerzos para abordar las implicaciones de la IA en el sector financiero se han
extendido al nivel nacional. Por ejemplo, la ACPR francesa estableciรณ un grupo de trabajo
colaborativo en 2018 que reรบne a profesionales de diversas entidades financieras,
incluidas asociaciones empresariales, bancos, aseguradoras y FinTech, junto con
autoridades pรบblicas. El objetivo principal de este grupo es facilitar los debates sobre las
aplicaciones actuales y potenciales de la IA en el sector, identificando tanto las
oportunidades como los riesgos asociados a su implementaciรณn.
Asimismo, esta iniciativa tiene como objetivo abordar los desafรญos que enfrentan
los supervisores al supervisar la adopciรณn de la IA en la industria financiera. De manera
similar, en 2019, el Banco de Inglaterra y la Autoridad de Conducta Financiera lanzaron
Pรกg. 87
conjuntamente el Foro Pรบblico Privado sobre IA, que sirve como plataforma para
involucrar a las partes interesadas y fomentar el diรกlogo sobre las implicaciones de la IA
en el รกmbito financiero (consulte el Recuadro 4.4 para obtener mรกs detalles).
Igualmente, la Federaciรณn de Rusia ha dado pasos importantes en el desarrollo y
regulaciรณn de la IA. En 2019, promulgaron una Estrategia Nacional dedicada
especรญficamente al avance de la IA, seguida de la introducciรณn de un Concepto para
regular las tecnologรญas de IA y la robรณtica en 2020. Ademรกs, en 2021, el gobierno ruso
aprobรณ la Ley Federal sobre Regรญmenes Experimentales de Innovaciรณn Digital, otorgando
al Banco de Rusia la autoridad para aprobar entornos de pruebas regulatorios que
atiendan proyectos que involucren soluciones de inteligencia artificial en finanzas. Esta
medida legislativa se complementรณ con el lanzamiento de un entorno de pruebas
regulatorio de cinco aรฑos en Moscรบ en julio de 2020, en virtud de una Ley Federal
especial, diseรฑada especรญficamente para facilitar la implementaciรณn de la IA en el sector
financiero.
En los รบltimos tiempos, diversos organismos normativos y reguladores, como el
Contralor de la Moneda, el Sistema de la Reserva Federal, la Corporaciรณn Federal de
Seguro de Depรณsitos, la Oficina de Protecciรณn Financiera del Consumidor y las
Cooperativas de Crรฉdito de la Administraciรณn Nacional de Seguros, han adoptado
medidas importantes para abordar el problema de uso de la inteligencia artificial (IA) por
parte de las instituciones financieras. Esto se puede ver en su iniciativa conjunta, que
comenzรณ el 31 de marzo de 2021, en la que solicitaron informaciรณn y comentarios sobre
la utilizaciรณn de la IA, incluido el aprendizaje automรกtico, en el sector financiero.
El objetivo de esta consulta es evaluar exhaustivamente las ventajas y riesgos
potenciales asociados con la implementaciรณn de la IA en las finanzas. Algunas de las
preocupaciones clave destacadas en la consulta incluyen la necesidad de explicabilidad
Pรกg. 88
en los sistemas de inteligencia artificial, garantizar el uso adecuado de los datos y la
actualizaciรณn dinรกmica, y abordar posibles problemas relacionados con las prรกcticas
crediticias intensivas. Ademรกs, la consulta busca opiniones sobre cรณmo abordar el riesgo
de sobreadaptaciรณn, mitigar los riesgos de ciberseguridad, considerar prรกcticas
crediticias justas, implementar una supervisiรณn efectiva de terceros y explorar otras
consideraciones relevantes.
El 21 de abril de 2021, la Comisiรณn Europea publicรณ una propuesta de reglamento
que tiene como objetivo abordar los riesgos potenciales asociados con la inteligencia
artificial (IA) y establecer reglas consistentes para su uso en todos los sectores. Como
parte de esta propuesta, se sugiere la creaciรณn del Consejo Europeo de IA. Si bien la
propuesta tiene un alcance amplio, impone los requisitos mรกs estrictos a las aplicaciones
de IA de alto riesgo, como la evaluaciรณn de la solvencia.
Estos requisitos incluyen el uso de sistemas integrales de gestiรณn de riesgos y
calidad, someter el sistema de IA a una evaluaciรณn de conformidad y utilizar datos de
alta calidad que sean precisos, representativos y completos. Asรญ, la propuesta enfatiza la
necesidad de transparencia en el uso y funcionamiento de aplicaciones basadas en IA, el
requisito de supervisiรณn humana por parte de personas debidamente capacitadas y la
implementaciรณn de salvaguardias como interruptores de apagado o confirmaciรณn
humana explรญcita de la toma de decisiones. Tambiรฉn enfatiza la importancia de garantizar
la precisiรณn, solidez y seguridad de los sistemas de inteligencia artificial, realizar un
seguimiento posterior a la comercializaciรณn, informar incidentes importantes a los
reguladores y registrar el sistema en un registro pรบblico.
Consideraciones polรญticas
Pรกg. 89
La creciente utilizaciรณn de la inteligencia artificial (IA) en el campo de los servicios
financieros tiene el potencial de ofrecer ventajas sustanciales tanto a los consumidores
financieros como a los participantes del mercado. No sรณlo puede mejorar la calidad
general de los servicios prestados, sino que tambiรฉn puede generar eficiencias para los
proveedores de servicios financieros. Si bien, es fundamental reconocer que la integraciรณn
de aplicaciones basadas en IA en la industria financiera tambiรฉn puede introducir nuevos
desafรญos, como la falta de transparencia y explicabilidad en los procesos de toma de
decisiones. Igualmente, existe la posibilidad de que los riesgos existentes en los mercados
financieros, como los asociados con la gestiรณn y el uso de datos, se magnifiquen aรบn mรกs
con la adopciรณn de la tecnologรญa de inteligencia artificial.
Es crucial que los formuladores de polรญticas y los reguladores prioricen la
alineaciรณn de la implementaciรณn de la IA en el sector financiero con los objetivos de
mejorar la estabilidad financiera, salvaguardar los intereses de los consumidores
financieros y fomentar la integridad y la competencia del mercado. Para lograr esto, es
imperativo identificar y mitigar activamente cualquier riesgo potencial que pueda surgir
del uso de tรฉcnicas de IA, al mismo tiempo que se fomenta y apoya el uso responsable de
la IA. Esto puede implicar revisar y perfeccionar los marcos regulatorios y de supervisiรณn
existentes para abordar cualquier inconsistencia o desafรญo percibido que plantee la
integraciรณn de las tecnologรญas de inteligencia artificial en la industria financiera.
La aplicaciรณn de medidas regulatorias y de supervisiรณn a las tรฉcnicas de IA se
puede abordar de manera que tenga en cuenta el contexto especรญfico y la magnitud de la
aplicaciรณn, asรญ como las posibles consecuencias para las personas que utilizan la IA. Al
adoptar un marco proporcional, el objetivo es promover la utilizaciรณn de la tecnologรญa de
IA evitando al mismo tiempo cualquier obstรกculo indebido a la innovaciรณn.
Pรกg. 90
Es fundamental que los responsables de la formulaciรณn de polรญticas presten
especial atenciรณn a la mejora de la gobernanza de datos dentro de las empresas del sector
financiero para mejorar la protecciรณn del consumidor en todos los aspectos de la
implementaciรณn de la IA en las finanzas. Esta nota destaca varios riesgos importantes
asociados con la gestiรณn de datos, incluidas las preocupaciones sobre la privacidad de los
datos, la confidencialidad, la concentraciรณn de datos y el impacto potencial en la dinรกmica
de competencia del mercado.
Asimismo, existe el riesgo de sesgo y discriminaciรณn involuntarios como resultado
de las caracterรญsticas y tendencias de los datos. No se puede cuestionar la importancia de
los datos, especialmente en relaciรณn con el entrenamiento, las pruebas y la validaciรณn de
modelos de aprendizaje automรกtico. Ademรกs, los datos desempeรฑan un papel
fundamental a la hora de determinar la capacidad de estos modelos para mantener su
precisiรณn predictiva durante acontecimientos extremos e imprevistos.
Un posible enfoque que podrรญan adoptar los responsables de la formulaciรณn de
polรญticas es implementar directrices o estรกndares especรญficos para la gestiรณn de datos en
tรฉcnicas basadas en IA. Estas directrices podrรญan abarcar varios aspectos, como la calidad
de los datos, garantizar que el conjunto de datos utilizado se alinee con el propรณsito
previsto del modelo de IA e implementar salvaguardas para garantizar que el modelo sea
sรณlido y estรฉ libre de sesgos.
Para mitigar los riesgos de discriminaciรณn, serรญa beneficioso emplear mejores
prรกcticas, como comparar los resultados del modelo con conjuntos de datos establecidos
y realizar pruebas para determinar si las caracterรญsticas protegidas pueden inferirse de
otros atributos de los datos. Otra forma de minimizar el sesgo es validar la idoneidad de
las variables utilizadas en el modelo. Tambiรฉn podrรญa ser beneficioso desarrollar y utilizar
herramientas para monitorear y corregir cualquier desviaciรณn conceptual. Ademรกs, es
Pรกg. 91
posible que los formuladores de polรญticas quieran considerar imponer requisitos de
transparencia adicionales sobre el uso de datos personales y brindar a las personas la
opciรณn de optar por no utilizar sus datos personales.
Los formuladores de polรญticas deberรญan considerar implementar regulaciones que
exijan a los proveedores de servicios financieros revelar su uso de tรฉcnicas de inteligencia
artificial y cรณmo esto puede afectar a los clientes. Es crucial que los consumidores
financieros estรฉn completamente informados sobre el uso de la IA en los productos que
compran, asรญ como sobre la posibilidad de interactuar con un sistema de IA en lugar de
un representante humano. Esta transparencia permite a los consumidores tomar
decisiones informadas al elegir entre diferentes productos.
Igualmente, la informaciรณn divulgada debe proporcionar detalles claros sobre las
capacidades y limitaciones del sistema de IA. Para mejorar aรบn mรกs la protecciรณn del
consumidor, las autoridades tambiรฉn podrรญan introducir requisitos de idoneidad para los
servicios financieros basados en IA, similares a las regulaciones actualmente vigentes
para la venta de productos de inversiรณn. Estos requisitos garantizarรญan que los
proveedores de servicios financieros puedan evaluar con precisiรณn si los clientes
potenciales tienen una comprensiรณn suficiente de cรณmo el uso de la IA afecta la entrega
del producto.
La limitada transparencia y capacidad de explicaciรณn de muchos modelos
avanzados de inteligencia artificial basados en inteligencia artificial es una cuestiรณn
polรญtica clave que aรบn debe resolverse. La falta de explicabilidad es incompatible con las
leyes y reglamentos vigentes, pero tambiรฉn con los marcos internos de gobernanza,
gestiรณn de riesgos y control de los proveedores de servicios financieros. Limita la
capacidad de los usuarios para comprender cรณmo sus modelos afectan a los mercados o
contribuye a las perturbaciones del mercado. Puede amplificar los riesgos sistรฉmicos
Pรกg. 92
relacionados con la prociclicidad, la convergencia y el aumento de la volatilidad del
mercado a travรฉs de compras y ventas simultรกneas de grandes cantidades, en particular
cuando se utilizan modelos normalizados de terceros. Y lo que es mรกs importante, la
incapacidad de los usuarios para ajustar sus estrategias en momentos de tensiรณn puede
exacerbar la volatilidad del mercado y provocar episodios de iliquidez durante periodos
de tensiรณn aguda, agravando los acontecimientos de tipo flash crash.
Los reguladores deben estudiar cรณmo superar la incompatibilidad percibida de la
falta de explicabilidad en la IA con las leyes y reglamentos vigentes. Puede ser necesario
actualizar y/o ajustar los marcos actualmente aplicables para la gobernanza de los
modelos y la gestiรณn del riesgo por parte de las empresas de servicios financieros a fin de
abordar los retos que plantea el uso de modelos basados en IA. Es posible que la atenciรณn
de los supervisores deba desplazarse desde la documentaciรณn del proceso de desarrollo
y el proceso por el que el modelo llega a su predicciรณn hacia el comportamiento y los
resultados del modelo, y que los supervisores deseen buscar formas mรกs tรฉcnicas de
gestionar el riesgo, como las pruebas de estrรฉs de modelos adversariales o las mรฉtricas
basadas en resultados.
A pesar de los recientes avances para mejorar la explicabilidad de la IA desde
niveles bajos, la explicabilidad sigue siendo el nรบcleo de la falta de confianza percibida
de usuarios y supervisores en torno a las aplicaciones de IA. Aunque los debates actuales
tienden a centrarse en la mejora de la explicabilidad como รบnico mecanismo para
promover la confianza, puede ser necesario introducir otros controles y equilibrios para
garantizar que la toma de decisiones basada en modelos de inteligencia artificial funciona
segรบn lo previsto.
Los responsables polรญticos podrรญan considerar la posibilidad de exigir marcos
claros de gobernanza de los modelos y la atribuciรณn de la responsabilidad al ser humano
Pรกg. 93
para ayudar a generar confianza en los sistemas basados en IA. Es posible que los
proveedores de servicios financieros deban establecer marcos de gobernanza explรญcitos
que designen lรญneas claras de responsabilidad para el desarrollo y la supervisiรณn de los
sistemas basados en IA a lo largo de su ciclo de vida, desde el desarrollo hasta la
implantaciรณn, con el fin de reforzar los acuerdos existentes para las operaciones
relacionadas con la IA.
Puede ser necesario ajustar los marcos de gobernanza de los modelos internos para
captar mejor los riesgos derivados del uso de la IA, asรญ como para incorporar los
resultados previstos para los consumidores junto con una evaluaciรณn de si se alcanzan
dichos resultados utilizando tecnologรญas de IA y de quรฉ manera. La documentaciรณn
adecuada y las pistas de auditorรญa de los procesos mencionados pueden ayudar a los
supervisores a vigilar esta actividad.
La provisiรณn de mayores garantรญas por parte de las empresas financieras sobre la
solidez y resistencia de los modelos de IA es fundamental, ya que los responsables
polรญticos tratan de protegerse contra la acumulaciรณn de riesgos sistรฉmicos, y ayudarรก a
que las aplicaciones de IA en las finanzas ganen confianza. Puede ser necesario probar el
rendimiento de los modelos en condiciones de mercado extremas, para prevenir los
riesgos sistรฉmicos y las vulnerabilidades que puedan surgir en momentos de tensiรณn.
La introducciรณn de mecanismos de control automรกtico (como interruptores de
desactivaciรณn) que activen alertas o desactiven modelos en momentos de tensiรณn podrรญa
ayudar a mitigar los riesgos, aunque exponen a la empresa a nuevos riesgos operativos.
Deben existir planes, modelos y procesos de respaldo para garantizar la continuidad de
la actividad en caso de que los modelos fallen o actรบen de forma inesperada. Asimismo,
los reguladores podrรญan considerar colchones adicionales o mรญnimos si los bancos
Pรกg. 94
tuvieran que determinar las ponderaciones de riesgo o el capital basรกndose en algoritmos
de IA.
Es posible que deban introducirse y/o reforzarse marcos para la formaciรณn
adecuada, el reciclaje y las pruebas rigurosas de los modelos de IA para garantizar que la
toma de decisiones basada en modelos de ML funciona segรบn lo previsto y de
conformidad con las normas y reglamentos aplicables. Los conjuntos de datos utilizados
para el entrenamiento deben ser lo suficientemente amplios como para captar relaciones
no lineales y eventos de cola en los datos, aunque sean sintรฉticos, para mejorar la
fiabilidad de dichos modelos en momentos de crisis imprevistos. Las pruebas continuas
de los modelos de inteligencia artificial son indispensables para identificar y corregir las
desviaciones del modelo.
Los reguladores deberรญan abogar firmemente por el seguimiento y la validaciรณn
continuos de los modelos de IA, ya que estas actividades desempeรฑan un papel crucial
en la mitigaciรณn de riesgos. Al enfatizar la importancia de estas prรกcticas, los reguladores
pueden ayudar a mejorar la resiliencia de los modelos y abordar eficazmente cualquier
desviaciรณn de su desempeรฑo previsto. Desarrollar procedimientos estandarizados para
el seguimiento y la validaciรณn serรญa particularmente beneficioso, ya que establecerรญa
mejores prรกcticas que pueden adoptarse universalmente. Dichos procedimientos tambiรฉn
permitirรญan la identificaciรณn de modelos que requieren ajustes, remodelaciรณn o
reemplazo. Para garantizar la transparencia y la rendiciรณn de cuentas, es esencial separar
la validaciรณn del modelo de su proceso de desarrollo y documentar exhaustivamente toda
la informaciรณn relevante. Ademรกs, la frecuencia de las pruebas y la validaciรณn debe
determinarse en funciรณn de la complejidad del modelo y la importancia de las decisiones
en las que influye.
Pรกg. 95
La importancia de la participaciรณn humana en la toma de decisiones se vuelve
particularmente relevante en situaciones donde decisiones de alto valor, como las
decisiones crediticias, tienen un impacto significativo en los consumidores. Para fomentar
la confianza en estos sistemas, las autoridades reguladoras podrรญan considerar
implementar procesos que permitan a los clientes cuestionar los resultados de los
modelos de IA y buscar soluciones. El Reglamento General de Protecciรณn de Datos
(GDPR) sirve como ejemplo de dicha polรญtica, ya que otorga a las personas el derecho a
solicitar la intervenciรณn humana y expresar sus preocupaciones si desean cuestionar las
decisiones tomadas por algoritmos (UE, 2016). Ademรกs, una comunicaciรณn clara y
transparente por parte de las entidades gubernamentales sobre sus expectativas puede
mejorar aรบn mรกs la confianza en el uso de aplicaciones de IA en el sector financiero.
Los formuladores de polรญticas deben tener en cuenta la creciente complejidad de
la tecnologรญa de inteligencia artificial y considerar si necesitarรกn asignar recursos para
mantenerse al dรญa con los avances. Invertir en investigaciรณn puede ayudar a abordar
cuestiones relacionadas con la comprensiรณn y las consecuencias no deseadas de las
tรฉcnicas de IA. Ademรกs, es importante invertir en habilidades tanto para los participantes
del sector financiero como para los formuladores de polรญticas para que puedan
mantenerse informados sobre los avances tecnolรณgicos y participar en debates
interdisciplinarios en diversos niveles operativos, regulatorios y de supervisiรณn.
Una posible soluciรณn para equilibrar la previsibilidad y explicabilidad del modelo,
asรญ como cumplir con los requisitos legales y regulatorios de transparencia, podrรญa ser
fomentar una colaboraciรณn mรกs estrecha entre los profesionales de TI y los expertos en
finanzas tradicionales. Esto podrรญa implicar cerrar la brecha entre disciplinas como el
aprendizaje profundo y los enfoques simbรณlicos, que involucran reglas creadas por
humanos, para mejorar la explicabilidad de los enfoques basados en IA. Tambiรฉn puede
Pรกg. 96
ser necesario que las autoridades encargadas de hacer cumplir la ley posean capacidades
tรฉcnicas para inspeccionar los sistemas basados en IA y tengan la autoridad para
intervenir cuando sea necesario, al tiempo que se benefician del uso de la IA mediante la
implementaciรณn de aplicaciones RegTech/SupTech.
El papel de los formuladores de polรญticas desempeรฑa un papel crucial no sรณlo para
apoyar la innovaciรณn en el sector, sino tambiรฉn para garantizar la protecciรณn adecuada
de los consumidores y los inversores financieros, asรญ como para mantener mercados
justos, ordenados y transparentes para estos productos y servicios. Es posible que los
formuladores de polรญticas necesiten ajustar y mejorar sus medidas existentes para abordar
de manera efectiva los riesgos asociados con el uso de la IA. Un aspecto importante de
esto es comunicar claramente la adopciรณn de la IA y las salvaguardas implementadas
para proteger el sistema y sus usuarios, lo que puede ayudar a generar confianza y
promover la implementaciรณn de estas tรฉcnicas innovadoras. Dada la fรกcil prestaciรณn
transfronteriza de servicios financieros, es esencial fomentar y mantener un diรกlogo
multidisciplinario entre los responsables de las polรญticas y el sector, tanto a nivel nacional
como internacional.
Pรกg. 97
Conclusiones
Durante las รบltimas dรฉcadas, los mercados financieros han experimentado
cambios significativos gracias al surgimiento de plataformas avanzadas de comunicaciรณn
y negociaciรณn, que han permitido que un mayor nรบmero de inversores accedan a los
mercados, conllevado a una transformaciรณn de la teorรญa tradicional del mercado de
capitales y a una mejora de los mรฉtodos de anรกlisis financiero.
Los investigadores han estado intrigados durante mucho tiempo por la predicciรณn
de los rendimientos de las acciones, que normalmente implica examinar la relaciรณn entre
la informaciรณn fundamental disponible pรบblicamente del pasado y los rendimientos
futuros de las acciones o รญndices. Este enfoque desafรญa la hipรณtesis del mercado eficiente,
que sostiene que toda la informaciรณn relevante se incorpora rรกpidamente a los precios de
las acciones, lo que hace imposible predecir los rendimientos futuros. Si bien, hay pruebas
contradictorias que sugieren que es posible que los mercados no siempre sean
plenamente eficientes, lo que deja espacio para la posibilidad de predecir rendimientos
futuros con resultados mejores que las probabilidades.
Tomando en consideraciรณn las investigaciones realizadas es evidente que existe
evidencia que respalda la previsibilidad de los rendimientos del mercado de valores
utilizando informaciรณn disponible pรบblicamente, como datos de series temporales sobre
variables financieras y econรณmicas. Los estudios destacan la importancia de variables
como las tasas de interรฉs, las tasas de crecimiento monetario, los cambios en la producciรณn
industrial y las tasas de inflaciรณn para predecir una parte de los rendimientos de las
acciones.
Sin embargo, es importante seรฑalar que la mayorรญa de estos estudios se basan en
supuestos de regresiรณn lineal simple, a pesar de la falta de evidencia que respalde una
Pรกg. 98
relaciรณn lineal entre los rendimientos de las acciones y las variables financieras y
econรณmicas. Como existe una cantidad considerable de varianza residual en los
rendimientos reales de las acciones en comparaciรณn con las predicciones hechas por
ecuaciones de regresiรณn, es posible que la utilizaciรณn de modelos no lineales pueda
explicar esta varianza residual y proporcionar pronรณsticos mรกs precisos de los
movimientos del precio de las acciones.
Debido a la prevalencia de supuestos lineales en las tรฉcnicas de modelizaciรณn
actuales, se vuelve esencial considerar un mรฉtodo de anรกlisis financiero que incorpore el
anรกlisis no lineal de los mercados financieros integrados. Aunque se puede realizar una
regresiรณn no lineal, la mayorรญa de estas tรฉcnicas requieren la especificaciรณn de un modelo
no lineal antes de determinar las estimaciones de los parรกmetros. Sin embargo, las redes
neuronales presentan una tรฉcnica de modelado no lineal que puede superar estos
desafรญos.
Las redes neuronales ofrecen un enfoque รบnico que no requiere especificaciรณn
previa durante el proceso de modelado, ya que aprenden de forma autรณnoma la relaciรณn
inherente entre variables. Esto es particularmente valioso en la inversiรณn en valores y
otras รกreas financieras donde abundan las suposiciones y se sabe poco sobre los procesos
subyacentes que determinan los precios de los activos. Ademรกs, las redes neuronales
brindan la ventaja de opciones de arquitectura flexibles, algoritmos de aprendizaje y
procedimientos de validaciรณn.
Pรกg. 99
Bibliografรญa
Altman, E. I. (1968). Financial ratios, discriminant analysis and the prediction of corporate
bankruptcy. The journal of finance, 23(4), 589-609.
Assad, S., Clark, R., Ershov, D., & Xu, L. (2020). Algorithmic pricing and competition:
Empirical evidence from the German retail gasoline market.
https://www.econstor.eu/bitstream/10419/223593/1/cesifo1_wp8521.pdf
Botta, M., & Wiedemann, K. (2020). To discriminate or not to discriminate? Personalised
pricing in online markets as exploitative abuse of dominance. European Journal of
Law and Economics, 50, 381-404.
Botta, M., & Wiedemann, K. (2019). Exploitative conducts in digital markets: time for a
discussion after the Facebook decision. Journal of European Competition Law &
Practice, 10(8), 465-478.
Brynjolfsson, E., Collis, A., & Eggers, F. (2019). Using massive online choice experiments
to measure changes in well-being. Proceedings of the National Academy of Sciences,
116(15), 7250-7255.
Brown, Z. Y., & MacKay, A. (2021). Competition in pricing algorithms (No. w28860).
National Bureau of Economic Research.
Butijn, B. J. (2023). Introduction to Advanced Information Technology. Advanced Digital
Auditing, 15.
Cheng, T. K., & Nowag, J. (2023). Algorithmic Predation and Exclusion. U. Pa. J. Bus. L.,
25, 41.
Pรกg. 100
Descamps, A., Klein, T., & Shier, G. (2021). Algorithms and competition: the latest theory
and evidence. Competition Law Journal, 20(1), 32-39.
Devogele, S. Algorithmic Tacit Collusion: a Threat to the Current EU Competition Law
Framework?.
Franรงa, R. P., Monteiro, A. C. B., Arthur, R., & Iano, Y. (2021). An overview of deep
learning in big data, image, and signal processing in the modern digital age. Trends
in Deep Learning Methodologies, 63-87.
Harrington, P. (2018), Multiple Versus Single Set Validation of Multivariate Models to
Avoid Mistakes, Taylor and Francis Ltd.,
http://dx.doi.org/10.1080/10408347.2017.1361314.
Klein, T. (2020), โ€œ(Mis)understanding Algorithmic Collusionโ€, Competition Policy
International,
https://www.competitionpolicyinternational.com/misunderstanding-algorithmic-
collusion/.
Levenstein, M. C., & Suslow, V. Y. (2006). What determines cartel success?. Journal of
economic literature, 44(1), 43-95.
Metaxa, D., Park, J. S., Robertson, R. E., Karahalios, K., Wilson, C., Hancock, J., & Sandvig,
C. (2021). Auditing algorithms: Understanding algorithmic systems from the
outside in. Foundations and Trendsยฎ in Humanโ€“Computer Interaction, 14(4), 272-344.
Motta, M. (2023). Self-preferencing and foreclosure in digital markets: theories of harm
for abuse cases. International Journal of Industrial Organization, 102974.
Moujahid, A. (2016). A practical introduction to deep learning with caffe and python.
Accรจs http://adilmoujahid. com/posts/2016/06/introduction-deep-learning-python-caffe.
Pรกg. 101
Nagesha, K., Chandar, K. R., & Sastry, V. (2016). Prediction of dust dispersion by drilling
operation using artificial neural networks. Int. J. Prev. Control Ind. Pollut, 1, 1-13.
Odom, M. D., & Sharda, R. (1990, June). A neural network model for bankruptcy
prediction. In 1990 IJCNN International Joint Conference on neural networks (pp. 163-
168). IEEE.
OECD (2023). Algorithmic Competition, OECD Competition Policy Roundtable
Background Note. www.oecd.org/daf/competition/algorithmic-competition-
2023.pdf.
OECD (2021), Artificial Intelligence, Machine Learning and Big Data in Finance:
Opportunities, Challenges, and Implications for Policy Makers,
https://www.oecd.org/finance/artificial-intelligence-machine-learningbig-data-in-
finance.htm.
OECD (2018). Personalised pricing in the digital era.
Saurwein, F., Just, N., & Latzer, M. (2015). Governance of algorithms: options and
limitations. info, 17(6), 35-49.
Schrepel, T. (2020). The fundamental unimportance of algorithmic collusion for antitrust law.
SSRN.
Tan, C. N. (1997). An artificial neural networks primer with financial applications
examples in financial distress predictions and foreign exchange hybrid trading system.
Bond University, 50-78.
Pรกg. 102
Westerhuis, J. A., Hoefsloot, H. C., Smit, S., Vis, D. J., Smilde, A. K., van Velzen, E. J., ... &
van Dorsten, F. A. (2008). Assessment of PLSDA cross validation. Metabolomics, 4,
81-89.
Pรกg. 103
De esta ediciรณn de โ€œCiencia de datos e inteligencia artificial: Finanzas, polรญticas y
gobernanzaโ€, se terminรณ de editar en la ciudad de Colonia del Sacramento en
Septiembre de 2024
Pรกg. 104