Ciencia de datos e inteligencia artificial: Finanzas, políticas y gobernanza

 

Erlin Guillermo Cabanillas Oliva, Ulises Octavio Irigoin Cabrera, Juan Carlos Lázaro Guillermo, Cesar Augusto Agurto Cherre, Oscar Raúl Esquivel Ynjante, Carlos Mariano Alvez Valles

 

© Erlin Guillermo Cabanillas Oliva, Ulises Octavio Irigoin Cabrera, Juan Carlos Lázaro Guillermo, Cesar Augusto Agurto Cherre, Oscar Raúl Esquivel Ynjante, Carlos Mariano Alvez Valles, 2024

 

 

Primera edición: Septiembre, 2024

Editado por:

Editorial Mar Caribe

www.editorialmarcaribe.es 

Av. General Flores 547, Colonia, Colonia-Uruguay.

RUC: 15605646601 

Diseño de cubierta: Yelitza Sánchez Cáceres

 

Libro electrónico disponible en https://editorialmarcaribe.es/ciencia-de-datos-e-inteligencia-artificial-finanzas-politicas-y-gobernanza/

Formato: electrónico

ISBN: 978-9915-9706-3-9

ARK: ark:/10951/isbn.9789915970639

 

Aviso de derechos de atribución no comercial: Los autores pueden autorizar al público en general a reutilizar sus obras únicamente con fines no lucrativos, los lectores pueden usar una obra para generar otra obra, siempre y cuando se dé el crédito de investigación y, otorgan a la editorial el derecho de publicar primero su ensayo bajo los términos de la licencia CC BY-NC 4.0.

 

 

Índice

Introducción

Capítulo 1

Redes Neuronales Artificiales: Riesgos financieros en instituciones crediticias

Beneficios de IA en las finanzas

Cartera y gestión de activos

Los fondos de cobertura y ETF impulsados por IA

El trading de algoritmos

La consecuencias imprevistas y posibles riesgos de la IA

Capítulo 2

BigTech, servicios financieros y blockchain

IA y productos financieros basados en Blockchain

La IA aumenta las capacidades de los contratos inteligentes

Los contratos inteligentes de autoaprendizaje y gobernanza de DLT

Los riesgos emergentes del uso de IA/ML/Big: herramientas de mitigación de riesgos

Los datos y su gestión

Capítulo 3

Los datos y competencia en los servicios financieros basados en inteligencia artificial

La parcialidad y discriminación

La explicabilidad

Robustez y resiliencia de los modelos de IA

Capítulo 4

La gobernanza de los sistemas de IA

Consideraciones reglamentarias

Los riesgos laborales

Implicaciones políticas

La actividad política en torno a las RNA en las finanzas

Consideraciones políticas

Conclusiones

Bibliografía


Introducción

 

La incorporación de inteligencia artificial (IA) y big data al análisis de sentimientos para detectar patrones, tendencias y señales comerciales es una tendencia creciente que existe desde hace algún tiempo. Durante años, los operadores han analizado cuidadosamente noticias e informes de gestión, tratando de comprender cómo la información no financiera afecta los precios de las acciones.

Sin embargo, el uso de tecnologías avanzadas como la minería de textos, el análisis de redes sociales y los algoritmos de procesamiento del lenguaje natural (PNL) ha llevado este método a un nuevo nivel. Estas herramientas innovadoras permiten a los comerciantes tomar decisiones informadas al automatizar la recopilación y el análisis de datos, así como identificar patrones o comportamientos consistentes en una escala que los humanos no pueden manejar.

Por lo tanto, el comercio impulsado por IA se diferencia del comercio sistemático en el uso del aprendizaje por refuerzo y en su capacidad para ajustar el modelo de IA a las condiciones cambiantes del mercado. Por el contrario, las estrategias metodológicas tradicionales suelen tardar más en ajustar los parámetros debido a la amplia participación humana. Es posible que las estrategias tradicionales de backtesting basadas en datos históricos no produzcan un rendimiento óptimo en tiempo real cuando las tendencias preestablecidas ya no son válidas. Por otro lado, la implementación de modelos de aprendizaje automático permite que los análisis se centren en predecir y analizar tendencias en tiempo real.

Por ejemplo, se utilizan pruebas predictivas en lugar de pruebas retrospectivas.

Estas pruebas predicen y se adaptan a las tendencias en tiempo real, minimizando así el riesgo de sobreajuste o ajuste de curvas observado en el backtesting basado únicamente en datos y tendencias históricos. La aplicación de la inteligencia artificial en el comercio ha pasado por muchas etapas de desarrollo y se ha vuelto cada vez más compleja, integrándose en cada etapa con el comercio algorítmico tradicional. Inicialmente, los algoritmos eran relativamente simples, con órdenes de compra o venta predefinidas y parámetros básicos.

Posteriormente, se introdujeron algoritmos más avanzados que permitieron precios flexibles. La próxima generación de algoritmos se centra en minimizar el impacto en el mercado dividiendo pedidos grandes, llamados "algoritmos de ejecución", para lograr precios óptimos. Hoy en día, las estrategias avanzadas utilizan redes neuronales profundas para optimizar la colocación y ejecución de órdenes, con el objetivo de minimizar el impacto en el mercado. Inspiradas en el cerebro humano, las redes neuronales profundas utilizan algoritmos que pueden reconocer patrones y requieren menos intervención humana para operar y aprender. Utilizando estas técnicas, los creadores de mercado pueden mejorar la gestión de inventarios y reducir los costos del balance.

A medida que la inteligencia artificial continúa desarrollándose, los algoritmos avanzan hacia la automatización, confiando más en la programación informática y aprendiendo de los datos de entrada, reduciendo así la necesidad de intervención humana. En aplicaciones prácticas, actualmente se utilizan formas más avanzadas de IA principalmente para detectar señales de problemas en el comercio basado en flujos que pueden no tener mucho valor noticioso. Estos incidentes son menos visibles, plantean mayores desafíos para identificarlos y extraer valor de ellos es una tarea más difícil.

En lugar de simplemente mejorar la velocidad de ejecución, la IA en realidad se utiliza para filtrar el ruido de los datos y convertir esa información en decisiones procesables. Por otro lado, los algoritmos menos complejos se utilizan principalmente para eventos ricos en información, como noticias financieras, que son fáciles de entender para todos los participantes y requieren una implementación rápida.

Por lo tanto, en la etapa actual de desarrollo, los modelos basados ​​en ML tienen un propósito diferente a las estrategias HFT, que se centran en actuar rápidamente y obtener una ventaja en el comercio. En cambio, los modelos de ML se utilizan principalmente fuera de línea para tareas como ajustar parámetros de algoritmos y optimizar la lógica de decisiones en lugar de realizar operaciones reales.

Sin embargo, a medida que la tecnología de inteligencia artificial avanza y aumentan sus aplicaciones, tiene el potencial de mejorar el comercio algorítmico tradicional en el futuro.

Esto es posible cuando las tecnologías de inteligencia artificial se integran en la fase de ejecución comercial, proporcionando características avanzadas de ejecución comercial automatizada y cubriendo cada etapa, desde la recopilación de señales hasta la estrategia y la realización de transacciones.

Los algoritmos de ejecución basados ​​en ML permitirán un ajuste automático y dinámico de la lógica de decisión durante la negociación. En tales casos, los requisitos actuales para el comercio algorítmico, como salvaguardias en los sistemas de gestión de riesgos previos a la negociación y mecanismos de control automatizados para detener los algoritmos cuando exceden los límites de riesgo, deberían ampliarse para incluir el comercio algorítmico guiado por inteligencia artificial.

 

 

 

 

 

Capítulo 1

Redes Neuronales Artificiales: Riesgos financieros en instituciones crediticias

 

Desde la innovadora investigación realizada por Beaver a finales de la década de 1960, ha habido un gran interés en utilizar los ratios financieros como medio para predecir el fracaso financiero. Este aumento en el interés puede atribuirse al influyente trabajo de Altman en 1968, donde combinó cinco ratios financieros en un único predictor conocido como factor Z, diseñado específicamente para evaluar la probabilidad de fracaso empresarial (Tan, 1997). Una ventaja notable de la metodología de Altman es su capacidad para establecer un punto de referencia estándar para comparar empresas dentro de la misma industria, al tiempo que proporciona una medida consolidada de la solidez financiera derivada de las cuentas financieras de una empresa. Sin embargo, a pesar de su atractivo, esta metodología no está exenta de limitaciones, puesto que los índices pueden variar significativamente entre diferentes sectores industriales y métodos contables utilizados.

Las limitaciones se vuelven más evidentes cuando se utilizan indicadores financieros para pronosticar los desafíos financieros que enfrentan las instituciones financieras. El alto apalancamiento inherente de estas instituciones dificulta la aplicación de modelos que fueron desarrollados originalmente para el sector empresarial. Sin embargo, ha habido una creciente aceptación del uso de estos modelos en el sector financiero al considerar a las instituciones financieras como una categoría distinta de empresas. En Australia, ha habido casos en los que investigadores, han realizado análisis inéditos sobre las dificultades financieras entre las instituciones financieras no bancarias. Estos estudios emplean un modelo Probit para abordar la naturaleza limitada de las variables dependientes observadas en los datos de dificultades financieras.

En esta sección del libro la atención se centra principalmente en la eficacia de las RNA como indicador temprano de problemas financieros dentro de las cooperativas de crédito. Para proporcionar una evaluación imparcial, el modelo basado en ANN (siglas en ingles de Redes Neuronales Artificiales) desarrollado en este estudio se compara con el modelo Probit creado por Hall y Byron, utilizando el mismo conjunto de datos. Los hallazgos sugieren que el método ANN supera ligeramente al modelo probit al examinar el mismo conjunto de datos. Además, se explora posibles modificaciones al diseño del modelo ANN para mejorar su rendimiento como predictor de alerta temprana.

Beneficios de IA en las finanzas

La adopción de la inteligencia artificial (IA) en la industria financiera está siendo impulsada por la disponibilidad significativa y en continuo aumento de datos, así como por la ventaja que la IA y el aprendizaje automático (ML) pueden brindar a las empresas de servicios financieros. Con la explosión de datos y los avances en la potencia informática, particularmente a través de la computación en la nube, los modelos de aprendizaje automático pueden analizar eficazmente esta gran cantidad de datos y descubrir patrones y relaciones ocultos que superan las capacidades humanas.

Como resultado, las empresas del sector financiero utilizan cada vez más la IA/ML y big data para obtener una ventaja competitiva. Esto incluye mejorar la eficiencia operativa reduciendo costos y mejorando la calidad de los productos de servicios financieros para satisfacer las demandas de los clientes. Se espera que esta tendencia amplifique aún más la ventaja competitiva de las empresas financieras en el futuro (OECD, 2021).

Cartera y gestión de activos

Los modelos de ML tienen la capacidad de monitorear y analizar continuamente miles de factores de riesgo diariamente. Además, pueden simular y evaluar el rendimiento de la cartera en miles de escenarios económicos y de mercado. Este nivel de análisis avanzado y evaluación de riesgos puede mejorar enormemente las prácticas de gestión de riesgos para los administradores de activos y otros grandes inversores institucionales. Una aplicación específica de la IA, conocida como generación de lenguaje natural (NLG), puede resultar especialmente valiosa para los asesores financieros. NLG permite a los asesores analizar y presentar datos complejos de una manera más comprensible y relacionable para sus clientes. Al "humanizar" y simplificar el análisis y la presentación de informes de datos, NLG puede ayudar a los asesores a comunicar eficazmente estrategias de inversión y conocimientos a sus clientes.

Así, la utilización de IA y ML en la gestión de activos ofrece multitud de beneficios. Desde mejorar la eficiencia operativa hasta mejorar las prácticas de gestión de riesgos y ofrecer una experiencia superior al cliente, estas tecnologías tienen el potencial de revolucionar la industria. A medida que el campo de la IA continúa avanzando, se espera que los administradores de activos y las instituciones financieras adopten cada vez más estas tecnologías para mantenerse a la vanguardia en un mercado en constante evolución. En términos de beneficios operativos, la implementación de tecnologías de inteligencia artificial puede resultar en importantes reducciones de costos para los administradores de inversiones.

Al automatizar tareas que antes se realizaban manualmente, como los procesos de conciliación, la IA puede optimizar las operaciones y reducir los gastos administrativos. Además, la mayor eficiencia y velocidad que ofrece la IA puede generar potencialmente mayores ahorros de costos para los administradores de activos. La integración de la inteligencia artificial (IA) y el aprendizaje automático (ML) en la gestión de activos tiene el potencial de mejorar en gran medida la eficiencia y precisión de diversos flujos de trabajo operativos. Este avance tecnológico no solo promete mejorar el desempeño general, sino también fortalecer las prácticas de gestión de riesgos y mejorar la experiencia general del cliente.

Al utilizar grandes cantidades de datos, los modelos de aprendizaje automático pueden ofrecer a los administradores de activos recomendaciones valiosas que pueden afectar su proceso de toma de decisiones con respecto a la asignación de carteras y la selección de acciones. Con la llegada del big data, los conjuntos de datos tradicionales se han vuelto ampliamente accesibles para todos los inversores, lo que ha llevado a los gestores de activos a aprovechar este recurso para obtener información valiosa sobre sus estrategias de inversión.

En toda la comunidad inversora, la información siempre ha desempeñado un papel crucial, y los datos sirven como base para diversos enfoques de inversión, como el análisis fundamental y el comercio sistemático. Si bien los datos estructurados han sido durante mucho tiempo el punto focal de estas estrategias "tradicionales", la abundancia de datos sin procesar o no estructurados/semiestructurados ahora presenta una oportunidad para que los inversores utilicen la IA para obtener una nueva ventaja informativa. Al emplear IA, los administradores de activos pueden procesar de manera eficiente grandes cantidades de datos de múltiples fuentes y extraer rápidamente información valiosa para informar sus estrategias.

La utilización de inteligencia artificial y aprendizaje automático, junto con el análisis de big data, tiende a ser más común entre grandes gestores de activos e inversores institucionales debido a su capacidad financiera y recursos disponibles para invertir en tecnologías de IA. Como resultado, los actores más pequeños pueden enfrentar dificultades para adoptar estas técnicas, ya que carecen de la inversión necesaria en tecnología y de profesionales capacitados para manejar grandes cantidades de big data no estructurados y desarrollar modelos de aprendizaje automático.

Aun cuando, si la implementación de IA y modelos propietarios proporciona una ventaja competitiva, puede limitar aún más la participación de actores más pequeños que no pueden incorporar técnicas internas de IA o acceder a fuentes de información de big data. En consecuencia, esto podría reforzar la actual tendencia de concentración entre unos pocos actores importantes en el sector de los fondos de cobertura, ya que estos grupos más grandes superan a sus competidores más ágiles.

La participación limitada de entidades más pequeñas en el sector continuará hasta que las herramientas que necesitan estén ampliamente disponibles o sean ofrecidas por proveedores externos. Además, es posible que los conjuntos de datos de terceros no cumplan con los mismos estándares de la industria, por lo que los usuarios de estas herramientas deberán generar confianza en la precisión y confiabilidad de la información en la que confían. Este nivel de confianza en la validez de los big data es necesario para que los actores más pequeños se sientan lo suficientemente cómodos como para adoptar y utilizar estas herramientas.

El uso de modelos de IA idénticos en múltiples administradores de activos tiene el potencial de generar un comportamiento gregario y crear mercados unidireccionales. Esto podría presentar ciertos peligros para la liquidez y la estabilidad generales del sistema, particularmente durante períodos de tensión económica. La aparición de una volatilidad significativa en el mercado puede intensificarse debido a actividades simultáneas de compra o venta a gran escala, introduciendo así nuevas vulnerabilidades en el sistema.

Existe la posibilidad de que la incorporación de IA/ML y big data en las estrategias de inversión tenga el potencial de revertir la tendencia predominante de inversión pasiva. Si estas tecnologías innovadoras demuestran una capacidad constante para generar alfa, lo que indica una relación causa-efecto entre el uso de la IA y un rendimiento superior, presenta una oportunidad para que la comunidad inversora activa revitalice su enfoque y brindar oportunidades alfa adicionales a sus clientes.

Los fondos de cobertura y ETF impulsados por IA

Los fondos de cobertura han estado liderando el camino en la adopción y utilización de tecnología financiera de vanguardia, como el análisis de big data, la inteligencia artificial (IA) y el aprendizaje automático (ML), en sus estrategias comerciales y operaciones administrativas. En tiempos más recientes, ha surgido una nueva generación de fondos de cobertura, comúnmente conocidos como fondos "AI pure play", que dependen exclusivamente de tecnologías de IA y ML para impulsar sus decisiones de inversión y gestión de cartera (por ejemplo, Aidiyia Holdings, Cerebellum Capital, Taaffeite Capital Management y Numerai).

Hasta ahora, ha habido una notable ausencia de cualquier evaluación académica o imparcial de la efectividad de los fondos impulsados por inteligencia artificial (IA), realizada por una entidad fuera de la industria financiera. Esta evaluación tendría como objetivo comparar los numerosos fondos que afirman su dependencia de la tecnología de inteligencia artificial. Dado que los administradores de fondos emplean diversos niveles de integración de IA en sus operaciones y estrategias, naturalmente retienen sus metodologías para mantener una ventaja competitiva. En consecuencia, resulta difícil comparar el desempeño de varios productos autoproclamados impulsados por IA, ya que el grado de utilización de la IA y la madurez de su implementación difieren significativamente entre estos fondos.

El sector privado ofrece índices de fondos de cobertura impulsados por IA que superan claramente a los índices de fondos de cobertura convencionales proporcionados por la misma fuente. Es importante señalar que los índices de terceros a menudo están influenciados por sesgos como el sesgo de supervivencia y autoselección de los fondos incluidos en el índice, así como el backfilling. Por tanto, es aconsejable abordar estos índices con cautela.

Además, cada vez hay más pruebas que sugieren que los modelos de aprendizaje automático (ML) superan los pronósticos tradicionales en lo que respecta a indicadores macroeconómicos, como la inflación y el PIB. Esta mejora en el desempeño es particularmente evidente en tiempos de tensión económica, cuando los pronósticos precisos son cruciales. Así, las técnicas basadas en inteligencia artificial han demostrado ser superiores a la hora de identificar correlaciones previamente desconocidas en la aparición de crisis financieras. Los modelos de ML han superado notablemente a los modelos de regresión logística en la predicción y previsión de crisis financieras en pruebas fuera de muestra.

El trading de algoritmos

La inteligencia artificial tiene el potencial de revolucionar la industria comercial al ofrecer sugerencias de estrategias comerciales e impulsar los sistemas comerciales automatizados. Estos sistemas basados en IA son capaces de hacer predicciones, determinar el mejor curso de acción y ejecutar operaciones sin necesidad de intervención humana. Utilizan técnicas avanzadas de inteligencia artificial, como computación evolutiva, aprendizaje profundo y lógica probabilística para identificar y ejecutar operaciones en el mercado.

Asimismo, las técnicas de inteligencia artificial, como las ruedas algorítmicas, pueden elaborar estrategias sistemáticamente para las próximas operaciones mediante la aplicación de un proceso de pensamiento lógico "si/entonces". Este nivel de integración de la IA en el comercio permite capacidades predictivas que superan con creces las de los algoritmos tradicionales en los sectores financiero y comercial, particularmente considerando la interconexión actual entre clases de activos y geografías.

Así, los sistemas comerciales impulsados por IA tienen el potencial de ayudar enormemente a los operadores a gestionar eficazmente tanto su riesgo como su flujo de órdenes. Estas aplicaciones de vanguardia pueden monitorear y analizar la exposición al riesgo, permitiéndoles ajustar o salir automáticamente de posiciones según las preferencias y requisitos del usuario. El aspecto notable de estos sistemas de IA es que poseen la capacidad de autoentrenarse y adaptarse a las condiciones del mercado en constante cambio, minimizando así la necesidad de intervención humana. De igual forma, estos sistemas pueden facilitar la gestión fluida de los flujos entre intermediarios, asegurando una ejecución fluida de operaciones predeterminadas. Y también, tienen la capacidad de regular las comisiones y asignar liquidez entre varios intercambios, teniendo en cuenta factores como las preferencias del mercado regional, consideraciones monetarias y otros parámetros esenciales involucrados en la gestión de una orden.

En los mercados tecnológicamente avanzados de hoy, particularmente en los campos de productos de acciones y divisas, la implementación de soluciones de inteligencia artificial tiene un gran potencial en términos de proporcionar precios competitivos, gestión eficiente de la liquidez y procesos de ejecución optimizados. Una de las ventajas cruciales de utilizar algoritmos de inteligencia artificial en el comercio es su capacidad para mejorar la gestión de la liquidez y facilitar la ejecución de órdenes importantes sin causar perturbaciones sustanciales en el mercado. Estos algoritmos poseen la capacidad de ajustar dinámicamente el tamaño, la duración y el tamaño de la orden, según las condiciones predominantes del mercado, garantizando así un rendimiento óptimo.

La integración de inteligencia artificial (IA) y big data en el análisis de sentimientos para detectar patrones, tendencias y señales comerciales es una tendencia creciente que ha estado presente desde hace bastante tiempo. Los operadores llevan años examinando noticias y declaraciones de la dirección de la empresa, intentando comprender cómo la información no financiera afecta los precios de las acciones. Sin embargo, el uso de tecnologías avanzadas como la minería de textos, el análisis de redes sociales y los algoritmos de procesamiento del lenguaje natural (PNL) ha llevado esta práctica a nuevas alturas. Estas herramientas innovadoras permiten a los comerciantes tomar decisiones informadas al automatizar el proceso de recopilación y análisis de datos, así como identificar patrones o comportamientos consistentes en una escala que sería imposible de manejar para un humano.

En consecuencia, el comercio gestionado por IA se distingue del comercio sistemático debido a su utilización del aprendizaje por refuerzo y la capacidad de ajustar el modelo de IA de acuerdo con las condiciones cambiantes del mercado. Por el contrario, las estrategias sistemáticas tradicionales a menudo requieren más tiempo para ajustar los parámetros debido a la amplia participación humana. Las estrategias convencionales de backtesting, que se basan en datos históricos, podrían no ofrecer un rendimiento óptimo en tiempo real cuando las tendencias previamente identificadas ya no se mantienen. Por otro lado, la implementación de modelos de aprendizaje automático permite que el análisis se centre en predecir y analizar tendencias en tiempo real. Por ejemplo, se emplean pruebas de predicción en lugar de pruebas retrospectivas. Estas pruebas predicen y se adaptan a las tendencias en tiempo real, mitigando así el riesgo de sobreajuste o ajuste de curvas observado en el backtesting basado únicamente en datos y tendencias históricos.

La aplicación de la IA en el comercio ha pasado por varias fases de desarrollo y complejidad creciente, integrándose con el comercio algorítmico tradicional en cada etapa. Inicialmente, los algoritmos eran relativamente simples, con órdenes de compra o venta predefinidas y parámetros básicos. Posteriormente, se introdujeron algoritmos más avanzados que permitieron fijar precios dinámicos. La próxima generación de algoritmos se centró en minimizar el impacto en el mercado fragmentando grandes órdenes, conocidos como "algoritmos de ejecución", cuyo objetivo era obtener precios óptimos.

Actualmente, las estrategias de vanguardia utilizan redes neuronales profundas para optimizar la colocación y ejecución de órdenes, con el objetivo de minimizar el impacto en el mercado. Las redes neuronales profundas, inspiradas en el cerebro humano, emplean algoritmos que son capaces de reconocer patrones y requieren menos intervención humana para operar y aprender. Al utilizar estas técnicas, los creadores de mercado pueden mejorar su gestión de inventario y reducir los costos del balance. A medida que la IA sigue avanzando, los algoritmos se están desplazando hacia la automatización, confiando más en la programación informática y aprendiendo de los datos de entrada, reduciendo así la necesidad de intervención humana.

En el ámbito de la aplicación práctica, las formas más avanzadas de inteligencia artificial se utilizan actualmente predominantemente para detectar señales de incidentes en el comercio basado en flujos que pueden no tener un valor noticioso significativo. Estos incidentes se caracterizan por ser menos manifiestos, plantear mayores desafíos en la identificación y extraer valor de ellos es una tarea más ardua. En lugar de limitarse a mejorar la velocidad de ejecución, la IA se emplea en realidad para filtrar el ruido de los datos y transformar esta información en decisiones procesables. Por otro lado, los algoritmos menos sofisticados se emplean principalmente en eventos cargados de información, como noticias financieras, que son más fácilmente comprensibles para todos los participantes y requieren una ejecución rápida.

Por lo tanto, en la etapa actual de su desarrollo, los modelos basados en ML tienen un propósito diferente en comparación con las estrategias HFT, que se centran en una acción rápida y en obtener una ventaja en las operaciones. En cambio, los modelos de ML se utilizan principalmente fuera de línea para tareas como refinar los parámetros del algoritmo y mejorar la lógica de toma de decisiones en lugar de para la ejecución real de operaciones. Si bien, a medida que la tecnología de inteligencia artificial avanza y encuentra más aplicaciones, tiene el potencial de mejorar el comercio algorítmico tradicional en el futuro. Esto podría suceder cuando las técnicas de inteligencia artificial se incorporen en la fase de ejecución comercial, proporcionando capacidades avanzadas para la ejecución comercial automatizada y cubriendo cada paso, desde la captura de señales hasta la estrategia y ejecución comercial.

Los algoritmos de ejecución basados en ML permitirían un ajuste autónomo y dinámico de la lógica de decisión durante la negociación. En tales casos, los requisitos existentes para el comercio algorítmico, como salvaguardias en los sistemas de gestión de riesgos previos a la negociación y mecanismos de control automatizados para detener los algoritmos cuando superen los límites de riesgo, deberían ampliarse para incluir el comercio algorítmico impulsado por IA.

La consecuencias imprevistas y posibles riesgos de la IA

La adopción generalizada de modelos idénticos o similares por parte de numerosos operadores en diversos mercados puede tener consecuencias no deseadas para la competencia y podría exacerbar las tensiones dentro de esos mercados. Si estos modelos llegaran a ser ampliamente utilizados por los comerciantes, naturalmente disminuirían las oportunidades de arbitraje, lo que resultaría en menores márgenes de beneficio. Sin embargo, esto beneficiaría en última instancia a los consumidores, ya que reduciría la diferencia entre los precios de compra y de venta.

Por otro lado, también podría conducir a una convergencia del mercado, donde los comerciantes siguen las mismas estrategias, creando una mentalidad de rebaño y haciendo que los mercados se muevan en una sola dirección. Esto podría afectar potencialmente a la estabilidad y la liquidez del mercado, especialmente en momentos de gran tensión. Al igual que cualquier algoritmo, el uso extensivo de algoritmos de IA similares conlleva el riesgo de que se produzcan ciclos de retroalimentación que se refuerzan a sí mismos, lo que puede desencadenar importantes fluctuaciones de precios.

Asimismo, el uso de la IA en actividades maliciosas tiene el potencial de dar lugar a ataques autónomos ofensivos. Estos ataques pueden llevarse a cabo sin intervención humana, lo que los hace aún más peligrosos. No sólo se pueden atacar los sistemas vulnerables en el comercio, sino que también están en riesgo los mercados financieros en su conjunto, incluidos los diversos participantes en ellos. Esto pone de relieve el amplio alcance del impacto potencial de los ciberataques basados en IA.

En esencia, la convergencia de las tecnologías de IA no sólo mejora las capacidades de los ciberdelincuentes para explotar sistemas interconectados sino que también permite la ejecución de ataques autónomos. Estos ataques pueden tener graves consecuencias tanto para el comercio como para los mercados financieros, lo que requiere mayores medidas de ciberseguridad para mitigar los riesgos. La convergencia de las tecnologías de IA presenta no sólo oportunidades sino también riesgos, particularmente en el ámbito de los ciberataques. A medida que los sistemas de IA se vuelven más interconectados y unificados en sus acciones, los ciberdelincuentes pueden explotar esta unidad en su beneficio. Les resulta más fácil manipular e influir en agentes que comparten comportamientos similares que en aquellos con comportamientos distintos y diferenciados. Esta convergencia plantea una amenaza importante para la ciberseguridad.

La utilización de modelos exclusivos que no se pueden replicar juega un papel crucial para permitir a los operadores mantener cualquier forma de ventaja competitiva. Además, estos modelos propietarios pueden contribuir a una falta deliberada de transparencia, exacerbando así el desafío de comprender y explicar los modelos de aprendizaje automático. La renuencia mostrada por los usuarios de técnicas de aprendizaje automático a divulgar la efectividad de sus modelos se debe al miedo a comprometer su ventaja competitiva, lo que a su vez genera preocupaciones con respecto a la supervisión de los algoritmos y modelos de aprendizaje automático.

La utilización de algoritmos en el comercio también puede facilitar y aumentar la probabilidad de resultados colusorios en los mercados digitales. Además, existe la preocupación de que los sistemas basados en IA puedan empeorar las prácticas ilegales destinadas a manipular los mercados, como la "suplantación de identidad", al crear dificultades para que los reguladores detecten dichas actividades cuando las máquinas coluden. La falta de explicabilidad de los modelos de aprendizaje automático utilizados para respaldar el comercio puede plantear dificultades a la hora de ajustar las estrategias durante períodos de malos resultados comerciales. Los algoritmos comerciales ya no siguen procesos lineales basados en modelos (donde la entrada A conduce a la ejecución de la estrategia comercial B) que pueden rastrearse e interpretarse fácilmente, lo que hace menos claro qué parámetros influyeron en los resultados.

Al considerar las posibles consecuencias negativas en el mercado, se puede argumentar que la utilización de tecnologías de inteligencia artificial en el comercio y el comercio de alta frecuencia (HFT) podría potencialmente intensificar la volatilidad del mercado mediante la ejecución de grandes compras o ventas simultáneas. Esto introduce nuevas vulnerabilidades dentro del mercado. En particular, ciertas estrategias algo-HFT han estado implicadas en la aparición de volatilidad extrema del mercado, disminución de la liquidez y crisis repentinas exacerbadas, que se han vuelto más frecuentes en los últimos años. Dado que los HFT desempeñan un papel importante a la hora de proporcionar liquidez al mercado y mejorar su eficiencia en condiciones normales, cualquier interrupción en el funcionamiento de sus modelos en tiempos de crisis puede provocar una retirada de liquidez del mercado, lo que podría afectar a su resiliencia.

En el ámbito de la inversión, la utilización generalizada de modelos de inteligencia artificial preexistentes por parte de varios participantes del mercado tiene el potencial de tener un gran impacto en la liquidez y la estabilidad del mercado. Este impacto surge de la tendencia de estos modelos a fomentar la formación de rebaños y mercados unidireccionales. Tal comportamiento no sólo magnifica los riesgos asociados con la volatilidad, la prociclicidad y los cambios imprevistos del mercado, sino que también afecta su escala y dirección. Además, el comportamiento gregario puede dar lugar a mercados ilíquidos si no hay "colchones" o creadores de mercado presentes para realizar transacciones desde el lado opuesto.

La introducción de la IA en el comercio tiene el potencial de crear conexiones imprevistas entre los mercados financieros y las instituciones, lo que lleva a un aumento de la correlación y dependencia de variables que antes no estaban relacionadas. La utilización de algoritmos que generan ganancias o retornos sin ninguna correlación puede en realidad resultar en la correlación de variables no relacionadas si su uso se generaliza lo suficiente. Además, el uso de la IA puede magnificar el impacto de los efectos de red, provocando cambios inesperados en el tamaño y la dirección de los movimientos del mercado.

Para abordar los riesgos asociados con la implementación de la IA en el comercio, puede ser necesario establecer medidas de protección para el comercio algorítmico impulsado por la IA. Estas salvaguardias, integradas en los sistemas de gestión de riesgos previos a la negociación, están diseñadas para prevenir y detener el posible uso indebido de estos sistemas. Cabe señalar que la IA también se está utilizando para mejorar los sistemas de riesgo previos a la negociación, que abarcan pruebas obligatorias de cada versión de algoritmo, que se aplican igualmente a aquellos basados en IA. Como defensa final para los profesionales del mercado, existen mecanismos de control automatizados para cerrar inmediatamente el modelo cuando supera los límites del sistema de riesgos. Estos mecanismos implican "desconectar" y sustituir cualquier tecnología con intervención humana. Sin embargo, tales medidas pueden considerarse subóptimas desde el punto de vista de las políticas, ya que desconectan los sistemas precisamente cuando más se necesitan en tiempos de tensión y generan vulnerabilidades operativas.

Además de implementar salvaguardias en las bolsas donde se realizan las transacciones, podría ser imperativo utilizar varias medidas defensivas. Estas medidas podrían implicar la cancelación automática de pedidos cada vez que el sistema de IA experimente un estado fuera de línea, así como el empleo de técnicas que brinden resiliencia contra formas sofisticadas de manipulación facilitadas por la tecnología. También, existe la posibilidad de modificar los disyuntores, que actualmente se activan ante caídas significativas en las operaciones, para que también reconozcan y se activen en respuesta a un volumen sustancial de operaciones más pequeñas ejecutadas por sistemas impulsados por IA, logrando así un resultado similar.

IA: “algo wheels”

Algo wheels se refiere a un concepto amplio que incluye soluciones totalmente automatizadas diseñadas para guiar el flujo impulsado por el operador. En este contexto, una rueda algorítmica basada en IA representa un proceso de enrutamiento automatizado que integra técnicas de inteligencia artificial para asignar un algoritmo de corredor adecuado a las órdenes de una lista predeterminada de soluciones algorítmicas. Esencialmente, las ruedas de algoritmos basadas en IA sirven como modelos que determinan la estrategia y el corredor más ventajoso para dirigir la orden, teniendo en cuenta las condiciones predominantes del mercado, así como los objetivos y requisitos específicos de la actividad comercial.

Las empresas de inversión suelen utilizar ruedas algorítmicas para dos propósitos principales:

Los defensores de las ruedas de algoritmos argumentan que mitigan efectivamente el sesgo de los comerciantes cuando se trata de elegir corredores y los algoritmos que implementan en el mercado.

Según estimaciones recientes, aproximadamente el 20 % de los flujos comerciales utilizan actualmente ruedas algorítmicas, un mecanismo que está ganando popularidad para categorizar y medir sistemáticamente la eficacia de los algoritmos utilizados por los intermediarios de alto rendimiento. Curiosamente, aquellos que emplean algo wheels asignan un significativo 38% de su flujo comercial a esta herramienta (OECD, 2021). Esto sugiere que si se adoptaran ampliamente las ruedas algorítmicas, podría conducir a un aumento significativo en el volumen general del comercio electrónico, lo que a su vez podría generar diversas ventajas para el panorama competitivo del corretaje electrónico.

 

 

 

 

 

 

 

 

 

 

 

 

 

Capítulo 2

BigTech, servicios financieros y blockchain

 

A medida que los gigantes tecnológicos continúan utilizando su acceso irrestricto a grandes cantidades de datos de clientes para impulsar sistemas impulsados por IA para brindar servicios financieros, existe una necesidad creciente de examinar las implicaciones de su implementación de IA en la privacidad de los datos. Esto ha generado preocupación con respecto a la posible explotación de la recopilación, el almacenamiento y la utilización de datos personales para obtener ganancias comerciales. Las prácticas empleadas por las BigTech a este respecto tienen el potencial de impactar negativamente a los clientes, particularmente a través de prácticas discriminatorias que afectan la disponibilidad y los precios del crédito.

El acceso que tienen las BigTech a los datos de los clientes les otorga una ventaja significativa sobre los proveedores de servicios financieros tradicionales. Se espera que esta ventaja se fortalezca aún más a medida que incorporen inteligencia artificial en sus servicios, permitiendo la entrega de ofertas únicas, personalizadas y más eficientes. Si bien, el dominio de las BigTech en determinadas áreas del mercado puede dar lugar a una concentración excesiva y una mayor dependencia de un pequeño número de actores importantes.

Dependiendo del tamaño y alcance de estas empresas, esto podría tener implicaciones sistémicas y generar preocupaciones sobre riesgos potenciales para los consumidores financieros. Es posible que estos consumidores no tengan acceso a la misma gama de opciones de productos, precios o asesoramiento que estarían disponibles a través de los proveedores de servicios financieros tradicionales. Y, los supervisores pueden enfrentar desafíos a la hora de monitorear y regular las actividades financieras de estas grandes empresas tecnológicas.

Otro riesgo relacionado con esta cuestión es el potencial de comportamiento anticompetitivo y la concentración del poder de mercado en el ámbito tecnológico de la prestación de servicios. Esto podría ocurrir si solo emergen unos pocos actores dominantes en los mercados de soluciones y servicios de IA que utilizan tecnologías de IA. Esta tendencia ya se está observando en ciertas regiones del mundo. Así también, el panorama competitivo se ve aún más comprometido por la posición ventajosa que ocupan las grandes empresas tecnológicas en términos de datos de clientes. Estas empresas pueden explotar su ventaja en materia de datos para establecer posiciones monopólicas, obteniendo una ventaja en la adquisición de clientes mediante una discriminación de precios efectiva y creando importantes barreras de entrada para las empresas más pequeñas.

En general, la Ley de Mercados Digitales representa un paso significativo hacia la regulación y supervisión de las actividades de las plataformas digitales dominantes con el fin de promover la competencia leal y proteger los intereses de los usuarios comerciales. La Ley de Mercados Digitales incluye una serie de obligaciones que los guardianes de acceso deberían cumplir. Una de esas obligaciones es proporcionar acceso a los datos generados por sus actividades a los usuarios comerciales. Asimismo, los guardianes estarían obligados a ofrecer portabilidad de datos, lo que permitiría a los usuarios transferir fácilmente sus datos a otras plataformas. Para evitar la competencia desleal, a los guardianes también se les prohibiría utilizar datos obtenidos de usuarios comerciales para competir contra ellos.

A finales de 2020, la Unión Europea y el Reino Unido publicaron conjuntamente un conjunto de propuestas regulatorias conocidas como Ley de Mercados Digitales. Estas propuestas están diseñadas para crear un marco proactivo para regular las plataformas digitales dominantes, comúnmente conocidas como "guardianes", como las grandes empresas de tecnología. El objetivo principal de estas propuestas es abordar los riesgos asociados con estas plataformas y establecer mercados digitales justos y abiertos.

Otro aspecto clave de la propuesta es la introducción de medidas para abordar los riesgos asociados con el doble papel de los guardianes. Esto implicaría implementar soluciones para abordar problemas como la autorreferencia, donde los Gatekeepers priorizan sus propios servicios sobre los de terceros. La propuesta también pretende garantizar que los servicios ofrecidos por los guardianes de acceso no reciban un trato preferencial ni sean favorecidos con respecto a los proporcionados por plataformas de terceros.

IA y productos financieros basados en Blockchain

En los últimos años, ha habido un aumento significativo en la utilización de tecnologías de contabilidad distribuida (DLT), particularmente blockchain, en varios sectores, con un fuerte enfoque en la industria financiera. Este aumento en las aplicaciones blockchain se puede atribuir a los numerosos beneficios que ofrecen, como mayor velocidad, eficiencia y transparencia. Estas tecnologías innovadoras, impulsadas por la automatización y la desintermediación, han ganado fuerza debido a su potencial para revolucionar diferentes áreas, incluidos los mercados de valores (como las actividades de emisión y posnegociación), los pagos (como las monedas digitales y las monedas estables de los bancos centrales) y los activos o tokenización en general. Como resultado, la adopción de DLT en las finanzas tiene el potencial de remodelar las funciones y modelos de negocio de los operadores financieros, como los custodios.

La industria aboga por la fusión de la inteligencia artificial (IA) y la tecnología de contabilidad distribuida (DLT) en el ámbito de las finanzas basadas en blockchain. Se cree que esta integración mejora la eficacia general de estos sistemas al aprovechar la automatización para maximizar la eficiencia prometida por las soluciones basadas en blockchain. Sin embargo, actualmente no está claro si el alcance de la implementación de la IA en proyectos basados ​​en blockchain es lo suficientemente sustancial como para fundamentar las afirmaciones de una verdadera convergencia entre estas dos tecnologías.

En la práctica, en lugar de ver convergencia, lo que observamos es la implementación de aplicaciones de IA en sistemas blockchain específicos para casos de uso particulares, como la gestión de riesgos. Asimismo, somos testigos de la integración de soluciones DLT en ciertos mecanismos de IA, particularmente para fines de gestión de datos. La integración implica el uso de DLT para proporcionar información a los modelos de aprendizaje automático, aprovechando las características de inmutabilidad y desintermediación de la cadena de bloques.

Sin duda la integración permite compartir información confidencial de forma segura manteniendo la confidencialidad y la privacidad. Se prevé que la incorporación de DLT en los mecanismos de IA permitirá a los usuarios monetizar los datos que poseen, que son utilizados por modelos de aprendizaje automático y otros sistemas impulsados por IA como el Internet de las cosas (IoT). La adopción de estos casos de uso de IA está motivada por el potencial de la tecnología para mejorar la eficiencia de la automatización y la desintermediación en sistemas y redes basados en DLT.

La inteligencia artificial tiene el potencial de mejorar significativamente las funciones de automatización de los contratos inteligentes en el ámbito de las finanzas basadas en DLT. Esta contribución se puede observar en numerosos casos de uso dentro de las redes DLT, incluidos, entre otros, el cumplimiento y la gestión de riesgos. Por ejemplo, la IA puede desempeñar un papel crucial en la lucha contra actividades fraudulentas mediante la implementación de restricciones automatizadas en la red. Además, la IA también puede mejorar el funcionamiento de los oráculos, que son esenciales para la gestión y la inferencia de datos. Sin embargo, es importante señalar que estas aplicaciones aún están en desarrollo y perfeccionamiento.

La IA tiene el potencial de mejorar significativamente la seguridad y la funcionalidad de las redes blockchain, particularmente en el ámbito de las aplicaciones de pago. Si bien no puede eliminar por completo las vulnerabilidades de seguridad, la IA puede mitigarlas eficazmente. Al aprovechar la tecnología de inteligencia artificial, los usuarios de las redes blockchain pueden detectar y abordar actividades irregulares que pueden ser indicativas de robo o comportamiento fraudulento, aunque estos eventos generalmente requieren el compromiso de claves públicas y privadas.

De forma similar, las aplicaciones de IA pueden desempeñar un papel fundamental en la racionalización de los procedimientos de incorporación a la red, como la utilización de datos biométricos para la identificación basada en IA y el refuerzo de los controles contra el lavado de dinero y la financiación del terrorismo (AML/CFT) para los servicios financieros basados en DLT. La integración de la IA en sistemas basados en DLT también ofrece ventajas notables en términos de cumplimiento y gestión de riesgos. Por ejemplo, las herramientas impulsadas por IA pueden generar resultados de análisis de gobernanza de carteras, que pueden servir como recursos valiosos para fines de cumplimiento normativo o evaluaciones de riesgos internos de las partes de la transacción. No obstante, es importante reconocer que la eliminación de los intermediarios financieros de las transacciones financieras puede socavar la eficacia de los enfoques regulatorios existentes que se centran principalmente en las entidades reguladas.

Al incorporar soluciones impulsadas por IA en sistemas de tecnología de contabilidad distribuida (DLT) a nivel de protocolo, los reguladores pueden lograr de manera efectiva sus objetivos regulatorios. Esto se puede lograr a través de varios medios, como facilitar el intercambio de datos fluido y en tiempo real entre entidades y autoridades reguladas, así como incorporar requisitos regulatorios directamente en el código del programa para garantizar el cumplimiento automático. El concepto de que los reguladores se conviertan en nodos en redes descentralizadas ha sido un tema de discusión dentro del mercado, ya que presenta una solución potencial a los desafíos de supervisar plataformas que operan sin una autoridad central.

En relación a los datos de los sistemas basados en DLT, la IA tiene el potencial de favorecer enormemente estos procesos. Al trasladar la responsabilidad de la conservación de datos de nodos de terceros a sistemas independientes y automatizados impulsados por IA, la calidad de los datos introducidos en la cadena se puede mejorar significativamente. Esto, a su vez, conduce a un registro e intercambio de información más sólidos, ya que los sistemas de inteligencia artificial son menos propensos a la manipulación. Un área en la que la IA puede marcar una diferencia particular es en el funcionamiento de los nodos fuera de la cadena de terceros, comúnmente conocidos como "Oracles", que desempeñan un papel crucial en la introducción de datos externos en la red.

La utilización de “oracles” en redes de tecnología de contabilidad distribuida (DLT) expone un riesgo potencial de que se ingresen datos erróneos o inapropiados en la red, lo que surge de la posibilidad de que haya nodos fuera de la cadena de terceros maliciosos o con un rendimiento deficiente. Para abordar este problema, la integración de la inteligencia artificial (IA) en la cadena podría mejorar la desintermediación al hacer innecesarios los proveedores de información de terceros, como los oracles.

Al incorporar IA, el sistema puede verificar la exactitud e integridad de los datos proporcionados por los oráculos, evitando así ataques cibernéticos y manipulación del suministro de datos de terceros dentro de la red. La implementación de aplicaciones de IA podría mejorar potencialmente la confianza de los participantes en la red, ya que pueden verificar la información proporcionada por los oráculos e identificar cualquier compromiso dentro del sistema. Sin embargo, es importante señalar que la IA no resuelve inherentemente el problema de la mala calidad o de los datos de entrada inadecuados, ya que este desafío también está presente en los mecanismos y aplicaciones basados en la IA.

La IA aumenta las capacidades de los contratos inteligentes

La integración de técnicas de inteligencia artificial en sistemas basados en blockchain tiene el potencial de generar cambios significativos, particularmente en el ámbito de los contratos inteligentes. Esta integración puede tener implicaciones prácticas en la gobernanza y la gestión de riesgos de estos contratos y puede introducir varios efectos hipotéticos, que aún no se han probado, en las funciones y procesos de las redes basadas en tecnología de contabilidad distribuida (DLT). En esencia, utilizar la IA en este contexto puede allanar el camino para cadenas DLT autorreguladas que funcionen de forma autónoma.

Los contratos inteligentes existen desde hace un tiempo considerable, antes de la aparición de las aplicaciones de inteligencia artificial, y operan con un código de software sencillo. Actualmente, la mayoría de los contratos inteligentes ampliamente utilizados no incorporan métodos de IA. En consecuencia, numerosas ventajas propuestas para incorporar IA en los sistemas DLT siguen siendo principalmente teóricas, y es aconsejable abordar las afirmaciones hechas por la industria con respecto a la integración de capacidades de IA y DLT en productos comercializados con un sentido de cuidadosa consideración.

Dicho esto, la utilización de la IA en diversos escenarios resulta muy ventajosa cuando se trata de mejorar las capacidades de los contratos inteligentes, particularmente en las áreas de gestión de riesgos y la identificación de fallas dentro del código. Las metodologías de IA, como el procesamiento del lenguaje natural (NLP), pueden evaluar eficazmente los patrones de ejecución de los contratos inteligentes, permitiendo así la detección de actividades fraudulentas y la mejora de la seguridad general del sistema.

Asimismo, la IA posee la capacidad de realizar pruebas de código de una manera que supera las capacidades de los revisores de código humanos en términos de velocidad y nivel de detalle, así como de análisis de escenarios. Dado que el código constituye la base fundamental de la automatización de contratos inteligentes, la naturaleza impecable del proceso de codificación es crucial para garantizar la resiliencia y confiabilidad de estos contratos.

El potencial para mejorar las capacidades de automatización de los contratos inteligentes mediante la integración de la IA es un concepto prometedor. Al incorporar IA en contratos inteligentes, se puede aumentar el nivel de autonomía, permitiendo que el código subyacente se adapte dinámicamente a las condiciones ambientales y del mercado cambiantes. Un área específica de la IA, conocida como procesamiento del lenguaje natural (PLN), tiene el potencial de ampliar las capacidades analíticas de los contratos inteligentes, particularmente en relación con los contratos, la legislación y los fallos judiciales tradicionales. Al aprovechar la PNL, los contratos inteligentes pueden profundizar en la comprensión de las intenciones de las partes involucradas. Si bien, vale la pena mencionar que estas aplicaciones de IA para contratos inteligentes siguen siendo puramente teóricas y aún no se han puesto a prueba en escenarios del mundo real.

Todavía hay desafíos que deben abordarse en lo que respecta a los riesgos operativos, así como la compatibilidad e interoperabilidad entre la infraestructura tradicional y una basada en tecnologías DLT e IA. El uso de técnicas de IA, como el aprendizaje profundo, requiere una cantidad significativa de recursos computacionales, lo que puede dificultar su efectividad en Blockchain. Algunos expertos sostienen que, en la etapa actual de desarrollo de la infraestructura, sería mejor almacenar datos fuera de la cadena para garantizar que los motores de recomendación en tiempo real funcionen correctamente y minimizar la latencia y los costos. Los riesgos operativos asociados con DLT aún no están resueltos y deberán abordarse a medida que tanto la tecnología como las aplicaciones que permite sigan madurando.

Los contratos inteligentes en sistemas basados en DLT:

Los contratos inteligentes de autoaprendizaje y gobernanza de DLT

Según los investigadores, los contratos inteligentes impulsados por IA tienen el potencial de crear cadenas autorreguladas. En el futuro, la IA podría utilizarse para pronosticar y automatizar procesos dentro de contratos inteligentes de "autoaprendizaje", de forma similar a la aplicación de técnicas de IA de aprendizaje por refuerzo. Básicamente, la IA puede extraer y analizar información en tiempo real de los sistemas e incorporar esos datos en contratos inteligentes. Como resultado, el código de contratos inteligentes podría adaptarse automáticamente, eliminando la necesidad de intervención humana en la gobernanza de la cadena. Esto conduciría al establecimiento de cadenas descentralizadas totalmente autónomas y autorreguladas.

Las organizaciones autónomas descentralizadas (DAO) son entidades que operan de forma autónoma en una cadena de bloques y, si bien ya se han establecido, la incorporación de técnicas basadas en inteligencia artificial podría mejorar su funcionalidad. Por ejemplo, la IA podría proporcionar datos en tiempo real al código, permitiéndole calcular el curso de acción óptimo. Los contratos inteligentes de autoaprendizaje que integran la IA desempeñarían un papel crucial en la expansión de las capacidades de la lógica de la cadena de bloques. Estos contratos aprenderían de las experiencias pasadas de blockchain, adaptarían o introducirían nuevas reglas y, en última instancia, gobernarían el funcionamiento general de blockchain.

Actualmente, la mayoría de los proyectos DeFi son administrados por DAO que poseen ciertos elementos centralizados, como la votación en cadena por parte de los poseedores de tokens y el consenso fuera de la cadena. Estos elementos que involucran intervención humana podrían estar sujetos a regulación. Sin embargo, al integrar la IA en las DAO, es posible mejorar la descentralización y disminuir la relevancia de los enfoques regulatorios tradicionales.

La utilización de inteligencia artificial en la construcción de cadenas totalmente autónomas presenta importantes obstáculos e incertidumbres tanto para los usuarios como para el ecosistema en general. En tales entornos, la ejecución de decisiones y el funcionamiento de los sistemas se confiarían a contratos inteligentes de IA en lugar de a la participación humana, lo que daría lugar a preocupaciones éticas cruciales. Además, la implementación de mecanismos automatizados para desactivar instantáneamente el modelo es particularmente desafiante en estas redes descentralizadas, lo cual es un problema principal que también enfrenta el espacio DeFi.

La inclusión de inteligencia artificial (IA) en las cadenas de bloques tiene el potencial de beneficiar enormemente a las aplicaciones de finanzas descentralizadas (DeFi) al agilizar los procesos y mejorar la eficiencia en la prestación de diversos servicios financieros. Por ejemplo, la integración de modelos de IA puede permitir recomendaciones personalizadas para los usuarios sobre diferentes productos y servicios, facilitar la calificación crediticia basada en datos en línea y ofrecer servicios de asesoramiento sobre inversiones y comercio basados en datos. Asimismo, la aplicación del aprendizaje por refuerzo en procesos basados en blockchain abre más posibilidades para la IA en DeFi. Vale la pena señalar que la incorporación de la IA a DeFi puede ampliar las capacidades de los casos de uso de la tecnología de contabilidad distribuida (DLT) al introducir nuevas funcionalidades. Si bien, es importante reconocer que es posible que la introducción de la IA no transforme completamente los modelos de negocio subyacentes en estas aplicaciones.

IA para la inversión ESG

Las calificaciones ESG[1] pueden diferir significativamente entre varios proveedores de calificaciones ESG debido al uso de diferentes marcos, medidas, indicadores clave y métricas, así como al juicio subjetivo y la ponderación de las subcategorías. Esta disparidad en las calificaciones se ve exacerbada aún más por la falta de herramientas necesarias, como datos consistentes, métricas comparables y metodologías transparentes, que son cruciales para informar la toma de decisiones en el mercado. La importancia de los datos se vuelve aún más crucial cuando se analizan aspectos no financieros del desempeño de la empresa relacionados con cuestiones de sostenibilidad. Sin embargo, persisten preocupaciones con respecto a la calidad de los datos ESG, incluidas lagunas en la disponibilidad de datos, posibles inexactitudes y la falta de comparabilidad entre diferentes proveedores.

La inteligencia artificial y los big data tienen el potencial de revolucionar la inversión ESG al proporcionar un medio para evaluar los datos de las empresas, los datos no comerciales y la coherencia y comparabilidad de las calificaciones. El uso de la IA puede mejorar significativamente la toma de decisiones al reducir los sesgos subjetivos y cognitivos que a menudo surgen de los métodos de análisis tradicionales, además de minimizar el ruido en los datos ESG y aprovechar los datos no estructurados. El procesamiento del lenguaje natural (PNL) puede analizar específicamente grandes cantidades de datos no estructurados, como geolocalización e información de redes sociales, para realizar análisis de sentimientos e identificar patrones y relaciones. Estos análisis se pueden utilizar luego para asignar valores cuantitativos a parámetros cualitativos de sostenibilidad, utilizando técnicas avanzadas de inteligencia artificial.

En los últimos años, se ha presenciado el surgimiento de proveedores alternativos de calificación ESG, y estos proveedores ofrecen calificaciones basadas en inteligencia artificial para facilitar una evaluación externa más imparcial del desempeño de sostenibilidad de las empresas. Al aprovechar el poder de la inteligencia artificial, estos proveedores de calificación pretenden abordar el problema del lavado verde, que ocurre cuando las empresas adoptan medidas superficiales de sostenibilidad mientras continúan con sus estrategias comerciales convencionales. Mediante el uso de IA, estos proveedores pueden descubrir información crucial sobre las prácticas y acciones de sostenibilidad de las empresas, a la que de otro modo no sería fácilmente accesible. Este enfoque innovador tiene un inmenso potencial para mejorar la transparencia y la rendición de cuentas en el mundo empresarial.

Hay datos empíricos disponibles que respaldan el uso de calificaciones ESG alternativas basadas en IA. Esta evidencia sugiere que estas calificaciones tienen varios beneficios clave en comparación con los enfoques tradicionales. Estas ventajas incluyen un mayor nivel de normalización, un proceso de agregación más democrático y la utilización de análisis rigurosos en tiempo real. Aun cuando, es poco probable que estos métodos reemplacen completamente a los modelos tradicionales en el futuro. En cambio, tienen el potencial de funcionar junto con los enfoques tradicionales de calificación ESG, proporcionando información adicional a los inversores sobre información no divulgada sobre las entidades que se califican.

Por lo tanto, es importante reconocer que las propias empresas de renombre pueden utilizar la IA para oscurecer potencialmente su desempeño en materia de sostenibilidad. Al aprovechar las técnicas de inteligencia artificial, estas entidades pueden obtener una comprensión más profunda de sus operaciones e identificar con precisión áreas que deben destacarse estratégicamente en términos de divulgación de información para mejorar sus calificaciones ambientales, sociales y de gobernanza (ESG). Esto les permite manipular sus calificaciones ESG enfatizando estas áreas específicas, creando en última instancia una imagen distorsionada de su desempeño general en materia de sostenibilidad.

Los riesgos emergentes del uso de IA/ML/Big: herramientas de mitigación de riesgos

La expansión y diversificación de la tecnología IA/ML en los mercados financieros ha generado numerosos desafíos y riesgos que requieren una cuidadosa atención por parte de los participantes del mercado, los profesionales de la industria y los formuladores de políticas. Estos desafíos se pueden observar en varios niveles, incluido el nivel de datos, el nivel de modelo y de negocio, así como el nivel social y sistémico.

En el campo de la IA en las finanzas, en rápida expansión, existen varios desafíos que merecen atención y consideración cuidadosas. Estos desafíos incluyen la gestión y concentración de datos, el potencial de sesgo y discriminación, la necesidad de modelos de IA explicables, garantizar la solidez y resiliencia de los sistemas de IA, establecer marcos eficaces de gobernanza y rendición de cuentas, abordar las preocupaciones regulatorias y gestionar los riesgos y habilidades ocupacionales. Para mitigar estos riesgos, es importante explorar posibles estrategias y soluciones.

Los datos y su gestión

Los datos desempeñan un papel central en todas las aplicaciones de RNA gestionadas por IA, modelos de aprendizaje automático y big data presenta numerosas posibilidades para mejorar la eficacia, reducir gastos y aumentar la satisfacción del cliente al ofrecer servicios y productos superiores.

Los riesgos que surgen cuando se utiliza big data en RNA impulsada por IA en el sector financiero, tienen su origen en varios factores, incluida la calidad de los datos utilizados, las preocupaciones sobre la privacidad y la confidencialidad de los datos, las amenazas a la ciberseguridad y las consideraciones de justicia y equidad. Un riesgo clave es la posibilidad de sesgo y discriminación involuntarios contra ciertos grupos de personas, que pueden ocurrir cuando los datos se utilizan indebidamente o cuando se utilizan datos inapropiados en modelos, como en la suscripción de créditos. Asimismo, las preocupaciones por la protección del consumidor en el ámbito financiero, el uso de big data y modelos de aprendizaje automático también puede generar problemas de competencia, particularmente si hay una alta concentración de proveedores de mercado.

La representatividad y pertinencia de los datos

Uno de los aspectos clave del big data, comúnmente conocido como una de las cuatro "V", es la veracidad, referido al nivel de incertidumbre que rodea la confiabilidad y precisión de los big data. Esta incertidumbre puede surgir de varios factores, como fuentes cuestionables, calidad inadecuada de los datos o la inadecuación de los datos que se utilizan. En el ámbito de los macrodatos, la veracidad de las observaciones puede verse influida por comportamientos específicos observados en las plataformas de redes sociales, la presencia de sistemas de recopilación de datos ruidosos o sesgados, como sensores o el Internet de las cosas (IoT). Como resultado, la veracidad de los macrodatos puede no ser suficiente para prevenir o mitigar impactos dinámicos dispares, lo que complica aún más su confiabilidad y usabilidad.

El concepto de representatividad y relevancia de los datos es más significativo cuando se trata de aplicaciones (RNA) de IA que la veracidad de los datos. La representatividad de los datos se centra en si los datos utilizados proporcionan una representación integral y equilibrada de la población que se estudia, incluidos todos los subgrupos relevantes. Esto es particularmente importante en los mercados financieros para garantizar que ciertos grupos de operadores no estén sobrerrepresentados o insuficientemente representados, lo que lleva a una formación de modelos más precisa.

En el contexto de la calificación crediticia, la representatividad de los datos puede contribuir a promover la inclusión financiera entre los grupos minoritarios. Por otro lado, la relevancia de los datos se refiere al grado en que los datos utilizados describen con precisión el fenómeno que se estudia sin incluir información engañosa. Por ejemplo, al evaluar las calificaciones crediticias, es fundamental evaluar cuidadosamente la relevancia de la información sobre el comportamiento o la reputación de personas físicas o jurídicas antes de incorporarla al modelo. Aunque, evaluar el conjunto de datos caso por caso para mejorar la precisión y la idoneidad puede resultar engorroso debido al enorme volumen de datos involucrados, lo que podría socavar la eficiencia obtenida con la implementación de la IA.

La privacidad y confidencialidad de los datos

El uso de datos en sistemas de IA plantea varias preocupaciones con respecto a la protección y privacidad de los datos debido a su volumen, prevalencia y flujo continuo. Aparte de las preocupaciones típicas sobre la recopilación y utilización de datos personales, el campo de la IA introduce complejidades adicionales. Por ejemplo, la capacidad de la IA para extraer inferencias a partir de extensos conjuntos de datos puede crear problemas de compatibilidad. Las prácticas de privacidad tradicionales como "aviso y consentimiento" pueden no ser prácticas para garantizar la protección de la privacidad en los modelos de aprendizaje automático.

Igualmente, surgen desafíos relacionados con la conectividad de datos y la transferencia de datos a través de fronteras. Esto enfatiza la importancia de la conectividad de datos en la industria financiera y la necesidad crítica de tener la capacidad de agregar, almacenar, procesar y transmitir datos a nivel internacional mientras se implementan salvaguardas y estándares de gobernanza adecuados.

El proceso de fusionar múltiples conjuntos de datos puede presentar numerosas ventajas para quienes son nuevos en el trabajo con big data. Al combinar datos de diversas fuentes, las personas pueden obtener una imagen más amplia y completa de la información que están analizando. Esto es particularmente beneficioso cuando se trata de bases de datos que se han recopilado en diferentes condiciones, como diferentes poblaciones, regulaciones o métodos de muestreo. Al reunir estas diversas fuentes de datos, surgen nuevas oportunidades analíticas que no habrían sido posibles al examinar cada conjunto de datos individualmente. Sin embargo, es importante señalar que la fusión de conjuntos de datos heterogéneos también introduce ciertos desafíos y complejidades. Por ejemplo, la combinación de datos de diferentes entornos puede generar factores de confusión, sesgos en la selección de muestras y sesgos que surgen al comparar diferentes poblaciones.

La presencia de riesgos de ciberseguridad, riesgos de piratería informática y otros riesgos operativos en el ámbito de los productos y servicios financieros digitales tiene un impacto directo en la privacidad y confidencialidad de los datos. Aunque el uso de la tecnología de IA no introduce nuevas vías para las infracciones cibernéticas, tiene el potencial de amplificar las vulnerabilidades existentes. Esta amplificación puede ocurrir a través de diversos medios, como la conexión entre datos falsificados y ciberataques, lo que lleva a la aparición de nuevos ataques que pueden alterar la funcionalidad del algoritmo al introducir datos manipulados en sus modelos. Además, la IA también puede facilitar la modificación de ataques ya existentes.

El intercambio y la utilización de información financiera y no financiera de los consumidores es cada vez más frecuente, a menudo sin su total comprensión o consentimiento. Si bien la obtención del consentimiento informado es la base legal para utilizar los datos, es posible que los consumidores no siempre sean conscientes de cómo se maneja su información o dónde se utiliza, lo que genera posibles lagunas en su comprensión y consentimiento. El mayor uso de métodos de seguimiento avanzados para monitorear las actividades en línea y el intercambio de datos por parte de proveedores externos aumentan aún más estos riesgos. Así, también los conjuntos de datos que se recopilan sin la entrada directa del cliente, como la geolocalización o los datos de transacciones con tarjetas de crédito, son particularmente susceptibles a posibles infracciones de las políticas de privacidad y las leyes de protección de datos.

La industria sugiere nuevos métodos para proteger la privacidad del consumidor al calcular la confidencialidad. Un enfoque consiste en crear y utilizar conjuntos de datos sintéticos personalizados con fines de aprendizaje automático. Otro enfoque es utilizar tecnologías de mejora de la privacidad (PET), cuyo objetivo es mantener las características generales de los datos originales y al mismo tiempo mantener la confidencialidad de las muestras de datos individuales. Los PET abarcan técnicas como privacidad diferencial, análisis federado, cifrado homomórfico y computación multipartita segura. La privacidad diferencial, en particular, ofrece garantías de privacidad más sólidas y permite cálculos más precisos en comparación con los conjuntos de datos sintéticos. La ventaja de estas técnicas es que los modelos entrenados con datos sintéticos funcionan casi tan bien como los entrenados con datos reales. Los métodos tradicionales de anonimización de datos, por otro lado, no ofrecen garantías sólidas de privacidad, especialmente considerando las inferencias realizadas por los modelos de IA.

El empleo de big data en modelos basados en IA tiene el potencial de ampliar enormemente el alcance de lo que se considera información confidencial. Estos modelos tienen la capacidad de identificar con precisión a usuarios individuales mediante el análisis eficaz de diversos factores, como la tecnología de reconocimiento facial y datos inferidos, como los perfiles de los clientes. Al combinar esta información con otras fuentes de datos, los modelos de IA pueden hacer inferencias sobre las características de los usuarios, como el género, o incluso volver a identificar individuos a partir de bases de datos anónimas mediante referencias cruzadas con información disponible públicamente. En última instancia, este proceso conduce a la atribución de información confidencial a individuos específicos. Además, la mayor dimensionalidad de los conjuntos de datos de ML, que permite considerar un número ilimitado de variables en comparación con las técnicas estadísticas tradicionales, aumenta la probabilidad de incluir información confidencial en el análisis.

Por lo tanto, los reguladores han reavivado el enfoque en la privacidad y la protección de datos debido a la creciente digitalización de la economía. Un ejemplo de ello es el Reglamento General de Protección de Datos (GDPR) de la Unión Europea, que busca mejorar la protección del consumidor y reequilibrar la dinámica de poder entre empresas e individuos. El objetivo general es empoderar a los consumidores y fomentar la transparencia y la confianza en la forma en que las empresas manejan los datos de los consumidores. La salvaguardia de los datos y la privacidad de los consumidores es un principio fundamental descrito en los Principios de Alto Nivel sobre Protección del Consumidor Financiero del G20 y la OCDE. Además, la Autoridad Monetaria de Singapur está comprometida a defender la justicia, la ética, la responsabilidad y la transparencia en el uso de la inteligencia artificial en el sector financiero, con especial énfasis en la protección de los datos personales de las personas.

El sector financiero enfrenta desafíos para mejorar la gobernanza de datos para las empresas debido a la percepción de fragmentación en la responsabilidad regulatoria y de supervisión con respecto a los datos. Existe incertidumbre sobre qué instituciones deberían implementar las prácticas de gobernanza de datos más efectivas, incluidas áreas como calidad de datos, definiciones, estandarización, arquitectura y de duplicación. Esta cuestión se vuelve aún más compleja cuando se consideran las actividades transfronterizas.

El campo del uso de datos en economía está experimentando una transformación debido a la adopción generalizada de modelos de aprendizaje automático en la industria financiera. Como resultado, han surgido algunas empresas especializadas en conjuntos de datos alternativos para satisfacer la creciente demanda de datos que sirvan de base para las técnicas de inteligencia artificial. Si bien, estos corredores de conjuntos de datos operan con una supervisión y transparencia mínimas, lo que genera preocupaciones sobre la legalidad de la adquisición y el uso de sus datos por parte de los proveedores de servicios financieros. Además, los crecientes costos de cumplimiento asociados con las regulaciones diseñadas para proteger a los consumidores pueden tener un profundo impacto en la economía de la utilización de big data en el mercado financiero. Esto, a su vez, probablemente influirá en la forma en que los proveedores de los mercados financieros aborden el uso de la inteligencia artificial y los macrodatos.

 

 

 

 

 

 

 

 

 

 

 

 

Capítulo 3

Los datos y competencia en los servicios financieros basados en inteligencia artificial

 

Los avances en IA tienen el potencial de crear ventajas competitivas que podrían impactar negativamente en los mercados eficientes y competitivos, debido a que los consumidores pueden tener una capacidad limitada para tomar decisiones informadas si existe una alta concentración de proveedores de mercado. El uso de IA puede dar a ciertos proveedores de servicios financieros una ventaja sobre competidores más pequeños que tal vez no tengan los recursos para adoptar estas tecnologías. Además, el acceso desigual a los datos y el dominio de unas pocas grandes empresas de BigTech en la obtención de big data podrían dificultar que los actores más pequeños compitan en el mercado de productos y servicios basados en IA.

Los riesgos de concentración y dependencia de unos pocos actores dominantes se ven aumentados por el potencial de efectos de red, que podrían resultar en el surgimiento de nuevos actores que tengan un impacto significativo en todo el sistema. Las BigTech, en particular, ejemplifican este riesgo, y el hecho de que operen fuera de los límites regulatorios complica aún más los desafíos asociados con este tema. Esto se debe principalmente a la forma en que las grandes empresas tecnológicas acceden y utilizan los datos, lo que se ve amplificado aún más por el uso de técnicas de inteligencia artificial para generar ganancias a partir de esos datos. Además, estamos siendo testigos de una creciente influencia de un pequeño número de proveedores de datos alternativos en la industria de las bases de datos, lo que podría conducir a una concentración de poder en ese mercado.

Cuando se trata de ingresar al mercado de la IA, las empresas más pequeñas pueden encontrar obstáculos relacionados con los datos, ya que es posible que necesiten invertir en herramientas costosas como software avanzado de extracción de datos y tecnología de aprendizaje automático, así como en infraestructura física como centros de datos. Las inversiones son más rentables para las empresas más grandes debido a las economías de escala. Además, los algoritmos necesitan acceder a una amplia gama de datos de diversas fuentes para identificar nuevas relaciones y patrones. Puesto que las empresas más pequeñas sin los recursos necesarios o sin presencia en múltiples mercados pueden tener dificultades para desarrollar algoritmos que puedan competir eficazmente con los actores establecidos. Como resultado, pueden enfrentar barreras de entrada que obstaculizan su capacidad para tener éxito en el mercado de la IA.

La presencia de una competencia sana en el mercado de productos y servicios financieros basados en IA es crucial para que los proveedores aprovechen plenamente las ventajas de esta tecnología, particularmente en el comercio y la inversión. La utilización de modelos de proveedores externos o subcontratados puede ayudar a determinar las ventajas de estas herramientas para las empresas que las implementan, pero también tiene el potencial de crear mercados unilaterales y fomentar el comportamiento gregario entre los consumidores financieros. Así, los profesionales de las finanzas pueden comenzar a adoptar estrategias comerciales y de inversión similares, lo que resultará en una convergencia dentro de la industria.

Colusiones tácitas: riesgos

La implementación de modelos basados en IA a gran escala podría generar preocupaciones sobre la competencia, ya que permite la posibilidad de una colusión tácita sin ningún acuerdo formal o interacción humana. La colusión tácita se refiere a una situación en la que los competidores deciden de forma independiente estrategias para maximizar sus propios beneficios, lo que en última instancia conduce a un resultado no competitivo. En términos más simples, el uso de algoritmos hace que sea más sencillo para los participantes del mercado mantener ganancias por encima del nivel competitivo sin coludir explícitamente, reemplazando esencialmente la colusión explícita por una coordinación tácita.

Aunque la colusión tácita suele ocurrir en mercados que son transparentes y tienen un número limitado de participantes, hay pruebas que sugieren que la colusión se vuelve más manejable y observable en los mercados digitales que involucran algoritmos. Estos mercados digitales se caracterizan por un alto nivel de transparencia y una interacción frecuente.

La capacidad de los modelos de IA de autoaprendizaje y aprendizaje profundo para adaptarse y aprender dinámicamente tiene el potencial de aumentar el riesgo de que estos modelos reconozcan y se ajusten al comportamiento y las acciones de otros participantes del mercado o modelos de IA. Esto podría llevar a que se alcancen resultados colusorios sin ninguna intervención humana, y posiblemente incluso sin que el propio modelo de IA sea consciente de ello. Si bien tal colusión no necesariamente viola las leyes de competencia, genera preocupaciones sobre cómo abordar y regular el modelo y sus usuarios mediante medidas coercitivas.

La parcialidad y discriminación

Los métodos de IA tienen la capacidad de mitigar la discriminación por parte de los humanos en diversas interacciones o amplificar los prejuicios, el trato injusto y la discriminación en el ámbito de los servicios financieros. Al confiar al algoritmo la responsabilidad de la toma de decisiones, las personas que utilizan modelos basados en IA pueden evitar los sesgos inherentes asociados con el juicio humano. Sin embargo, es esencial reconocer que la adopción de aplicaciones de IA también presenta la posibilidad de introducir sesgos o discriminación debido al posible refuerzo de los sesgos existentes encontrados en los datos. Esto puede ocurrir mediante el entrenamiento de modelos utilizando datos sesgados o la identificación de correlaciones engañosas.

El uso de datos defectuosos o inapropiados en las redes neuronales puede dar lugar a una toma de decisiones incorrecta o sesgada. Cuando se utilizan datos de mala calidad, se pueden tomar decisiones sesgadas o discriminatorias de dos maneras. Los modelos de aprendizaje automático que se entrenan con datos inadecuados pueden producir resultados inexactos, incluso cuando se ingresan datos de buena calidad. De manera similar, los modelos de aprendizaje automático entrenados con datos de alta calidad aún pueden generar resultados cuestionables si se alimentan con datos inadecuados, a pesar de ser algoritmos bien entrenados. En consecuencia, los modelos de LA bien intencionados pueden producir involuntariamente conclusiones sesgadas que discriminen a ciertos grupos protegidos. La utilización de datos incorrectos, inexactos (como mal etiquetados o incompletos) o fraudulentos en los modelos de aprendizaje automático plantea el riesgo de "basura que entra, basura sale", donde la calidad del resultado del modelo depende en gran medida de la calidad de los datos.

También pueden existir sesgos en los datos utilizados como variables, y debido a que el modelo está entrenado con datos de fuentes externas que pueden haber ya incorporado ciertos sesgos, continúa manteniendo estos sesgos históricos. Igualmente, las decisiones sesgadas o discriminatorias tomadas por los modelos de aprendizaje automático no son necesariamente intencionales y pueden ocurrir incluso con datos de alta calidad y bien etiquetados. Esto puede suceder mediante inferencias y proxies, o porque resulta difícil identificar correlaciones entre variables sensibles y no sensibles dentro de bases de datos extensas. Dado que los macrodatos abarcan grandes cantidades de información que refleja la sociedad, las RNA basadas en IA tienen el potencial de perpetuar los sesgos existentes presentes en la sociedad y reflejados en estas bases de datos.

La implicación de los humanos en los procesos de toma de decisiones basados en inteligencia artificial es crucial para detectar y rectificar cualquier sesgo que pueda estar presente en los datos o en el diseño del modelo. Además, los humanos desempeñan un papel vital en la interpretación y explicación de los resultados del modelo, aunque la viabilidad de lograrlo en su máxima extensión aún es incierta. El factor humano es esencial tanto en la etapa de ingreso de datos como en la de consulta del sistema, y es importante abordar los resultados del modelo con cierto nivel de escepticismo para minimizar los riesgos potenciales de resultados o toma de decisiones sesgados.

El diseño y la auditoría de un modelo de ML desempeñan un papel crucial para garantizar la solidez del modelo y minimizar posibles sesgos. Si los modelos de IA/ML no se diseñan y controlan adecuadamente, pueden amplificar involuntariamente los sesgos existentes y hacer que sea aún más difícil detectar la discriminación. La realización de auditorías de modelos y algoritmos que comparen los resultados del modelo con conjuntos de datos de referencia puede ayudar a prevenir el trato injusto y la discriminación.

Es esencial que los usuarios y supervisores puedan probar los sistemas de puntuación para garantizar la equidad y la precisión. Así como también, se pueden realizar pruebas para comprobar si las clases protegidas se pueden inferir a partir de otros atributos de los datos, y se pueden emplear diversas técnicas para identificar y rectificar la discriminación en los modelos de ML. Asimismo, es importante gobernar los modelos de IA/ML y asignar responsabilidad a los humanos involucrados en el proyecto para proteger a los prestatarios potenciales de sesgos injustos. Al evaluar los sesgos, es fundamental evitar comparar la toma de decisiones basada en el aprendizaje automático con un estado imparcial ideal y, en su lugar, utilizar puntos de referencia realistas comparando estos métodos con los modelos estadísticos tradicionales y la toma de decisiones basada en humanos, ya que ambos enfoques tienen sus limitaciones y sesgos potenciales.

La explicabilidad

Uno de los principales desafíos que enfrentan los modelos de ML es la dificultad para desglosar el resultado del modelo y comprender los factores que contribuyen a su proceso de toma de decisiones. Este concepto, conocido como "explicabilidad", se refiere a la capacidad de justificar o racionalizar las decisiones y resultados producidos por el modelo. Los modelos basados en IA son intrínsecamente complejos debido a la naturaleza de la tecnología utilizada, y el ocultamiento intencional del funcionamiento interno de estos modelos por parte de los agentes del mercado aumenta aún más la falta de explicabilidad. Simplemente tener acceso al código subyacente no es suficiente para comprender completamente la mecánica del modelo, especialmente considerando la falta generalizada de conocimiento técnico entre los consumidores finales. Este problema se ve exacerbado aún más por el desajuste entre la complejidad de los modelos de IA y las capacidades cognitivas de los humanos en términos de razonamiento e interpretación.

La falta de confianza que los usuarios y supervisores tienen en las aplicaciones de IA se debe principalmente a la incapacidad de comprender y explicar el funcionamiento de los modelos de aprendizaje automático. En el campo de las finanzas, los enfoques impulsados por la IA se han vuelto cada vez más complejos y opacos, lo que dificulta que las personas comprendan cómo estos modelos toman decisiones. Incluso si los principios matemáticos subyacentes de estos modelos pueden explicarse, todavía carecen de una explicación clara y explícita de su conocimiento.

Por lo tanto, esta falta de transparencia socava la confianza entre los consumidores financieros y los reguladores, especialmente en los servicios financieros críticos. Para abordar este problema, es fundamental mejorar la explicabilidad de las aplicaciones de IA, ya que puede ayudar a mantener la confianza en la industria. Desde una perspectiva de control interno y gobernanza, es importante garantizar que los modelos de IA tengan un nivel mínimo de explicabilidad. Esto permite que un comité de modelado analice exhaustivamente el modelo y se sienta seguro en su implementación.

Así, la ausencia de explicabilidad puede no coincidir con las regulaciones existentes que requieren la comprensión y divulgación de la lógica subyacente. Por ejemplo, las regulaciones pueden exigir una comprensión y explicación integral de los algoritmos a lo largo de su vida útil. Otras políticas pueden otorgar a las personas el derecho a recibir una explicación de las decisiones tomadas por algoritmos, junto con información sobre la lógica involucrada, como el GDPR en la UE19, que se aplica a las decisiones crediticias y a los precios de los seguros.

Otro ejemplo es la posible utilización de LD para calcular los requisitos regulatorios, como los activos ponderados por riesgo (RWA) para el riesgo crediticio. Los estándares actuales requieren que estos modelos sean explicables o al menos estén sujetos a supervisión y juicio humanos, como se describe en el Marco de Basilea para el cálculo de los APR para el riesgo de crédito.

El uso de modelos basados en ML en los mercados financieros podría representar un riesgo significativo si los reguladores no monitorean de cerca su falta de explicabilidad. Esta falta de transparencia dificulta que tanto las empresas financieras como los supervisores anticipen cómo estos modelos afectarán a los mercados. Esto es particularmente preocupante porque la tecnología de IA tiene el potencial de introducir o amplificar riesgos sistémicos, como la mayor probabilidad de comportamiento gregario y convergencia de estrategias entre usuarios de modelos genéricos proporcionados por proveedores externos.

Sin una comprensión profunda de cómo funcionan estos modelos, los usuarios tienen una capacidad limitada para predecir su impacto en las condiciones del mercado o identificar si están contribuyendo a las perturbaciones. Además, los usuarios no pueden adaptar sus estrategias ante un desempeño deficiente o tensiones en el mercado, lo que puede provocar una mayor volatilidad del mercado y períodos de iliquidez. Esto puede exacerbar aún más eventos como accidentes repentinos. La falta de una comprensión clara de la mecánica del modelo también crea riesgos de manipulación del mercado, como suplantación de identidad y colusión tácita entre los participantes del mercado.

Los profesionales financieros en el campo de los mercados financieros que utilizan RNA basadas en IA se enfrentan a un mayor escrutinio con respecto a su capacidad para explicar cómo funcionan sus modelos. Esta mayor atención ha llevado a muchos participantes del mercado a centrarse en mejorar la explicabilidad de estos modelos. Al hacerlo, esperan comprender mejor cómo se comportan los modelos tanto en condiciones normales de mercado como en momentos de tensión, así como gestionar eficazmente los riesgos asociados.

Si bien, lograr la explicabilidad por diseño, es decir, incorporar la explicabilidad en el propio mecanismo de la IA, es una tarea desafiante. Esto se debe principalmente a varias razones: en primer lugar, el público en general puede tener dificultades para comprender la lógica subyacente del modelo; en segundo lugar, algunos modelos, como determinadas redes neuronales, son intrínsecamente complejos y no pueden comprenderse plenamente; y en tercer lugar, revelar plenamente el mecanismo implicaría esencialmente revelar la propiedad intelectual detrás del modelo.

La cuestión de la explicabilidad en relación con la IA ha provocado un debate que invita a la reflexión sobre cómo el nivel de explicabilidad requerido para la IA difiere del necesario para otros modelos matemáticos complejos en el sector financiero. Una preocupación es que las aplicaciones de IA puedan considerarse más exigentes, lo que conlleva una mayor carga de explicabilidad en comparación con otras tecnologías. Esta posible disparidad podría tener un efecto perjudicial sobre la innovación dentro del campo. En lugar de centrarse únicamente en el potencial matemático de los modelos de IA, es crucial que los comités prioricen el análisis de los riesgos inherentes a los que estos modelos pueden exponer a las empresas, determinando si estos riesgos se pueden gestionar de forma eficaz.

Los proveedores de servicios financieros deben lograr un equilibrio adecuado entre la explicabilidad del modelo y la precisión/rendimiento para poder sortear el equilibrio entre ambos. Es crucial que estos proveedores tengan un cierto nivel de comprensión sobre cómo opera el modelo y la lógica subyacente que sigue para evitar ser percibidos como "cajas negras". Al tener este conocimiento, los proveedores de servicios financieros pueden cumplir con las obligaciones regulatorias y generar confianza con los consumidores. En ciertas jurisdicciones como Alemania, no se aceptan modelos que carezcan de algún grado de explicabilidad.

Es importante señalar que no existe un principio o enfoque único que pueda explicar completamente los modelos LD, y el nivel de explicabilidad variará según el contexto específico. Al evaluar la interpretabilidad de un modelo, es necesario considerar la pregunta que se formula y las predicciones realizadas por el modelo. Además, es fundamental comprender que garantizar la explicabilidad del modelo no garantiza automáticamente su confiabilidad. Para alinear efectivamente la explicabilidad con el público, es necesario un cambio de enfoque hacia la "explicabilidad del riesgo". Esto significa poner más énfasis en comprender los riesgos potenciales asociados con el uso del modelo, en lugar de centrarse únicamente en la metodología detrás del modelo. La Oficina del Comisionado de Información del Reino Unido ha proporcionado recientemente orientación sobre el uso de cinco factores contextuales (alcance, impacto, datos utilizados, urgencia y audiencia) para evaluar el tipo de explicación requerida.

La auditabilidad de los algoritmos

El uso de modelos de "caja negra" en servicios financieros, como los préstamos, presenta desafíos en lo que respecta a la transparencia regulatoria y la auditoría. Estos modelos son complejos y difíciles de descomponer, lo que hace casi imposible comprender los factores subyacentes de su producción. Esta falta de explicabilidad dificulta la capacidad de realizar auditorías y limita la comprensión del supervisor del proceso de toma de decisiones del modelo. En algunas jurisdicciones, las leyes y regulaciones exigen auditabilidad y transparencia, lo que puede ser difícil de lograr las RNA. La capacidad de seguir una pista de auditoría depende de la interpretabilidad del modelo, que a menudo está limitada en los modelos de IA. Como las decisiones tomadas por estos modelos ya no son lineales y su interpretabilidad es limitada, es crucial encontrar formas de mejorar la explicabilidad de los resultados de la IA manteniendo al mismo tiempo la responsabilidad y una gobernanza sólida en los sistemas basados en IA.

Hay esfuerzos de investigación en curso tanto en el sector académico como en el industrial destinados a mejorar la comprensibilidad de las aplicaciones de inteligencia artificial (IA) y hacer que los modelos de aprendizaje automático (ML) sean más accesibles para su examen antes y después de su implementación.

La divulgación

Los Principios de las RNA sustentadas por IA de la OCDE enfatizan la importancia de la transparencia y la divulgación responsable cuando se trata de sistemas de IA. Esto significa que es crucial que las personas tengan una comprensión clara de los resultados basados en la IA y tengan la capacidad de cuestionarlos o desafiarlos. Para abordar la cuestión de la opacidad de los sistemas basados en algoritmos, se propone implementar requisitos de transparencia. Esto implicaría proporcionar información clara sobre las capacidades y limitaciones del sistema de IA. El objetivo de la divulgación por separado es informar a los consumidores sobre el uso de la IA en la entrega de un producto y su interacción con un sistema de IA en lugar de un ser humano, como en el caso de los robo-advisors. Al disponer de esta información, los clientes pueden tomar decisiones informadas y elegir entre diferentes productos de la competencia.

Hasta el momento, no existe un estándar ampliamente aceptado sobre la cantidad de información que debe revelarse a los inversores y consumidores financieros, así como sobre la proporcionalidad de dicha información. Los reguladores del mercado sugieren que el nivel de transparencia debería variar según el tipo de inversor (minorista o institucional) y el área de aplicación (front o back office). Estos reguladores argumentan que los requisitos de idoneidad, como los que se aplican a la venta de productos de inversión, podrían ayudar a las empresas a evaluar si los clientes potenciales poseen una comprensión integral de cómo la utilización de la IA afecta la provisión del producto o servicio.

Los requisitos para que las empresas financieras documenten los detalles operativos y las características de diseño de los modelos financieros ya existían incluso antes de la aparición de la IA. Algunos reguladores ahora están utilizando la documentación de la lógica del algoritmo como un medio para garantizar que los resultados del modelo puedan explicarse, rastrearse y repetirse.

La Unión Europea, por ejemplo, está contemplando la implementación de requisitos para divulgar documentación sobre metodologías, procesos, programación y técnicas de capacitación utilizadas en el desarrollo, prueba y validación de sistemas de IA, incluida documentación sobre el algoritmo en sí (OECD, 2021). El Consejo de Políticas Públicas de la Asociación de Maquinaria de Computación (USACM) de EE. UU. ha propuesto un conjunto de principios que priorizan la transparencia y la auditabilidad en el uso de algoritmos, sugiriendo que los modelos, datos, algoritmos y decisiones deben registrarse para permitir la auditoría en caso de sospecha. daño. La orientación de la Reserva Federal sobre la gestión de riesgos de modelos también enfatiza la necesidad de una documentación detallada del desarrollo y validación del modelo, que permita a las personas que no están familiarizadas con el modelo comprender su funcionamiento, limitaciones y supuestos (OECD, 2021).

Los proveedores de servicios financieros se enfrentan a desafíos cada vez mayores a la hora de documentar el proceso de los modelos basados en IA que se utilizan con fines de supervisión. Esta dificultad surge de la naturaleza compleja de estos modelos, lo que dificulta explicar cómo funcionan y posteriormente documentarlos. Este desafío no se limita al tamaño del proveedor de servicios, ya que incluso los proveedores más pequeños enfrentan los mismos obstáculos.

En respuesta a esto, algunas jurisdicciones han propuesto un enfoque doble para supervisar los modelos de IA:

Esto se logra mediante el uso de modelos desafiantes, que se utilizan para compararlos con el modelo que se está probando, así como conjuntos de datos de evaluación comparativa seleccionados por auditores.

Además, aparte de las dificultades asociadas con la explicación de los modelos basados en IA, existe la complejidad añadida de configurar numerosos parámetros que afectan en gran medida el rendimiento y los resultados del modelo. El proceso de parametrización puede considerarse "arbitrario" y subjetivo, ya que a menudo se basa en la intuición más que en una validación exhaustiva y está fuertemente influenciado por el individuo que diseña el modelo. Aunque revelar los parámetros elegidos podría aliviar algunos de los problemas, explicar cómo estos parámetros interactúan con el modelo todavía plantea un desafío importante.

Robustez y resiliencia de los modelos de IA

Es crucial que los sistemas de IA funcionen de manera efectiva, segura y confiable en cada etapa de su existencia, y es imperativo evaluar y mitigar continuamente cualquier riesgo potencial que puedan plantear. Para mejorar la solidez de los sistemas de IA, es esencial entrenar diligentemente los modelos y evaluar minuciosamente su desempeño en consonancia con los objetivos previstos.

Entrenamiento modelos de IA

Para tener en cuenta relaciones más complejas y la no linealidad de los datos, puede ser necesario entrenar modelos utilizando conjuntos de datos más grandes. Esto se debe a que las interacciones de orden superior pueden ser más difíciles de alcanzar y requerir más datos para descubrirse. Por lo tanto, es crucial tener conjuntos de datos suficientemente grandes para el entrenamiento a fin de capturar relaciones no lineales y eventos raros en los datos. Sin embargo, esto presenta desafíos en la práctica, ya que los eventos de cola son poco frecuentes y el conjunto de datos puede no ser lo suficientemente sólido como para producir resultados óptimos. Además, existe una compensación, ya que el uso de conjuntos de datos cada vez más grandes para entrenar modelos corre el riesgo de hacerlos menos adaptables, comprometiendo potencialmente su rendimiento y capacidad para aprender de manera efectiva.

El sistema financiero está en riesgo debido a que la industria no ha logrado entrenar modelos en conjuntos de datos que incluyan eventos raros e inesperados. Esto debilita la confiabilidad de los modelos de IA en tiempos de crisis y limita su utilidad a condiciones de mercado estables. Un problema potencial es el sobreajuste, donde un modelo funciona bien con los datos con los que fue entrenado, pero mal con datos nuevos y desconocidos. Para solucionar esto, los creadores de modelos dividen los datos en conjuntos de entrenamiento y validación y utilizan el conjunto de entrenamiento para crear múltiples modelos con diferentes configuraciones. Luego, el conjunto de validación se utiliza para probar la precisión de los modelos y optimizar sus parámetros. Al analizar los errores en el conjunto de validación, se puede determinar el mejor conjunto de parámetros del modelo.

Anteriormente, los científicos creían que el rendimiento medido de los modelos de validación proporcionaba una estimación imparcial de su rendimiento general. Sin embargo, estudios recientes realizados por Westerhuis et al. (2008) y Harrington (2018) han demostrado que este supuesto no siempre es exacto. Estos estudios enfatizan la importancia de tener un conjunto de datos de prueba ciego adicional que no se utilice durante el proceso de selección y validación del modelo. Este conjunto de datos de prueba es esencial para obtener una estimación más confiable de la capacidad del modelo para generalizar. Los procesos de validación mencionados en estos estudios implican algo más que simplemente realizar pruebas retrospectivas del modelo con datos históricos para evaluar sus capacidades predictivas. También tienen como objetivo garantizar que los resultados obtenidos del modelo sean reproducibles.

Se están utilizando conjuntos de datos sintéticos generados artificialmente como conjuntos de prueba con fines de validación. Estos conjuntos de datos presentan una alternativa intrigante debido a su capacidad de proporcionar cantidades ilimitadas de datos simulados. Además, ofrecen un enfoque potencialmente más rentable para mejorar la precisión predictiva y reforzar la resiliencia de los modelos de aprendizaje automático. Esto resulta especialmente beneficioso en situaciones en las que obtener datos reales resulta complicado y costoso. En ciertos casos, los organismos reguladores, como los de Alemania, exigen la evaluación de los resultados del modelo de IA dentro de escenarios de prueba definidos por las autoridades supervisoras.

El seguimiento y la validación continuos de los modelos a lo largo de su vida útil son cruciales para gestionar eficazmente los riesgos asociados con cualquier tipo de modelo. La validación del modelo se lleva a cabo después del entrenamiento del modelo y sirve para confirmar que el modelo se ha implementado correctamente y funciona según lo previsto. Abarca una serie de procesos y actividades destinadas a garantizar que los modelos se alineen con sus objetivos de diseño y propósitos comerciales, al mismo tiempo que garantizan su solidez. Esto implica identificar posibles limitaciones e hipótesis y evaluar su impacto potencial. El proceso de validación debe abarcar todos los aspectos del modelo, incluidos los datos de entrada, el procesamiento y la presentación de informes. Se aplica tanto a los modelos desarrollados internamente como a los obtenidos de fuentes externas o de terceros. Las actividades de validación deben llevarse a cabo continuamente para monitorear las limitaciones conocidas del modelo e identificar las nuevas, particularmente durante períodos de tensión económica o financiera que pueden no reflejarse en el conjunto de datos de capacitación.

Las pruebas continuas de los modelos ML son extremadamente importantes para detectar y rectificar cualquier desviación en los modelos denominada "desviaciones del modelo". Estas desviaciones pueden ocurrir en forma de desviaciones de conceptos o desviaciones de datos. Las derivas de conceptos se refieren a situaciones en las que las características estadísticas de la variable objetivo que analiza el modelo sufren cambios, alterando así el concepto fundamental que el modelo pretende predecir. Por ejemplo, a medida que pasa el tiempo, la comprensión del fraude puede evolucionar debido a la aparición de nuevos métodos utilizados para actividades ilegales. Esta evolución en la definición de fraude daría lugar en última instancia a una deriva del concepto.

Las desviaciones de datos ocurren cuando las características estadísticas de los datos de entrada sufren alteraciones, lo que afecta la capacidad del modelo para hacer predicciones precisas. Un ejemplo digno de mención de estas desviaciones de los datos es el pronunciado cambio en los sentimientos y las inclinaciones de los consumidores hacia el comercio electrónico y la banca digital. Estos cambios, que no se tuvieron en cuenta en el conjunto de datos de entrenamiento original, pueden provocar una disminución en el rendimiento del modelo.

El seguimiento y la validación continuos de los modelos de aprendizaje automático (ML) desempeñan un papel crucial a la hora de prevenir y abordar las desviaciones. Al implementar procedimientos estandarizados para este proceso de monitoreo, podemos mejorar la resiliencia de los modelos y determinar si es necesario algún ajuste, redesarrollo o reemplazo. Es de suma importancia establecer una arquitectura eficiente que facilite el rápido reentrenamiento de modelos con datos actualizados, especialmente cuando cambia la distribución de los datos, ya que esto ayuda a mitigar los riesgos potenciales asociados con la deriva del modelo.

Además de monitorear y evaluar continuamente el código o modelo que se utiliza, ciertos organismos reguladores han implementado el requisito de incluir "kill switch" u otros mecanismos de control automatizados que activen alertas en situaciones de alto riesgo. Los interruptores de apagado sirven como ejemplo de tales mecanismos de control, ya que pueden desactivar rápidamente una RNA basada en IA si se desvía de su propósito previsto. A modo de ejemplo, en Canadá, las empresas tienen el mandato de incorporar funciones de "anulación" que pueden apagar automáticamente el sistema o permitir el apagado remoto si se considera necesario. Estos interruptores de apagado deben someterse a pruebas rigurosas y un monitoreo continuo para garantizar que las empresas puedan depender de ellos si surge la necesidad.

Es necesario mejorar las funciones y procesos de gestión de riesgos existentes diseñados específicamente para que los modelos basados en IA aborden los riesgos emergentes y las consecuencias no deseadas. Para garantizar la eficacia de los modelos, es fundamental realizar pruebas de rendimiento en condiciones extremas del mercado. Esto es esencial para prevenir la aparición de riesgos y vulnerabilidades sistémicos que puedan surgir durante tiempos estresantes. Sin embargo, cabe señalar que es posible que los datos utilizados para entrenar estos modelos no capturen completamente los efectos de las condiciones de estrés del mercado o los cambios en diversos factores, como exposiciones, actividades o comportamientos.

En consecuencia, esta limitación podría afectar negativamente el rendimiento del modelo. Además, dado que estos modelos son relativamente nuevos, su capacidad para abordar eficazmente los riesgos en condiciones financieras cambiantes aún no se ha puesto a prueba. Para mitigar esto, es importante incorporar una multitud de escenarios con fines de prueba y backtesting. Al considerar diferentes comportamientos y tendencias del mercado, existe la esperanza de minimizar la posibilidad de subestimar los riesgos en tales escenarios.

Las investigaciones han indicado que la explicabilidad de un sistema de una manera que los humanos puedan entender fácilmente puede tener un impacto sustancial en cómo los usuarios perciben su precisión, independientemente de la verdadera precisión observada. Según la OECD (2020), cuando las explicaciones se brindan de una manera menos comprensible para los humanos, los usuarios están menos inclinados a evaluar con precisión la exactitud de una técnica que no se basa en principios fácilmente comprensibles.

Aprendizaje sin sentido

La convergencia de la inferencia causal y el aprendizaje automático se ha convertido en un campo de estudio floreciente, como lo indica el rápido crecimiento de la investigación en esta área. Si bien los sistemas de reconocimiento de patrones carecen de la capacidad de comprender las relaciones causa-efecto, comprender dichas relaciones es un aspecto fundamental de la inteligencia humana. En consecuencia, existe un reconocimiento creciente entre los investigadores del aprendizaje profundo sobre la importancia de estas investigaciones y las están incorporando a sus estudios. Sin embargo, es importante señalar que esta área particular de investigación aún se encuentra en sus etapas incipientes.

Los usuarios que utilizan modelos de aprendizaje automático pueden correr el riesgo de interpretar erróneamente correlaciones sin sentido observadas en los patrones de actividad como relaciones causales. Esto puede dar lugar a resultados del modelo cuestionables. Es crucial ir más allá de la mera correlación y profundizar en la causalidad para comprender las circunstancias en las que un modelo podría fallar. Esta comprensión nos permitirá determinar si el patrón observado seguirá siendo predictivo con el tiempo.

Igualmente, la inferencia causal juega un papel vital en la replicación de los resultados empíricos de un modelo en nuevos entornos, entornos o poblaciones, asegurando así la validez externa de los resultados del modelo. La capacidad de transferir los efectos causales aprendidos de un conjunto de datos de prueba a un nuevo conjunto de datos, donde solo se pueden realizar estudios observacionales, se denomina transportabilidad. Este concepto es fundamental para la utilidad y solidez de los modelos de aprendizaje automático. A los supervisores puede resultarles beneficioso obtener información sobre los supuestos causales hechos por los usuarios de los modelos de IA para evaluar mejor los posibles riesgos asociados.

Es crucial evaluar exhaustivamente los resultados de los modelos de inteligencia artificial, y el juicio humano juega un papel vital en este proceso, particularmente cuando se trata de determinar la causalidad. Sin una buena dosis de escepticismo o precaución, confiar únicamente en la correlación identificada por modelos basados en IA puede dar lugar a una toma de decisiones sesgada o inexacta, ya que la causalidad puede no estar necesariamente presente. Las investigaciones han demostrado que los modelos son propensos a adquirir estrategias subóptimas si no consideran el consejo humano, incluso en los casos en que las decisiones humanas pueden ser menos precisas que las propias habilidades de los modelos.

El ejemplo de la crisis de COVID-19

Si bien Las RNA basadas en IA están diseñados para adaptarse y aprender de nuevos datos a lo largo del tiempo, pueden tener dificultades para manejar eventos únicos e imprevistos como la crisis de COVID-19. Estos eventos no se tienen en cuenta en los datos utilizados para entrenar los modelos, lo que dificulta su funcionamiento eficaz. Los sistemas comerciales gestionados por IA, que se basan en modelos dinámicos entrenados a partir de datos históricos, suelen tener éxito siempre que el entorno del mercado siga siendo coherente con el pasado.

Si bien, una encuesta realizada a bancos del Reino Unido indica que aproximadamente el 35% de ellos experimentaron un impacto negativo en el rendimiento de sus modelos de aprendizaje automático durante la pandemia (OECD, 2020). Esto puede atribuirse a cambios significativos en las variables macroeconómicas causados por la pandemia, como el aumento del desempleo y los cambios en los préstamos hipotecarios, que requirieron recalibrar tanto el aprendizaje automático como los modelos tradicionales. Eventos imprevistos como la pandemia interrumpen la continuidad de los conjuntos de datos, lo que genera desviaciones en los modelos que socavan las capacidades predictivas de estos modelos.

Los eventos de cola se refieren a sucesos inesperados que conducen a cambios imprevistos en el comportamiento de la variable objetivo, lo que afecta la precisión de las predicciones del modelo. Estos eventos también provocan alteraciones no reconocidas previamente en la estructura de datos y los patrones subyacentes del conjunto de datos utilizado para el entrenamiento del modelo, todo debido a cambios en la dinámica del mercado durante tales eventos. Dado que estos cambios no se tienen en cuenta en el conjunto de datos original, es probable que den como resultado una disminución en el rendimiento del modelo. Para abordar esto, futuros conjuntos de datos sintéticos creados para el entrenamiento de modelos podrían incorporar eventos de cola similares, junto con datos del período COVID-19, con el fin de volver a entrenar y distribuir modelos actualizados.

Por lo tanto, es crucial participar en pruebas continuas de modelos utilizando conjuntos de datos de validación que abarquen escenarios extremos. Además, es vital monitorear continuamente cualquier desviación en los modelos. Esto es esencial para minimizar los riesgos potenciales que puedan surgir durante períodos de estrés o incertidumbre. Vale la pena mencionar que se prevé que los modelos basados en el aprendizaje por refuerzo, en los que el modelo se entrena utilizando condiciones simuladas, exhibirán un rendimiento superior durante eventos raros e imprevistos que plantean riesgos extremos. Esto se debe a que dichos modelos son comparativamente más fáciles de entrenar al incorporar escenarios condicionales, incluso aquellos que involucran tendencias de mercado extraordinarias y sin precedentes que no se han observado en el pasado.

 

 

 

 

 

 

 

 

Capítulo 4

La gobernanza de los sistemas de IA

 

El establecimiento de estructuras de gobernanza sólidas y mecanismos de rendición de cuentas transparentes es crucial a la hora de implementar RNA en escenarios críticos de toma de decisiones, como determinar el acceso al crédito o asignar carteras de inversión. Es imperativo que las organizaciones y las personas involucradas en el desarrollo, implementación u operación de sistemas de IA asuman la responsabilidad de garantizar su funcionamiento eficaz y responsable. Como lo afirma la OCDE, es necesario adoptar medidas estrictas para hacer cumplir la rendición de cuentas. Igualmente, la Comisión Europea (2020) enfatiza la importancia de la supervisión humana durante todo el ciclo de vida de los productos y sistemas de IA para que sirva como protección contra posibles riesgos y sesgos.

En la actualidad, las personas involucradas en el mercado financiero que utilizan la IA dependen de los mecanismos existentes de gobernanza y supervisión cuando utilizan estas tecnologías. Esto se debe a que los algoritmos basados en IA no se consideran fundamentalmente diferentes de los algoritmos tradicionales. Los marcos de gobernanza actuales que se aplican a los modelos pueden servir como base para desarrollar o adaptarse a la actividad de la IA, ya que muchas de las consideraciones y riesgos asociados con la IA también son relevantes para otros tipos de modelos.

Al implementar marcos de gobernanza explícitos que establezcan claramente líneas de responsabilidad para el desarrollo y la supervisión de los sistemas basados en IA a lo largo de todo su ciclo de vida, desde el desarrollo hasta el despliegue, se pueden fortalecer aún más los acuerdos operativos existentes relacionados con la IA. Estos marcos de gobierno interno pueden incluir estándares mínimos o directrices sobre mejores prácticas y enfoques para implementar estas directrices. El establecimiento de comités de modelos internos desempeña un papel clave en el establecimiento de estándares de gobernanza de modelos y los procesos que siguen los proveedores de servicios financieros al crear, documentar y validar modelos de cualquier tipo, incluidos los modelos de aprendizaje automático basados en IA.

Los marcos de gobernanza de modelos actuales aún no han considerado los desafíos únicos que plantean los modelos de IA, que tienen una existencia transitoria y sufren cambios frecuentes. El problema radica en adaptar los procesos de gobernanza de modelos existentes para dar cabida a modelos de IA más avanzados que tengan la capacidad de reconstruirse a sí mismos en cortos períodos de tiempo. Una posible solución para abordar este problema es preservar los datos y el código utilizados en el modelo, permitiendo la generación de réplicas de las entradas y salidas del modelo basadas en fechas pasadas. Sin embargo, es importante tener en cuenta que muchos modelos de ML no son deterministas, lo que significa que incluso con los mismos datos de entrada, no hay garantía de que se produzca exactamente el mismo modelo.

Incorporar los resultados deseados para los consumidores en un marco de gobernanza es de suma importancia, y esto debe ir acompañado de una evaluación de si estos resultados se logran mediante el uso de tecnologías de IA y cómo. Cuando se trata de modelos avanzados de aprendizaje profundo, puede haber preocupaciones sobre quién controla en última instancia el modelo, ya que la IA podría actuar involuntariamente de una manera que vaya en contra de los mejores intereses de los consumidores. Por ejemplo, los resultados sesgados en la suscripción de créditos, como se mencionó anteriormente, podrían ser una consecuencia potencial. Además, el comportamiento autónomo que exhiben determinados sistemas de IA a lo largo de su ciclo de vida puede provocar cambios significativos en el producto, que podrían afectar a su seguridad. En consecuencia, puede ser necesaria una nueva evaluación de riesgos en tales casos, como destacó la Comisión Europea en 2020.

La responsabilidad final de los sistemas basados en IA recae en los niveles ejecutivo y de gestión del proveedor de servicios financieros. Deben establecer un enfoque integral para gestionar el riesgo del modelo y garantizar que esté dentro de niveles aceptables. Además, otras funciones como ingenieros, programadores y analistas de datos, que tradicionalmente no han sido centrales para la revisión de los supervisores, ahora pueden enfrentar un mayor escrutinio debido a su creciente importancia en la implementación de productos y servicios financieros basados en IA.

Por lo tanto, es posible que la responsabilidad de los sistemas relacionados con la IA deba extenderse más allá de la alta dirección y la junta directiva, hacia los profesionales responsables de la programación, el desarrollo de modelos y el uso del sistema. Es crucial que estas funciones técnicas cuenten con un mecanismo para brindar servicios a los clientes y explicar eficazmente estos modelos a los altos directivos y a la junta directiva. En algunas jurisdicciones, puede ser necesario que una auditoría de un tercero valide el desempeño del modelo de acuerdo con su propósito previsto. Una gobernanza sólida también implica una documentación exhaustiva del desarrollo y la validación del modelo.

Normalmente, los proveedores de servicios financieros emplean procedimientos similares para el desarrollo, la documentación y la validación de modelos de aprendizaje automático (ML) que los que utilizan para los modelos estadísticos convencionales.

La implementación de mejores prácticas de gobernanza de modelos ha estado vigente desde la adopción de modelos estadísticos convencionales para determinaciones de crédito y financiamiento al consumo. Es imperativo que las instituciones financieras garanticen que los modelos se construyan utilizando conjuntos de datos apropiados y se abstengan de incorporar ciertos datos en los modelos. Asimismo, es fundamental evitar el uso de datos sustitutos que puedan potencialmente discriminar a los grupos protegidos. También es esencial realizar pruebas y validaciones rigurosas de los modelos, a veces realizadas por validadores independientes. Además, cuando los modelos se utilizan en operaciones reales, es vital garantizar que los datos de entrada se alineen con los datos utilizados durante la fase de desarrollo del modelo. Se mantienen registros de auditoría y documentación adecuados para realizar un seguimiento de diversos aspectos, como las decisiones de implementación, diseño y producción.

Los marcos de gobernanza modelo también enfatizan la importancia de monitorear los modelos para garantizar que no generen resultados que indiquen un trato desigual. Por lo tanto, es fundamental tener la capacidad de comprender el razonamiento detrás del resultado del modelo. En el sector de servicios financieros, las organizaciones establecen comités de gobierno modelo o juntas de revisión de modelos para desarrollar, autorizar y supervisar la implementación de procedimientos de gobierno modelo.

La validación del modelo es un aspecto crucial de varios procedimientos que implican la utilización de conjuntos de datos retenidos. Además de esto, existen otros procedimientos convencionales, como examinar la coherencia y confiabilidad de las entradas, salidas y parámetros. A medida que la adopción de la IA se vuelve más frecuente en la industria financiera, se prevé que el establecimiento de comités internos para supervisar estos procesos se vuelva cada vez más común. Además, es probable que estos comités experimenten mejoras en sus funciones y competencias para adaptarse a la naturaleza intrincada de los modelos basados en IA. Es importante señalar que la frecuencia y las metodologías empleadas para la validación de modelos en el contexto de los modelos basados en IA deben ser distintas de las aplicadas a los modelos lineales.

La inteligencia artificial también se utiliza con fines de tecnología regulatoria (RegTech). Para garantizar una gobernanza eficaz de los modelos, las empresas de servicios financieros están trabajando activamente para mejorar los procedimientos automatizados que supervisan y regulan los datos utilizados por los modelos en funcionamiento. Además, también se centran en mejorar  los sistemas automatizados que monitorean y evalúan los resultados generados por estos modelos.

La subcontratación: terceros proveedores

Un aspecto de los riesgos involucra la dinámica competitiva, específicamente los riesgos de concentración. Cuando las empresas dependen de un único tercero para sus necesidades de IA, existe el riesgo de volverse demasiado dependientes de ese proveedor. Esto puede crear una situación en la que la empresa tenga opciones y poder de negociación limitados, lo que podría generar costos más altos o servicios inferiores. Así, si el tercero elegido experimenta dificultades financieras o cierra, puede interrumpir las operaciones de inteligencia artificial de la empresa y causar reveses importantes.

Asimismo, la subcontratación de técnicas de IA puede generar vulnerabilidades sistémicas, particularmente relacionadas con un mayor riesgo de convergencia. El riesgo de convergencia se refiere al potencial de que múltiples sistemas o procesos se interconecten y dependan unos de otros. Al subcontratar técnicas de IA a terceros, las empresas están introduciendo un elemento externo en sus operaciones, lo que puede aumentar la complejidad y la interconexión de sus sistemas. Esto puede hacer que la empresa sea más vulnerable a fallas o interrupciones en la infraestructura de inteligencia artificial de terceros, lo que podría provocar interrupciones operativas o comprometer la seguridad de los datos.

Existen riesgos adicionales que deben considerarse al subcontratar técnicas de IA a terceros. Estos riesgos se pueden clasificar en dos áreas principales: dinámica competitiva y vulnerabilidades sistémicas. Esencialmente, la subcontratación de técnicas de IA a terceros presenta riesgos adicionales más allá de los beneficios iniciales. Estos riesgos incluyen riesgos de concentración, donde las empresas se vuelven demasiado dependientes de un único proveedor, y vulnerabilidades sistémicas que surgen de un mayor riesgo de convergencia. Es esencial que las empresas evalúen y mitiguen cuidadosamente estos riesgos para garantizar la implementación y el funcionamiento exitosos de las técnicas de IA subcontratadas.

Los posibles riesgos de concentración asociados con proveedores externos específicos pueden aumentar cuando se trata de la recopilación y gestión de datos, como proveedores de conjuntos de datos, o en el ámbito del suministro de tecnología, como proveedores de modelos externos, e infraestructura, como como proveedores de nube. A medida que los modelos y técnicas de inteligencia artificial (IA) se vuelven más fácilmente disponibles a través de la adopción de la nube, existe un mayor riesgo de depender de proveedores de soluciones subcontratados, lo que genera nuevos desafíos en términos de dinámica competitiva y la posible formación de estructuras de mercado oligopólicas dentro de estos servicios.

Por lo tanto, la utilización de modelos de terceros tiene el potencial de crear riesgos de convergencia tanto a nivel de empresas individuales como a nivel sistémico más amplio. Este riesgo aumenta particularmente cuando hay una falta de diversidad entre los modelos de terceros en el mercado. En tiempos de tensión financiera, como los de baja liquidez, este riesgo de convergencia puede dar lugar a la formación de manadas y casos de iliquidez, lo que puede ser perjudicial para la estabilidad general del mercado. Igualmente, la disminución de la capacidad de almacenamiento de los creadores de mercado tradicionales agrava aún más este problema, ya que no pueden proporcionar suficiente liquidez en momentos de tensión en el mercado mediante la creación activa de mercado. Las entidades más pequeñas son particularmente vulnerables al impacto de los rebaños, ya que a menudo dependen de terceros para manejar el desarrollo y la gestión de modelos de aprendizaje automático debido a la falta de experiencia interna en esta área.

La subcontratación de técnicas de inteligencia artificial o de las tecnologías e infraestructura que las habilitan presenta desafíos en términos de responsabilidad y riesgos de concentración. Para gestionar eficazmente estos riesgos, es fundamental establecer acuerdos de gobernanza y modalidades contractuales adecuados, similares a los utilizados en otros sectores de servicios. Los proveedores de financiación deben poseer las habilidades necesarias para auditar y realizar la debida diligencia sobre los servicios ofrecidos por entidades de terceros. Sin embargo, una dependencia excesiva de la subcontratación puede aumentar la probabilidad de interrupciones en los servicios, lo que podría tener importantes impactos sistémicos en los mercados. Por lo tanto, es imperativo contar con planes de contingencia y seguridad que garanticen que la empresa pueda operar sin problemas incluso si surge alguna vulnerabilidad.

Consideraciones reglamentarias

Si bien un número significativo de países ha establecido estrategias integrales de IA, vale la pena señalar que solo unas pocas jurisdicciones han implementado regulaciones y requisitos específicos relacionados específicamente con algoritmos y RNA basadas en IA. En la mayoría de los casos, la supervisión y el control de las aplicaciones de aprendizaje automático se rigen por directrices generales para sistemas y controles. Estas directrices suelen hacer hincapié en el examen y la evaluación meticulosos de los algoritmos antes de su introducción en el mercado, así como en la evaluación continua de su eficacia y funcionalidad a lo largo de su vida operativa.

Muchas jurisdicciones adoptan un enfoque tecnológicamente neutral cuando se trata de regular los productos del mercado financiero, lo que incluye la supervisión de la gestión de riesgos, la gobernanza y el uso de algoritmos. Sin embargo, este enfoque puede enfrentar desafíos a medida que el uso innovador de la tecnología en las finanzas se vuelve más complejo. Con los avances en inteligencia artificial, particularmente en áreas como el aprendizaje profundo, es posible que los marcos regulatorios existentes en el sector financiero no aborden adecuadamente los riesgos sistémicos que podrían surgir de la adopción generalizada de estas técnicas.

También, cabe señalar que es posible que determinadas técnicas avanzadas de IA no se ajusten a los requisitos legales o reglamentarios vigentes. Este problema surge debido a la falta de transparencia y explicabilidad de algunos modelos de aprendizaje automático, así como a la naturaleza en constante evolución de los modelos de aprendizaje profundo que se adaptan continuamente. Estos factores pueden potencialmente crear un conflicto con las regulaciones existentes.

Asimismo, pueden surgir inconsistencias en el ámbito de la recopilación y gestión de datos. Por ejemplo, el Reglamento General de Protección de Datos (GDPR) de la Unión Europea impone restricciones al almacenamiento de datos individuales durante un período de tiempo limitado. Si bien, las regulaciones relacionadas con la IA podrían requerir que las empresas mantengan un registro completo de los conjuntos de datos utilizados para entrenar sus algoritmos con fines de auditoría. Esto crea un dilema, ya que los conjuntos de datos utilizados para entrenar estos algoritmos suelen ser extremadamente grandes, lo que genera desafíos prácticos y costos asociados con el registro de datos con fines de monitoreo.

Ciertas jurisdicciones, como la Unión Europea (UE), han reconocido la necesidad de modificar o aclarar las leyes existentes en áreas específicas, como la responsabilidad, para garantizar la implementación y el cumplimiento efectivo de estas regulaciones. La razón detrás de esta necesidad es la falta de transparencia en los sistemas de IA, lo que crea desafíos para identificar y probar posibles violaciones de las leyes. Esto incluye disposiciones legales que salvaguardan los derechos fundamentales, establecen responsabilidades y permiten obtener una compensación. En el futuro previsible, los reguladores y supervisores pueden considerar necesario modificar las regulaciones y ajustar sus enfoques de supervisión para adaptarse a las nuevas realidades generadas por el despliegue de la IA, como una mayor concentración y subcontratación.

El panorama regulatorio que rodea a la IA corre el riesgo de fragmentarse en varios niveles, incluidos el nacional, el internacional y el sectorial. Los participantes de la industria enfatizan la necesidad de una mayor coherencia en las regulaciones para garantizar que las técnicas de IA puedan utilizarse de manera efectiva a través de las fronteras. Además de las regulaciones existentes para modelos y sistemas de IA, en los últimos años se han publicado numerosos principios, directrices y mejores prácticas. Si bien estos recursos se consideran valiosos para abordar riesgos potenciales, existen opiniones divergentes sobre su utilidad práctica y los desafíos de traducirlos en una guía efectiva con ejemplos de la vida real.

La disponibilidad y simplicidad de las herramientas de inteligencia artificial estandarizadas tienen el potencial de incentivar a entidades no reguladas a ofrecer asesoría de inversión u otros servicios sin obtener la certificación o licencia necesaria, operando así de manera no conforme. Este fenómeno de arbitraje regulatorio no sólo se observa entre las grandes empresas tecnológicas, sino también dentro de sus operaciones, donde utilizan conjuntos de datos accesibles a través de sus principales actividades comerciales.

Los riesgos laborales

Los proveedores de servicios financieros y los supervisores deben estar técnicamente capacitados para operar, inspeccionar los sistemas basados en IA e intervenir cuando sea necesario. La falta de competencias adecuadas es una fuente potencial de vulnerabilidades tanto para el sector como para los organismos reguladores y supervisores, y puede dar lugar a posibles problemas de empleo en el sector financiero. El despliegue de la IA y los macrodatos en las finanzas requiere diferentes competencias que posee un segmento relativamente pequeño de profesionales financieros. En consonancia con las importantes inversiones que deberán realizarse para desarrollar modelos y herramientas basados en IA, las empresas también tendrán que desarrollar capital humano con las habilidades necesarias para obtener valor de estas tecnologías y explotar el valor de grandes cantidades de fuentes de datos no estructurados.

Desde el punto de vista de la industria, el despliegue de las RNA implica el uso de profesionales que combinen conocimientos científicos en el área de la IA, conocimientos informáticos (programación, codificación) y experiencia en el sector financiero. Mientras que los actuales participantes en los mercados financieros han aislado de alguna manera las funciones de los especialistas en TI o finanzas, el uso generalizado de la IA por parte de las instituciones financieras dependerá cada vez más de expertos que combinen con éxito los conocimientos financieros con la experiencia en informática, y generará una mayor demanda de los mismos. Es importante que los profesionales del cumplimiento y los gestores de riesgos comprendan adecuadamente el funcionamiento de las técnicas y modelos de IA para poder auditar, supervisar, cuestionar y aprobar su uso. Del mismo modo, los altos directivos, que en la mayoría de los casos son responsables del uso de estas técnicas, deben ser capaces de comprender y seguir su desarrollo y aplicación.

La adopción generalizada de la IA y el ML por parte del sector financiero puede plantear algunos retos en materia de empleo. Por un lado, se espera que la demanda de empleados con conocimientos aplicables en métodos de IA, matemáticas avanzadas, ingeniería de software y ciencia de datos sea significativa. Por otro lado, los ejecutivos de las empresas de servicios financieros prevén que la aplicación de estas tecnologías puede dar lugar a pérdidas de empleo potencialmente significativas en todo el sector. En la práctica, se espera que los profesionales de los mercados financieros y los expertos en gestión de riesgos adquieran experiencia y conocimientos en IA a medio plazo, ya que los modelos de IA coexistirán con los modelos tradicionales y hasta el momento en que la IA se generalice.

La dependencia excesiva de sistemas totalmente automatizados basados en la IA puede dar lugar a un mayor riesgo de interrupción del servicio con posibles repercusiones sistémicas en los mercados. Si los mercados que dependen de tales sistemas se enfrentan a perturbaciones técnicas o de otro tipo, los proveedores de servicios financieros deben asegurarse de que, desde el punto de vista de los recursos humanos, están preparados para sustituir los sistemas automatizados de IA por seres humanos bien formados que actúen como red de seguridad humana y sean capaces de garantizar que no se produzcan perturbaciones en los mercados. Es probable que estas consideraciones sean cada vez más importantes, a medida que el despliegue de la IA se generalice en los mercados.

La cuestión de las cualificaciones y los conocimientos técnicos es cada vez más importante también desde el punto de vista de la regulación y la supervisión. Los reguladores y supervisores del sector financiero pueden tener que seguir el ritmo de la tecnología y mejorar las competencias necesarias para supervisar eficazmente las aplicaciones financieras basadas en la IA. Es posible que las autoridades encargadas de velar por el cumplimiento de la normativa deban estar técnicamente capacitadas para inspeccionar los sistemas basados en IA y facultadas para intervenir cuando sea necesario. La capacitación de los responsables políticos también les permitirá ampliar su propio uso de la IA en RegTech y SupTech, un importante ámbito de aplicación de la innovación en el sector oficial.

El uso de RNA en las finanzas debe considerarse una tecnología que aumenta las capacidades humanas en lugar de sustituirlas. Se podría argumentar que una combinación de "hombre y máquina", en la que la IA informe al juicio humano en lugar de sustituirlo (ayuda a la toma de decisiones en lugar de responsable de la toma de decisiones), podría permitir aprovechar los beneficios de la tecnología, manteniendo al mismo tiempo las salvaguardias de responsabilidad y control en cuanto a la toma de decisiones en última instancia. En el estado actual de madurez de las soluciones de IA, y para garantizar que se minimizan las vulnerabilidades y los riesgos derivados del uso de técnicas basadas en la IA, sigue siendo necesario cierto nivel de supervisión humana de las técnicas de IA. La identificación de puntos de convergencia en los que se integren el ser humano y la IA será fundamental para la aplicación práctica de este enfoque combinado “hombre-máquina”.

Implicaciones políticas

La actividad política en torno a las RNA en las finanzas

Con el poder de revolucionar diversas industrias y la aparición de nuevos riesgos asociados con la implementación de las redes neuronales y su efecto potenciador sobre la inteligencia artificial (IA), ésto se ha convertido en un foco cada vez más importante en los debates políticos. En mayo de 2019, la Organización para la Cooperación y el Desarrollo Económicos (OCDE) presentó sus Principios de IA, que marcan el primer conjunto de directrices aceptadas a nivel mundial para el uso responsable y ético de la IA. Estos principios fueron formulados por un grupo diverso de expertos de diversos sectores, lo que garantiza un enfoque integral para la implementación responsable de una IA confiable. La amplitud de los temas cubiertos por los Principios de IA de la OCDE y su conexión directa con el fomento del crecimiento sostenible e inclusivo los hacen particularmente relevantes al considerar su aplicación en el ámbito de las finanzas globales.

La Recomendación sobre IA fue adoptada oficialmente por el Consejo de la OCDE durante una reunión a nivel ministerial celebrada los días 22 y 23 de mayo de 2019. Este importante hito significa el compromiso de la OCDE para abordar los desafíos y oportunidades asociados con las tecnologías de inteligencia artificial (IA). Los Principios de IA de la OCDE, que constituyen el núcleo de esta recomendación, enfatizan el papel crucial de los gobiernos en la configuración de un enfoque centrado en el ser humano para una IA confiable.

Al promover el uso de sistemas de IA innovadores y confiables, estos principios tienen como objetivo garantizar la protección de los derechos humanos y la preservación de los valores democráticos. Este marco integral sirve como guía para los formuladores de políticas y las partes interesadas, y ofrece una hoja de ruta para el desarrollo y la implementación responsables de tecnologías de IA en todo el mundo.

La Recomendación presenta un conjunto de cinco principios interrelacionados arraigados en valores éticos que deberían guiar la gestión responsable de una IA confiable. Estos principios enfatizan la importancia de la contribución de la IA a la promoción del crecimiento inclusivo, el desarrollo sostenible y el bienestar general tanto de las personas como del medio ambiente.

 

La OCDE también ofrece cinco recomendaciones a los gobiernos:

En el año 2020, la Comisión Europea publicó un Libro Blanco que presentaba varias estrategias y regulaciones para establecer un "ecosistema de IA para la excelencia y la confianza". Esta propuesta no solo describe medidas específicas para apoyar el desarrollo y la adopción de la IA en la economía y la administración pública de la UE, sino que también ofrece opciones potenciales para un futuro marco regulatorio para la IA.

Asimismo, el Libro Blanco examina consideraciones importantes como la seguridad y la responsabilidad en el campo de la IA. La Comisión Europea también está tomando medidas prácticas para implementar estas ideas, incluidas iniciativas como los proyectos piloto del consorcio Infinitech, financiado por la CE. Estos proyectos tienen como objetivo reducir los obstáculos a la innovación impulsada por la IA, mejorar el cumplimiento normativo y fomentar las inversiones en el sector.

El proyecto Infinitech es una empresa ambiciosa encabezada por un consorcio colaborativo formado por 48 participantes procedentes de 16 países miembros de la Unión Europea. Esta innovadora iniciativa ha recibido una financiación sustancial del prestigioso Programa de Investigación e Innovación Horizonte 2020 de la Comisión Europea. El objetivo principal del proyecto Infinitech gira en torno a la realización de una amplia gama de experimentos y pruebas que abarcan más de 20 proyectos piloto e instituciones financieras. Estas pruebas profundizan específicamente en el ámbito de las finanzas digitales, aprovechando el poder transformador de tecnologías de vanguardia como la inteligencia artificial, el big data y el Internet de las cosas (IoT).

Infinitech ofrece una amplia gama de productos y servicios innovadores impulsados por inteligencia artificial. Estos incluyen una variedad de aplicaciones como Conozca a su cliente (KYC), análisis de clientes, gestión de cartera personalizada, evaluación de riesgo crediticio, prevención de fraude y delitos financieros, servicios de seguros y herramientas RegTech. Estas herramientas están diseñadas específicamente para incorporar capacidades de gobernanza de datos y garantizar el cumplimiento de regulaciones como PSD2, 4AMLD y MIFiD II. Al aprovechar la tecnología avanzada de inteligencia artificial, Infinitech puede brindar soluciones de vanguardia que mejoran las experiencias de los clientes, mejoran los procesos de evaluación de riesgos, previenen actividades fraudulentas y agilizan el cumplimiento normativo para las empresas de los sectores financiero y de seguros.

En el año 2019, la junta directiva de IOSCO (Organización Internacional de Comisión de valores) puso especial énfasis en el tema de la inteligencia artificial (IA) y su posible conexión con el lavado de dinero. Este reconocimiento de la importancia de la IA continuó durante el año siguiente, ya que en 2020, IOSCO publicó un informe de consulta que aborda específicamente la utilización de la IA por parte de intermediarios del mercado y administradores de activos. La intención detrás de este informe era presentar seis medidas distintas que podrían ayudar a los miembros de IOSCO a establecer estructuras regulatorias adecuadas para supervisar de manera efectiva a estos intermediarios que operan dentro del mercado, así como a los administradores de activos que emplean estas tecnologías avanzadas.

Estos aspectos incluyen:

Los esfuerzos para abordar las implicaciones de la IA en el sector financiero se han extendido al nivel nacional. Por ejemplo, la ACPR francesa estableció un grupo de trabajo colaborativo en 2018 que reúne a profesionales de diversas entidades financieras, incluidas asociaciones empresariales, bancos, aseguradoras y FinTech, junto con autoridades públicas. El objetivo principal de este grupo es facilitar los debates sobre las aplicaciones actuales y potenciales de la IA en el sector, identificando tanto las oportunidades como los riesgos asociados a su implementación.

Asimismo, esta iniciativa tiene como objetivo abordar los desafíos que enfrentan los supervisores al supervisar la adopción de la IA en la industria financiera. De manera similar, en 2019, el Banco de Inglaterra y la Autoridad de Conducta Financiera lanzaron conjuntamente el Foro Público Privado sobre IA, que sirve como plataforma para involucrar a las partes interesadas y fomentar el diálogo sobre las implicaciones de la IA en el ámbito financiero (consulte el Recuadro 4.4 para obtener más detalles).

Igualmente, la Federación de Rusia ha dado pasos importantes en el desarrollo y regulación de la IA. En 2019, promulgaron una Estrategia Nacional dedicada específicamente al avance de la IA, seguida de la introducción de un Concepto para regular las tecnologías de IA y la robótica en 2020. Además, en 2021, el gobierno ruso aprobó la Ley Federal sobre Regímenes Experimentales de Innovación Digital, otorgando al Banco de Rusia la autoridad para aprobar entornos de pruebas regulatorios que atiendan proyectos que involucren soluciones de inteligencia artificial en finanzas. Esta medida legislativa se complementó con el lanzamiento de un entorno de pruebas regulatorio de cinco años en Moscú en julio de 2020, en virtud de una Ley Federal especial, diseñada específicamente para facilitar la implementación de la IA en el sector financiero.

En los últimos tiempos, diversos organismos normativos y reguladores, como el Contralor de la Moneda, el Sistema de la Reserva Federal, la Corporación Federal de Seguro de Depósitos, la Oficina de Protección Financiera del Consumidor y las Cooperativas de Crédito de la Administración Nacional de Seguros, han adoptado medidas importantes para abordar el problema de uso de la inteligencia artificial (IA) por parte de las instituciones financieras. Esto se puede ver en su iniciativa conjunta, que comenzó el 31 de marzo de 2021, en la que solicitaron información y comentarios sobre la utilización de la IA, incluido el aprendizaje automático, en el sector financiero.

El objetivo de esta consulta es evaluar exhaustivamente las ventajas y riesgos potenciales asociados con la implementación de la IA en las finanzas. Algunas de las preocupaciones clave destacadas en la consulta incluyen la necesidad de explicabilidad en los sistemas de inteligencia artificial, garantizar el uso adecuado de los datos y la actualización dinámica, y abordar posibles problemas relacionados con las prácticas crediticias intensivas. Además, la consulta busca opiniones sobre cómo abordar el riesgo de sobreadaptación, mitigar los riesgos de ciberseguridad, considerar prácticas crediticias justas, implementar una supervisión efectiva de terceros y explorar otras consideraciones relevantes.

El 21 de abril de 2021, la Comisión Europea publicó una propuesta de reglamento que tiene como objetivo abordar los riesgos potenciales asociados con la inteligencia artificial (IA) y establecer reglas consistentes para su uso en todos los sectores. Como parte de esta propuesta, se sugiere la creación del Consejo Europeo de IA. Si bien la propuesta tiene un alcance amplio, impone los requisitos más estrictos a las aplicaciones de IA de alto riesgo, como la evaluación de la solvencia.

Estos requisitos incluyen el uso de sistemas integrales de gestión de riesgos y calidad, someter el sistema de IA a una evaluación de conformidad y utilizar datos de alta calidad que sean precisos, representativos y completos. Así, la propuesta enfatiza la necesidad de transparencia en el uso y funcionamiento de aplicaciones basadas en IA, el requisito de supervisión humana por parte de personas debidamente capacitadas y la implementación de salvaguardias como interruptores de apagado o confirmación humana explícita de la toma de decisiones. También enfatiza la importancia de garantizar la precisión, solidez y seguridad de los sistemas de inteligencia artificial, realizar un seguimiento posterior a la comercialización, informar incidentes importantes a los reguladores y registrar el sistema en un registro público.

Consideraciones políticas

La creciente utilización de la inteligencia artificial (IA) en el campo de los servicios financieros tiene el potencial de ofrecer ventajas sustanciales tanto a los consumidores financieros como a los participantes del mercado. No sólo puede mejorar la calidad general de los servicios prestados, sino que también puede generar eficiencias para los proveedores de servicios financieros. Si bien, es fundamental reconocer que la integración de aplicaciones basadas en IA en la industria financiera también puede introducir nuevos desafíos, como la falta de transparencia y explicabilidad en los procesos de toma de decisiones. Igualmente, existe la posibilidad de que los riesgos existentes en los mercados financieros, como los asociados con la gestión y el uso de datos, se magnifiquen aún más con la adopción de la tecnología de inteligencia artificial.

Es crucial que los formuladores de políticas y los reguladores prioricen la alineación de la implementación de la IA en el sector financiero con los objetivos de mejorar la estabilidad financiera, salvaguardar los intereses de los consumidores financieros y fomentar la integridad y la competencia del mercado. Para lograr esto, es imperativo identificar y mitigar activamente cualquier riesgo potencial que pueda surgir del uso de técnicas de IA, al mismo tiempo que se fomenta y apoya el uso responsable de la IA. Esto puede implicar revisar y perfeccionar los marcos regulatorios y de supervisión existentes para abordar cualquier inconsistencia o desafío percibido que plantee la integración de las tecnologías de inteligencia artificial en la industria financiera.

La aplicación de medidas regulatorias y de supervisión a las técnicas de IA se puede abordar de manera que tenga en cuenta el contexto específico y la magnitud de la aplicación, así como las posibles consecuencias para las personas que utilizan la IA. Al adoptar un marco proporcional, el objetivo es promover la utilización de la tecnología de IA evitando al mismo tiempo cualquier obstáculo indebido a la innovación.

Es fundamental que los responsables de la formulación de políticas presten especial atención a la mejora de la gobernanza de datos dentro de las empresas del sector financiero para mejorar la protección del consumidor en todos los aspectos de la implementación de la IA en las finanzas. Esta nota destaca varios riesgos importantes asociados con la gestión de datos, incluidas las preocupaciones sobre la privacidad de los datos, la confidencialidad, la concentración de datos y el impacto potencial en la dinámica de competencia del mercado.

Asimismo, existe el riesgo de sesgo y discriminación involuntarios como resultado de las características y tendencias de los datos. No se puede cuestionar la importancia de los datos, especialmente en relación con el entrenamiento, las pruebas y la validación de modelos de aprendizaje automático. Además, los datos desempeñan un papel fundamental a la hora de determinar la capacidad de estos modelos para mantener su precisión predictiva durante acontecimientos extremos e imprevistos.

Un posible enfoque que podrían adoptar los responsables de la formulación de políticas es implementar directrices o estándares específicos para la gestión de datos en técnicas basadas en IA. Estas directrices podrían abarcar varios aspectos, como la calidad de los datos, garantizar que el conjunto de datos utilizado se alinee con el propósito previsto del modelo de IA e implementar salvaguardas para garantizar que el modelo sea sólido y esté libre de sesgos.

Para mitigar los riesgos de discriminación, sería beneficioso emplear mejores prácticas, como comparar los resultados del modelo con conjuntos de datos establecidos y realizar pruebas para determinar si las características protegidas pueden inferirse de otros atributos de los datos. Otra forma de minimizar el sesgo es validar la idoneidad de las variables utilizadas en el modelo. También podría ser beneficioso desarrollar y utilizar herramientas para monitorear y corregir cualquier desviación conceptual. Además, es posible que los formuladores de políticas quieran considerar imponer requisitos de transparencia adicionales sobre el uso de datos personales y brindar a las personas la opción de optar por no utilizar sus datos personales.

Los formuladores de políticas deberían considerar implementar regulaciones que exijan a los proveedores de servicios financieros revelar su uso de técnicas de inteligencia artificial y cómo esto puede afectar a los clientes. Es crucial que los consumidores financieros estén completamente informados sobre el uso de la IA en los productos que compran, así como sobre la posibilidad de interactuar con un sistema de IA en lugar de un representante humano. Esta transparencia permite a los consumidores tomar decisiones informadas al elegir entre diferentes productos.

Igualmente, la información divulgada debe proporcionar detalles claros sobre las capacidades y limitaciones del sistema de IA. Para mejorar aún más la protección del consumidor, las autoridades también podrían introducir requisitos de idoneidad para los servicios financieros basados en IA, similares a las regulaciones actualmente vigentes para la venta de productos de inversión. Estos requisitos garantizarían que los proveedores de servicios financieros puedan evaluar con precisión si los clientes potenciales tienen una comprensión suficiente de cómo el uso de la IA afecta la entrega del producto.

La limitada transparencia y capacidad de explicación de muchos modelos avanzados de inteligencia artificial basados en inteligencia artificial es una cuestión política clave que aún debe resolverse. La falta de explicabilidad es incompatible con las leyes y reglamentos vigentes, pero también con los marcos internos de gobernanza, gestión de riesgos y control de los proveedores de servicios financieros. Limita la capacidad de los usuarios para comprender cómo sus modelos afectan a los mercados o contribuye a las perturbaciones del mercado. Puede amplificar los riesgos sistémicos relacionados con la prociclicidad, la convergencia y el aumento de la volatilidad del mercado a través de compras y ventas simultáneas de grandes cantidades, en particular cuando se utilizan modelos normalizados de terceros. Y lo que es más importante, la incapacidad de los usuarios para ajustar sus estrategias en momentos de tensión puede exacerbar la volatilidad del mercado y provocar episodios de iliquidez durante periodos de tensión aguda, agravando los acontecimientos de tipo flash crash.

Los reguladores deben estudiar cómo superar la incompatibilidad percibida de la falta de explicabilidad en la IA con las leyes y reglamentos vigentes. Puede ser necesario actualizar y/o ajustar los marcos actualmente aplicables para la gobernanza de los modelos y la gestión del riesgo por parte de las empresas de servicios financieros a fin de abordar los retos que plantea el uso de modelos basados en IA. Es posible que la atención de los supervisores deba desplazarse desde la documentación del proceso de desarrollo y el proceso por el que el modelo llega a su predicción hacia el comportamiento y los resultados del modelo, y que los supervisores deseen buscar formas más técnicas de gestionar el riesgo, como las pruebas de estrés de modelos adversariales o las métricas basadas en resultados.

A pesar de los recientes avances para mejorar la explicabilidad de la IA desde niveles bajos, la explicabilidad sigue siendo el núcleo de la falta de confianza percibida de usuarios y supervisores en torno a las aplicaciones de IA. Aunque los debates actuales tienden a centrarse en la mejora de la explicabilidad como único mecanismo para promover la confianza, puede ser necesario introducir otros controles y equilibrios para garantizar que la toma de decisiones basada en modelos de inteligencia artificial funciona según lo previsto.

Los responsables políticos podrían considerar la posibilidad de exigir marcos claros de gobernanza de los modelos y la atribución de la responsabilidad al ser humano para ayudar a generar confianza en los sistemas basados en IA. Es posible que los proveedores de servicios financieros deban establecer marcos de gobernanza explícitos que designen líneas claras de responsabilidad para el desarrollo y la supervisión de los sistemas basados en IA a lo largo de su ciclo de vida, desde el desarrollo hasta la implantación, con el fin de reforzar los acuerdos existentes para las operaciones relacionadas con la IA.

Puede ser necesario ajustar los marcos de gobernanza de los modelos internos para captar mejor los riesgos derivados del uso de la IA, así como para incorporar los resultados previstos para los consumidores junto con una evaluación de si se alcanzan dichos resultados utilizando tecnologías de IA y de qué manera. La documentación adecuada y las pistas de auditoría de los procesos mencionados pueden ayudar a los supervisores a vigilar esta actividad.

La provisión de mayores garantías por parte de las empresas financieras sobre la solidez y resistencia de los modelos de IA es fundamental, ya que los responsables políticos tratan de protegerse contra la acumulación de riesgos sistémicos, y ayudará a que las aplicaciones de IA en las finanzas ganen confianza. Puede ser necesario probar el rendimiento de los modelos en condiciones de mercado extremas, para prevenir los riesgos sistémicos y las vulnerabilidades que puedan surgir en momentos de tensión.

La introducción de mecanismos de control automático (como interruptores de desactivación) que activen alertas o desactiven modelos en momentos de tensión podría ayudar a mitigar los riesgos, aunque exponen a la empresa a nuevos riesgos operativos. Deben existir planes, modelos y procesos de respaldo para garantizar la continuidad de la actividad en caso de que los modelos fallen o actúen de forma inesperada. Asimismo, los reguladores podrían considerar colchones adicionales o mínimos si los bancos tuvieran que determinar las ponderaciones de riesgo o el capital basándose en algoritmos de IA.

Es posible que deban introducirse y/o reforzarse marcos para la formación adecuada, el reciclaje y las pruebas rigurosas de los modelos de IA para garantizar que la toma de decisiones basada en modelos de ML funciona según lo previsto y de conformidad con las normas y reglamentos aplicables. Los conjuntos de datos utilizados para el entrenamiento deben ser lo suficientemente amplios como para captar relaciones no lineales y eventos de cola en los datos, aunque sean sintéticos, para mejorar la fiabilidad de dichos modelos en momentos de crisis imprevistos. Las pruebas continuas de los modelos de inteligencia artificial son indispensables para identificar y corregir las desviaciones del modelo.

Los reguladores deberían abogar firmemente por el seguimiento y la validación continuos de los modelos de IA, ya que estas actividades desempeñan un papel crucial en la mitigación de riesgos. Al enfatizar la importancia de estas prácticas, los reguladores pueden ayudar a mejorar la resiliencia de los modelos y abordar eficazmente cualquier desviación de su desempeño previsto. Desarrollar procedimientos estandarizados para el seguimiento y la validación sería particularmente beneficioso, ya que establecería mejores prácticas que pueden adoptarse universalmente. Dichos procedimientos también permitirían la identificación de modelos que requieren ajustes, remodelación o reemplazo. Para garantizar la transparencia y la rendición de cuentas, es esencial separar la validación del modelo de su proceso de desarrollo y documentar exhaustivamente toda la información relevante. Además, la frecuencia de las pruebas y la validación debe determinarse en función de la complejidad del modelo y la importancia de las decisiones en las que influye.

La importancia de la participación humana en la toma de decisiones se vuelve particularmente relevante en situaciones donde decisiones de alto valor, como las decisiones crediticias, tienen un impacto significativo en los consumidores. Para fomentar la confianza en estos sistemas, las autoridades reguladoras podrían considerar implementar procesos que permitan a los clientes cuestionar los resultados de los modelos de IA y buscar soluciones. El Reglamento General de Protección de Datos (GDPR) sirve como ejemplo de dicha política, ya que otorga a las personas el derecho a solicitar la intervención humana y expresar sus preocupaciones si desean cuestionar las decisiones tomadas por algoritmos (UE, 2016). Además, una comunicación clara y transparente por parte de las entidades gubernamentales sobre sus expectativas puede mejorar aún más la confianza en el uso de aplicaciones de IA en el sector financiero.

Los formuladores de políticas deben tener en cuenta la creciente complejidad de la tecnología de inteligencia artificial y considerar si necesitarán asignar recursos para mantenerse al día con los avances. Invertir en investigación puede ayudar a abordar cuestiones relacionadas con la comprensión y las consecuencias no deseadas de las técnicas de IA. Además, es importante invertir en habilidades tanto para los participantes del sector financiero como para los formuladores de políticas para que puedan mantenerse informados sobre los avances tecnológicos y participar en debates interdisciplinarios en diversos niveles operativos, regulatorios y de supervisión.

Una posible solución para equilibrar la previsibilidad y explicabilidad del modelo, así como cumplir con los requisitos legales y regulatorios de transparencia, podría ser fomentar una colaboración más estrecha entre los profesionales de TI y los expertos en finanzas tradicionales. Esto podría implicar cerrar la brecha entre disciplinas como el aprendizaje profundo y los enfoques simbólicos, que involucran reglas creadas por humanos, para mejorar la explicabilidad de los enfoques basados en IA. También puede ser necesario que las autoridades encargadas de hacer cumplir la ley posean capacidades técnicas para inspeccionar los sistemas basados en IA y tengan la autoridad para intervenir cuando sea necesario, al tiempo que se benefician del uso de la IA mediante la implementación de aplicaciones RegTech/SupTech.

El papel de los formuladores de políticas desempeña un papel crucial no sólo para apoyar la innovación en el sector, sino también para garantizar la protección adecuada de los consumidores y los inversores financieros, así como para mantener mercados justos, ordenados y transparentes para estos productos y servicios. Es posible que los formuladores de políticas necesiten ajustar y mejorar sus medidas existentes para abordar de manera efectiva los riesgos asociados con el uso de la IA. Un aspecto importante de esto es comunicar claramente la adopción de la IA y las salvaguardas implementadas para proteger el sistema y sus usuarios, lo que puede ayudar a generar confianza y promover la implementación de estas técnicas innovadoras. Dada la fácil prestación transfronteriza de servicios financieros, es esencial fomentar y mantener un diálogo multidisciplinario entre los responsables de las políticas y el sector, tanto a nivel nacional como internacional.

 

 

 

 

 

 

 

Conclusiones

 

Durante las últimas décadas, los mercados financieros han experimentado cambios significativos gracias al surgimiento de plataformas avanzadas de comunicación y negociación, que han permitido que un mayor número de inversores accedan a los mercados, conllevado a una transformación de la teoría tradicional del mercado de capitales y a una mejora de los métodos de análisis financiero.

Los investigadores han estado intrigados durante mucho tiempo por la predicción de los rendimientos de las acciones, que normalmente implica examinar la relación entre la información fundamental disponible públicamente del pasado y los rendimientos futuros de las acciones o índices. Este enfoque desafía la hipótesis del mercado eficiente, que sostiene que toda la información relevante se incorpora rápidamente a los precios de las acciones, lo que hace imposible predecir los rendimientos futuros. Si bien, hay pruebas contradictorias que sugieren que es posible que los mercados no siempre sean plenamente eficientes, lo que deja espacio para la posibilidad de predecir rendimientos futuros con resultados mejores que las probabilidades.

Tomando en consideración las investigaciones realizadas es evidente que existe evidencia que respalda la previsibilidad de los rendimientos del mercado de valores utilizando información disponible públicamente, como datos de series temporales sobre variables financieras y económicas. Los estudios destacan la importancia de variables como las tasas de interés, las tasas de crecimiento monetario, los cambios en la producción industrial y las tasas de inflación para predecir una parte de los rendimientos de las acciones.

Sin embargo, es importante señalar que la mayoría de estos estudios se basan en supuestos de regresión lineal simple, a pesar de la falta de evidencia que respalde una relación lineal entre los rendimientos de las acciones y las variables financieras y económicas. Como existe una cantidad considerable de varianza residual en los rendimientos reales de las acciones en comparación con las predicciones hechas por ecuaciones de regresión, es posible que la utilización de modelos no lineales pueda explicar esta varianza residual y proporcionar pronósticos más precisos de los movimientos del precio de las acciones.

Debido a la prevalencia de supuestos lineales en las técnicas de modelización actuales, se vuelve esencial considerar un método de análisis financiero que incorpore el análisis no lineal de los mercados financieros integrados. Aunque se puede realizar una regresión no lineal, la mayoría de estas técnicas requieren la especificación de un modelo no lineal antes de determinar las estimaciones de los parámetros. Sin embargo, las redes neuronales presentan una técnica de modelado no lineal que puede superar estos desafíos.

Las redes neuronales ofrecen un enfoque único que no requiere especificación previa durante el proceso de modelado, ya que aprenden de forma autónoma la relación inherente entre variables. Esto es particularmente valioso en la inversión en valores y otras áreas financieras donde abundan las suposiciones y se sabe poco sobre los procesos subyacentes que determinan los precios de los activos. Además, las redes neuronales brindan la ventaja de opciones de arquitectura flexibles, algoritmos de aprendizaje y procedimientos de validación.

Bibliografía

 

Altman, E. I. (1968). Financial ratios, discriminant analysis and the prediction of corporate bankruptcy. The journal of finance, 23(4), 589-609.

Assad, S., Clark, R., Ershov, D., & Xu, L. (2020). Algorithmic pricing and competition: Empirical evidence from the German retail gasoline market. https://www.econstor.eu/bitstream/10419/223593/1/cesifo1_wp8521.pdf

Botta, M., & Wiedemann, K. (2020). To discriminate or not to discriminate? Personalised pricing in online markets as exploitative abuse of dominance. European Journal of Law and Economics, 50, 381-404.

Botta, M., & Wiedemann, K. (2019). Exploitative conducts in digital markets: time for a discussion after the Facebook decision. Journal of European Competition Law & Practice, 10(8), 465-478.

Brynjolfsson, E., Collis, A., & Eggers, F. (2019). Using massive online choice experiments to measure changes in well-being. Proceedings of the National Academy of Sciences, 116(15), 7250-7255.

Brown, Z. Y., & MacKay, A. (2021). Competition in pricing algorithms (No. w28860). National Bureau of Economic Research.

Butijn, B. J. (2023). Introduction to Advanced Information Technology. Advanced Digital Auditing, 15.

Cheng, T. K., & Nowag, J. (2023). Algorithmic Predation and Exclusion. U. Pa. J. Bus. L., 25, 41.

Descamps, A., Klein, T., & Shier, G. (2021). Algorithms and competition: the latest theory and evidence. Competition Law Journal, 20(1), 32-39.

Devogele, S. Algorithmic Tacit Collusion: a Threat to the Current EU Competition Law Framework?.

França, R. P., Monteiro, A. C. B., Arthur, R., & Iano, Y. (2021). An overview of deep learning in big data, image, and signal processing in the modern digital age. Trends in Deep Learning Methodologies, 63-87.

Harrington, P. (2018), Multiple Versus Single Set Validation of Multivariate Models to Avoid Mistakes, Taylor and Francis Ltd., http://dx.doi.org/10.1080/10408347.2017.1361314.

Klein, T. (2020), “(Mis)understanding Algorithmic Collusion”, Competition Policy International, https://www.competitionpolicyinternational.com/misunderstanding-algorithmic-collusion/.

Levenstein, M. C., & Suslow, V. Y. (2006). What determines cartel success?. Journal of economic literature, 44(1), 43-95.

Metaxa, D., Park, J. S., Robertson, R. E., Karahalios, K., Wilson, C., Hancock, J., & Sandvig, C. (2021). Auditing algorithms: Understanding algorithmic systems from the outside in. Foundations and Trends® in Human–Computer Interaction, 14(4), 272-344.

Motta, M. (2023). Self-preferencing and foreclosure in digital markets: theories of harm for abuse cases. International Journal of Industrial Organization, 102974.

Moujahid, A. (2016). A practical introduction to deep learning with caffe and python. Accès http://adilmoujahid. com/posts/2016/06/introduction-deep-learning-python-caffe.

Nagesha, K., Chandar, K. R., & Sastry, V. (2016). Prediction of dust dispersion by drilling operation using artificial neural networks. Int. J. Prev. Control Ind. Pollut, 1, 1-13.

Odom, M. D., & Sharda, R. (1990, June). A neural network model for bankruptcy prediction. In 1990 IJCNN International Joint Conference on neural networks (pp. 163-168). IEEE.

OECD (2023). Algorithmic Competition, OECD Competition Policy Roundtable Background Note. www.oecd.org/daf/competition/algorithmic-competition-2023.pdf.

OECD (2021), Artificial Intelligence, Machine Learning and Big Data in Finance: Opportunities, Challenges, and Implications for Policy Makers, https://www.oecd.org/finance/artificial-intelligence-machine-learningbig-data-in-finance.htm.

OECD (2018). Personalised pricing in the digital era.

Saurwein, F., Just, N., & Latzer, M. (2015). Governance of algorithms: options and limitations. info, 17(6), 35-49.

Schrepel, T. (2020). The fundamental unimportance of algorithmic collusion for antitrust law. SSRN.

Tan, C. N. (1997). An artificial neural networks primer with financial applications examples in financial distress predictions and foreign exchange hybrid trading system. Bond University, 50-78.

 

Westerhuis, J. A., Hoefsloot, H. C., Smit, S., Vis, D. J., Smilde, A. K., van Velzen, E. J., ... & van Dorsten, F. A. (2008). Assessment of PLSDA cross validation. Metabolomics, 4, 81-89.

 


 

 

 

 

 

 

 

 

 

 

 

 

 

De esta edición de “Ciencia de datos e inteligencia artificial: Finanzas, políticas y gobernanza”, se terminó de editar en la ciudad de Colonia del Sacramento en Septiembre de 2024

 

 

 

 

 

 

 

 

Pág. 1


[1] La puntuación ESG se determina recopilando y analizando datos relacionados con diferentes aspectos y evaluándolos en función de una escala predefinida. La puntuación ESG evalúa los logros y acciones de una empresa en diferentes áreas, que incluyen, entre otras, el control de emisiones, la protección de los derechos humanos y la promoción de prácticas de compra sostenibles.