El Financial Stability Board (FSB) publicó ayer un documento en el que señala las consecuencias para la estabilidad financiera del uso de herramientas de inteligencia artificial (IA) y el aprendizaje automático en los mercados financieros. Para el FSB el uso de esos instrumentos puede crear “cajas negras” en la toma de decisiones, lo que podría crear situaciones difíciles de manejar, especialmente en tiempos de crisis. Sobre todo, en palabras del FSB, puede haber un riesgo alto para que las personas que realizan labores de auditoría o de regulación financiera puedan comprender cómo se tomaron las decisiones ejecutadas con herramientas de IA.
La IA está en muchas de las actividades de la Banca. Veamos las principales aplicaciones, para luego identificar los riesgos y los desafíos.
Aplicaciones de la IA en los mercados financieros
Las instituciones financieras utilizan la IA en diferentes formas. Hoy en día la banca procesa de manera más eficiente la información que genera, sobre todo en relación con las decisiones de crédito, de valoración de instrumentos o de medición de riesgos. Eso contribuye a un sistema financiero más eficiente. La captura de datos estructurados y no estructurados tiene el potencial de permitirle a las entidades tomar decisiones más precisas, optimizando precios, fortaleciendo los mercados y permitiendo una mayor profundidad en el alcance de sus productos y soluciones. Así mismo, hay desarrollos muy interesantes en la automatización en la interacción con los clientes, el cumplimiento normativo, la detección del fraude y la automatización y digitalización de procesos, contratos e información del back y middle office.
Creo que las aplicaciones de IA para los mercados financieros las podemos clasificar en las siguientes categorías:
- Bienestar financiero: que incluye todos los desarrollos de aplicaciones que buscan hacerle más fácil la vida a los consumidores financieros, con asistentes financieros virtuales, chatbots, credit scoring basados en análisis de información o comportamientos alternativos, las billeteras virtuales.
- Blockchain: Esta tecnología tiene tan alto potencial, que merece un estudio aparte. Aquí hay mucho por recoger en el futuro, desde las criptodivisas, hasta los smart contracts. Pero la descentralización de los registros de transacciones genera unas posibilidades enormes para los mercados financieros.
- Seguridad: Incluyendo las aplicaciones sobre vinculación (KYC), identificación (biometría) y detención de fraudes y lavado de activos y financiación al terrorismo.
- Uso del dinero: incluyendo todas las aplicaciones de pagos, los préstamos P2P, la gestión de cartera.
Por su parte, para los mercados de capitales, las soluciones se pueden englobar en las siguientes categorías:
- Trading: donde el uso de algoritmos para optimizar precios es una constante, así como la optimización de las plataformas de negociación e intercambio de activos.
- Gestión de inversiones: La gestión de portafolios individuales o colectivos se realiza de manera más eficiente gracias a las aplicaciones de IA.
- Inteligencia de mercados: que reúne las aplicaciones sobre identificación de información relevante, y de hallazgos sobre evolución de activos no correlacionados.
- Analítica de la información: el uso de la información estructurada y no estructurada para mejorar la toma de decisiones de las entidades hoy en día es mucho más fácil con las aplicaciones de IA.
- Administración de riesgos: donde la medición de los riesgos para determinar precios de los mercados con mayor exactitud es una de las mayores contribuciones de la IA a los mercados.
Los riesgos de la IA
Sin embargo, a pesar de los loables usos, hay varias voces que señalan que la IA es un instrumento que requiere regulación. Dos casos ajenos a las finanzas resultan interesantes de rescatar: Elon Musk, con la autoridad que le da ser uno de los innovadores más destacados del nuevo milenio, señaló a principios del mes pasado que la IA podría incluso desatar la tercera guerra mundial. Por su parte, los medios captaron con atención (y espanto) la noticia de que dos chatbots de Facebook habían creado su propio lenguaje de comunicación, y el problema no es porque estuvieran planeando acabar o esclavizar la raza humana cuando hablaban entre sí, sino que ninguno tenía esa habilidad creada en su programación original. Volvamos a los mercados financieros.
El problema de la IA aplicada a los mercados financieros, como lo hemos recalcado, está en los detalles, y en este caso, en los detalles de su programación. La IA funciona sobre la base de unas estructuras de código que tienden a similar el funcionamiento lógico o racional humano. En ese orden de ideas, los sistemas pueden funcionar sobre la base de una programación orientada al cumplimiento de las reglas. Pero ¿qué pasa cuando la programación incorpora patrones que no corresponden con el interés general?
Un caso son los robo-advisors. En la composición de los portafolios o en los consejos sobre inversiones, ¿tienen en cuenta los programadores los conflictos de interés inherentes a esas decisiones? ¿cómo resuelve la IA tales conflictos? Ahora imagínense el reto de un supervisor para poder identificar si esos conflictos quedan programados para que sean resueltos en el mejor interés del cliente asesorado. Es muy difícil seguramente.
Para el FSB los beneficios y los riesgos para la estabilidad financiera deben monitorearse a medida que se adopta la IA y el aprendizaje automático en los mercados financieros. Los efectos de red y la escalabilidad de las nuevas tecnologías pueden en el futuro dar lugar a dependencias de terceras entidades que son las que proveen a las instituciones de esa programación. Y esto a su vez podría conducir a la aparición de nuevos jugadores sistémicamente importantes que podrían quedar fuera del perímetro regulatorio. Las instituciones financieras son hoy en día empresas de tecnología realmente (y no de servicios con algunas tozudamente insisten en presentarse), por lo que la supervisión financiera abarcará no solo a las entidades que realizan lo que los reguladores determinan como “actividad financiera” sino a las entidades cuyas aplicaciones puedan poner en riesgo el sistema de pagos, el funcionamiento del mercado o la protección del consumidor. Sean o no instituciones financieras.
El FSB concluye que “Al igual que con cualquier producto o servicio nuevo, será importante evaluar los usos de AI y el aprendizaje automático en vista de sus riesgos, incluida la observancia de protocolos relevantes sobre privacidad de datos, riesgos de conducta y ciberseguridad. Las pruebas adecuadas y la programación de herramientas con datos imparciales y mecanismos de retroalimentación son importantes para garantizar que las aplicaciones hagan lo que se supone que deben hacer”.
Los desafíos de la IA para las instituciones financieras
La IA está disrumpiendo modelos de negocio que funcionaban en el siglo pasado, y eso ha creado una enorme presión para las entidades financieras. Una presión para innovar, para estar a la altura de las fintech. El problema es que esa innovación requiere tiempo para crearse, implementarse y escalarse correctamente, y los estándares de tiempo en la industria financiera son muy largos. Pero además los desarrollos de IA son altamente técnicos, requieren de talentos altamente especializados (incluso en la alta dirección); son muy inciertos porque necesitan experimentar mucho antes de que funcione y esa incertidumbre genera riesgos a los que las entidades son, por definición y regulación, adversos.
Por otro lado, las barreras de entrada para ofrecer soluciones basadas en IA para los mercados financieros son cada vez menores en precio. Las contribuciones de IBM con Watson, de Microsoft con Azure, de Amazon con AWS y de Google con DeepMind hacen que cualquier emprendedor pueda proponer una disrupción a las grandes entidades, a los grandes mercados. Y de allí la necesidad de las entidades de realizar alianzas con las fintech y de éstas de poder testear sus soluciones con aquellas.
Y en la mitad está el consumidor, que por un lado advierte los beneficios de las propuestas innovadoras de las fintech, y por otro ve la pasividad de muchas entidades con el tema. Y el deber de protección de las autoridades hacia los consumidores, el mercado o el sistema de pagos de la economía.
Por todo esto, el reto para todos es desarrollar mercados sobre la base de una IA ética. El informe del FSB incluye un Anexo B donde trata el tema en detalle. La ética en la IA y el uso ético de la IA naturalmente desborda los mercados financieros, pero allí es donde el efecto puede ser más violento. Si el lado oscuro, la ambición y el miedo, se imponen como criterios a la hora de realizar la programación, o de hacer uso de esas herramientas, en algún momento lo vamos a sentir. Esperemos no sea tarde, ni tan catastrófico como lo señalan en reciente controversia entre Elon Musk y Mark Zukerberg.