La inteligencia synthetic continúa desafiando la forma en que los bancos piensan sobre sus negocios. El rumor en torno a la IA generativa, en specific, ha abierto nuevas conversaciones sobre cómo los bancos pueden adoptar aún más esta tecnología. A medida que surgen reglas y orientaciones específicas de la IA, la prioridad inmediata para cualquier banco que adopte la IA es garantizar que cumple con los estándares existentes para los servicios financieros.
Oportunidades para la IA en la banca
Como todas las empresas, los bancos están explorando cómo utilizar GenAI de forma segura. Muchos bancos ya tienen un sólido historial en la adopción de formas anteriores de inteligencia synthetic y aprendizaje automático. Esto proporciona una plataforma de lanzamiento útil para un mayor desarrollo, pero hay que reconocer que las diferentes aplicaciones de IA atraen diferentes niveles de riesgo y deben gestionarse en consecuencia.
En términos generales, los casos de uso de la IA en la banca han tendido a respaldar funciones administrativas. Una encuesta de 2022 realizada por el Banco de Inglaterra y la Autoridad de Conducta Financiera encontró que contribuir a los procesos contra el lavado de dinero y de conocer a su cliente period uno de los casos de uso críticos más comúnmente citados para la inteligencia synthetic y el aprendizaje automático. También period possible que los encuestados dijeran que utilizaban la IA con fines de gestión de riesgos, por ejemplo, para ayudarles a predecir los flujos de efectivo esperados o identificar usos inapropiados de las cuentas. La detección automatizada de transacciones de pago para detectar fraudes es ahora algo común. GenAI se basa en formas más tradicionales de aprendizaje automático. Una diferencia clave es la capacidad de interactuar con la IA utilizando un lenguaje pure e interfaces fáciles de usar. Esto permite que más personas en más áreas de los negocios de los bancos accedan a la tecnología y interactúen con sus conjuntos de datos subyacentes sin necesidad de tener conocimientos de informática.
Varios bancos han restringido el uso de modelos de lenguaje grande (LLM) disponibles públicamente, como ChatGPT de OpenAI. Como se analiza más adelante, este enfoque puede justificarse fácilmente por importantes preocupaciones regulatorias, tanto en torno a los datos incluidos en esos modelos como a la confiabilidad de sus resultados. No obstante, muchos bancos están experimentando con sus propias versiones de modelos GenAI para fines internos.
Una inversión de este tipo en GenAI probablemente se consideraría principalmente una herramienta de eficiencia interna. Por ejemplo, una función de búsqueda interna mejorada podría presentar al private de recepción información del amplio conjunto de políticas de cumplimiento del banco. Una mejor comprensión de esas políticas podría reducir la demanda en la segunda línea de defensa del banco y, con suerte, mejorar los estándares de cumplimiento.
Es posible que esos mismos documentos hayan sido escritos con la ayuda de la IA. No es difícil imaginar que las herramientas GenAI se conviertan en una muleta a la hora de redactar correos electrónicos, presentaciones, notas de reuniones y mucho más. Los equipos de cumplimiento podrían encargar a GenAI que sugiera actualizaciones de políticas en respuesta a un cambio regulatorio; la función de riesgo podría pedirle que detecte comportamientos anómalos; y los gerentes podrían solicitar que brinde información sobre datos comerciales. En algunos casos, el poder de sintetizar datos no estructurados podría ayudar a un banco a cumplir con sus obligaciones regulatorias. Por ejemplo, en el Reino Unido, el deber del consumidor de la FCA establece un requisito common para que las empresas sean más proactivas a la hora de ofrecer buenos resultados a los clientes minoristas. Las empresas y su alta dirección deben monitorear los datos para asegurarse de que los resultados de sus clientes sean consistentes con el Deber. Las herramientas de IA, incluida potencialmente la GenAI, podrían respaldar este ejercicio de seguimiento.
Usar GenAI en funciones de atención al cliente o de atención al cliente es más ambicioso. Desde generar contenido de advertising and marketing personalizado hasta mejorar la atención al cliente e incluso brindar asesoramiento, las herramientas de inteligencia synthetic podrían intermediar cada vez más la experiencia del cliente. Pero se requiere precaución. Estos casos de uso potencialmente de mayor impacto también conllevan mayores riesgos regulatorios.
Adaptar la IA a la regulación bancaria
Depender de GenAI no está exento de desafíos. Lo más destacado es que los grandes modelos lingüísticos pueden inventar información o “alucinar” y pone en duda su fiabilidad como fuentes de información. Los resultados pueden ser inconsistentes, incluso cuando los insumos son los mismos. Su recuperación y presentación autorizada de información puede hacer que los usuarios confíen en lo que cube sin el debido escepticismo.
Al adoptar la IA, los bancos deben tener en cuenta sus obligaciones regulatorias. Los reguladores financieros del Reino Unido han reiterado recientemente que sus reglamentos existentes ya cubren los usos de la IA de las empresas. Sus reglas no suelen exigir ni prohibir tecnologías específicas. Pero, como ha señalado el Banco de Inglaterra, ser “agnóstico respecto de la tecnología” no significa “ciego a la tecnología”. Los supervisores bancarios están trabajando activamente para comprender los riesgos específicos de la IA y cómo deberían emitir orientaciones o tomar otras medidas para abordar los posibles daños.
En un libro blanco de 2023, el gobierno del Reino Unido pidió a los reguladores sectoriales que alinearan sus enfoques con cinco principios para la adopción segura de la IA. Estos enfatizan la seguridad, la protección y la robustez; transparencia y explicabilidad apropiadas; justicia; rendición de cuentas y gobernanza; y impugnabilidad y reparación. Los cinco principios pueden compararse con las regulaciones existentes mantenidas por la FCA y el Banco de Inglaterra.
Ambos reguladores establecen reglas de alto nivel que pueden adaptarse al uso de la IA por parte de las empresas. Por ejemplo, los bancos del Reino Unido deben tratar a los clientes de manera justa y comunicarse con ellos con claridad. Esto es relevante en cuanto a cuán transparentes son las empresas con respecto a cómo aplican la IA en sus negocios. Las empresas deben actuar con cuidado cuando los resultados de la tecnología puedan afectar negativamente a los clientes (por ejemplo, cuando realizan verificaciones de crédito).
Otro ejemplo de requisito de alto nivel que se puede aplicar a la IA es el deber del consumidor de la FCA. Esta es una herramienta poderosa para abordar los riesgos de la IA para los clientes de banca minorista. Por ejemplo, las empresas dentro del alcance deben permitir y apoyar a los clientes minoristas para que persigan sus objetivos financieros. También deben actuar de buena fe, lo que implica tratos justos y abiertos con los clientes minoristas. La FCA ha advertido que no quiere que la IA de las empresas utilice sesgos que podrían conducir a peores resultados para algunos grupos de consumidores.
También son pertinentes regulaciones más específicas. Por ejemplo, los bancos deben cumplir requisitos detallados relacionados con sus sistemas y controles. Estos especifican cómo deben gestionar los riesgos operativos. Esto significa que los bancos deben prepararse para las interrupciones en sus sistemas de inteligencia synthetic, especialmente cuando respaldan importantes servicios comerciales.
Los individuos también deben considerar sus responsabilidades regulatorias. Por ejemplo, en el Reino Unido, los reguladores pueden exigir responsabilidades a los altos directivos si no adoptan medidas razonables para evitar un incumplimiento normativo por parte de su empresa. Para demostrar que han tomado medidas razonables, los altos directivos querrán asegurarse de que comprenden los riesgos asociados con cualquier IA utilizada dentro de sus áreas de responsabilidad y están dispuestos a proporcionar pruebas de que existen sistemas y controles adecuados para gestionar esos riesgos.
Regulaciones entrantes de IA
Además de cumplir con las regulaciones existentes sobre servicios financieros, los bancos deben monitorear los estándares intersectoriales para la IA. Los formuladores de políticas están comenzando a introducir reglas y orientaciones específicas para la IA en varias jurisdicciones importantes para los servicios financieros. Entre ellos, la estructura recientemente finalizada de la UE para common la IA ha atraído la mayor atención.
La Ley de Inteligencia Synthetic de la UE, que comenzará a aplicarse por fases durante los próximos dos años, se centra en la transparencia, la rendición de cuentas y la supervisión humana. Las reglas más onerosas se aplican a casos de uso específicos de alto riesgo. La lista de sistemas de inteligencia synthetic de alto riesgo incluye la solvencia y la calificación crediticia. Los bancos deben tener en cuenta que algunos casos de uso relacionados con el empleo, como el seguimiento y la evaluación de los empleados, también se consideran de alto riesgo. Las reglas también se aplicarán al uso de GenAI.
Muchas de las obligaciones establecidas por la Ley de IA de la UE reflejan los estándares existentes bajo las regulaciones financieras. Esto incluye garantizar acuerdos de gobernanza sólidos y líneas de responsabilidad coherentes en torno a los sistemas de inteligencia synthetic, monitorear y gestionar riesgos de terceros y proteger a los clientes de daños. Esto es consistente con otras áreas del reglamento de la UE, incluida la entrante Ley de Resiliencia Operacional Digital (DORA), que genera expectativas sobre cómo los bancos y otras entidades financieras de la UE deberían gestionar los riesgos de TI.
Adoptar un enfoque basado en el riesgo
Los extensos procesos de riesgo y cumplimiento de los bancos significan que están bien posicionados para absorber esta capa adicional de regulación. El desafío para los bancos es identificar la brecha entre cómo operan hoy sus procesos de gobernanza en torno a la IA y lo que se considerarán mejores prácticas en el futuro. Aunque la regulación de la IA aclara las expectativas en algunas áreas, es poco possible que los reguladores especifiquen de antemano qué es apropiado, justo o seguro. Los bancos deberían determinar esto por sí mismos y justificar su toma de decisiones en el proceso.
En la medida en que aún no hayan iniciado este proceso, los bancos deberían establecer un programa de cumplimiento integrado centrado en la IA. Idealmente, este programa proporcionaría coherencia al despliegue de IA de la empresa y, al mismo tiempo, permitiría suficiente flexibilidad para tener en cuenta diferentes negocios y casos de uso. También podría actuar como un centro de excelencia o un centro para asuntos generales relacionados con la IA.
Un comité directivo de IA puede ayudar a centralizar este programa. Las responsabilidades de una AI SteerCo podrían incluir la revisión de los documentos de política de la línea de negocios del banco, las estructuras de gobernanza y supervisión y el marco de gestión de riesgos de terceros. Podría desarrollar protocolos para que el private interactúe con herramientas de inteligencia synthetic o las desarrolle. También podría anticipar los cambios en la tecnología, el riesgo y la regulación y anticipar cómo los acuerdos de cumplimiento podrían evolucionar como resultado.
Los bancos ya han comenzado sus viajes hacia el cumplimiento de la IA. Garantizar que se alineen con el reglamento precise es el primer paso para enfrentar los desafíos adicionales de las regulaciones entrantes sobre IA. Un enfoque basado en el riesgo que identifique y gestione los posibles daños al banco, a sus clientes y al sistema financiero en common será adecuado para el futuro.
Este artículo se publicó originalmente en la edición de primavera de 2024 del Worldwide Banker.