En marzo de 2023, el presidente de la SEC, Gary Gensler, describió la inteligencia synthetic como “la tecnología más transformadora de nuestro tiempo, a la par de Web y la producción en masa de automóviles”.
Cuando surge una herramienta innovadora, se requiere un período de adaptación. Esto es más pronunciado en el caso de los reguladores, que necesitan asimilar rápidamente suficiente información para no solo comprender, sino también, en última instancia, common la tecnología en cuestión. Mientras tanto, esa tecnología se infiltra en la industria a un ritmo vertiginoso y se establecen nuevos hábitos, para bien o para mal.
Esto añade una presión significativa a una función que ya tiene mucho que hacer. Los reguladores están constantemente tratando de ponerse al día; es una función reactiva, regida por muchos factores que escapan a su management. Cuando aparece algo tan transformador como la inteligencia synthetic, esa desventaja se intensifica.
La IA añade un elemento de caos. Hay una enorme responsabilidad para gobernarla de manera eficaz; parece que estamos en un momento crítico en el desarrollo humano, y que debemos hacer bien las cosas o aprender de él rápidamente. Esto se aplica a un amplio espectro, pero también a sectores específicos como el financiero, que representa un microcosmos de la sociedad moderna.
A continuación analizaremos las posiciones actuales de los reguladores, los marcos existentes en los que ya se enmarca la IA y hacia dónde podría dirigirse su regulación.
Las posiciones de los reguladores hasta el momento
SEGUNDO
En julio de 2023, el presidente de la SEC, Gary Gensler, expresó su preocupación por el uso de la IA en la toma de decisiones de inversión. Afirmó que conlleva el riesgo de acentuar el dominio de un pequeño número de plataformas tecnológicas y cuestionó si los modelos de IA pueden proporcionar asesoramiento factualmente preciso y libre de sesgos. Gensler estaba bien posicionado para cuestionar esto: circularon rumores falsos sobre su renuncia debido a la desinformación generada por la IA.
En junio de 2024, el Comité Asesor de Inversores de la SEC celebró una mesa redonda sobre el uso de la IA, y Gensler reiteró sus preocupaciones, subrayando que podría dar lugar a conflictos de intereses entre una plataforma y sus clientes. También hizo hincapié en que los requisitos fundamentales siguen aplicándose y que “los participantes del mercado todavía tienen que cumplir con nuestras leyes, que han sido probadas a lo largo del tiempo”.
A pesar de ello, hasta ese momento se habían proporcionado pocas orientaciones concretas y algunas propuestas discutidas el año pasado seguían estando bajo consideración.
Autoridad Reguladora Financiera
En el Informe Anual de Supervisión Regulatoria de 2024 de FINRA, la FINRA clasificó explícitamente la IA como un “riesgo emergente” y recomendó que las empresas consideren su impacto generalizado y las consecuencias regulatorias de su implementación.
Ornella Bergeron, vicepresidenta senior de supervisión de miembros de FINRA, dijo que a pesar de las eficiencias operativas proporcionadas por los avances en IA, había preocupaciones.
“Si bien estas herramientas pueden presentar oportunidades realmente prometedoras, su desarrollo ha generado inquietudes sobre cuestiones como la precisión, la privacidad, los sesgos y la propiedad intelectual”.
En mayo de 2024, la FINRA publicó una serie de preguntas frecuentes actualizadas para aclarar su postura sobre el contenido creado por IA. Básicamente, estas preguntas enfatizaban que los estándares regulatorios aún se aplicaban y que las empresas eran responsables de su producción independientemente de si period generada por humanos o por IA.
Comisión Federal de Comercio (CFTC)
La Comisión de Comercio de Futuros de Materias Primas (CFTC) ha estado relativamente activa en torno a la IA. En mayo, publicó un informe titulado “Inteligencia synthetic responsable en los mercados financieros: oportunidades, riesgos y recomendaciones”. Esto pareció indicar el deseo de la CFTC de supervisar el espacio.
En resumen, la agencia parecía preocupada por la posibilidad de que la IA “pueda erosionar la confianza pública en los mercados financieros”. El informe describió los riesgos potenciales, incluida la falta de transparencia en torno a los procesos de toma de decisiones en materia de IA.
Aunque la CFTC parecía contenta de tomar las riendas, el informe instó a que se mantuviera la colaboración entre las agencias federales. También recomendó organizar mesas redondas públicas para fomentar una comprensión más profunda del papel de la IA en los mercados financieros y desarrollar políticas transparentes.
¿Cómo se ven afectados los marcos existentes?
Las normas fundamentales de conservación de registros, como la Norma de Advertising de la SEC y la norma 2210 de la FINRA, ponen un gran énfasis en la precisión e integridad de la información que una empresa comunica a sus clientes. El uso de herramientas de IA puede poner en peligro estos principios debido a la retórica impredecible y a menudo inexacta por la que se han ganado la reputación de utilizar los modelos de lenguaje.
Como ya aclaró la FINRA, las empresas serán responsables del contenido en sí, y las herramientas que se utilicen para crearlo no necesariamente serán relevantes. Esto significa que, como mínimo, todos los resultados generados por máquinas deben revisarse a fondo antes de su publicación. Lavado de información con inteligencia synthetic
A pesar de que gran parte de la regulación en torno a la IA apenas ha llegado a la etapa de propuesta, ya hemos comenzado a ver su aplicación en algunas áreas relevantes.
En marzo, la SEC inició acciones de cumplimiento dirigidas al “lavado de imagen con inteligencia synthetic”, acusando a dos firmas de asesoría de inversiones de exagerar el uso de inteligencia synthetic en sus productos y servicios para engañar a los inversores. Si bien las sanciones impuestas en estos casos fueron mínimas, el director de la División de Cumplimiento de la SEC, Gurbir Grewal, confirmó que esperaban enviar un mensaje a la industria.
“Espero que estas acciones sirvan de advertencia a la industria de la inversión. Si se apresuran a hacer afirmaciones sobre el uso de la IA en sus procesos de inversión para capitalizar el creciente interés de los inversores, deténganse. Den un paso atrás y pregúntense: ¿reflejan estas declaraciones con precisión lo que estamos haciendo o son simplemente aspiraciones?
“Si es esto último, sus acciones pueden constituir el tipo de “lavado de información con inteligencia synthetic” que viola las leyes federales de valores”.
¿Que sigue?
SEGUNDO
En la reunión del Comité Asesor de Inversiones de junio, la SEC analizó las normas que se propusieron inicialmente en julio de 2023 y que abordan los posibles conflictos de intereses derivados del uso de análisis de datos predictivos (PDA) en las interacciones con los inversores. Las propuestas exigían que cualquiera de estos conflictos de intereses se registrara y luego se eliminara rápidamente.
Los participantes del panel del 6 de junio apoyaron en gran medida estas propuestas, que ahora se espera que se implementen rápidamente. Mientras tanto, al aplicar rápidamente sanciones y enviar un mensaje sobre el lavado de activos con inteligencia synthetic, la SEC parece ansiosa por mostrar su firmeza mediante la aplicación de la ley en escenarios más claros.
Autoridad Reguladora Financiera
Además de confirmar la responsabilidad de las empresas por los resultados generados por los chatbots, las actualizaciones de las preguntas frecuentes de la FINRA enfatizaron que las empresas también deben supervisar estas comunicaciones. Esto significa que se deben establecer políticas y procedimientos.
Esas directrices podrían abordar cómo se seleccionan las tecnologías en la fase de adquisición, cómo se capacita al private para usarlas, qué nivel de supervisión humana existe después de que se ha generado el contenido, and many others. Si las empresas ya han adoptado la tecnología de chatbot, o si están considerando hacerlo, el siguiente paso debería ser desarrollar este marco interno.
Comisión Federal de Comercio (CFTC)
Las opiniones directas de la CFTC sobre cómo debería regularse la IA demostraron un claro compromiso de asumir la responsabilidad y liderar el camino. Alentaron el debate público y la colaboración entre agencias, mientras que su informe identificó “oportunidades, riesgos y recomendaciones”. El siguiente paso, nuevamente, es incorporar esa información en un marco formalizado.
Mientras tanto, el Departamento del Tesoro publicó una solicitud de información sobre el uso de la IA en el sector de servicios financieros, cuatro meses después de que la CFTC hiciera lo mismo. En ella, se destacó específicamente una posible “escasez de capital humano”, es decir, un escenario en el que las empresas utilizan herramientas de IA sin que haya suficientes empleados que comprendan plenamente sus complejidades. La participación del Tesoro ha amplificado las voces de la CFTC, la FINRA y la SEC, y ahora solo queda esperar a que se redacten colectivamente sus marcos.
Es posible que esto no lleve tanto tiempo como se anticipa. En un desarrollo apropiado, los propios reguladores están usando inteligencia synthetic para ayudarlos a mantenerse al día.
“La SEC ha comenzado a analizar cómo los modelos de IA generativa podrían ayudar potencialmente a abordar la carga de trabajo de los reguladores”, dijo Scott Gilbert, vicepresidente de monitoreo de riesgos y supervisión de miembros de FINRA, en la conferencia de FINRA.
El toque humano
Un informe reciente de la Fundación para la Educación de los Inversores de la FINRA reveló que, a pesar de la creciente influencia de la IA en la sociedad, pocos consumidores confiarían en ella para obtener asesoramiento sobre finanzas personales y siguen siendo escépticos sobre la información financiera que produce. Esta falta de confianza de los consumidores respalda las preocupaciones regulatorias que hemos analizado y aumenta la probabilidad de una gobernanza estricta.
Así como los reguladores tardaron varios años en ponerse al día con el uso de WhatsApp en toda la industria, siempre hay un período de gracia. Sin embargo, el hecho de que la nueva tecnología no esté específicamente mencionada en los marcos existentes no significa que organizaciones como la SEC tengan dudas a la hora de aplicar sanciones retroactivas que socaven sus principios fundamentales.
Mientras los reguladores deliberan sobre los marcos para los modelos de IA y el contenido que generan, las empresas deben registrar todos los resultados, ya sean humanos o de máquinas. Esto garantizará que se cumpla con todos los requisitos: principios fundamentales e interpretaciones modernas.