La rápida expansión y despliegue de la inteligencia synthetic generativa (IA de generación) y de la IA en normal en organizaciones de todo el mundo ha dado lugar a un impulso world en favor de la regulación.
En Estados Unidos, el presidente Joe Biden firmó una orden ejecutiva sobre IA en octubre de 2023, en la que se establecen estándares de IA que eventualmente serán codificados por los reguladores financieros. En los últimos cinco años, 17 estados de EE. UU. han promulgado 29 proyectos de ley centrados en common el diseño, desarrollo y uso de la IA, según el Consejo de Gobiernos Estatales.
>”/>
En China, el presidente Xi Jinping presentó el año pasado la Iniciativa World de Gobernanza de la IA, esbozando un plan integral centrado en el desarrollo, la seguridad y la gobernanza de la IA. Las autoridades también han emitido “medidas provisionales” para common la prestación de servicios de IA genérica, imponiendo diversas obligaciones relacionadas con la evaluación y mitigación de riesgos, la transparencia y la rendición de cuentas, así como el consentimiento y la autenticación del usuario.
Recientemente, el primer ministro japonés, Fumio Kishida, dio a conocer un marco internacional para la regulación y el uso de la generación de IA llamado Grupo de Amigos del Proceso de IA de Hiroshima. El grupo, que se centra en la implementación de principios y códigos de conducta para abordar los riesgos de la IA generacional, ya ha obtenido el apoyo de 49 países y regiones, informó Related Press el 3 de mayo.
Impacto de la Ley de IA de la UE en las empresas de servicios financieros
La Ley de IA de la Unión Europea es quizás la regulación más impactante e innovadora hasta la fecha. Aprobado por el Parlamento de la UE en marzo de 2024, el marco regulatorio representa la primera ley importante del mundo para common la IA y está destinado a servir como modelo para otras jurisdicciones.
Según Dataiku, una empresa estadounidense de IA y aprendizaje automático (ML), la Ley de IA de la UE tendrá un impacto appreciable en la industria de servicios financieros y las empresas deberían prepararse para su cumplimiento ahora.
Según la Ley de IA, las empresas financieras deberán categorizar los sistemas de IA en uno de cuatro niveles de riesgo y tomar medidas de mitigación específicas para cada categoría. Deberán registrar explícitamente el “propósito previsto” de cada sistema de IA antes de comenzar a desarrollar el modelo. Si bien Dataiku cube que existe cierta incertidumbre sobre cómo se interpretará y aplicará esto, señala que esto indica un énfasis más estricto en mantener los plazos adecuados que los estándares regulatorios actuales.
Además, la Ley de IA introduce obligaciones de “monitoreo posterior a la comercialización (PMM)” para los modelos de IA en producción. Esto significa que las empresas deberán monitorear y validar continuamente que sus modelos permanezcan en su categoría de riesgo unique y mantengan su propósito previsto. De lo contrario, será necesaria una reclasificación.
Dataiku recomienda a las empresas de servicios financieros que se familiaricen rápidamente con los requisitos de la Ley de IA y evalúen si las prácticas actuales cumplen con estos estándares. Además, la documentación debe comenzar desde el inicio del desarrollo de cualquier nuevo modelo, particularmente cuando es possible que los modelos lleguen a producción, cube.
Además, Dataiku advierte que la postura proactiva de la UE puede alentar a otras regiones a acelerar el desarrollo y la implementación de regulaciones sobre IA. Para 2026, la consultora tecnológica Gartner predice que el 50% de los gobiernos de todo el mundo impondrán el uso responsable de la IA a través de regulaciones, políticas y la necesidad de privacidad de los datos.
Un marco regulatorio innovador
La Ley de IA de la UE es el marco regulatorio integral del mundo dirigido específicamente a la IA. La legislación adopta un enfoque basado en el riesgo para los productos o servicios que utilizan IA e impone diferentes niveles de requisitos dependiendo de las amenazas percibidas que las aplicaciones de IA representan para la sociedad.
En explicit, la ley prohíbe las aplicaciones de IA que representen “riesgos inaceptables” para los derechos y valores fundamentales de la UE. Estas aplicaciones incluyen sistemas de puntuación social y sistemas de categorización biométrica.
Los sistemas de IA de alto riesgo, como los sistemas de identificación biométrica remota, la IA utilizada como componente de seguridad en infraestructuras críticas y la IA utilizada en la educación, el empleo y la calificación crediticia, se ven obligados a cumplir con normas estrictas relacionadas con la gestión de riesgos, la gobernanza de datos y la documentación. , transparencia, supervisión humana, precisión y ciberseguridad, entre otros.
Los sistemas Gen AI también están sujetos a una serie de obligaciones. En explicit, estos sistemas deben desarrollarse con salvaguardias avanzadas contra la violación de las leyes de la UE, y los proveedores deben documentar su uso de datos de capacitación protegidos por derechos de autor y respetar los estándares de transparencia.
Para los modelos básicos, que incluyen sistemas de IA de generación, se imponen obligaciones adicionales, como demostrar la mitigación de riesgos potenciales, utilizar conjuntos de datos imparciales, garantizar el rendimiento y la seguridad durante todo el ciclo de vida del modelo, minimizar el uso de energía y recursos y proporcionar documentación técnica.
La Ley de IA fue finalizada y respaldada por los 27 estados miembros de la UE el 2 de febrero de 2024 y por el Parlamento de la UE el 13 de marzo de 2024. Después de la aprobación last por parte del Consejo de la UE el 21 de mayo de 2024, la Ley de IA ahora está lista para se publicará en el Diario Oficial de la UE.
Las disposiciones comenzarán a entrar en vigor por etapas y los países deberán prohibir los sistemas de IA prohibidos seis meses después de su publicación. Las normas para los sistemas de inteligencia synthetic de uso normal, como los chatbots, empezarán a aplicarse un año después de que la ley entre en vigor y, a mediados de 2026, el conjunto completo de regulaciones estará en vigor.
Las violaciones de la Ley de IA generarán multas de hasta 35 millones de euros (38 millones de dólares estadounidenses), o el 7% de los ingresos globales de una empresa.
La adopción de IA aumenta
A nivel mundial, las jurisdicciones se apresuran a daily la IA a medida que aumenta la adopción de esta tecnología. Una encuesta de McKinsey encontró que la adopción de la IA ha alcanzado un notable 72% este año, frente al 55% en 2023.
Gen AI es el tipo número uno de solución de IA adoptado por empresas de todo el mundo. Un estudio de Gartner realizado en el cuarto trimestre de 2023 encontró que el 29% de los encuestados de organizaciones en los EE. UU., Alemania y el Reino Unido utilizan IA genérica, lo que la convierte en la solución de IA implementada con mayor frecuencia.
Crédito de la imagen destacada: editada desde freepik