La última Ley de IA de la Unión Europea, publicada ayer, refleja la actitud progresista e impulsada por la innovación de la región en su búsqueda de common la forma en que las organizaciones desarrollan, utilizan y aplican la inteligencia synthetic (IA).
Los reguladores, propuestos por primera vez en 2020, tienen como objetivo common el espacio de la IA en Europa estableciendo el nivel de riesgo que la IA tiene para una empresa en función de cómo se utiliza. La Unión Europea ha creado cuatro categorías diferentes en la Ley de IA en las que se clasificarán las empresas: riesgo mínimo, riesgo específico de transparencia, riesgo alto y riesgo inaceptable.
Las empresas que entran en la primera categoría son aquellas que utilizan la IA para cosas como filtros de spam. Estos sistemas no enfrentan obligaciones bajo la Ley de IA debido al riesgo mínimo que presentan para los derechos y la seguridad de los ciudadanos. El riesgo específico de transparencia involucra sistemas de IA como chatbots. En este caso, las empresas deben informar claramente a los usuarios que están interactuando con una máquina, especialmente si se utilizan cosas como deepfakes, categorización biométrica y sistemas de reconocimiento de emociones.
Además, los proveedores tendrán que diseñar sistemas de manera que el contenido sintético de audio, vídeo, texto e imágenes esté marcado en un formato legible por máquina y sea detectable como generado o manipulado artificialmente.
Los factores de alto riesgo surgen cuando las empresas utilizan IA para sistemas de mitigación de riesgos, conjuntos de datos de alta calidad, registro de actividad, documentación detallada, información clara del usuario, supervisión humana y un alto nivel de solidez, precisión y ciberseguridad.
Cualquier indicio de riesgo inaceptable dará lugar a la prohibición del servicio. Esto se hará cuando exista una amenaza a los derechos fundamentales de las personas.
La mayoría de las normas de la Ley de IA entrarán en vigor el 2 de agosto de 2026. Sin embargo, las prohibiciones de los sistemas de IA que se consideren que presentan un riesgo inaceptable se aplicarán ya después de seis meses, mientras que las normas para los denominados modelos de IA de propósito common se aplicarán después de 12 meses.
¿Cómo encaja la Ley de IA en la regulación precise?
La IA es una parte innegable de casi todos los ecosistemas en la actualidad. El nivel de automatización que aporta supera por completo el trabajo guide y los recursos que se necesitaban anteriormente para completar las tareas. Pero a medida que la Ley de IA entra en vigor, diferentes organizaciones están respondiendo a cómo se integrará con las regulaciones existentes.
Para revelar el alcance de este cambio, Moody’s, el proveedor de herramientas de análisis, inteligencia y datos, se propuso averiguar cómo se están preparando las organizaciones para el cambio. La verificación de entidades fue identificada como uno de los factores clave para una mayor confianza y precisión mediante el uso de la IA.
Según el estudio de Moody’s, más de una cuarta parte (27 por ciento) de los encuestados considera que la verificación de entidades es elementary para mejorar la precisión de la IA en las actividades de riesgo y cumplimiento normativo. Un 50 por ciento adicional afirma que tiene valor para mejorar la precisión. Las alucinaciones tienen el potencial de obstaculizar los procesos de cumplimiento normativo, en los que es esencial evaluar el panorama common de riesgos y comprender a fondo con quién se está haciendo negocios.
Curiosamente, el informe también descubrió que la adopción de IA en materia de riesgo y cumplimiento normativo está en aumento. El 11 % de las organizaciones contactadas por Moody’s a través del estudio ahora utilizan IA de forma activa, lo que representa un aumento del 2 % desde la última vez que Moody’s examinó la adopción de IA en materia de cumplimiento normativo en 2023. Además, el 29 % de los encuestados está probando actualmente aplicaciones de IA, un aumento del 8 % con respecto a los hallazgos de Moody’s del año pasado.
¿Están preparadas las empresas?
Como se desprende de los resultados de Moody’s, la adopción de la IA está en aumento, lo que significa que más organizaciones deberán alinearse con la Ley de IA. Entonces, ¿cómo está respondiendo la tecnología financiera a este aumento y al impacto de la nueva regulación?
Ramyani Basu, responsable international de IA y datos en Kearney, la consultora de gestión: “Si bien algunos elementos de la Ley de IA de la UE pueden parecer prematuros o vagos, se han logrado avances significativos en materia de código abierto e I+D.
“Sin embargo, los equipos de desarrollo deben asegurarse de que sus sistemas de IA cumplan con estos estándares, o se arriesgan a multas cuantiosas de hasta el siete por ciento de su facturación international. Del mismo modo, la introducción de la nueva regulación significa que las organizaciones y los equipos internos de IA tendrán que considerar de manera proactiva cómo las nuevas reglas afectarán no solo la implementación de productos o soluciones de IA, sino también el desarrollo y la recopilación de datos.
“Los equipos que trabajan en distintas regiones pueden tener dificultades al principio para realinear sus estrategias de IA debido a los distintos estándares tecnológicos en Europa. Dicho esto, adoptar las directrices de la Ley de IA de la UE no solo minimiza estos desafíos y riesgos, sino que también abre oportunidades para estas empresas en nuevos mercados. Si bien el cumplimiento puede parecer abrumador al principio, los equipos que se adapten a las nuevas regulaciones de manera efectiva lo considerarán un catalizador para el crecimiento y la innovación.
“Un aspecto especialmente positivo del reglamento es que otorga poder a los usuarios finales. La ley no solo permite a los ciudadanos de la UE presentar quejas sobre los sistemas de IA, sino que también pueden recibir explicaciones sobre su funcionamiento. Esta transparencia es elementary para generar confianza en la tecnología, especialmente dada la inmensa cantidad de datos que se comparten”.
Enviando un mensaje a los infractores
Jamil Jiva, director international de gestión de activos en Linedata, el proveedor international de software program, compara la nueva Ley de IA con el Reglamento Basic de Protección de Datos (GDPR) y cómo algunas empresas que no cumplen con la Ley deben convertirse en un ejemplo.
“La UE demostró a través del RGPD que podía ejercer su influencia regulatoria para imponer las mejores prácticas en materia de privacidad de datos a la industria tecnológica international. Ahora, quiere hacer lo mismo con la IA.
“Con el RGPD, las grandes empresas tecnológicas tardaron varios años en tomarse en serio el cumplimiento de la normativa, y algunas empresas tuvieron que pagar multas importantes debido a las violaciones de datos. Ahora la UE entiende que debe imponer multas importantes a las empresas infractoras si quiere que las regulaciones tengan un impacto.
“Las empresas que no cumplan con estas nuevas regulaciones de inteligencia synthetic pueden esperar grandes sanciones, ya que la UE intenta enviar un mensaje de que cualquier empresa que opere dentro de su jurisdicción debe cumplir con la legislación de la UE. Sin embargo, siempre existe la duda sobre cómo se pueden hacer cumplir las fronteras en Web, ya que las VPN y otras soluciones alternativas dificultan determinar dónde se presta un servicio.
Los clientes establecerán el estándar
“Creo que los estándares de la industria en torno a la IA serán establecidos por los clientes a medida que las empresas se vean obligadas a autorregular sus prácticas para alinearse con lo que sus clientes aceptan como ético y transparente.
“Para asegurarse de que funcionan dentro de estándares aceptables, las empresas deberían empezar por distinguir entre la IA como tecnología de amplio alcance y los innumerables casos de uso posibles. El que el uso de la IA sea ético y conforme a las normas dependerá de para qué se utilice un modelo y de qué datos se utilicen para entrenarlo. Por lo tanto, lo principal que pueden hacer las empresas tecnológicas globales es proporcionar un marco de gobernanza que garantice que cada caso de uso diferente sea ético y práctico”.
Un paso en la dirección correcta
Steve Bates, director de seguridad de la información de Aurum Options, la empresa de transformación digital basada en datos, señala que el entusiasmo por la IA ha hecho que muchas organizaciones recurran a esta tecnología. Sin embargo, esto no es necesario. Explica que las organizaciones deben reevaluar si la implementación de la IA es realmente necesaria, ya que de lo contrario podría dar lugar a procesos regulatorios complicados.
“La ley es un paso positivo hacia la mejora de la seguridad en el uso de la IA, pero la legislación no es una solución independiente. Muchas de las disposiciones de la ley no entrarán en vigor hasta 2026 y, como esta tecnología evoluciona tan rápidamente, la legislación corre el riesgo de quedar obsoleta para cuando realmente se aplique a los desarrolladores de IA.
“Cabe destacar que la ley no exige que los desarrolladores de modelos de IA proporcionen atribución a las fuentes de datos utilizadas para construir modelos, lo que deja a muchos autores de materials unique sin poder hacer valer y monetizar sus derechos sobre el materials protegido por derechos de autor. Junto con la reforma legislativa, las empresas deben centrarse en educar al private sobre cómo usar la IA de forma segura, dónde debe y no debe implementarse e identificar casos de uso específicos en los que pueda aumentar la productividad”.
“La IA no es la panacea para todo. No todos los procesos necesitan ser revisados por IA y, en algunos casos, un proceso de automatización easy es la mejor opción. Con demasiada frecuencia, las empresas implementan soluciones de IA solo porque quieren sumarse a la tendencia. En cambio, deberían pensar en qué problemas deben resolverse y cómo hacerlo de la manera más eficiente”.
Los bancos deben saber cómo seguir cumpliendo las normas
Shaun Hurst, asesor regulatorio principal de Smarsh, la empresa de desarrollo de software program, dijo: “A medida que hoy se promulga la primera legislación del mundo dirigida específicamente a la IA, las empresas de servicios financieros deberán garantizar el cumplimiento al implementar dicha tecnología con el fin de brindar sus servicios.
“Los bancos que utilizan tecnologías de IA categorizadas como de alto riesgo ahora deben cumplir con regulaciones estrictas que se centran en la precisión, la solidez y la ciberseguridad del sistema, incluido el registro en una base de datos de la UE y la documentación exhaustiva para demostrar el cumplimiento de la Ley de IA. Para aplicaciones de IA como el reconocimiento facial o el resumen de las comunicaciones internas, los bancos deberán mantener registros detallados del proceso de toma de decisiones. Esto incluye las entradas de datos, los criterios de toma de decisiones del modelo de IA y la lógica detrás de los resultados específicos.
“Si bien el objetivo es garantizar la rendición de cuentas y la capacidad de auditar los sistemas de IA para garantizar su imparcialidad, precisión y cumplimiento de las normas de privacidad, el aumento de la presión regulatoria significa que las instituciones financieras deben evaluar sus capacidades para mantenerse al día con estos cambios en la legislación y si las tecnologías de cumplimiento existentes están a la altura”.