El Reino Unido y Estados Unidos han firmado un acuerdo bilateral de inteligencia synthetic (IA) para colaborar en la mitigación del riesgo de los modelos de IA; tras los compromisos asumidos en la Cumbre de Seguridad de la IA en noviembre de 2023.
Tras esta asociación, tanto el Reino Unido como los EE. UU. desarrollarán un enfoque común para las pruebas de seguridad de la IA y trabajarán estrechamente para acelerar conjuntos sólidos de evaluaciones para modelos, sistemas y agentes de IA. El memorando de entendimiento fue firmado por la Secretaria de Estado de Ciencia, Innovación y Tecnología, Michelle Donelan, en representación del Reino Unido, y la Secretaria de Comercio, Gina Raimondo, en representación de Estados Unidos.
Ambos países han establecido planes para compartir sus capacidades para garantizar que puedan abordar eficazmente los riesgos de la IA. Los institutos de seguridad de IA del Reino Unido y de EE. UU. tienen la intención de realizar al menos un ejercicio de prueba conjunto en un modelo de acceso público. También tienen la intención de aprovechar un conjunto colectivo de conocimientos especializados mediante la exploración de intercambios de private entre los Institutos.
“Este acuerdo representa un momento histórico, ya que el Reino Unido y los EE. UU. profundizan nuestra relación especial y duradera para abordar el desafío tecnológico que outline a nuestra generación”, explicó Donelan.
La asociación entrará en vigor de inmediato y tiene como objetivo permitir que ambas organizaciones trabajen sin problemas entre sí. A medida que la IA se desarrolla rápidamente, ambos gobiernos reconocen la necesidad de actuar ahora para garantizar un enfoque compartido para la seguridad de la IA que pueda seguir el ritmo de los riesgos emergentes de la tecnología.
Raimondo dijo: “La IA es la tecnología que outline a nuestra generación. Esta asociación acelerará el trabajo de nuestros dos institutos en todo el espectro de riesgos, ya sea para nuestra seguridad nacional o para nuestra sociedad en basic. Nuestra asociación deja en claro que no estamos huyendo de estas preocupaciones: estamos corriendo hacia ellas. Gracias a nuestra colaboración, nuestros institutos obtendrán una mejor comprensión de los sistemas de inteligencia synthetic, realizarán evaluaciones más sólidas y emitirán orientaciones más rigurosas”.
Evaluación de la IA generativa
Henry Balani, director international de asuntos industriales y regulatorios de Embody Company, dijo: “La IA generativa, en specific, tiene un papel enorme que desempeñar en toda la industria de servicios financieros, mejorando la precisión y la velocidad de detección de delitos financieros mediante el análisis de grandes conjuntos de datos. , Por ejemplo.
“Mitigar los riesgos de la IA, a través de este acuerdo de colaboración con los EE. UU., es un paso clave para mitigar los riesgos de los delitos financieros, fomentar la colaboración y apoyar la innovación en un área tecnológica essential y en avance.
“La IA generativa está aquí para aumentar el trabajo del private en todo el sector de servicios financieros, y en specific de los analistas de KYC, al optimizar los procesos y analizar grandes conjuntos de datos de manera rápida y precisa. Pero para que esto sea verdaderamente efectivo, los bancos y las instituciones financieras primero deben implementar procesos digitales y automatizados sólidos para optimizar la calidad de los datos y brindar conocimientos más profundos a los clientes, lo que puede ayudar a impulsar el uso de la IA generativa”.
Perttu Nihti, director de producto de Basware, también analizó la importancia de la IA: “La IA puede reforzar significativamente la precisión de la detección de fraude a través de algoritmos sofisticados que analizan grandes cantidades de datos para detectar valores atípicos y actividades sospechosas que indiquen un comportamiento fraudulento. No solo eso, sino que se pueden entrenar algoritmos de inteligencia synthetic para minimizar y reducir los falsos positivos, lo que limita la cantidad de transacciones legítimas que se marcan erróneamente como fraudulentas.
“A medida que los directores financieros luchan contra la creciente ola de fraude, implementar soluciones de inteligencia synthetic y aprendizaje automático a través de organizaciones asociadas es una buena manera de compartir la carga de cumplimiento. El director financiero es el responsable en última instancia, pero tener un socio de confianza que pueda estar al tanto de los mandatos y regulaciones en evolución, así como reducir el riesgo de fraude a través de la tecnología, puede ayudar a compartir la carga”.