Los investigadores dicen que tienen demostrado un método potencial para extraer modelos de inteligencia synthetic (IA) mediante la captura de señales electromagnéticas de computadoras, afirmando tasas de precisión superiores al 99%.
El descubrimiento podría plantear desafíos para el desarrollo comercial de la IA, donde empresas como OpenAI, Anthropic y Google han invertido mucho en modelos propietarios. Sin embargo, los expertos dicen que el Las implicaciones del mundo actual y las defensas contra tales técnicas siguen sin estar claras.
“El robo de IA no se trata solo de perder el modelo”, dijo a PYMNTS Lars Nyman, director de advertising and marketing de CUDO Compute. “Es el potencial daño en cascada, es decir, competidores que aprovechan años de I+D, reguladores que investigan el mal manejo de propiedad intelectual wise, demandas de clientes que de repente se dan cuenta de que la ‘singularidad’ de la IA no es tan única. En todo caso, esta tendencia de los seguros contra robo podría allanar el camino para auditorías estandarizadas, similares a las certificaciones SOC 2 o ISO, para separar a los jugadores seguros de los imprudentes”.
Los piratas informáticos que atacan los modelos de IA representan una amenaza creciente para el comercio, ya que las empresas dependen de la IA para obtener ventajas competitivas. Informes recientes revelan que se han subido miles de archivos maliciosos a abrazando la caraun depósito clave de herramientas de inteligencia synthetic, que pone en peligro los modelos utilizados en industrias como el comercio minorista, la logística y las finanzas.
Los expertos en seguridad nacional advierten que las medidas de seguridad débiles corren el riesgo de exponer los sistemas propietarios al robo, como se ve en el Violación de OpenAI. Los modelos de IA robados pueden someterse a ingeniería inversa o venderse, lo que socava las inversiones de las empresas y erosiona la confianza, al tiempo que permite a los competidores dar un salto adelante en innovación.
Un modelo de IA es un sistema matemático entrenado con datos para reconocer patrones y tomar decisiones, como una receta que le cube a una computadora cómo realizar tareas específicas como identificar objetos en fotografías o escribir texto.
Modelos de IA expuestos
Investigadores de la Universidad Estatal de Carolina del Norte han mostrado una nueva forma de extraer modelos de IA mediante la captura de señales electromagnéticas del {hardware} de procesamiento, logrando una precisión de hasta el 99,91%. Al colocar una sonda cerca de un Unidad de procesamiento de tensor de Google Edge (TPU), pudieron analizar señales que revelaron información crítica sobre la estructura del modelo.
Supuestamente, el ataque no requiere acceso directo al sistema, lo que representa un riesgo de seguridad para la propiedad intelectual de la IA. Los hallazgos enfatizan la necesidad de mejorar las salvaguardias a medida que las tecnologías de inteligencia synthetic se utilizan en sistemas comerciales y críticos.
“Los modelos de IA son valiosos, no queremos que la gente los gown” Aydin Aysucoautor de un artículo sobre el trabajo y profesor asociado de ingeniería eléctrica e informática en la Universidad Estatal de Carolina del Norte, dijo en un publicación de weblog. “Construir un modelo es costoso y requiere importantes recursos informáticos. Pero lo que es igualmente importante es que cuando un modelo se filtra o es robado, el modelo también se vuelve más susceptible a los ataques, porque terceros pueden estudiar el modelo e identificar cualquier debilidad”.
Brecha de seguridad de la señal de IA
La susceptibilidad de los modelos de IA a los ataques podría obligar a las empresas a repensar el uso de algunos dispositivos para el procesamiento de IA, según un asesor tecnológico Suriel Arellano dijo a PYMNTS.
“Las empresas podrían avanzar hacia una informática más centralizada y segura o considerar tecnologías alternativas menos propensas a los robos”, añadió. “Ese es un escenario potencial. Pero el resultado mucho más possible es que las empresas que obtienen beneficios significativos de la IA y trabajan en entornos públicos inviertan mucho en mejorar la seguridad”.
A pesar de los riesgos de robo, la IA también ración aumentar la seguridad. Como PYMNTS previamente reportadola inteligencia synthetic está fortaleciendo la ciberseguridad al permitir la detección automatizada de amenazas y una respuesta optimizada a incidentes mediante el reconocimiento de patrones y el análisis de datos. Las herramientas de seguridad impulsadas por IA pueden identificar amenazas potenciales y aprender de cada encuentro, según el CTO de Lenovo, Timothy E. Bates, quien destacó cómo los sistemas de aprendizaje automático ayudan a los equipos a predecir y contrarrestar los ataques emergentes.