OpenAI sufrió una violación de seguridad en 2023, pero no reveló el incidente fuera de la empresa, informó el New York Occasions el 4 de julio.
Los ejecutivos de OpenAI supuestamente revelaron el incidente internamente durante una reunión de abril de 2023, pero no lo revelaron públicamente porque el atacante no accedió a información sobre clientes o socios.
Además, los ejecutivos no consideraron que el incidente fuera una amenaza para la seguridad nacional porque consideraban que el atacante period un explicit sin vínculos con ningún gobierno extranjero. No informaron del incidente al FBI ni a otras agencias de aplicación de la ley.
Según se informa, el atacante accedió a los sistemas de mensajería interna de OpenAI y robó detalles sobre los diseños de tecnología de inteligencia synthetic de la empresa a partir de conversaciones de empleados en un foro en línea. No accedió a los sistemas donde OpenAI “alberga y construye su inteligencia synthetic”, ni tampoco al código.
El New York Occasions citó como fuentes a dos personas familiarizadas con el asunto.
Ex empleado expresó preocupación
El New York Occasions también se refirió a Leopold Aschenbrenner, un ex investigador de OpenAI que envió una nota a los directores de OpenAI después del incidente y pidió medidas para evitar que China y otros países roben secretos de la empresa.
El New York Occasions dijo que Aschenbrenner aludió al incidente en un podcast reciente.
Liz Bourgeois, representante de OpenAI, dijo que la empresa apreciaba las preocupaciones de Aschenbrenner y manifestó su apoyo al desarrollo seguro de la IA normal, pero cuestionó los detalles. Dijo:
“No estamos de acuerdo con muchos de [Aschenbrenner’s claims] … Esto incluye sus caracterizaciones de nuestra seguridad, en explicit este incidente, que abordamos y compartimos con nuestra junta directiva antes de que se uniera a la empresa”.
Aschenbrenner dijo que OpenAI lo despidió por filtrar otra información y por motivos políticos. Bourgeois dijo que las preocupaciones de Aschenbrenner no llevaron a su despido.
Matt Knight, responsable de seguridad de OpenAI, destacó los compromisos de la empresa en materia de seguridad. Según declaró al New York Occasions, la empresa “comenzó a invertir en seguridad años antes que ChatGPT”. Admitió que el desarrollo de la IA “conlleva algunos riesgos y tenemos que resolverlos”.
El New York Occasions reveló un aparente conflicto de intereses al señalar que demandó a OpenAI y Microsoft por supuesta violación de los derechos de autor de su contenido. OpenAI cree que el caso carece de fundamento.
Mencionado en este artículo