Según se informa, un hacker obtuvo acceso a los sistemas de mensajería interna de OpenAI y robó información confidencial sobre el proceso de diseño involucrado en la creación de los productos de inteligencia artificial de la empresa.
Según lo informado por el New York Timesun foro en línea donde los empleados se comunican sobre los últimos desarrollos del fabricante ChatGPT se vio comprometido, pero el gigante tecnológico ha insinuado que el actor malicioso no accedió a los principales sistemas de repositorio para almacenar y construir su IA.
Los altos ejecutivos de OpenAI, que recientemente lanzó CriticGPT, informaron a la junta directiva y a los trabajadores de la empresa sobre la violación de datos que supuestamente tuvo lugar en abril de 2023, pero no se hicieron públicos los detalles, ya que no hubo pérdida de datos de clientes o socios. El informe indicó además que los jefes creían que se trataba del trabajo de un particular sin conexiones con un estado-nación que lo respaldara, ni se creía que fuera una amenaza para la seguridad nacional.
OpenAI tampoco informó a las agencias policiales federales sobre el incidente.
Potencial de riesgo para la seguridad nacional
La compañía está familiarizada con una sensación de alerta después de que en mayo confirmó que había descubierto cinco operaciones de influencia encubiertas que tenían como objetivo utilizar sus modelos de IA para “actividades engañosas” en Internet.
Algunos empleados han expresado temores en relación con esta violación de seguridad, preocupados de que pueda llevar a que rivales geopolíticos como China roben la propiedad de inteligencia artificial de la empresa.
Aunque la tecnología es principalmente una herramienta para trabajar y buscar, está evolucionando a un ritmo rápido y, en última instancia, eso podría suponer un riesgo para la seguridad nacional. Se han planteado preguntas sobre la seriedad con la que OpenAI se toma las cuestiones de seguridad, y los hallazgos han puesto de relieve las deficiencias dentro de la empresa en lo que respecta a los riesgos que plantea la IA.
Leopold Aschenbrenner, un gerente técnico que trabaja en un proyecto para salvaguardar el futuro de la tecnología de IA, se comunicó con la junta directiva de OpenAI para advertirles que no se estaba haciendo lo suficiente para evitar que actores extranjeros hostiles penetraran en sus sistemas.
Aschenbrenner fue despedido a principios de este año por filtrar información fuera de la empresa, pero él ha insistido en que su despido tuvo motivaciones políticas.
Crédito de la imagen: vía Ideogram