Home Tech Los empleados de OpenAI advierten en una carta sobre las posibles amenazas...

Los empleados de OpenAI advierten en una carta sobre las posibles amenazas existenciales de la IA a la humanidad

38
0
ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab



Una coalición de empleados actuales y anteriores de OpenAI, la empresa matriz detrás de ChatGPT, ha emitido una advertencia sobre las amenazas existenciales que plantea la inteligencia artificial avanzada, incluido el potencial de extinción humana.

en un detallado carta Publicado ayer (4 de junio), el grupo, formado por 13 empleados actuales y anteriores de empresas como OpenAI, Anthropic y DeepMind de Google, describió una serie de amenazas asociadas con la IA, a pesar de sus beneficios potenciales.

La carta dice: “Somos empleados actuales y anteriores de empresas de inteligencia artificial de vanguardia y creemos en el potencial de la tecnología de inteligencia artificial para brindar beneficios sin precedentes a la humanidad”. Sin embargo, también destaca preocupaciones: “Estos riesgos van desde un mayor afianzamiento de las desigualdades existentes, hasta la manipulación y la desinformación, y la pérdida de control de los sistemas autónomos de IA, lo que podría provocar la extinción humana”.

Neel Nanda, líder de Interpretabilidad Mecanística en DeepMind y anteriormente de AnthropicAI, estuvo entre los firmantes. “Esto NO se debe a que actualmente tenga algo sobre lo que quiera advertir a mis empleadores actuales o anteriores, o críticas específicas a sus actitudes hacia los denunciantes”, escribió en X. “Pero creo que AGI tendrá increíbles consecuencias y, como todos los laboratorios reconocer, podría representar una amenaza existencial. Cualquier laboratorio que busque crear AGI debe demostrar que es digno de la confianza del público, y que los empleados tengan un derecho sólido y protegido a denunciar irregularidades es un primer paso clave”.

Falta de responsabilidad y regulación de la IA

Los partidarios afirman que, si bien las empresas de IA y los gobiernos globales reconocen estos peligros, las medidas corporativas y regulatorias actuales son insuficientes para prevenirlos. “Las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobierno corporativo sean suficientes para cambiar esto”, argumentan.

Luego critica la transparencia de las empresas de inteligencia artificial, afirmando que poseen “información sustancial no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños”. Señala la falta de obligación de estas empresas de revelar información tan crítica, señalando que “actualmente sólo tienen obligaciones débiles de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil”.

Los trabajadores expresaron una necesidad apremiante de una mayor supervisión gubernamental y responsabilidad pública. “Mientras no exista una supervisión gubernamental efectiva de estas corporaciones, los empleados actuales y anteriores se encuentran entre las pocas personas que pueden exigirles responsabilidades ante el público”, afirmó el grupo. También mostraron las limitaciones de las protecciones existentes para los denunciantes, que no cubren completamente los riesgos no regulados que plantean las tecnologías de inteligencia artificial.

OpenAI en agua caliente

La carta abierta llega en medio de una reestructuración para las principales empresas de inteligencia artificial, en particular OpenAI, que ha estado implementando asistentes de inteligencia artificial con funciones avanzadas capaces de entablar conversaciones de voz en vivo con humanos y responder a entradas visuales como transmisiones de video o problemas matemáticos escritos.

Scarlett Johansson, quien una vez interpretó a una asistente de inteligencia artificial en la película “Her”, acusó a OpenAI de modelar uno de sus productos según su voz, a pesar de su negativa expresa a tal propuesta. Aunque el director ejecutivo de OpenAI tuiteó la palabra “ella” durante el lanzamiento del asistente de voz, desde entonces la compañía ha refutado las afirmaciones de utilizar la voz de Johansson como modelo.

En mayo, OpenAI también disolvió un equipo especializado que se había creado para investigar las amenazas a largo plazo asociadas con la IA, menos de un año después de su creación. En julio pasado, el jefe de confianza y seguridad de OpenAI, Dave Willner, también renunció.

Imagen de portada: Canva





Fuente