El 29 de agosto, la Legislatura de California aprobó Proyecto de ley 1047 del Senado —la Ley de Innovación Segura para Modelos Fronterizos de Inteligencia Artificial— y la envió al gobernador Gavin Newsom para su firma. La decisión de Newsom, que debe presentarse antes del 30 de septiembre, es binaria: eliminarla o convertirla en ley.
Reconociendo el posible daño que podría derivar de la IA avanzada, la SB 1047 exige que los desarrolladores de tecnología integren salvaguardas a medida que desarrollan e implementan lo que el proyecto de ley llama “modelos cubiertos”. El fiscal general de California puede hacer cumplir estos requisitos mediante la presentación de acciones civiles contra las partes que no tomen “cuidado razonable” de que 1) sus modelos no causen daños catastróficos, o 2) sus modelos puedan apagarse en caso de emergencia.
Muchas empresas de inteligencia artificial importantes se oponen al proyecto de ley, ya sea de forma individual o a través de asociaciones comerciales. Entre sus objeciones se encuentran las preocupaciones de que la definición de los modelos cubiertos es demasiado inflexible para tener en cuenta el progreso tecnológico, que no es razonable responsabilizarlas por aplicaciones perjudiciales que desarrollen otros y que el proyecto de ley en general sofocará la innovación y paralizará a las pequeñas empresas emergentes que no tienen los recursos para dedicarse al cumplimiento.
Estas objeciones no son frívolas; merecen ser consideradas y muy probablemente se deba hacer alguna modificación adicional al proyecto de ley. Pero el gobernador debería firmarlo o aprobarlo de todas formas, porque un veto indicaría que no es aceptable ninguna regulación de la IA ahora y probablemente hasta que ocurra un daño catastrófico. Esa no es la posición correcta para que los gobiernos asuman esa tecnología.
El autor del proyecto de ley, el senador Scott Wiener (demócrata por San Francisco), se reunió con la industria de la IA en varias iteraciones del proyecto de ley antes de su aprobación legislativa final. Al menos una importante empresa de IA, Anthropic, pidió cambios específicos y significativos al texto, muchos de los cuales se incorporaron al proyecto de ley final. Desde que la Legislatura lo aprobó, el director ejecutivo de Anthropic ha dicho que sus “beneficios probablemente superan sus costos… [although] Algunos aspectos del proyecto de ley [still] parecen preocupantes o ambiguos”. La evidencia pública hasta la fecha sugiere que la mayoría de las otras empresas de IA optó simplemente por oponerse al proyecto de ley por principioen lugar de emprender esfuerzos específicos para modificarlo.
¿Qué debemos pensar de esta oposición, especialmente cuando los líderes de algunas de estas empresas han expresado públicamente su preocupación por los posibles peligros de la IA avanzada? En 2023, los directores ejecutivos de OpenAI y DeepMind de Google, por ejemplo, firmó una carta abierta que comparó los riesgos de la IA con la pandemia y la guerra nuclear.
Una conclusión razonable es que, a diferencia de Anthropic, se oponen a cualquier tipo de regulación obligatoria. Quieren reservarse el derecho a decidir cuándo los riesgos de una actividad o un esfuerzo de investigación o cualquier otro modelo implementado superan sus beneficios. Más importante aún, quieren que quienes desarrollan aplicaciones basadas en sus modelos cubiertos sean completamente responsables de la mitigación de riesgos. Casos judiciales recientes han sugerido Los padres que ponen armas en manos de sus hijos tienen cierta responsabilidad legal por las consecuencias. ¿Por qué debería tratarse de forma diferente a las empresas de inteligencia artificial?
Las empresas de inteligencia artificial quieren que el público les dé vía libre a pesar de un evidente conflicto de intereses: no se debe confiar en que las empresas con fines de lucro tomen decisiones que puedan obstaculizar sus perspectivas de obtener ganancias.
Ya hemos pasado por esto antes. En noviembre de 2023, el consejo de administración de OpenAI despidió a su director ejecutivo porque determinó que, bajo su dirección, la empresa estaba tomando un camino tecnológico peligroso. En cuestión de días, varias partes interesadas en OpenAI lograron revertir esa decisión, lo reincorporaron y expulsaron a los miembros del consejo que habían abogado por su despido. Irónicamente, OpenAI había sido estructurada específicamente para permitir que el consejo actuara como lo hizo: a pesar del potencial de generación de ganancias de la empresa, se suponía que el consejo debía garantizar que el interés público fuera lo primero.
Si se veta la SB 1047, las fuerzas antirregulación proclamarán una victoria que demuestra la sabiduría de su posición y tendrán pocos incentivos para trabajar en una legislación alternativa. El hecho de no tener una regulación significativa les beneficia y se basarán en un veto para mantener ese status quo.
Como alternativa, el gobernador podría convertir la SB 1047 en ley, añadiendo una invitación abierta a sus oponentes para que ayuden a corregir sus defectos específicos. Con lo que consideran una ley imperfecta, los oponentes del proyecto de ley tendrían un incentivo considerable para trabajar -y hacerlo de buena fe- para solucionarla. Pero el enfoque básico sería que la industria, no el gobierno, exponga su punto de vista sobre lo que constituye un cuidado razonable y apropiado en cuanto a las propiedades de seguridad de sus modelos avanzados. El papel del gobierno sería asegurarse de que la industria haga lo que la propia industria dice que debería hacer.
Las consecuencias de eliminar la SB 1047 y preservar el status quo son sustanciales: las empresas podrían desarrollar sus tecnologías sin restricciones. Las consecuencias de aceptar un proyecto de ley imperfecto serían un paso significativo hacia un mejor entorno regulatorio para todos los involucrados. Sería el comienzo, en lugar del final, del juego regulatorio de la IA. Este primer paso marca el tono de lo que está por venir y establece la legitimidad de la regulación de la IA. El gobernador debería firmar la SB 1047.
Herbert Lin es investigador principal del Centro de Seguridad y Cooperación Internacional de la Universidad de Stanford y miembro del Instituto Hoover. Es autor de “Cyber Threats and Nuclear Weapons.“