Home Tech El proyecto de ley de inteligencia artificial de Scott Wiener avanza con...

El proyecto de ley de inteligencia artificial de Scott Wiener avanza con cambios significativos

14
0
El proyecto de ley de inteligencia artificial de Scott Wiener avanza con cambios significativos
ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab ab

Un controvertido proyecto de ley que pretende proteger a los californianos de catástrofes provocadas por la inteligencia artificial ha provocado un gran revuelo en la industria tecnológica. Esta semana, la legislación fue aprobada por un comité clave, pero con enmiendas para que resulte más aceptable para Silicon Valley.

El proyecto de ley SB 1047, del senador estatal Scott Wiener (demócrata de San Francisco), se presentará en la Asamblea estatal a finales de este mes. Si se aprueba en la Legislatura, el gobernador Gavin Newsom tendrá que decidir si firma o veta la innovadora legislación.

Los promotores del proyecto de ley afirman que creará barreras de protección para evitar que los modelos de inteligencia artificial, que avanzan rápidamente, provoquen incidentes desastrosos, como el corte de la red eléctrica sin previo aviso. Les preocupa que la tecnología se esté desarrollando más rápido de lo que sus creadores humanos pueden controlar.

Los legisladores pretenden incentivar a los desarrolladores para que gestionen la tecnología de manera responsable y facultar al fiscal general del estado para imponer sanciones en caso de amenaza o daño inminente. La legislación también exige que los desarrolladores puedan desactivar los modelos de IA que controlan directamente si las cosas salen mal.

Pero algunas empresas tecnológicas, como Meta Platforms, propietaria de Facebook, y políticos como el influyente representante estadounidense Ro Khanna (demócrata por Fremont), dicen que el proyecto de ley sofocaría la innovación. Algunos críticos dicen que se centra en escenarios apocalípticos y lejanos, en lugar de preocupaciones más inmediatas como la privacidad y la desinformación, aunque hay otros proyectos de ley que abordan estas cuestiones.

El SB 1047 es uno de los aproximadamente 50 proyectos de ley relacionados con la IA que se han presentado en la Legislatura estatal, a medida que aumentan las preocupaciones sobre los efectos de la tecnología en los empleos, la desinformación y la seguridad pública. Mientras los políticos trabajan para crear nuevas leyes que pongan límites a esta industria en rápido crecimiento, algunas empresas y talentos están demandando a las empresas de IA con la esperanza de que los tribunales puedan establecer reglas básicas.

Wiener, que representa a San Francisco —sede de las empresas emergentes de inteligencia artificial OpenAI y Anthropic— ha estado en el centro del debate.

El jueves, realizó cambios significativos a su proyecto de ley que algunos creen que debilitan la legislación y al mismo tiempo hacen más probable su aprobación en la Asamblea.

Las enmiendas eliminaron una penalidad por perjurio del proyecto de ley y cambiaron el estándar legal para los desarrolladores con respecto a la seguridad de sus modelos avanzados de IA.

Además, ya no se está trabajando en un plan para crear una nueva entidad gubernamental, que se habría llamado División Modelo Fronteriza. Según el texto original, el proyecto de ley habría exigido a los desarrolladores que presentaran sus medidas de seguridad a la división recién creada. En la nueva versión, los desarrolladores presentarían esas medidas de seguridad al fiscal general.

“Creo que algunos de esos cambios podrían aumentar las posibilidades de que se apruebe”, dijo Christian Grose, profesor de ciencias políticas y políticas públicas de la USC.

Algunos actores tecnológicos apoyan el proyecto de ley, incluido el Centro para la Seguridad de la IA y Geoffrey Hinton, considerado el «padrino de la IA».”A otros, sin embargo, les preocupa que pueda dañar una industria floreciente en California.

Ocho miembros de la Cámara de Representantes de California —Khanna, Zoe Lofgren (D-San José), Anna G. Eshoo (D-Menlo Park), Scott Peters (D-San Diego), Tony Cárdenas (D-Pacoima), Ami Bera (D-Elk Grove), Nanette Díaz Barragán (D-San Pedro) y Lou Correa (D-Santa Ana)— escribieron una carta a Newsom el jueves alentándolo a vetar el proyecto de ley si se aprueba en la Asamblea estatal.

“[Wiener] “Realmente hay una presión cruzada en San Francisco entre las personas que son expertas en esta área, que le han estado diciendo a él y a otros en California que la IA puede ser peligrosa si no la regulamos, y luego aquellos cuyos cheques de pago, su investigación de vanguardia, proviene de la IA”, dijo Grose. “Este podría ser un verdadero punto de conflicto para él, tanto a favor como en contra, para su carrera”.

Algunos gigantes tecnológicos dicen que están abiertos a la regulación, pero no están de acuerdo con el enfoque de Wiener.

“Estamos de acuerdo con la forma en que (Wiener) describe el proyecto de ley y los objetivos que tiene, pero seguimos preocupados por el impacto del proyecto de ley en la innovación de la IA, particularmente en California, y particularmente en la innovación de código abierto”, dijo Kevin McKinley, gerente de políticas estatales de Meta, en una reunión con miembros del consejo editorial del LA Times la semana pasada.

Meta es una de las empresas que cuenta con una colección de modelos de inteligencia artificial de código abierto llamada Llama, que permite a los desarrolladores crear sus propios productos a partir de ella. Meta lanzó Llama 3 en abril y ya ha tenido 20 millones de descargas, según afirmó el gigante tecnológico.

Meta se negó a comentar las nuevas enmiendas. La semana pasada, McKinley dijo que la SB 1047 es “en realidad un proyecto de ley muy difícil de corregir y corregir”.

Un portavoz de Newsom dijo que su oficina normalmente no hace comentarios sobre legislación pendiente.

“El gobernador evaluará este proyecto de ley según sus méritos si llega a su escritorio”, escribió el portavoz Izzy Gardon en un correo electrónico.

La startup de inteligencia artificial de San Francisco Anthropic, conocida por su asistente de inteligencia artificial Claude, señaló que podría apoyar el proyecto de ley si se enmendara. En una carta del 15 de julio a la asambleísta Buffy Wicks (demócrata de Oakland), el responsable de política y estado de Anthropic, Hank Dempsey, propuso cambios, entre ellos, cambiar el proyecto de ley para que se centre en responsabilizar a las empresas de causar catástrofes en lugar de aplicar medidas de control antes de que se produzcan daños.

Wiener dijo que las enmiendas tomaron en cuenta las preocupaciones de Anthropic.

“Podemos avanzar tanto en innovación como en seguridad”, afirmó Wiener en un comunicado. “Ambas cosas no son mutuamente excluyentes”.

No está claro si las enmiendas cambiarán la posición de Anthropic sobre el proyecto de ley. El jueves, Anthropic dijo en un comunicado que revisaría el nuevo “lenguaje del proyecto de ley a medida que esté disponible”.

Russell Wald, subdirector del HAI de la Universidad de Stanford, cuyo objetivo es promover la investigación y las políticas de IA, dijo que todavía se opone al proyecto de ley.

“Las modificaciones recientes parecen tener más que ver con la apariencia que con la sustancia”, dijo Wald en un comunicado. “Parece menos controvertida para apaciguar a un par de empresas líderes de inteligencia artificial, pero hace poco para abordar las preocupaciones reales de las instituciones académicas y las comunidades de código abierto”.

Es un equilibrio delicado para los legisladores que intentan sopesar las preocupaciones sobre la IA y al mismo tiempo apoyar al sector tecnológico del estado.

“Lo que muchos de nosotros estamos tratando de hacer es idear un entorno regulatorio que permita que existan algunas de esas barreras sin sofocar la innovación y el crecimiento económico que acompaña a la IA”, dijo Wicks después de la reunión del comité del jueves.

La redactora del Times Anabel Sosa contribuyó a este informe.

Fuente