La inteligencia artificial (IA) está avanzando a pasos agigantados, y con ese progreso vienen riesgos importantes. Desde estafas telefónicas masivas hasta imágenes falsas de celebridades utilizadas en campañas de acoso, esta tecnología está demostrando ser una herramienta poderosa y, a veces, peligrosa. Es por eso que California está tomando cartas en el asunto con un proyecto de ley conocido como SB 1047, que busca regular los modelos avanzados de IA.
SB 1047: ¿La regulación más estricta de EE. UU.?
A finales de agosto, la SB 1047 fue aprobada por la Asamblea y el Senado de California, y ahora está en manos del gobernador Gavin Newsom. Si bien la Unión Europea y otros gobiernos han estado debatiendo durante años cómo regular la IA, la SB 1047 podría establecer el marco más riguroso en Estados Unidos.
Sin embargo, el proyecto ha generado controversia. Los críticos temen que esta ley sea una amenaza para las startups, los desarrolladores de código abierto e incluso la innovación académica. Por otro lado, sus defensores creen que es una medida esencial para mitigar los riesgos de una tecnología que puede causar daños significativos.
El enfrentamiento en Silicon Valley
La versión original de la SB 1047, presentada por el senador Scott Wiener, era ambiciosa y buscaba establecer reglas estrictas para los desarrolladores de IA, incluyendo pruebas de seguridad exhaustivas y la implementación de un “interruptor de apagado” para detener modelos no autorizados. Empresas como OpenAI y Anthropic se opusieron desde el principio, argumentando que el proyecto podría sofocar la innovación.
Uno de los críticos más vocales ha sido Andrew Ng, cofundador de Coursera y pionero en IA, quien destacó que la regulación no debería centrarse en la tecnología en sí, sino en sus aplicaciones. Según Ng, el riesgo de la IA depende más del uso que de la propia tecnología.
¿Un freno a la innovación?
Muchos expertos temen que la SB 1047 frene el progreso de la IA en Estados Unidos, especialmente frente a competidores internacionales como China y Rusia. Entre ellos, figuras como Zoe Lofgren y Nancy Pelosi han manifestado su preocupación de que la ley esté enfocada en escenarios ficticios y catastróficos de IA.
Además, la comunidad de código abierto también ha levantado su voz, destacando que la colaboración abierta ha sido un motor clave de innovación. Regular el código abierto en el contexto de la IA presenta desafíos únicos que aún no están bien definidos.
Un proyecto de ley suavizado, pero no sin impacto
Ante tantas críticas, la SB 1047 sufrió importantes modificaciones. Se eliminaron algunas de las regulaciones más estrictas, como la creación de una agencia reguladora y la posibilidad de que el fiscal general demande a los desarrolladores por problemas de seguridad. En su lugar, los desarrolladores solo deberán hacer “declaraciones” públicas sobre sus prácticas de seguridad.
A pesar de estas modificaciones, muchos creen que el proyecto aún tiene valor. Incluso en su versión debilitada, podría incentivar a las empresas a tomar más en serio la seguridad de sus modelos. Gary Marcus, profesor de psicología y neurociencia, sostiene que cualquier paso hacia la alineación de la IA con valores humanos es positivo.
El delicado equilibrio de Gavin Newsom
Ahora, la decisión final recae en el gobernador Gavin Newsom, quien ha permanecido en silencio sobre la SB 1047. Con profundas conexiones entre Silicon Valley y la política de California, Newsom enfrenta presiones de todas partes. Por un lado, la regulación de la IA podría costarle el apoyo de importantes donantes del sector tecnológico. Por otro, la falta de regulación podría exponer a la población a riesgos crecientes asociados con la IA.
Newsom tiene hasta septiembre para decidir el destino de la SB 1047. Su decisión podría marcar un antes y un después en la industria de la IA, no solo en California, sino en todo el mundo.