Editor en La Ecuación Digital. Analista y divulgador tecnológico con…
California ha dado un paso decisivo en la regulación de la inteligencia artificial con la aprobación de la ley SB 53, también conocida como Transparency in Frontier Artificial Intelligence Act. La norma, firmada el pasado lunes por el gobernador Gavin Newsom, introduce obligaciones de transparencia y responsabilidad para los desarrolladores de sistemas de IA considerados de frontera, es decir, aquellos con capacidades avanzadas y potencial impacto a gran escala.
La ley afecta exclusivamente a empresas con ingresos anuales superiores a 500 millones de dólares que desarrollen este tipo de modelos. Estas compañías deberán publicar sus marcos de seguridad, documentar cómo se alinean con estándares nacionales e internacionales, y notificar incidentes significativos relacionados con la seguridad o el comportamiento no previsto de los sistemas, como conductas engañosas o vulnerabilidades explotadas.
Tal como ha informado The New York Times, esta legislación sitúa a California entre los territorios con mayor capacidad de intervención normativa en materia tecnológica, en ausencia de una ley federal integral. El objetivo declarado por las autoridades californianas es garantizar un desarrollo seguro de la IA sin frenar la actividad económica asociada a este sector.
Medidas incluidas en la ley: transparencia, vigilancia y sanciones
El texto, promovido por el senador demócrata Scott Wiener, también contempla la creación de un consorcio público denominado CalCompute, integrado en la Agencia de Operaciones del Gobierno de California. Su función será impulsar la investigación pública en inteligencia artificial con estándares de equidad, sostenibilidad y ética.
Además, la norma incorpora mecanismos de protección legal para empleados que alerten sobre riesgos internos o prácticas potencialmente peligrosas. Las empresas que no cumplan con las obligaciones podrán enfrentarse a sanciones civiles, gestionadas por la Fiscalía General del Estado.
Según declaraciones recogidas por Computerworld, el senador Wiener considera que esta legislación responde a la necesidad de “llenar un vacío regulador” ante el avance de tecnologías capaces de generar efectos significativos sobre la economía, la seguridad y los derechos fundamentales.
De la SB 1047 a la SB 53: un segundo intento tras la presión del sector
El camino hacia la SB 53 comenzó en 2023, cuando una versión anterior de la norma, la SB 1047, fue vetada por el propio gobernador Newsom. Aquel proyecto, conocido como Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, contenía requisitos más estrictos, entre ellos la creación obligatoria de interruptores de emergencia (kill switches) en modelos de IA avanzada.
La reacción de la industria tecnológica fue inmediata. Grandes compañías como Meta, OpenAI, Google o el fondo Andreessen Horowitz expresaron su rechazo frontal a lo que consideraban una injerencia excesiva en su capacidad de desarrollo. El veto gubernamental reflejó esa presión, aunque abrió la puerta a una revisión consensuada del texto.
La versión finalmente aprobada, según eWeek, es fruto del trabajo conjunto entre legisladores, académicos, expertos en gobernanza algorítmica y representantes de empresas como Anthropic, que sí respaldó públicamente la SB 53. La empresa destacó que la norma “introduce salvaguardas prácticas que crean verdadera responsabilidad en el desarrollo de sistemas de IA potentes”.
Respuesta del sector: tensiones entre regulación estatal y armonización federal
El impacto de la ley SB 53 trasciende las fronteras de California. Según datos citados por la National Conference of State Legislatures, en lo que va de año se han presentado o aprobado más de 100 propuestas legislativas sobre inteligencia artificial en 38 estados estadounidenses.
Esta proliferación de iniciativas ha generado inquietud entre las grandes tecnológicas, que reclaman un marco normativo único a nivel federal para evitar un entorno jurídico fragmentado. En este sentido, representantes de empresas como Meta y voceros de asociaciones como la Consumer Technology Association han advertido que esta dinámica puede poner en riesgo la viabilidad operativa de proyectos multijurisdiccionales.
El propio gobernador Newsom respondió a estas críticas afirmando que “California ha demostrado que se pueden establecer normas para proteger a la población sin frenar el crecimiento del sector de la IA”, en declaraciones reproducidas por Computerworld. La intención del legislador californiano, sin embargo, no ha sido replicar los aspectos más restrictivos de otras propuestas, sino establecer un marco técnico de rendición de cuentas.
Comparación con la ley italiana: convergencias en principios, divergencias en estrategia
Mientras California aprueba una norma dirigida a los grandes desarrolladores de modelos avanzados, Italia ha optado por legislar en clave estructural y sectorial. El pasado 17 de septiembre, el Senado italiano aprobó la primera ley nacional de inteligencia artificial de la Unión Europea, anticipando la entrada en vigor del Reglamento (UE) 2024/1689 (AI Act).
La legislación italiana, que complementa el marco europeo, regula el uso de la IA en sectores sensibles como sanidad, justicia, educación, administración pública y ciberseguridad. A diferencia del enfoque californiano, Italia impone una supervisión humana obligatoria en aplicaciones críticas, establece restricciones al uso de IA por parte de menores y promueve la localización nacional de datos estratégicos.
Según lo publicado recientemente por La Ecuación Digital, la ley también reserva la protección de derechos de autor a las obras generadas por humanos, incluso si han sido asistidas por IA. Se excluye explícitamente del amparo legal a contenidos generados de forma autónoma por algoritmos.
Además, la normativa incorpora un programa de inversión pública de hasta 1.000 millones de euros para fomentar la adopción segura y competitiva de IA en pymes y start-ups. El gobierno italiano ha defendido que esta ley convierte al país en referente regulador dentro de la UE.
Dos modelos de gobernanza: desarrollo tecnológico vs. uso institucional
El contraste entre ambas normas ilustra dos modelos regulatorios distintos:
- California se centra en los desarrolladores, imponiendo transparencia, protocolos de seguridad y obligación de reporte sobre los modelos más avanzados. El objetivo es controlar el origen de la tecnología antes de que se difunda en el mercado.
- Italia legisla sobre el uso final de la IA, con especial atención a los sectores públicos y los derechos fundamentales. La prioridad es garantizar que la inteligencia artificial no sustituya decisiones humanas en ámbitos críticos.
Ambos marcos coinciden en principios clave: trazabilidad, transparencia, supervisión humana y protección de datos. Pero divergen en su foco: mientras California se adelanta a la potencial disrupción técnica, Italia busca preservar estructuras institucionales y valores sociales frente a usos abusivos.
Escenario global: fragmentación normativa o convergencia progresiva
La aprobación de la SB 53 y la ley italiana anticipan una tendencia regulatoria internacional marcada por dos riesgos contrapuestos: la dispersión normativa y el rezago legislativo. La ausencia de marcos globales vinculantes ha llevado a que jurisdicciones influyentes, como la Unión Europea y estados clave de EE. UU., empiecen a legislar por su cuenta.
Este fenómeno puede derivar en un mosaico de requisitos técnicos y legales que dificulten la escalabilidad de los desarrollos y aumenten los costes de cumplimiento para las empresas. No obstante, también puede fomentar la consolidación de buenas prácticas internacionales en torno a la transparencia, la rendición de cuentas y el respeto a los derechos fundamentales.
En opinión de Shane Tierney, especialista en gobernanza de riesgos, citado por Computerworld, prácticas como la documentación de riesgos, la publicación de “model cards” o la creación de protocolos de respuesta ante incidentes serán cada vez más comunes, incluso fuera del ámbito obligatorio de leyes como la SB 53.
El papel de España: entre el reglamento europeo y la espera legislativa
Mientras tanto, en España el debate regulador sobre la inteligencia artificial sigue abierto. Aunque la Agencia Española de Supervisión de la IA (AESIA) ya ha sido creada y ha nombrado responsables, su operatividad plena aún está por definirse. La futura Ley de Inteligencia Artificial, actualmente en fase de preparación, deberá alinearse con el AI Act, pero también podría incorporar medidas adicionales, siguiendo ejemplos como el italiano o el californiano.
El reto para España será evitar la incoherencia entre los objetivos de fomento empresarial y las posibles sanciones derivadas de una regulación ambigua o excesiva. Según algunos expertos, un marco que combine claridad jurídica, proporcionalidad y supervisión eficaz será esencial para no disuadir a los actores que la propia administración busca impulsar.
Editor en La Ecuación Digital. Analista y divulgador tecnológico con más de 30 años de experiencia en el estudio del impacto de la tecnología en la empresa y la economía.
