Nueva York aprueba la RAISE Act para prevenir desastres provocados por IA
Las multas llegan hasta 30 millones de dólares en sanciones civiles.
La legislatura del estado de Nueva York aprobó la Responsible AI Safety and Education (RAISE) Act, una ley pionera que busca evitar que modelos de IA de frontera —como los de OpenAI, Google o Anthropic— generen crisis a gran escala. Tras la aprobación, la iniciativa está a la espera de la firma de la gobernadora Kathy Hochul.
Detalles de la medida
¿A quién aplica?
Solo se regula a modelos de frontera, definidos como aquellos entrenados con más de 10^26 operaciones computacionales y con un costo mayor a 100 millones de dólares.
Se consideran “desarrolladores grandes” quienes entrenaron al menos un modelo de frontera con más de 5 millones USD, y con un gasto total acumulado mayor a 100 millones USD.
La ley se aplica siempre que los modelos estén disponibles para residentes de Nueva York.
Umbral de riesgo
Se establecen escenarios de “riesgo crítico” como:
La muerte o lesiones de más de 100 personas.
Daños superiores a 1 000 millones de USD.
Requisitos exigidos a los desarrolladores
1. Protocolos de seguridad
Antes de desplegar cualquier modelo de frontera, los grandes desarrolladores deben implementar protocolos escritos de seguridad y protección, así como revisiones formalizadas al menos una vez al año.
Los cambios en los protocolos deben ser documentados, con registro minucioso de pruebas, resultados y costos computacionales.
2. Transparencia y auditoría
Versión redactada de los protocolos debe publicarse accesiblemente; la versión completa debe estar disponible para la Fiscalía del Estado al solicitarla.
Deben emplear auditor independiente (externo) para verificar el cumplimiento de los estándares, no puede ser parte de la misma empresa.
3. Reportes de incidentes
Cualquier incidente de seguridad debe notificarse a la Fiscalía dentro de las 72 horas siguientes a su detección .
4. Reporte de costos
Los desarrolladores deben enviar un informe anual con el total del gasto computacional empleado en entrenamiento.
Penalidades
Las violaciones a normas de seguridad pueden conllevar multas del 5 % al 15 % del total de gastos computacionales.
El incumplimiento de reportes o protocolos puede acarrear hasta 30 millones de dólares en sanciones civiles cuando aplique .
Estas sanciones permiten también a la Fiscalía iniciar acciones legales para asegurar cumplimiento.
Protección a denunciantes
Un aspecto clave de la RAISE Act es que prohíbe represalias contra empleados que denuncien prácticas que representen “riesgo crítico”. Estas protecciones incluyen:
Derecho a alertar internamente o a la Fiscalía sin miedo a represalias.
Publicación obligatoria de avisos sobre derechos.
Recursos legales inmediatos (orden de protección o amparo).
Penalización individual de hasta 10 000 USD por cada incidente de represalia.
Contexto político y reacciones
Colaborador clave: senador Andrew Gounardes, quien resaltó la urgencia de crear “guardarraíles” en un contexto de expansión veloz de la IA.
Resistencia de Silicon Valley: sectores podría considerar que retrasa la innovación o desincentiva la presencia de modelos avanzados en el estado.
Expedientes exentos: la ley no exige kill switches, ni abarca startups pequeñas o investigación académica, para no frenar desarrollo.
Implicaciones y desafíos
Líder en regulación de IA: Nueva York se convierte en el primer estado con exigencias legales directas sobre seguridad y transparencia en IA de frontera, sentando un posible precedente nacional.
Balance innovación vs. seguridad: el diseño legal busca mantener atractivo el ecosistema de IA en New York sin renunciar a herramientas que protejan a la ciudadanía.
Desafío de cumplimiento: grandes empresas deberán adaptar procesos internos, fortalecer auditorías externas y capacitar equipos legales y técnicos para cumplir en tiempo y forma.
Estímulo a la cultura ética: la protección robusta para denunciantes fomenta una cultura corporativa más proactiva frente a los riesgos.
Conclusión
La RAISE Act representa un paso audaz y necesario en la regulación de IA a gran escala: introduce normas concretas sobre transparencia, seguridad, responsabilidad corporativa e incentiva una gestión ética. Aun cuando enfrenta críticas desde la industria, ofrece un marco equilibrado que podría marcar el rumbo de futuras legislaciones en EE. UU.
Al combinar límites muy concretos (riesgos sobre 100 personas o 1 000 M USD) con mecanismos sólidos de auditoría y denuncia, Nueva York muestra que es posible gestionar el riesgo sin paralizar la innovación. El impacto dependerá ahora de la firma de la gobernadora y de la capacidad de los desarrolladores para adaptarse con agilidad.
Resumen en cifras clave
Evento: aprobado el 13 de junio de 2025.
Umbral de riesgo: 100+ personas afectadas o 1 000 M USD en daños.
Costos mínimos para aplicarla: modelos entrenados con >10^26 operaciones y +100 M USD de inversión.
Penalidades: hasta 15 % de los costos computacionales y hasta 30 M USD de sanción.
Multa por represalia: hasta 10 000 USD por empleado afectado.
Esta ley no solo se anticipa a posibles desastres, sino que promueve una IA más responsable desde la raíz.
Fuentes principales: TechCrunch, StartUp.