Más Información

Identifican a dos fallecidos de explosión de pipa en Iztapalapa; Fiscalía de la CDMX localiza a una de las familias

Atentado contra Ciro Gómez Leyva: entre extorsionadores y homicidas, ellos son los detenidos y sentenciados por el caso

NFL: Tyreek Hill sufre escalofriante lesión en el partido entre los Dolphins de Miami y los Jets de Nueva York

Claves de la disputa fiscal entre diputados y electrolitos orales; impuesto a Electrolit generaría 5 mil mdp, señalan

Diputados modifican reforma a Ley Aduanera; amplían plazo de patente de agentes aduanales hasta 40 años

Reforma a la Ley de Amparo divide opiniones en el Senado; especialistas advierten riesgos y beneficios
El gobernador de California Gavin Newsom promulgó una legislación innovadora que exige a las empresas de inteligencia artificial más grandes del mundo que divulguen públicamente sus protocolos de seguridad y reporten incidentes críticos.
La ley conocida como SB 53 "ayudará al estado de California a incentivar la innovación al mismo tiempo que se protege la seguridad pública", declaró Newsom al anunciar la promulgación.
La ley es una de las medidas más significativas de California destinadas a regular el rápido avance de la industria de la inteligencia artificial de Silicon Valley. También le permitirá al estado conservar su posición como un centro global de tecnología.
"Con una tecnología tan transformadora como la IA, tenemos la responsabilidad de apoyar la innovación mientras implementamos medidas de seguridad sensatas", dijo en un comunicado el senador estatal Scott Wiener, ponente del proyecto de ley.
La nueva ley representa un exitoso segundo intento de Wiener de establecer regulaciones de seguridad para la IA después de que Newsom vetó la propuesta anterior tras una furiosa oposición de la industria tecnológica.
También ocurre después de un intento fallido de la administración Trump de impedir que los estados promulguen regulaciones sobre inteligencia artificial. El gobierno argumenta que crearían un caos regulatorio y ralentizarían la innovación hecha en Estados Unidos en una carrera contra China.
La nueva ley estipula que las grandes compañías de IA tienen que divulgar públicamente editados sus protocolos de seguridad y protección de la propiedad intelectual.
Lee también California responde a Texas y a Trump; modifica su propio mapa electoral para favorecer a demócratas
La legislación también establece protecciones para informantes de empleadores que revelen evidencia de peligros o violaciones de seguridad. También requiere que las empresas informen sobre casos en los que los sistemas de IA se comporten de manera peligrosa y engañosa durante las pruebas.
Por ejemplo, si un sistema de IA miente sobre la efectividad de los controles diseñados para evitar que brinde asistencia para la construcción de armas biológicas, los desarrolladores deben divulgar el incidente si éste aumenta significativamente los riesgos de daños catastróficos.
El grupo de trabajo detrás de esta ley fue liderado por destacados expertos como la investigadora Fei-Fei Li, de la Universidad de Standford, conocida como la "madrina de la IA".
desa/mgm