Más Información

Cae en CDMX “Lobo Menor”, vinculado al homicidio de un excandidato presidencial en Ecuador; se le señala como líder de “Los Lobos”

EN VIVO Marcha de la CNTE en CDMX y plantón en el Zócalo; minuto a minuto de la movilización de este 18 de marzo

Sheinbaum acusa machismo ante señalamientos de que AMLO sigue gobernando; descarta ruptura con el expresidente

Sheinbaum pide que aspirantes a consejeros del INE privilegien la democracia; respalda austeridad del "Plan B" electoral

"Duende machista" eliminó del Plan B principio de paridad constitucional: López Rabadán; apuesta por corregir el "error"

FGR tiene su opinión: Sheinbaum sobre falta de resguardo a cabañas de “El Mencho”; Ernestina Godoy debe explicar, indica
La firma de inteligencia artificial Anthropic plantea un "riesgo inaceptable" para las cadenas de suministro militares, insistió el gobierno de Estados Unidos el martes al justificar su decisión de designarla como peligrosa para el país.
El modelo de IA Claude de Anthropic ha estado en el punto de mira en las últimas semanas tanto por su supuesto uso en la identificación de objetivos para bombardeos estadounidenses en Irán como por la negativa de la compañía a que sus sistemas se utilicen para impulsar la vigilancia masiva en Estados Unidos o sistemas de armas letales totalmente autónomos.
Para justificar su decisión de cortar lazos con Anthropic en respuesta a una demanda de la empresa, el Departamento de Guerra (DoW) estadounidense dijo que le preocupaba que "permitir que continuara accediendo a la infraestructura de combate técnico y operacional del DoW introduciría un riesgo inaceptable en las cadenas de suministro del DoW", según un documento judicial al que tuvo acceso la AFP.
Lee también Impacto en México de más larga guerra con Irán
"Los sistemas de IA son especialmente vulnerables a la manipulación", añadió el gobierno en la presentación ante un tribunal federal de California.
"Anthropic podría intentar desactivar su tecnología o alterar de forma preventiva el comportamiento de su modelo antes o durante operaciones bélicas en curso, si Anthropic -a su discreción- considera que se están traspasando sus 'líneas rojas' corporativas", señaló.
La negativa de Anthropic a aceptar que su tecnología de IA pudiera ser empleada por los militares para "cualquier uso legal" planteaba, por tanto, un "riesgo inaceptable para la seguridad nacional", según el documento.
Lee también Renuncia asesor antiterrorismo de Trump; Irán "no presentaba una amenaza inminente", afirma
La clasificación de Anthropic como "riesgo para la cadena de suministro", que la firma ha impugnado en una causa contra el Pentágono y otros órganos del gobierno federal, implica en teoría que todos los proveedores del gobierno tendrían prohibido hacer negocios con la empresa.
Esta designación suele reservarse para organizaciones de países adversarios extranjeros, como el gigante tecnológico chino Huawei.
Otras grandes tecnológicas estadounidenses, como Microsoft, que a su vez utiliza el modelo Claude de Anthropic y abastece al ejército estadounidense, se han alineado con la compañía de IA.
Lee también Israel mata a dos altos mandos iraníes
"No es el momento de poner en riesgo el ecosistema de IA que la administración ha contribuido a impulsar", afirmó Microsoft en un escrito amicus curiae presentado ante el tribunal la semana pasada.
ss
Más Información
Noticias según tus intereses
ViveUSA
[Publicidad]


















