Tecnología y Defensa
En un giro inesperado, el ejército de Estados Unidos recurrió a la inteligencia artificial de Anthropic, específicamente el modelo Claude, para informar sobre un ataque dirigido a Irán. La decisión se tomó a pesar del reciente anuncio de Donald Trump de cortar lazos con la compañía y sus herramientas de IA.
Según reportes del The Wall Street Journal y Axios, citados por The Guardian, el uso de Claude en la operación militar generó controversia dado el contexto de las restricciones impuestas por la administración de Donald Trump. La decisión de emplear la IA de Anthropic, a pesar de las advertencias, plantea interrogantes sobre la autonomía y la gestión de riesgos en la toma de decisiones militares que involucran tecnologías emergentes.
La información revelada destaca una potencial discrepancia entre las políticas declaradas y las acciones llevadas a cabo por el Pentágono. El empleo de Claude sugiere una dependencia, o al menos una familiaridad, con las capacidades de la IA de Anthropic dentro de las operaciones militares estadounidenses, incluso después de que se hicieran públicos los planes de cortar vínculos con la empresa.
Este incidente pone de relieve la creciente influencia de la inteligencia artificial en el ámbito de la defensa y la necesidad de establecer marcos regulatorios claros y éticos para su uso. La controversia suscitada por el empleo de Claude en la operación contra Irán podría impulsar un debate más amplio sobre la supervisión y el control de la IA en el sector militar, así como la responsabilidad de los líderes políticos y militares en la toma de decisiones relacionadas con estas tecnologías.



