Inteligencia Artificial Peligrosa Descubierta
Anthropic, la empresa de inteligencia artificial, había mantenido en secreto a Claude Mythos, un modelo avanzado con la capacidad de encontrar y explotar vulnerabilidades de software. Recientemente, terceros no identificados lograron acceder al modelo protegido, revelando una potencial falla en la seguridad de la compañía.
Hace dos semanas, Anthropic reveló la existencia de Claude Mythos, una IA con una capacidad sin precedentes para identificar y explotar vulnerabilidades de software, denominadas 'día cero'. La empresa justificó su decisión de mantenerla fuera del alcance público debido al potencial peligro que representaría en manos equivocadas. Sin embargo, según informes recientes, un grupo de individuos aún no identificados obtuvo acceso no autorizado a este modelo avanzado.
Un portavoz de Anthropic declaró a TechCrunch: "Estamos investigando un informe que afirma acceso no autorizado a Claude Mythos Preview a través de uno de nuestros entornos de proveedores externos". La forma en que se logró este acceso ha sorprendido a la industria, ya que no involucró tácticas sofisticadas de espionaje, sino una serie de descuidos y suposiciones lógicas. Este incidente plantea serias interrogantes sobre las medidas de seguridad implementadas por Anthropic para proteger su tecnología más sensible.
La cautela de Anthropic con respecto a Claude Mythos se basa en su supuesta capacidad para comprender el código a un nivel tan profundo que puede identificar y explotar vulnerabilidades previamente desconocidas en sistemas operativos y navegadores web ampliamente utilizados. El descubrimiento temprano de estas vulnerabilidades permite a quien las identifica tener un control absoluto sobre el sistema afectado, ya que no existe una solución o parche disponible para mitigar el riesgo. La compañía ha advertido sobre el poder de esta herramienta, pero la falta de pruebas externas dificulta la evaluación real de su alcance y peligrosidad.



