Poco más de un mes después de la intervención militar en Venezuela, diferentes funcionarios estadounidenses revelaron cómo se llevó a cabo la acción militar que culminó con el secuestro del presidente Nicolás Maduro el 3 de enero.
Esta semana autoridades del Pentágono confirmaron haber usado una herramienta de inteligencia artificial para facilitar el operativo de esa jornada: la herramienta Claude, desarrollada por Anthropic, que permitió una comunicación instantánea y fluida en la coordinación de los comandos militares, como también con la Casa Blanca.
El operativo, que fue ordenado por el gobierno de Donald Trump y ejecutado por fuerzas especiales estadounidenses, incluyó además el traslado de Maduro y su esposa Cilia Flores a Estados Unidos, para ser juzgados por presunto narcotráfico regional. De acuerdo a informes difundidos por medios internacionales, el republicano siguió el despliegue militar en tiempo real.
MÁS INFO
Cómo se utilizó la inteligencia artificial en el operativo
De acuerdo con reportes publicados por medios estadounidenses, la herramienta Claude fue utilizada como parte de los sistemas tecnológicos del Pentágono durante la misión en Venezuela. La implementación se habría realizado a través de plataformas de análisis militar vinculadas a la empresa Palantir Technologies, proveedor habitual de soluciones informáticas para el Departamento de Defensa y agencias federales.
Estas herramientas permiten sintetizar información estratégica y asistir en la toma de decisiones operativas en tiempo real, con un mecanismo de conversación similar a una conversación. Y puede ser utilizada para procesar comunicaciones, evaluar escenarios y mejorar la coordinación entre unidades militares.
Sin embargo, ni Anthropic ni el Pentágono confirmaron oficialmente el rol exacto de Claude en la captura de Maduro, argumentando razones de confidencialidad vinculadas a operaciones clasificadas. Un portavoz de la empresa señaló que no pueden comentar sobre el uso específico de sus sistemas en misiones militares.
Debate ético y tensiones políticas en Estados Unidos
La utilización de inteligencia artificial en el operativo generó tensiones entre el gobierno estadounidense y la propia Anthropic. La compañía mantiene políticas internas que prohíben el uso de sus sistemas para facilitar acciones violentas, desarrollar armamento o realizar tareas de vigilancia ofensiva.
En este contexto, ejecutivos de la empresa manifestaron preocupación por el posible uso de sus herramientas en operaciones militares, especialmente aquellas que puedan implicar decisiones letales o vigilancia masiva. Esta postura generó fricciones con sectores del gobierno que promueven una adopción más amplia de la inteligencia artificial en defensa.
MÁS INFO
Por otro lado, la revelación sobre el uso de Claude en la operación militar abrió la puerta sobre un futuro contrato entre Anthropic y el Departamento de Defensa de Estados Unidos, que podría alcanzar los 200 millones de dólares. El caso reavivó el debate sobre los límites éticos y legales del uso de inteligencia artificial en operaciones bélicas y de seguridad.
Funcionarios estadounidenses advirtieron que podrían revisar el contrato con Anthropic si la empresa mantiene esas restricciones que limiten el uso militar de sus sistemas. El acuerdo, firmado el año pasado, convirtió a la compañía en uno de los primeros desarrolladores de inteligencia artificial en trabajar oficialmente con el Pentágono en operaciones clasificadas.
