El vínculo entre tecnología y defensa vuelve al centro del debate global. En 2026, OpenAI anunció un acuerdo formal con el Pentágono para permitir el uso de sus modelos de inteligencia artificial en redes clasificadas del Departamento de Defensa de Estados Unidos.
La noticia no solo marca un hito en la relación entre Silicon Valley y el poder militar, sino que reabre interrogantes éticos sobre los límites de la IA en escenarios sensibles.
OpenAI y el Pentágono: qué establece el acuerdo sobre inteligencia artificial
El anuncio fue realizado por el CEO de OpenAI, Sam Altman, quien aseguró que el acuerdo incluye principios explícitos que restringen el uso de la tecnología en vigilancia masiva doméstica y establecen la “responsabilidad humana en decisiones sobre el uso de la fuerza”, incluso en sistemas de armas autónomos, informó EFE.
Según lo comunicado por Altman, el Pentágono aceptó incorporar en el contrato principios alineados con la política pública de Estados Unidos: prohibición de vigilancia masiva a nivel nacional y mantenimiento del control humano en decisiones militares críticas.
El CEO también solicitó que estos mismos estándares sean ofrecidos a todas las empresas de inteligencia artificial, argumentando que deberían convertirse en una base común para la industria. El trasfondo es claro: la IA ya no es solo una herramienta comercial, sino un recurso estratégico en defensa, análisis de datos y planificación operativa.
El acuerdo se produce en un contexto de creciente institucionalización de la IA en tareas de seguridad, desde análisis predictivo hasta optimización logística en entornos militares.
Tensiones en Silicon Valley por el uso militar de la inteligencia artificial
La decisión de OpenAI contrasta con la postura de Anthropic, otra empresa líder en modelos avanzados de IA, que mantiene tensiones abiertas con el Pentágono. Su CEO, Dario Amodei, ha presionado para obtener garantías explícitas de que su tecnología no será utilizada en vigilancia de ciudadanos estadounidenses ni en sistemas de armamento totalmente autónomos.
Tras meses de negociaciones, las posiciones no lograron alinearse. Incluso se registraron declaraciones públicas cruzadas entre funcionarios del Departamento de Defensa y directivos de la compañía.
El debate escaló hasta el plano político, con intervenciones directas desde la Casa Blanca y amenazas de cancelación de contratos federales.
Inteligencia artificial y defensa: el nuevo dilema ético
El acuerdo anunciado podría funcionar como precedente para establecer normas mínimas en el uso militar de la inteligencia artificial. Sin embargo, la discusión está lejos de cerrarse.
En Silicon Valley crece la preocupación sobre hasta dónde deben involucrarse las empresas tecnológicas en estrategias de defensa. Mientras algunos argumentan que la colaboración permite fijar reglas y limitar abusos, otros temen que normalice la integración de la IA en sistemas bélicos.
La alianza entre OpenAI y el Pentágono refleja una realidad ineludible: la inteligencia artificial ya es parte del tablero geopolítico. La pregunta no es si se usará en defensa, sino bajo qué reglas, con qué controles y con qué grado de transparencia.





