El director ejecutivo de OpenAI, Sam Altman, anunció el viernes un acuerdo con el Pentágono para usar sus modelos en la red clasificada de la agencia de defensa, utilizando "salvaguardias técnicas".
El director ejecutivo de OpenAI, Sam Altman, anunció un acuerdo entre OpenAI y el Pentágono de los Estados Unidos para utilizar sus modelos de inteligencia artificial en la red clasificada de la agencia de defensa. El convenio contempla la aplicación de “salvaguardias técnicas” para garantizar el uso responsable de la tecnología.
Sam Altman, director ejecutivo de OpenAI, explicó que dos de los principios fundamentales de seguridad de la compañía son la prohibición de la vigilancia masiva a nivel nacional y la responsabilidad humana en el uso de la fuerza, incluidos los sistemas de armas autónomas.
Según detalló, también se implementarán garantías técnicas adicionales para asegurar que los modelos de IA funcionen dentro de los parámetros establecidos. Estas condiciones habrían sido solicitadas por el propio Departamento de Defensa.
Como parte del acuerdo, OpenAI pondrá ingenieros a disposición del Pentágono para supervisar la seguridad y el correcto despliegue de los modelos de inteligencia artificial.
Altman precisó que estas herramientas se implementarán exclusivamente en redes en la nube clasificadas, lo que limita su alcance y refuerza el control operativo.
El ejecutivo también solicitó que el Pentágono extienda estas mismas condiciones a todas las empresas de inteligencia artificial que trabajen con la agencia.
Estados Unidos prohibió modelos de IA de Anthropic
El anuncio ocurre en un contexto de tensión en el sector tecnológico. La startup rival Anthropic generó polémica tras incluir salvaguardias similares en su acuerdo con el Pentágono, lo que habría provocado incomodidad en la administración estadounidense.
La
controversia de Estados Unidos con Anthropic se originó cuando el Pentágono exigió que los modelos Claude pudieran emplearse sin condiciones en operaciones vinculadas a seguridad nacional. Según funcionarios de Defensa, los contratistas del gobierno no pueden imponer límites sobre el uso final de los productos adquiridos por el Estado.
Anthropic rechazó esa exigencia en un comunicado y sostuvo que no permitirá que su tecnología sea utilizada para vigilancia masiva de ciudadanos estadounidenses ni para sistemas autónomos de armamento capaces de operar sin supervisión humana. Esa postura marcó el punto de quiebre con la administración.
Trump calificó la negativa como inaceptable y ordenó el cese “inmediato” del uso de la tecnología de Anthropic en todo el aparato federal. Además, dispuso un periodo de eliminación progresiva de seis meses para agencias que actualmente utilizan estos sistemas.
Desde el Departamento de Defensa de los Estados Unidos se advirtió que la compañía debía aceptar las condiciones oficiales antes del plaz
Más en Andina:(FIN) AFP/ SPV
JRA
Publicado: 2/3/2026