OpenAI dice que está renegociando su acuerdo “apresurado” con el Pentágono para agregar prohibiciones explícitas sobre el uso de su inteligencia artificial para la vigilancia doméstica de ciudadanos estadounidenses, una disposición que aborda uno de los temas más polémicos en la confrontación entre el ejército de EE. UU. y la industria de IA.
Video recomendado
En un memorando interno compartido en redes sociales, el CEO de OpenAI, Sam Altman, dijo que la compañía “no debería haber apresurado” la publicación del acuerdo el viernes.
“Los temas son sumamente complejos y requieren una comunicación clara,” escribió. “Realmente estábamos tratando de desescalar las cosas y evitar un resultado mucho peor, pero creo que simplemente pareció oportunista y descuidado.”
Según Altman, el nuevo lenguaje del contrato establecerá que los sistemas de IA de OpenAI no serán “utilizados intencionalmente para la vigilancia doméstica de personas y nacionales estadounidenses,” en consonancia con la Cuarta Enmienda, la Ley de Seguridad Nacional de 1947 y la Ley de Vigilancia de Inteligencia Extranjera de 1978.
Katrina Mulligan, jefa de asociaciones de seguridad nacional de OpenAI y exfuncionaria superior en el Pentágono, NSC y DOJ, también dijo que los componentes de inteligencia de Defensa—incluyendo la Agencia de Seguridad Nacional, la Agencia de Inteligencia Geoespacial y la Agencia de Inteligencia de Defensa—quedarían prohibidos de usar los servicios de OpenAI bajo el acuerdo, y cualquier uso por parte de esas agencias requeriría una modificación contractual separada.
Los términos renegociados también agregarán restricciones explícitas que cubren datos comprados comercialmente—como registros de ubicación de teléfonos móviles o información de aplicaciones de fitness—que ha sido una zona legal gris. Según un informe en The Atlantic, la rival Anthropic había buscado específicamente garantías similares contra la vigilancia doméstica en sus propias negociaciones con el Pentágono. Su insistencia en salvaguardas más estrictas para prohibir el uso de sus herramientas en vigilancia fue, según se informa, uno de los principales obstáculos que finalmente colapsaron esas conversaciones.
A pesar de los términos renegociados, expertos legales han cuestionado cuán aplicables son esas restricciones.
“Esto parece una mejora significativa respecto al lenguaje anterior en lo que respecta a la vigilancia, y me alegra verlo,” dijo Charles Bullock, investigador senior en el Instituto de Derecho y IA, en una publicación en X. “No aborda las preocupaciones sobre armas autónomas, ni afirma hacerlo.”
Analistas independientes, así como empleados de OpenAI, también han abogado por un proceso en el que abogados independientes puedan revisar el contrato completo y compartir su análisis con empleados preocupados.
Reacción negativa de los empleados
Los términos renegociados llegan después de que OpenAI enfrentara una ola de rechazo tanto interna como externa. Altman ya había reconocido que la imagen de aceptar el acuerdo con el Pentágono horas después de que la administración Trump calificara a la rival Anthropic como un “riesgo en la cadena de suministro” por rechazar un contrato sin salvaguardas explícitas de IA no “lucía bien.” Esto fue especialmente cierto ya que Altman había dicho públicamente que apoyaba las líneas rojas de Anthropic en torno a la vigilancia masiva y armas autónomas.
Anthropic había buscado en sus negociaciones con el Pentágono dos límites estrictos: una prohibición del uso de su IA para la vigilancia masiva de ciudadanos estadounidenses, y una prohibición de que su tecnología fuera incorporada en sistemas de armas autónomas—definidos como aquellos capaces de decidir atacar objetivos sin supervisión humana directa.
Críticos, incluido Jonathan Iwry, becario en el Laboratorio de IA Responsable en la Wharton School de la Universidad de Pennsylvania, acusaron a OpenAI de socavar a Anthropic en un momento crítico.
“Lo que es particularmente decepcionante es que el resto de la industria de IA no apoyó a Anthropic,” dijo Iwry a Fortune. “Si estas empresas tomaran en serio su compromiso con una IA segura y responsable (sobre la cual construyeron algunas de sus reputaciones), podrían haberse unido y enfrentarse juntos al Pentágono en defensa del público. En cambio, dejaron que la administración los enfrentara entre sí como competidores en el mercado.”
Muchos empleados de OpenAI firmaron una carta abierta apoyando a Anthropic tras el enfrentamiento. Los consumidores también mostraron su apoyo enviando a Claude, el asistente de IA de Anthropic, a la cima de las listas de aplicaciones de Apple por primera vez, sugiriendo que los usuarios estaban cambiando en protesta. También aparecieron grafitis en la acera frente a las oficinas de OpenAI en San Francisco criticando su decisión.
Algunos investigadores de OpenAI incluso hablaron públicamente. Aidan McLaughlin, científico de investigación en la compañía, publicó en X que personalmente no creía que “este acuerdo valiera la pena,” en una publicación que alcanzó casi 500,000 vistas.
Únase a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune 19–20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrese ahora.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Sam Altman dice que OpenAI está renegociando con el Pentágono después de un acuerdo ‘oportunista y descuidado’
OpenAI dice que está renegociando su acuerdo “apresurado” con el Pentágono para agregar prohibiciones explícitas sobre el uso de su inteligencia artificial para la vigilancia doméstica de ciudadanos estadounidenses, una disposición que aborda uno de los temas más polémicos en la confrontación entre el ejército de EE. UU. y la industria de IA.
Video recomendado
En un memorando interno compartido en redes sociales, el CEO de OpenAI, Sam Altman, dijo que la compañía “no debería haber apresurado” la publicación del acuerdo el viernes.
“Los temas son sumamente complejos y requieren una comunicación clara,” escribió. “Realmente estábamos tratando de desescalar las cosas y evitar un resultado mucho peor, pero creo que simplemente pareció oportunista y descuidado.”
Según Altman, el nuevo lenguaje del contrato establecerá que los sistemas de IA de OpenAI no serán “utilizados intencionalmente para la vigilancia doméstica de personas y nacionales estadounidenses,” en consonancia con la Cuarta Enmienda, la Ley de Seguridad Nacional de 1947 y la Ley de Vigilancia de Inteligencia Extranjera de 1978.
Katrina Mulligan, jefa de asociaciones de seguridad nacional de OpenAI y exfuncionaria superior en el Pentágono, NSC y DOJ, también dijo que los componentes de inteligencia de Defensa—incluyendo la Agencia de Seguridad Nacional, la Agencia de Inteligencia Geoespacial y la Agencia de Inteligencia de Defensa—quedarían prohibidos de usar los servicios de OpenAI bajo el acuerdo, y cualquier uso por parte de esas agencias requeriría una modificación contractual separada.
Los términos renegociados también agregarán restricciones explícitas que cubren datos comprados comercialmente—como registros de ubicación de teléfonos móviles o información de aplicaciones de fitness—que ha sido una zona legal gris. Según un informe en The Atlantic, la rival Anthropic había buscado específicamente garantías similares contra la vigilancia doméstica en sus propias negociaciones con el Pentágono. Su insistencia en salvaguardas más estrictas para prohibir el uso de sus herramientas en vigilancia fue, según se informa, uno de los principales obstáculos que finalmente colapsaron esas conversaciones.
A pesar de los términos renegociados, expertos legales han cuestionado cuán aplicables son esas restricciones.
“Esto parece una mejora significativa respecto al lenguaje anterior en lo que respecta a la vigilancia, y me alegra verlo,” dijo Charles Bullock, investigador senior en el Instituto de Derecho y IA, en una publicación en X. “No aborda las preocupaciones sobre armas autónomas, ni afirma hacerlo.”
Analistas independientes, así como empleados de OpenAI, también han abogado por un proceso en el que abogados independientes puedan revisar el contrato completo y compartir su análisis con empleados preocupados.
Reacción negativa de los empleados
Los términos renegociados llegan después de que OpenAI enfrentara una ola de rechazo tanto interna como externa. Altman ya había reconocido que la imagen de aceptar el acuerdo con el Pentágono horas después de que la administración Trump calificara a la rival Anthropic como un “riesgo en la cadena de suministro” por rechazar un contrato sin salvaguardas explícitas de IA no “lucía bien.” Esto fue especialmente cierto ya que Altman había dicho públicamente que apoyaba las líneas rojas de Anthropic en torno a la vigilancia masiva y armas autónomas.
Anthropic había buscado en sus negociaciones con el Pentágono dos límites estrictos: una prohibición del uso de su IA para la vigilancia masiva de ciudadanos estadounidenses, y una prohibición de que su tecnología fuera incorporada en sistemas de armas autónomas—definidos como aquellos capaces de decidir atacar objetivos sin supervisión humana directa.
Críticos, incluido Jonathan Iwry, becario en el Laboratorio de IA Responsable en la Wharton School de la Universidad de Pennsylvania, acusaron a OpenAI de socavar a Anthropic en un momento crítico.
“Lo que es particularmente decepcionante es que el resto de la industria de IA no apoyó a Anthropic,” dijo Iwry a Fortune. “Si estas empresas tomaran en serio su compromiso con una IA segura y responsable (sobre la cual construyeron algunas de sus reputaciones), podrían haberse unido y enfrentarse juntos al Pentágono en defensa del público. En cambio, dejaron que la administración los enfrentara entre sí como competidores en el mercado.”
Muchos empleados de OpenAI firmaron una carta abierta apoyando a Anthropic tras el enfrentamiento. Los consumidores también mostraron su apoyo enviando a Claude, el asistente de IA de Anthropic, a la cima de las listas de aplicaciones de Apple por primera vez, sugiriendo que los usuarios estaban cambiando en protesta. También aparecieron grafitis en la acera frente a las oficinas de OpenAI en San Francisco criticando su decisión.
Algunos investigadores de OpenAI incluso hablaron públicamente. Aidan McLaughlin, científico de investigación en la compañía, publicó en X que personalmente no creía que “este acuerdo valiera la pena,” en una publicación que alcanzó casi 500,000 vistas.
Únase a nosotros en la Cumbre de Innovación en el Lugar de Trabajo de Fortune 19–20 de mayo de 2026, en Atlanta. La próxima era de innovación laboral ya está aquí—y el antiguo manual está siendo reescrito. En este evento exclusivo y enérgico, los líderes más innovadores del mundo se reunirán para explorar cómo la IA, la humanidad y la estrategia convergen para redefinir, una vez más, el futuro del trabajo. Regístrese ahora.