(MENAFN- Daily News Egypt) El presidente Donald Trump ha ordenado a todas las agencias federales de EE. UU. que cesen inmediatamente el uso de productos de inteligencia artificial desarrollados por Anthropic PBC, escalando una disputa de alto perfil entre la compañía y el Pentágono sobre salvaguardas y restricciones de uso.
En un comunicado publicado en redes sociales el viernes, Trump acusó a Anthropic de intentar “coaccionar” al Departamento de Defensa haciendo cumplir sus propios términos de servicio en lugar de deferir a la autoridad del gobierno de EE. UU. Anunció un período de transición de seis meses para las agencias que actualmente utilizan la tecnología de la compañía, incluido el Departamento de Defensa, y advirtió que la firma podría enfrentar “consecuencias civiles y penales importantes” no especificadas si no coopera con la transición.
La decisión amenaza con interrumpir hasta 200 millones de dólares en trabajos gubernamentales previamente adjudicados a Anthropic, que abarcan contratos militares y civiles, incluyendo colaboraciones con el Departamento de Estado. La medida también genera incertidumbre sobre el acceso del Pentágono a herramientas avanzadas de IA, especialmente en entornos clasificados donde los sistemas de Anthropic han tenido un papel clave.
En el centro de la disputa está Claude, el chatbot de IA insignia de Anthropic. Se informó que el Secretario de Defensa Pete Hegseth había dado a la compañía un plazo para permitir que el Pentágono despliegue a Claude para cualquier propósito legal, sin restricciones impuestas por Anthropic. Sin embargo, la compañía ha mantenido que sus modelos no deben usarse para vigilancia masiva doméstica ni para sistemas de armas completamente autónomas.
Fundada con la misión declarada de priorizar el desarrollo responsable de la inteligencia artificial, Anthropic se ha posicionado como líder en seguridad de IA. El CEO Dario Amodei reiteró esta semana que la compañía no podía “con conciencia tranquila” aceptar las demandas del Pentágono si implicaban eliminar las salvaguardas básicas de uso.
El enfrentamiento se desarrolla mientras las fuerzas armadas de EE. UU. aceleran los esfuerzos por integrar IA avanzada en sus operaciones. Una estrategia recientemente publicada por el Pentágono propone transformar las fuerzas armadas en una institución “primero IA”, enfatizando la experimentación con modelos de frontera y reduciendo las restricciones burocráticas. La estrategia también fomenta la selección de sistemas de IA “libres de restricciones de políticas de uso” que puedan limitar aplicaciones militares legales.
La eliminación de Anthropic podría presentar desafíos operativos. Hasta hace poco, era el único proveedor de IA autorizado para operar en ciertos entornos en la nube clasificados del Pentágono. Su producto especializado para el gobierno, Claude Gov, ha sido ampliamente utilizado por personal de defensa debido a su funcionalidad y facilidad de despliegue.
La disputa también resalta la creciente competencia entre empresas de IA por contratos federales. Rivales como OpenAI, Gemini de Google y xAI de Elon Musk están activamente buscando trabajos clasificados y relacionados con defensa. Recientemente, xAI obtuvo la aprobación para operaciones clasificadas, lo que cambia aún más el panorama competitivo.
Más allá de las implicaciones contractuales inmediatas, el episodio subraya las tensiones más amplias entre Silicon Valley y Washington sobre la gobernanza de sistemas de IA poderosos. Trabajadores tecnológicos de varias grandes empresas han expresado públicamente su oposición al uso militar sin restricciones de las herramientas de IA, reflejando debates éticos crecientes en la industria.
Se informa que Anthropic se está preparando para una posible oferta pública inicial (OPI) a finales de este año, buscando justificar una valoración estimada en 380 mil millones de dólares. La pérdida de negocios federales podría complicar su perspectiva de ingresos, aunque la compañía continúa expandiendo su base de clientes comerciales.
Por ahora, el período de transición de seis meses prepara el escenario para futuras negociaciones. Funcionarios de defensa han indicado que siguen abiertos al diálogo, pero el enfrentamiento marca un momento crucial en la definición del equilibrio entre las prioridades de seguridad nacional y los principios de seguridad en IA en Estados Unidos.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Trump ordena a las agencias federales eliminar gradualmente la IA de Anthropic por disputa con el Pentágono
(MENAFN- Daily News Egypt) El presidente Donald Trump ha ordenado a todas las agencias federales de EE. UU. que cesen inmediatamente el uso de productos de inteligencia artificial desarrollados por Anthropic PBC, escalando una disputa de alto perfil entre la compañía y el Pentágono sobre salvaguardas y restricciones de uso.
En un comunicado publicado en redes sociales el viernes, Trump acusó a Anthropic de intentar “coaccionar” al Departamento de Defensa haciendo cumplir sus propios términos de servicio en lugar de deferir a la autoridad del gobierno de EE. UU. Anunció un período de transición de seis meses para las agencias que actualmente utilizan la tecnología de la compañía, incluido el Departamento de Defensa, y advirtió que la firma podría enfrentar “consecuencias civiles y penales importantes” no especificadas si no coopera con la transición.
La decisión amenaza con interrumpir hasta 200 millones de dólares en trabajos gubernamentales previamente adjudicados a Anthropic, que abarcan contratos militares y civiles, incluyendo colaboraciones con el Departamento de Estado. La medida también genera incertidumbre sobre el acceso del Pentágono a herramientas avanzadas de IA, especialmente en entornos clasificados donde los sistemas de Anthropic han tenido un papel clave.
En el centro de la disputa está Claude, el chatbot de IA insignia de Anthropic. Se informó que el Secretario de Defensa Pete Hegseth había dado a la compañía un plazo para permitir que el Pentágono despliegue a Claude para cualquier propósito legal, sin restricciones impuestas por Anthropic. Sin embargo, la compañía ha mantenido que sus modelos no deben usarse para vigilancia masiva doméstica ni para sistemas de armas completamente autónomas.
Fundada con la misión declarada de priorizar el desarrollo responsable de la inteligencia artificial, Anthropic se ha posicionado como líder en seguridad de IA. El CEO Dario Amodei reiteró esta semana que la compañía no podía “con conciencia tranquila” aceptar las demandas del Pentágono si implicaban eliminar las salvaguardas básicas de uso.
El enfrentamiento se desarrolla mientras las fuerzas armadas de EE. UU. aceleran los esfuerzos por integrar IA avanzada en sus operaciones. Una estrategia recientemente publicada por el Pentágono propone transformar las fuerzas armadas en una institución “primero IA”, enfatizando la experimentación con modelos de frontera y reduciendo las restricciones burocráticas. La estrategia también fomenta la selección de sistemas de IA “libres de restricciones de políticas de uso” que puedan limitar aplicaciones militares legales.
La eliminación de Anthropic podría presentar desafíos operativos. Hasta hace poco, era el único proveedor de IA autorizado para operar en ciertos entornos en la nube clasificados del Pentágono. Su producto especializado para el gobierno, Claude Gov, ha sido ampliamente utilizado por personal de defensa debido a su funcionalidad y facilidad de despliegue.
La disputa también resalta la creciente competencia entre empresas de IA por contratos federales. Rivales como OpenAI, Gemini de Google y xAI de Elon Musk están activamente buscando trabajos clasificados y relacionados con defensa. Recientemente, xAI obtuvo la aprobación para operaciones clasificadas, lo que cambia aún más el panorama competitivo.
Más allá de las implicaciones contractuales inmediatas, el episodio subraya las tensiones más amplias entre Silicon Valley y Washington sobre la gobernanza de sistemas de IA poderosos. Trabajadores tecnológicos de varias grandes empresas han expresado públicamente su oposición al uso militar sin restricciones de las herramientas de IA, reflejando debates éticos crecientes en la industria.
Se informa que Anthropic se está preparando para una posible oferta pública inicial (OPI) a finales de este año, buscando justificar una valoración estimada en 380 mil millones de dólares. La pérdida de negocios federales podría complicar su perspectiva de ingresos, aunque la compañía continúa expandiendo su base de clientes comerciales.
Por ahora, el período de transición de seis meses prepara el escenario para futuras negociaciones. Funcionarios de defensa han indicado que siguen abiertos al diálogo, pero el enfrentamiento marca un momento crucial en la definición del equilibrio entre las prioridades de seguridad nacional y los principios de seguridad en IA en Estados Unidos.