Ce qui peut faire se rencontrer GPT et Claude, c'est leur opposition commune au Pentagone ?

robot
Création du résumé en cours

Cette fois, ils se sont tenus la main, mais cela n’a duré que quelques heures.

Auteur : Curry, Deep潮 TechFlow

Il y a quelques jours, une photo est devenue virale en ligne.

L’Inde a organisé un sommet sur l’IA, où le Premier ministre Modi se tenait sur scène, flanqué d’une rangée de grands noms de la Silicon Valley. Lors de la photo de groupe, Modi a levé la main de la personne à côté de lui, la tenant au-dessus de sa tête, et les autres ont aussi joint leurs mains, créant une scène très unie.

Mais, il y avait deux personnes qui ne se tenaient pas la main.

Le PDG d’OpenAI et le PDG d’Anthropic, c’est-à-dire les responsables derrière ChatGPT et Claude, se tenaient côte à côte, chacun levant le poing.

Pas de poignée de main, pas de regard croisé, comme deux ennemis assis côte à côte par une décision de l’enseignant.

Ces deux entreprises se sont affrontées ces dernières années, Claude étant une équipe partie d’OpenAI, et elles se disputent des utilisateurs, des clients d’entreprises, des financements. Pendant le Super Bowl, Anthropic a même dépensé de l’argent pour acheter de la publicité en se moquant de ChatGPT qui allait faire de la pub.

Donc, pas de poignée de main, c’est normal.

Mais aujourd’hui, ils se sont serrés la main. Parce que le Pentagone.

Voici l’histoire.

Anthropic, la société derrière Claude, a signé l’année dernière un contrat avec le Département de la Défense américain d’un montant pouvant atteindre 200 millions de dollars. Claude est le premier modèle d’IA déployé dans le réseau confidentiel de l’armée américaine, aidant à l’analyse du renseignement et à la planification des missions.

Mais Anthropic a tracé deux lignes rouges dans le contrat :

Claude ne doit pas être utilisé pour une surveillance de masse des citoyens américains, ni pour des armes autonomes sans participation humaine. (Référence : Les 72 heures de la crise d’identité d’Anthropic)

Cependant, le Pentagone n’a pas accepté.

Leurs exigences étaient en quatre mots : sans restriction. Une fois l’outil acheté, il doit pouvoir être utilisé librement. Qu’est-ce qu’une société technologique a à dire à l’armée américaine sur ce qu’elle peut ou ne peut pas faire ?

Mardi dernier, le secrétaire à la Défense Hegseth a personnellement donné un ultimatum au PDG d’Anthropic : répondre avant 17h01 vendredi, sinon en assumer les conséquences.

Anthropic n’a pas répondu.

Leur PDG a publié une déclaration publique, disant en substance : « Nous comprenons l’importance de l’IA pour la défense américaine, mais dans certains cas, l’IA peut nuire plutôt que défendre les valeurs démocratiques. Nous ne pouvons pas accepter cette exigence par conscience. »

Le représentant du Pentagone, le sous-secrétaire à la Défense Emil Michael, l’a ensuite insulté sur les réseaux sociaux, le traitant de menteur, de personne ayant une obsession divine, et de plaisanterie sur la sécurité nationale.

Une brève poignée de main

Puis, un événement inattendu s’est produit.

Plus de 400 employés d’OpenAI et de Google ont signé une lettre ouverte conjointe intitulée « Nous ne serons pas divisés ».

La lettre dit que le Pentagone cherche à négocier avec chaque entreprise d’IA, pour faire accepter à d’autres les conditions qu’Anthropic refuse, en utilisant la peur pour diviser chaque société.

Le PDG d’OpenAI a aussi envoyé une lettre interne à tous ses employés, affirmant qu’OpenAI partageait la même ligne rouge qu’Anthropic :

Pas de surveillance de masse, pas d’armes autonomes, et les décisions à haut risque doivent impliquer des humains.

Il y a seulement quelques jours, deux entreprises qui refusaient encore de se serrer la main, se sont soudainement retrouvées du même côté, parce que le Pentagone était du leur.

Mais cette unité pourrait ne durer que quelques heures.

Vendredi à 17h01, l’ultimatum du Pentagone arrivait à échéance. Anthropic n’a pas signé.

Une société américaine valorisée à 380 milliards de dollars, risquant de voir son contrat de 200 millions de dollars annulé, a refusé de se plier au Département de la Défense. Autrefois, cela aurait simplement signifié changer de fournisseur. Mais la réaction de Washington cette fois n’est pas du tout commerciale.

Environ une heure plus tard, Trump a publié un message sur Truth Social, qualifiant Anthropic de « fou de gauche », affirmant qu’ils tentaient de se soustraire à la Constitution et de plaisanter avec la vie des soldats américains.

Il a exigé que toutes les agences fédérales cessent immédiatement d’utiliser la technologie d’Anthropic.

Ensuite, le secrétaire à la Défense Hegseth a déclaré qu’Anthropic était une « menace à la sécurité de la chaîne d’approvisionnement ». Ce label est habituellement réservé à des entreprises comme Huawei. Cela signifie clairement que tous les contractants travaillant avec l’armée américaine ne peuvent plus utiliser les produits d’Anthropic.

Anthropic a annoncé qu’elle allait engager des poursuites.

Et la même soirée, alors qu’OpenAI maintenait sa position, elle a signé un accord avec le Pentagone.

Une question idéologique

Que reçoit OpenAI ?

Après avoir été évincé, Claude a laissé une place : fournisseur d’IA pour le réseau confidentiel de l’armée américaine. Mais OpenAI a posé trois conditions au Pentagone : pas de surveillance de masse, pas d’armes autonomes, et toute décision à haut risque doit impliquer un humain.

Le Pentagone a dit oui.

Vous avez bien lu. Les conditions que Anthropic a refusées pendant plusieurs semaines, une autre société a proposé, et en quelques jours, l’accord a été conclu ?

Bien sûr, les propositions ne sont pas exactement identiques.

Anthropic voulait une couche supplémentaire : ils pensent que la législation actuelle ne suit pas le rythme de l’IA, par exemple, l’IA peut acheter et agréger légalement vos données de localisation, votre historique de navigation, vos réseaux sociaux, ce qui revient à une surveillance légale, mais chaque étape n’est pas illégale.

Anthropic dit que se contenter d’écrire « pas de surveillance » ne suffit pas, il faut combler cette faille. OpenAI n’a pas insisté sur ce point, ils ont accepté la version du Pentagone, estimant que la législation en vigueur était suffisante.

Mais si vous pensez que cela n’est qu’une divergence sur un point, vous êtes naïf. Dès le début, cette négociation ne portait pas seulement sur des clauses.

David Sacks, le responsable de l’IA à la Maison Blanche, a déjà critiqué publiquement Anthropic pour faire du « woke AI » (une IA politisée, politiquement correcte) ; des hauts responsables du Pentagone ont dit aux médias que le problème de Dario était motivé par une idéologie, « nous savons à qui nous avons affaire ».

Elon Musk, avec sa société xAI, est un concurrent direct d’Anthropic. Cette semaine, il a à plusieurs reprises attaqué Anthropic sur X, disant que cette société « hait la civilisation occidentale ».

Et le PDG d’Anthropic n’est pas allé à la cérémonie d’investiture de Trump l’année dernière. Le PDG d’OpenAI y était.

Tuer le poulet pour effrayer le singe

Voici un résumé de ce qui s’est passé.

Même principe, mêmes lignes rouges, Anthropic, en demandant une couche supplémentaire de sécurité, en se rangeant du mauvais côté, a été classée comme une menace à la sécurité nationale américaine, au même niveau que Huawei.

OpenAI, en demandant moins, en maintenant de bonnes relations, a obtenu le contrat. Est-ce une victoire des principes ou une tarification des principes ?

Ce n’est pas la première fois que le contrat d’une société américaine est boycotté.

En 2018, plus de 400 employés de Google ont signé une pétition, une dizaine ont démissionné, protestant contre la participation de Google au projet Maven du Pentagone. Ce projet utilisait l’IA pour analyser des vidéos de drones, aidant l’armée à identifier plus rapidement des cibles.

Google a finalement quitté le projet. Pas de renouvellement, ils sont partis. Les employés ont gagné.

Huit ans plus tard, la même controverse refait surface. Mais cette fois, les règles ont complètement changé. Une société américaine peut faire affaire avec l’armée, mais à deux conditions : ne pas faire certaines choses. La réponse du gouvernement américain a été de l’exclure de tout le système fédéral.

Et le label « menace à la sécurité de la chaîne d’approvisionnement » est bien plus qu’un simple retrait d’un contrat de 200 millions de dollars.

Les revenus d’Anthropic cette année sont d’environ 14 milliards de dollars, le contrat de 200 millions n’étant qu’un petit pourcentage. Mais ce label signifie que toute société ayant des affaires avec l’armée américaine ne peut plus utiliser Claude.

Ces entreprises n’ont pas besoin d’être d’accord avec la position du Pentagone, elles doivent simplement faire une évaluation des risques : continuer à utiliser Claude, risquant de perdre des contrats gouvernementaux ; ou changer de modèle, et tout continuer comme avant.

Le choix est évident. C’est le vrai message de cette affaire.

Anthropic ne pourra peut-être pas résister, mais l’essentiel est de savoir si la prochaine entreprise osera le faire. Elle regardera ce résultat, le coût de rester fidèle à ses principes, et prendra une décision très rationnelle.

En regardant cette photo de l’Inde, où tout le monde se tient la main au-dessus de la tête, sauf deux qui se tiennent en poing, peut-être que c’est ça, la norme.

Les principes des entreprises d’IA peuvent être identiques, mais leurs mains ne seront pas forcément jointes.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)