Google a mis à jour ses puces pour l'IA et a ouvert l'accès à la plateforme d'agents - ForkLog : cryptomonnaies, IA, singularité, avenir

Google 2025# Google a mis à jour ses puces pour l’IA et a ouvert l’accès à la plateforme d’agents

La société Google a présenté un ensemble d’outils pour la création d’agents IA, destinés à aider les entreprises à automatiser leurs tâches. Parallèlement, un fonds de $750 millions a été lancé et de nouveaux processeurs IA ont été annoncés.

Passez une excellente #GoogleCloudNext !

Regardez les sessions sélectionnées et vos moments préférés du discours d’ouverture en replay → https://t.co/Ss9VorZkOvhttps://t.co/VnbGXrIjvi

— Google Cloud (@googlecloud) 22 avril 2026

Logiciels pour agents IA

Lors de la conférence annuelle à Las Vegas, la division cloud de l’entreprise a présenté un ensemble d’outils pour la création d’agents IA et leur gestion au sein des entreprises. Parmi les nouveautés — une boîte mail spéciale où les assistants virtuels envoient des rapports sur leur travail effectué.

La plateforme Gemini Enterprise Agent Platform recevra deux nouveaux modules : Memory Bank et Memory Profile. Ils permettront aux agents de sauvegarder l’historique de leurs interactions avec les utilisateurs. Agent Simulation offrira aux développeurs la possibilité de tester plus rigoureusement le fonctionnement des outils avant leur déploiement.

Google a présenté des mises à jour pour la suite d’applications Workspace et décrit un scénario dans lequel les agents IA changent radicalement la vie quotidienne d’un employé ordinaire.

La société a déclaré que les employés pourront utiliser Gemini Enterprise pour créer des assistants virtuels sans écrire de code.

L’entreprise a également annoncé Projects — une plateforme de collaboration conçue pour permettre aux employés de travailler ensemble ou avec des opérateurs du support technique.

L’outil rassemble des informations provenant de différentes sources comme Workspace, OneDrive de Microsoft et des chats d’entreprise, permettant de travailler en tenant compte du contexte nécessaire.

Nouveau fonds

La division Google Cloud a annoncé un fonds de $750 millions destiné à aider des sociétés de conseil comme McKinsey, Accenture et Deloitte à déployer des agents IA chez leurs clients.

Le laboratoire DeepMind offrira à certaines entreprises un accès anticipé aux modèles IA Gemini — avant leur lancement officiel.

Les fonds seront utilisés pour aider à former des ingénieurs, développer des agents IA via la plateforme d’entreprise et cofinancer des projets et des activités de prévente.

« Les sociétés de conseil sont au cœur de certaines des plus grandes transformations en cours chez leurs clients. Elles comprennent la situation et apportent une expertise unique dans des secteurs spécifiques et une connaissance des processus métier », a déclaré Kevin Ichpuran, responsable de l’écosystème mondial des partenaires de Google Cloud.

Nouveaux processeurs

La division Google Cloud a présenté une nouvelle génération de processeurs tensoriels (TPU) développés en interne. Ces puces sont conçues pour accélérer et réduire le coût des calculs dans le domaine de l’IA.

La gamme comprend deux versions :

  • TPU 8t — destiné au développement de l’IA ;
  • TPU 8i — mieux adapté à l’inférence.

Google occupe une position solide parmi les fabricants de puces propres à l’IA, en concurrence avec Nvidia. Ces derniers mois, les TPU ont connu une demande accrue dans la Silicon Valley.

Les nouveaux processeurs stockent plus d’informations, ce qui réduit la latence de réponse.

« Il s’agit de garantir une latence minimale lors de l’exécution d’une opération au coût le plus bas possible », a déclaré Mark Lomeier, vice-président de Google pour l’infrastructure informatique.

Pour créer et déployer des services IA, on utilise des systèmes capables de traiter rapidement de grands volumes de données — de trouver des liens et des régularités, qui sont ensuite exprimés mathématiquement. Les calculs, le lancement de programmes et de services s’effectuent sur des processeurs avec une grande mémoire intégrée.

Cette approche permet de rendre la réaction de l’IA pratiquement instantanée, car le composant n’a pas besoin de faire appel à des sources externes pour obtenir des données.

Le TPU 8t peut être regroupé en clusters de 9600 unités. À cette échelle, la consommation d’énergie devient un facteur clé. Les nouveaux processeurs offrent une performance par watt supérieure de 124 % par rapport à la génération précédente. Le TPU 8i — de 117 %.

Rappelons que Google discute avec le Département de la Défense des États-Unis de la possibilité d’intégrer Gemini dans les systèmes du Pentagone dans toutes les catégories d’accès à l’information — des données ouvertes aux données strictement classifiées.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler