Les nouveaux modèles IA de Google Deepmind permettent aux robots d’effectuer des actions plus complexes

Lors d’une réunion avec la presse Carolina Parada, chef de la division robotique de Google Deepmind, a montré à quel point l’intelligence artificielle peut aider ce secteur. En fait, les nouveaux modèles développés par Google permettent aux robots d’aller au-delà des actions simples et isolées, introduisant une véritable planification et une résolution des problèmes dans le monde physique grâce à l’intégration avec le Web.

Si jusqu’à récemment, les robots pouvaient se limiter à effectuer des actions uniques telles que le pliage d’une feuille de papier ou la fermeture d’un zip, les nouveaux modèles développés par Google DeepMind vous permettent d’effectuer des tâches beaucoup plus complexes et qui nécessitent un raisonnement plus avancé. Parmi les exemples, Carolina explique qu’un robot peut désormais distinguer les vêtements sombres des plus clairs pour faire la lessive, préparer une valise en fonction de la météo de la destination ou même différencier les déchets en fonction des règles locales, après avoir recherché des informations sur Google.

https://www.youtube.com/watch?v=amrxbio04kq

Suivez Google Italia sur Telegram, recevez des nouvelles et offre d’abord

Gemini Robotics-ER 1.5 est le nouveau modèle Google DeepMind

Tout cela est rendu possible par l’interaction entre deux nouveaux modèles: Gemini Robotics-ER 1.5 interprète l’environnement environnant et collecte des données sur le Web via Google Search, puis les traduisant en instructions détaillées que Gemini Robotics 1.5 effectue grâce à la capacité de voir et de comprendre le langage naturel. De cette façon, les robots ne se limitent plus à effectuer une seule action à la fois, mais sont capables de raisonner dans le contexte et de terminer une tâche plus complexe.

Cependant, la nouvelle mise à jour de Google Deepmind présente également une autre nouveauté qui pourrait accélérer énormément le développement de la robotique. Grâce à Gemini Robotics 1.5, les robots peuvent désormais apprendre les uns des autres, même s’ils ont une configuration de base différente. Par exemple, la société a montré que les devoirs effectués par le robot Aloha2 peuvent être reproduits par le Bi-Arm Franka et également par le robot humanoïde d’Apolonik.

Cela signifie qu’un seul modèle d’intelligence artificielle peut contrôler des robots très différents, transférant les compétences acquises de l’une à l’autre. Google ne veut plus créer des robots plus intelligents, mais ouvrez la voie à un écosystème dans lequel ces machines peuvent apprendre en permanence, partager des connaissances et devenir des outils polyvalents pour la vie quotidienne.

Gemini Robotics-ER 1.5 est déjà disponible via les abeilles de Gemini dans Google pour étudier, tandis que l’accès à la robotique 1.5 est pour désormais réservé uniquement aux partenaires sélectionnés.