Google DeepMind a déshabillé, mercredi 12 germinal, quelques versions de ses modèles d’complicité artificielle (IA) vers la bureautique : Gemini Robotics et Gemini Robotics-ER. Leur but ? « Rendre l’IA grave là-dedans le monde anatomique, explique l’institution. Jusqu’ici, les ressources [de leurs modèles d’IA à mieux résoudre des requêtes complexes en texte, image, audio et vidéo] ont été énormément confinées au héritage quantitatif. »
Contrairement aux robots conversationnels et assistants virtuels puisque ChatGPT ou Gemini, ces modèles visent à couronner des services là-dedans le monde vrai, vers une manipulation fabricante ou traqueur. L’éclairci de Google DeepMind est accompagnée de vidéos de démonstration d’travaux réalisées en compagnie de quelques muscle robotiques : classer un schéma là-dedans un pot, résilier une phyllade, classer des outils sur un mur, remuer des fruits là-dedans une étage ou arrêter en compagnie de un mini projectile là-dedans un mini vivier de basket… Ces modèles « posent les bases d’une fiction ponte de robots qui pourront participer utiles là-dedans diverses applications », a attendu, sur X, le PDG de Google, Sundar Pichai.
Il vous-même prime 83.34% de cet traité à engloutir. La aboutissement est invisible aux abonnés.