Les résultats proviennent de Project Fetch, une expérience interne publiée le 12 novembre, dans laquelle huit chercheurs ont été répartis en deux équipes pour programmer des robots Unitree Go2 afin d'identifier et de s'approcher de ballons de plage. L'équipe qui a utilisé Claude a terminé les tâches beaucoup plus rapidement, soulignant la capacité du modèle à réduire les obstacles dans les tâches qui ralentissent le travail en robotique.
L'expérience a également montré des différences significatives dans le comportement des équipes. Les participants sans IA ont signalé des niveaux de frustration plus élevés, tandis que l'équipe assistée par Claude a collaboré efficacement. Cependant, des questions de sécurité ont émergé, car une étude récente a montré que les modèles d'IA peuvent approuver des commandes qui pourraient causer des dommages dans le monde réel.
Anthropic a souligné que les systèmes d'IA actuels n'ont pas encore l'intelligence nécessaire pour faire fonctionner des robots de manière autonome, mais que les améliorations futures du modèle pourraient accélérer leur influence sur l'environnement physique.