Apple dévoile ses recherches avec un modèle comportemental pour un robot-lampe
Cela fait maintenant plusieurs mois que Mark Gurman prédit l’arrivée d’un HomePod avec un écran au bout d’un bras articulé robotique, qui serait vendu autour des 1 000 dollars. Mais cette nouvelle entrée du blog d’Apple consacré au Machine Learning permet d’en voir les avancées, et les idées proposées, avec une vidéo illustrant les propos. Les explications officielles d’Apple sur ses projets en cours étant plutôt rares, autant en profiter. La firme à la pomme est donc en train de développer un nouveau modèle utilisable avec les robots n’ayant pas pour objet de ressembler à un humain, le langage ELEGNT, ou Expressive and Functional Movement Design for Non-Antropomorphic Robot. Le but de ce nouveau modèle est de faciliter les interactions avec les humains, donnant un sentiment de comportement naturel au robot, par des mouvements paraissant guidés par une réflexion humaine. Ainsi, le robot semble regarder par la fenêtre avant de répondre à la question « Quel temps fait-il ? », et fait la moue quand il comprend qu’il ne pourra pas faire une balade avec l’humain. De la même manière, on le voit ajuster au mieux l’angle de sa lumière pour aider l’humain à prendre une photo, ou encore rapprocher doucement la tasse pour lui faire comprendre qu’il devrait boire un peu plus. Dans un clin d'œil bien sympathique, le robot de développement rappelle la bouille de la lampe de Pixar, Luxo Jr. Les développeurs du projet, Yuhan Hu, Peide Huang, Mouli Sivapurapu et Jian Zhang permettent de lever un coin du voile sur les idées d’Apple, et sur leurs possibles (probables ?) implications dans le futur proche des HomePod et de la gamme domotique de Cupertino. Et au vu des démonstrations, si la firme à la pomme est en retard sur l’intelligence artificielle ou la VR, il semble qu’elle tienne quelque chose d’intéressant avec ce projet.
![Apple dévoile ses recherches avec un modèle comportemental pour un robot-lampe](https://cdn.mgig.fr/2025/02/mga-435443f8-w375-w1500-w750_accroche.jpg)
Cela fait maintenant plusieurs mois que Mark Gurman prédit l’arrivée d’un HomePod avec un écran au bout d’un bras articulé robotique, qui serait vendu autour des 1 000 dollars. Mais cette nouvelle entrée du blog d’Apple consacré au Machine Learning permet d’en voir les avancées, et les idées proposées, avec une vidéo illustrant les propos.
Les explications officielles d’Apple sur ses projets en cours étant plutôt rares, autant en profiter. La firme à la pomme est donc en train de développer un nouveau modèle utilisable avec les robots n’ayant pas pour objet de ressembler à un humain, le langage ELEGNT, ou Expressive and Functional Movement Design for Non-Antropomorphic Robot.
Le but de ce nouveau modèle est de faciliter les interactions avec les humains, donnant un sentiment de comportement naturel au robot, par des mouvements paraissant guidés par une réflexion humaine. Ainsi, le robot semble regarder par la fenêtre avant de répondre à la question « Quel temps fait-il ? », et fait la moue quand il comprend qu’il ne pourra pas faire une balade avec l’humain. De la même manière, on le voit ajuster au mieux l’angle de sa lumière pour aider l’humain à prendre une photo, ou encore rapprocher doucement la tasse pour lui faire comprendre qu’il devrait boire un peu plus. Dans un clin d'œil bien sympathique, le robot de développement rappelle la bouille de la lampe de Pixar, Luxo Jr.
Les développeurs du projet, Yuhan Hu, Peide Huang, Mouli Sivapurapu et Jian Zhang permettent de lever un coin du voile sur les idées d’Apple, et sur leurs possibles (probables ?) implications dans le futur proche des HomePod et de la gamme domotique de Cupertino. Et au vu des démonstrations, si la firme à la pomme est en retard sur l’intelligence artificielle ou la VR, il semble qu’elle tienne quelque chose d’intéressant avec ce projet.