Des scientifiques chinois viennent de développer avec succès une nouvelle puce de simulation neuronale, inspirée de la structure de traitement de la vision dans le cerveau humain, aidant les robots à détecter les mouvements quatre fois plus rapidement que l'œil humain.
Cette technologie devrait faire de grands progrès dans les voitures autonomes, les robots de service et de nombreux systèmes d'automatisation nécessitant une réponse en temps réel.
La puce a été développée par un groupe de recherche de l'université de Beihang et de l'institut de technologie de Pékin, basée sur le principe de fonctionnement du noyau de réseau latéral (NFL), qui est une structure située entre la rétine et le cortex visuel.
Dans le cerveau humain, les LGN jouent le rôle de stations de transit et de filtres d'information, aidant le système visuel à se concentrer sur le traitement des objets en mouvement ou en changement rapide.
Selon le groupe de recherche, ce mécanisme a inspiré la conception de modules nerveux artificiels sur des puces semi-conductrices.
Au lieu de traiter chaque image statique comme un système de caméra traditionnel, la nouvelle puce peut détecter directement les changements de lumière au fil du temps, déterminant ainsi le mouvement dès qu'il se produit.
Dans les systèmes de vision robotique classiques, la caméra enregistrera une séquence d'images, puis comparera les changements de luminosité entre les images pour reconnaître les mouvements.
Cette méthode est assez précise mais présente un délai important, il faut généralement plus d'une demi-seconde pour traiter un cadre.
Pour les applications à grande vitesse comme les voitures autonomes, ce petit retard peut devenir un facteur dangereux, augmentant le risque d'accident.
La nouvelle puce de simulation neuronale a résolu ce problème en permettant au système de concentrer ses capacités de traitement sur les zones en mouvement plutôt que sur l'ensemble du cadre.
Dans les tests de simulation de conduite et de contrôle du bras robotique, le délai de traitement est réduit d'environ 75%, tandis que la précision du suivi du mouvement est doublée lors de l'exécution de tâches complexes.
Notamment, la capacité de détection du mouvement de la puce est quatre fois plus rapide que les méthodes précédentes, dépassant même la vitesse de réaction de l'œil humain dans certaines situations.
Le groupe de recherche estime que l'application du principe de traitement d'images du cerveau au matériel semi-conducteur est la clé de cette avancée.
La nouvelle technologie a un potentiel d'application généralisé, allant des systèmes d'évitement de collision dans les voitures autonomes, du suivi en temps réel des cibles sur les drones aux robots capables de répondre instantanément aux gestes humains.
Dans un environnement familial, les puces peuvent aider les robots à reconnaître les petits changements tels que les expressions faciales ou les mouvements de la main, rendant l'interaction entre l'homme et la machine plus naturelle.
Cependant, les chercheurs reconnaissent également que la puce dépend toujours de l'algorithme de flux optique pour interpréter l'image finale et peut rencontrer des difficultés dans un environnement avec trop de mouvements simultanés.
Cependant, cela est toujours considéré comme une étape importante dans le domaine de la vision assistée et de l'intelligence artificielle matérielle, ouvrant la voie au développement de robots réagissant presque instantanément au monde qui nous entoure.