Nouveau modèle de l’Université de Liverpool : simulation de l’intégration visuo-auditive humaine pour promouvoir le développement de l’intelligence artificielle
2025-11-10 16:48
Source:Université de Liverpool
Favoris

L’Université de Liverpool a développé un nouveau modèle informatique qui fusionne de manière unique la vision et l’audition, simulant les mécanismes de perception humaine. Inspiré par la biologie et basé sur les fonctions du cerveau des insectes, ce modèle a été amélioré par le Dr Cesare Parise, maître de conférences senior en psychologie, et est capable de traiter des signaux visuo-auditifs réels, tels que des vidéos et des sons, plutôt que de dépendre de paramètres abstraits.

对腹语表演者的反应模型。模型反应围绕着表演者聚集,重现了感知声源定位的错觉性偏移。

Le Dr Parise a souligné que, bien que les recherches sur la perception visuo-auditive durent depuis des décennies, les modèles existants peinent à traiter des signaux visuo-auditifs réels, limitant ainsi leurs applications. Le nouveau modèle repose sur le principe de détection de corrélation et, en simulant un arrangement de détecteurs, a réussi à reproduire les résultats de 69 expériences impliquant des humains, des singes et des rats, devenant ainsi la plus grande simulation dans ce domaine. Ce modèle non seulement correspond au comportement de différentes espèces, mais surpasse également les modèles leaders d’inférence causale bayésienne, et peut prédire les points de regard des humains lors du visionnage de films visuo-auditifs, servant de modèle de saillance léger.

« L’évolution a résolu le problème de coordination entre le son et la vision par un calcul simple et universel, extensible à travers les espèces et les environnements. » a souligné le Dr Parise. Le nouveau modèle traite directement les signaux visuo-auditifs bruts, applicable à tout matériel du monde réel, avec une portée d’application dépassant la neurosciences. Comparé aux modèles de saillance visuo-auditive existants qui dépendent de vastes réseaux et d’ensembles de données étiquetés massifs pour l’entraînement, ce modèle est léger, efficace et ne nécessite pas d’entraînement, devenant un candidat puissant pour les applications de nouvelle génération. Parise a conclu que le modèle, parti des études sur la vision du mouvement des insectes, explique désormais comment le cerveau intègre le son et la vision, offrant un nouveau blueprint pour la neurosciences et la recherche en intelligence artificielle.

Ce texte est rédigé, traduit et republié à partir des informations de l'Internet mondial et de partenaires stratégiques, uniquement pour la communication entre lecteurs. En cas d'infraction au droit d'auteur ou d'autres problèmes, veuillez nous en informer à temps pour la modification ou la suppression. La reproduction de cet article est strictement interdite sans autorisation formelle. Mail : news@wedoany.com