Meta dévoile TRIBE v2, un modèle d'IA capable de simuler l'activité de 70 000 voxels cérébraux et de prédire comment le cerveau humain réagit à la vue, au son et au langage. Un jumeau numérique du cerveau, en open source.

Pas encore de commentaire. Lancez la discussion !
Meta vient de frapper un grand coup dans un domaine que personne n'attendait vraiment de sa part. L'équipe FAIR, le laboratoire de recherche fondamentale du géant des réseaux sociaux, a dévoilé TRIBE v2, un modèle d'intelligence artificielle capable de prédire comment le cerveau humain réagit à ce qu'il voit, entend et lit. Concrètement, il s'agit d'un "jumeau numérique" de l'activité neuronale, une simulation suffisamment précise pour permettre aux chercheurs de mener des expériences virtuelles sur le cerveau sans avoir besoin de mobiliser des volontaires dans un scanner IRM.
La première version de TRIBE, qui avait remporté un prix lors du challenge Algonauts 2025, se limitait à environ 1 000 voxels cérébraux et ne fonctionnait qu'avec les données de quatre individus. TRIBE v2 change complètement d'échelle. Le modèle prédit désormais l'activité de près de 70 000 voxels, soit une résolution 70 fois supérieure. Il a été entraîné sur plus de 1 115 heures d'enregistrements IRMf provenant de plus de 700 volontaires exposés à des stimuli naturels comme des films, des podcasts et des textes. Cette masse de données permet au modèle de comprendre comment les différentes régions du cerveau traitent les informations sensorielles avec une précision inédite.
L'une des avancées les plus remarquables de TRIBE v2 réside dans sa capacité dite "zero-shot". Le modèle peut prédire les réponses cérébrales d'un individu qu'il n'a jamais rencontré, dans une langue qu'il n'a jamais traitée, sans aucun réentraînement supplémentaire. Cette propriété ouvre la voie à ce que Meta appelle la neuroscience in-silico : la possibilité de conduire des milliers d'expériences virtuelles pour tester des hypothèses sur le fonctionnement cérébral, identifier des anomalies dans le traitement neuronal ou accélérer le développement d'interfaces cerveau-machine, le tout sans les contraintes logistiques et financières des sessions d'IRMf traditionnelles.
Les applications potentielles sont considérables. Les chercheurs en neurologie pourraient utiliser TRIBE v2 pour mieux comprendre des troubles comme l'aphasie ou d'autres pathologies affectant des centaines de millions de personnes dans le monde. Le modèle pourrait aussi contribuer à améliorer les systèmes d'IA eux-mêmes en s'inspirant des principes neuroscientifiques du cerveau humain. Meta a toutefois tenu à préciser un point essentiel : TRIBE v2 fait de l'encodage, pas du décodage. Il prédit comment le cerveau réagit à un stimulus, mais il ne lit pas les pensées. Comme l'ont souligné les chercheurs, "ce n'est pas un outil pour traduire le monologue intérieur".
Dans un geste qui mérite d'être salué, Meta a choisi de rendre TRIBE v2 entièrement accessible à la communauté scientifique mondiale. Le modèle, son code source, ses poids et une démo interactive sont disponibles sur HuggingFace et GitHub, sous licence CC BY-NC. En ouvrant ainsi les portes de son laboratoire, l'entreprise invite le monde entier à construire sur ses travaux. À l'heure où la course à l'IA se joue souvent derrière des portes closes, ce choix de transparence pourrait bien accélérer notre compréhension du cerveau humain autant que celle de l'intelligence artificielle.