Anthropic dévoile que les agents IA peuvent rêver. À quoi ça ressemble vraiment ?
Par Jérémy Collovray

Pas encore de commentaire. Lancez la discussion !
Anthropic vient de franchir un cap symbolique dans la course à l'intelligence artificielle autonome. Lors de la conférence Code with Claude du 6 mai 2026, l'entreprise a dévoilé une fonctionnalité aussi poétique qu'ambitieuse le "dreaming", ce qui permet d’analyser leurs sessions passées pendant leurs temps d'inactivité, corriger leurs erreurs et consolider leur mémoire pour les tâches futures.
Le principe s'inspire de ce que font nos cerveaux pendant le sommeil : trier, organiser, retenir l'essentiel. Alors non, les agents ne rêvent pas d’éléphants roses ni même d’hôtel luxueux en bord de mer… en vérité ils passent en revue l'ensemble de leurs interactions précédentes, pas seulement la conversation en cours, mais l'intégralité de leurs sessions et de leur mémoire stockée. Ils repèrent les méthodes qui fonctionnent, les erreurs qui se répètent, et les préférences des équipes avec lesquelles ils collaborent. L'utilisateur garde le contrôle : il peut définir la fréquence de ces phases de rêve et choisir si les mises à jour de mémoire s'appliquent automatiquement ou nécessitent une validation humaine. Cette approche résout un problème fondamental des grands modèles de langage, dont la fenêtre de contexte limitée provoque une perte d'informations lors de tâches prolongées.
Les premiers retours sont parlants. Harvey, une plateforme d'IA juridique, a utilisé le dreaming pour permettre à ses agents de mémoriser des solutions de contournement liées aux formats de fichiers. Résultat : un taux de complétion des tâches multiplié par six lors des tests. Anthropic a également présenté deux autres fonctionnalités majeures. Les "Outcomes" permettent de définir des critères de réussite via des grilles d'évaluation : un agent correcteur note le travail produit et demande des révisions si le résultat n'est pas à la hauteur. L'orchestration multi-agents permet quant à elle à un agent principal de décomposer une tâche complexe et de la distribuer à des sous-agents spécialisés travaillant en parallèle, un peu à la manière d’une véritable entreprise.
Derrière ces fonctionnalités se cache une refonte architecturale profonde que l'équipe d'ingénierie d'Anthropic détaille dans un billet technique publié le même jour. Les Managed Agents reposent sur une séparation stricte entre le "cerveau" (Claude et son orchestrateur), les "mains" (les environnements d'exécution sandboxés) et la "session" (un journal d'événements persistant). Cette conception permet aux agents de reprendre leur travail après une interruption, de se connecter à plusieurs environnements d'exécution en parallèle, et même de fonctionner dans les clouds privés des entreprises sans compromettre la sécurité.
Avec le dreaming, Anthropic innove une nouvelle fois et pose peut être les bases d'une nouvelle génération d'agents IA, capables d'apprentissage continu sans réentraînement. Cette approche pourrait redéfinir ce qu'on attend d'un assistant IA : les agents ne sont plus des outils qu'on lance et qu'on oublie, mais des collaborateurs qui progressent avec le temps, à la seule différence qu’ils ne prennent pas (encore) de café.