← Retour au blogLe fondateur d’OpenClaw dit «Éssayez ce plugin de mémoire» — Buzz instantané

Le fondateur d’OpenClaw dit «Éssayez ce plugin de mémoire» — Buzz instantané

Les agents OpenClaw oublient des choses. Tout le monde le sait. Vous passez 30 minutes à configurer un workflow complexe, la fenêtre de contexte se remplit, la compaction se déclenche — et votre agent oublie la moitié de ce que vous avez discuté.

Peter Steinberger, le créateur d'OpenClaw, vient de publier un article sur une solution. Sa recommandation : Lossless Claw, un plugin communautaire qui remplace la compaction de mémoire intégrée d'OpenClaw par quelque chose qui fonctionne réellement. La publication a atteint plus de 277 000 vues et plus de 3 200 likes en quelques heures.

« Si vous êtes agacé que votre crustacé soit distrait après la compaction, essayez Lossless Claw ! » — Peter Steinberger

Voici ce qu'il fait, pourquoi c'est important, et comment le configurer sur MyClaw.ai en moins d'une minute.

Le problème : la mémoire d'OpenClaw a un plafond absolu

Chaque modèle d'IA a une fenêtre de contexte — une limite sur la quantité de texte qu'il peut traiter à la fois. Claude Opus 4.6 plafonne à 200 000 tokens. Ça semble beaucoup, jusqu'à ce que vous réalisiez :

📝 Les prompts système, les fichiers de mémoire et les instructions de compétences consomment 30 à 50 000 tokens avant même que vous ne disiez bonjour

💬 Une conversation de 50 messages atteint facilement 150 000 tokens

🔄 Quand la fenêtre se remplit, la compaction intégrée d'OpenClaw se déclenche — et supprime définitivement les anciens messages

C'est la compaction à fenêtre glissante. C'est simple, c'est rapide, et c'est avec perte. Une fois que ces messages sont partis, ils sont partis. Votre agent ne peut littéralement pas se souvenir de ce dont vous avez discuté il y a 20 minutes.

Le résultat ? Vous vous répétez. Votre agent fait les mêmes erreurs deux fois. Les workflows se cassent parce que le contexte a disparu en pleine exécution.

Ce que fait réellement Lossless Claw

Lossless Claw adopte une approche fondamentalement différente. Au lieu de jeter les anciens messages, il :

🗄️ Persiste chaque message dans une base de données SQLite locale — rien n'est jamais supprimé

🌳 Construit un DAG (graphe acyclique orienté) de résumés — les anciens messages sont résumés, puis les résumés sont résumés en nœuds de niveau supérieur

🔍 Donne aux agents des outils de rappellcm_grep pour rechercher dans l'historique, lcm_expand pour explorer n'importe quel résumé et récupérer les détails originaux

🛡️ Protège le contexte récent — les 32 derniers messages ne sont jamais compressés, assurant un flux conversationnel fluide

Pensez-y comme ceci : la compaction classique est une déchiqueteuse de papier. Lossless Claw est une archive avec un moteur de recherche.

Les détails techniques qui comptent

Lossless Claw est basé sur le papier LCM et implémente ce que les auteurs appellent « Gestion de Contexte Sans Perte ». Voici comment fonctionnent les paramètres clés :

🎯 Seuil de contexte : 75 % — La compaction se déclenche lorsque le contexte atteint 75 % de la fenêtre du modèle, pas 95 %. Cela laisse de la marge pour que le modèle puisse réellement réfléchir, au lieu de haleter pour des tokens à la dernière seconde

📊 Résumé multicouche — Messages bruts → résumés de feuilles → résumés condensés → résumés de niveau supérieur. Chaque couche compresse davantage tout en maintenant des liens vers le matériel source

🔗 Structure DAG — Chaque résumé sait de quels messages ou sous-résumés il provient. Cela signifie qu'un agent peut demander « de quoi avons-nous discuté concernant l'API Ghost ? » et retracer la réponse à travers le DAG jusqu'à la conversation exacte

Compaction incrémentielle — Seuls les nouveaux messages sont traités à chaque cycle, pas tout l'historique. Cela maintient la surcharge par tour gérable

Impact réel

Voici ce qui change lorsque vous installez Lossless Claw :

Avant (OpenClaw standard) :

  • L'agent oublie les détails du workflow après de longues conversations
  • Vous répétez les instructions toutes les quelques heures
  • Les tâches complexes en plusieurs étapes se cassent quand le contexte se compacte en pleine exécution
  • Aucun moyen de récupérer les informations compactées

Après (Lossless Claw) :

  • L'agent peut rappeler n'importe quel détail de n'importe quelle conversation en utilisant lcm_grep
  • Les projets de plusieurs jours maintiennent le contexte complet grâce au DAG
  • La compaction se produit plus tôt et plus en douceur (75 % vs près de 100 %)
  • Tous les messages bruts persistent dans SQLite — rien de perdu, jamais

Un utilisateur dans le fil de Peter a demandé si cela cassait la mise en cache du contexte. La réponse de Peter : « ce n'est pas par défaut pour une raison, c'est un plugin communautaire pour explorer de nouvelles idées ! » Le compromis est réel — chaque cycle de compaction coûte des tokens LLM pour générer des résumés — mais pour les agents exécutant des workflows complexes avec état, le bénéfice dépasse largement le coût.

Installez-le sur MyClaw.ai en 60 secondes

Si vous exécutez OpenClaw sur MyClaw.ai, installer Lossless Claw prend une commande via le chat de votre agent :

openclaw plugins install @martian-engineering/lossless-claw

Votre passerelle redémarre automatiquement, et vous fonctionnez avec une mémoire basée sur DAG qui n'oublie jamais. Pas de SSH, pas de fichiers de configuration, pas de Docker — dites simplement à votre agent de l'installer.

Le plugin fonctionne de manière transparente aux côtés des systèmes de mémoire existants — vos fichiers MEMORY.md, journaux quotidiens et configurations de compétences continuent tous de fonctionner. Lossless Claw ne remplace pas la mémoire manuelle ; il la complète avec un rappel automatique.

La combinaison est puissante :

🧠 MEMORY.md = ce que votre agent devrait savoir au démarrage (décisions, préférences, contacts)

🗄️ Lossless Claw = ce que votre agent peut rappeler à la demande (détails de conversation, instructions exactes, étapes de débogage)

Ensemble, votre agent obtient à la fois un contexte de démarrage rapide et un rappel profond — le meilleur des deux mondes.

Devriez-vous l'installer ?

Si votre agent OpenClaw exécute des conversations simples et courtes — probablement pas la peine. La compaction standard convient pour les tâches rapides.

Mais si vous :

✅ Exécutez des projets de plusieurs jours où le contexte compte

✅ Utilisez votre agent comme assistant persistant (pas un outil ponctuel)

✅ En avez marre de vous répéter après la compaction

✅ Avez besoin que votre agent se souvienne de ce qu'il a construit, déployé ou configuré

Alors Lossless Claw est exactement ce dont vous avez besoin. Peter Steinberger ne le recommanderait pas à ses plus de 280 000 abonnés si ça ne valait pas la peine d'essayer.

MyClaw.ai — l'hébergeur OpenClaw n°1, la meilleure façon d'exécuter OpenClaw. La mémoire de votre agent vient de recevoir une mise à niveau.

Évitez la configuration. Lancez OpenClaw maintenant.

MyClaw vous offre une instance OpenClaw (Clawdbot) entièrement gérée — toujours en ligne, zéro DevOps. Plans à partir de 19$/mois.

Le fondateur d’OpenClaw dit «Éssayez ce plugin de mémoire» — Buzz instantané | MyClaw.ai