MemPalace : une mémoire IA qui ne perd rien
Chaque conversation que vous avez avec une IA disparaît dès la fin de la session. Des semaines de contexte, de décisions et de préférences — perdues. MemPalace, un projet open source lancé aujourd'hui par Ben Sigman et Milla Jovovich, vise à résoudre ce problème en offrant aux agents IA une mémoire structurée et persistante qui fonctionne entièrement sur votre machine locale.
Le problème de la mémoire IA
Les assistants IA actuels fonctionnent avec une amnésie totale. Chaque session repart de zéro à moins de coller manuellement le contexte. Des solutions existent — bases de données vectorielles, couches de résumé, services de mémoire cloud — mais elles partagent toutes des faiblesses : perte de détails par la synthèse, dépendance aux API cloud, ou traitement de la mémoire comme un bloc plat interrogeable.
MemPalace adopte une approche fondamentalement différente, inspirée par une technique utilisée par les champions de mémoire depuis des millénaires.
La méthode des loci rencontre le machine learning
La méthode des loci (technique du palais de la mémoire) remonte à la Grèce antique. Les orateurs parcouraient mentalement un bâtiment familier, plaçant des informations dans des pièces spécifiques pour les retrouver plus tard. MemPalace applique cette même métaphore spatiale à la mémoire IA avec une structure hiérarchique :
- Ailes (Wings) — Domaines de haut niveau représentant des personnes, projets ou domaines de vie
- Pièces (Rooms) — Sujets spécifiques dans une aile (ex : "authentification", "facturation", "déploiement")
- Couloirs (Halls) — Types de mémoire reliant les pièces connexes : faits, événements, découvertes, préférences, conseils
- Tunnels — Références croisées reliant des concepts identiques entre différentes ailes
- Placards (Closets) — Résumés compressés pointant vers le contenu original
- Tiroirs (Drawers) — Données brutes textuelles jamais résumées
Cette structure seule améliore la récupération de 34 % par rapport à la recherche plate, testée sur plus de 22 000 souvenirs de conversations réelles.
Résultats des benchmarks
MemPalace affiche des scores solides, bien que plusieurs affirmations aient été contestées par des reviewers indépendants :
- 96,6 % de rappel sur LongMemEval R@5 sans aucun appel API
- 100 % de rappel annoncé avec le reranking Claude Haiku (contesté — voir les réserves ci-dessous)
- 100 % annoncé sur LoCoMo, bien que la fenêtre de récupération (
top_k=50) dépasse la taille du pool de candidats de 19 à 32 éléments - 92,9 % sur ConvoMem
Le gain provient de la navigation structurée plutôt que de la recherche par force brute. Le filtrage par aile seul ajoute 12 % de précision. Le filtrage au niveau de la pièce pousse le gain à 34 %.
AAAK : compression 30x sans perdre un seul détail
AAAK est un dialecte sténographique sans perte conçu spécifiquement pour la consommation par les IA. Il compresse le langage naturel environ 30 fois tout en préservant chaque détail.
Une description d'équipe qui consomme environ 1 000 tokens en anglais se compresse à environ 120 tokens en format AAAK. Le principe clé : les modèles IA n'ont pas besoin de texte lisible par un humain pour comprendre une information. AAAK élimine la surcharge grammaticale tout en conservant tout le contenu sémantique.
Tout LLM capable de lire du texte peut interpréter AAAK sans fine-tuning ni décodeur spécial.
Démarrer en cinq minutes
L'installation est simple :
pip install mempalace
mempalace init ~/projects/myappExtraire vos données existantes :
mempalace mine ~/projects/myapp # code et documentation
mempalace mine ~/chats/ --mode convos # exports de conversations
mempalace search "flux authentification" # interroger votre mémoirePour les utilisateurs de Claude Code, une seule commande suffit :
claude mcp add mempalace -- python -m mempalace.mcp_serverCela expose 19 outils MCP pour rechercher, naviguer et mettre à jour les souvenirs directement depuis votre assistant IA.
Couches de mémoire : charger uniquement ce dont vous avez besoin
MemPalace utilise un système de chargement par niveaux pour minimiser la consommation de tokens :
- L0 — Informations d'identité, toujours chargées (environ 50 tokens)
- L1 — Faits critiques sur l'équipe, les projets et préférences en AAAK (environ 120 tokens)
- L2 — Rappel de pièce pour les sessions récentes, chargé à la demande
- L3 — Recherche sémantique profonde dans tous les placards, chargée à la demande
Le résultat : des économies spectaculaires. Six mois d'utilisation quotidienne d'IA (19,5 millions de tokens de conversations brutes) coûtent environ 0,70 $ par an avec le contexte de réveil MemPalace, contre plus de 500 $ par an avec la synthèse par LLM.
Local d'abord, compatible avec tous les modèles
MemPalace fonctionne entièrement sur votre machine. Aucune API cloud requise. Le graphe de connaissances utilise SQLite — pas de serveur Neo4j, pas de base de données cloud. Il fonctionne avec Claude, GPT, Gemini, Llama, Mistral et tout autre LLM capable de lire du texte.
Pour les équipes soucieuses de la confidentialité des données, cela change tout. Votre historique de conversations, le contexte de vos projets et vos préférences personnelles ne quittent jamais votre appareil.
Qui devrait utiliser MemPalace
- Les développeurs utilisant des assistants IA pour le code et souhaitant un contexte de projet persistant entre les sessions
- Les chercheurs gérant des investigations au long cours avec des connaissances complexes et évolutives
- Les équipes construisant des agents IA nécessitant une expertise de domaine sans gonfler le prompt système
- Toute personne fatiguée de réexpliquer le contexte à son assistant IA à chaque session
Réserves sur les benchmarks
Depuis la publication, des reviewers indépendants ont soulevé des préoccupations méthodologiques :
- Le score de 100 % sur LongMemEval impliquait un ajustement a posteriori. L'équipe a identifié les 3 questions spécifiques que le système avait manquées, conçu des correctifs ciblés (boost de phrases exactes, boost de noms de personnes), puis retesté sur le même jeu de données. Le score de 96,6 % avant ajustement est plus fiable.
- Le 100 % sur LoCoMo est trivialement gonflé. Avec des sessions contenant 19 à 32 éléments et
top_k=50, la fenêtre de récupération est plus grande que le pool de candidats. - La hiérarchie du palais n'est pas utilisée pendant les benchmarks. Le score brut de 96,6 % fonctionne sur du texte non compressé via les embeddings par défaut de ChromaDB — les ailes, salles et couloirs ne font pas partie du pipeline de benchmark.
Les idées architecturales restent intéressantes, mais les chiffres phares doivent être lus avec ces réserves à l'esprit.
La vision globale
MemPalace représente un changement dans notre approche de la mémoire IA. Au lieu de traiter la mémoire comme un problème de recherche (trouver le bon fragment dans une base vectorielle), il la traite comme un problème de navigation (marcher jusqu'à la bonne pièce dans un bâtiment structuré). Les résultats de benchmark suggèrent que ce choix architectural compte davantage que l'algorithme de récupération sous-jacent.
Avec sa licence MIT, zéro dépendance cloud et le support de tous les grands LLM, MemPalace abaisse la barrière pour doter les agents IA d'une véritable mémoire à long terme. Que vous construisiez des agents autonomes ou souhaitiez simplement que votre assistant de code se souvienne de vos préférences, cela vaut la peine d'être exploré.
Découvrez le projet sur GitHub pour commencer.
Discutez de votre projet avec nous
Nous sommes ici pour vous aider avec vos besoins en développement Web. Planifiez un appel pour discuter de votre projet et comment nous pouvons vous aider.
Trouvons les meilleures solutions pour vos besoins.