Embeddings et memoire persistante
Comment donner a votre agent une memoire a long terme avec les embeddings LanceDB.
Ce que fait la memoire persistante
Par defaut, le contexte de votre agent est limite a la conversation en cours. La memoire persistante lui permet de se souvenir d'informations entre les sessions, de retrouver du travail passe et de s'appuyer sur les interactions precedentes.
Comment ca marche
Le Bureau utilise LanceDB, une base de donnees vectorielle embarquee, pour stocker et rechercher les souvenirs de votre agent. Quand elle est activee :
- L'agent cree des embeddings (representations numeriques) des informations importantes pendant les conversations.
- Ces embeddings sont stockes dans LanceDB sur le disque persistant du bureau.
- Quand vous demarrez une nouvelle conversation, l'agent recherche dans sa memoire le contexte pertinent.
- Les souvenirs recuperes sont injectes dans la conversation, ce qui donne de la continuite a l'agent.
Ce qu'il vous faut
La memoire persistante necessite une cle API d'embeddings et un modele, separes de la cle de votre provider IA principal. Les embeddings utilisent un modele specialise pour convertir du texte en vecteurs.
Providers d'embeddings supportes
| Provider | Modele exemple | Notes |
|---|---|---|
| OpenAI | text-embedding-3-small | Le plus courant, bonne qualite |
| OpenRouter | Varies | Acces a plusieurs modeles d'embeddings |
Configurer la memoire persistante
Lors de la creation du bureau
- Cliquez sur New Desktop.
- Configurez votre provider IA principal (Anthropic, OpenAI ou OpenRouter).
- Developpez la section Embeddings.
- Selectionnez un provider d'embeddings (OpenAI ou OpenRouter).
- Entrez votre cle API d'embeddings.
- Choisissez un modele d'embeddings.
- Creez le bureau.
Sur un bureau existant
- Ouvrez les parametres de votre bureau.
- Ajoutez ou mettez a jour la configuration des embeddings.
- Redemarrez le bureau.
Ce que ca donne en pratique
Avec la memoire active, votre agent peut :
- Se souvenir du contexte projet : "Nous construisons une API REST avec Express et PostgreSQL."
- Retrouver des decisions passees : "La derniere fois, nous avons decide d'utiliser JWT pour l'authentification."
- Suivre l'avancement : "L'utilisateur m'a demande de configurer trois microservices. Deux sont termines."
- Retenir les preferences : "L'utilisateur prefere TypeScript a JavaScript."
Sans memoire, chaque nouvelle conversation repart de zero.
Ou sont stockes les souvenirs
Les souvenirs se trouvent dans ~/.openclaw/workspace/memory/ sur le disque du bureau. Tant que le bureau n'est pas detruit, ils persistent entre les redemarrages, arrets et relances.
Vous pouvez inspecter le repertoire memoire depuis le terminal :
ls ~/.openclaw/workspace/memory/
Cout
Les appels API d'embeddings sont factures par votre provider en fonction des tokens traites. Le cout est generalement tres faible, quelques centimes par million de tokens pour text-embedding-3-small.
Conseils
- Vous pouvez utiliser un provider different pour les embeddings et pour votre modele principal. Par exemple, Anthropic pour le chat et OpenAI pour les embeddings.
- Si vous n'avez pas besoin de memoire, ignorez la configuration des embeddings. L'agent fonctionnera quand meme, il ne se souviendra simplement pas des sessions passees.
- La qualite de la memoire s'ameliore avec le temps a mesure que l'agent accumule du contexte sur vos projets et preferences.
Articles connexes
Configurer le fournisseur IA
Configurer votre cle API Anthropic, OpenAI ou OpenRouter sur Le Bureau.
Configuration du provider
Configurez Anthropic, OpenAI ou OpenRouter comme provider IA avec votre propre cle API.
OpenClaw en bref
Ce qu'est OpenClaw, comment il tourne sur les bureaux Le Bureau et comment il relie votre chat a un modele IA.