Document interne — Explora Venture Studio

WABLY-OS

AI Operating System Platform

Architecture d'un systeme d'exploitation IA multi-tenant — du contexte business aux agents autonomes, accessible via WhatsApp, Web et MCP.

Les 3 plans de l'architecture

Un AIOS n'est pas un monolithe. C'est 3 plans distincts qui s'alimentent mutuellement.

01 · INTERACTIONS

Comment on parle au systeme

💬

Chat

WhatsApp, Web Dashboard, Telegram

🧠

Orchestrateur + IA + MCP

Intent Router, AI Engine, MCP Gateway

🔧

Claude Code / Cursor

Pour le consultant qui setup le client

02 · DONNEES

Ce que le systeme sait

📁

Context OS (fichiers .md)

Identite business, equipe, strategie, processus

📚

Intelligence KB

Documents ingeres, articles, savoir structure

🗄️

Database

Taches, historique, outputs generes, logs

03 · FLUX

Ce qui entre et sort en continu

🔌

Integrations & Connecteurs

Email, Calendar, Stripe, HubSpot, Slack, Fireflies...

🤖

Agents Autonomes

Daily Brief, Post-Meeting, Monitoring, Upsell...

📊

Outputs Generes

Briefs, rapports, summaries en .md

Architecture en 4 couches

De l'interface utilisateur aux sources de donnees — chaque couche a un role precis.

1

INTERFACES

Comment les utilisateurs et agents interagissent

📱

WhatsApp

Chat IA pour le fondateur

🌐

Web Dashboard

Editer les .md et dashboards

💻

Claude Code

Le consultant setup le client

🔗

API / MCP

Agents externes se connectent

2

ORCHESTRATION

"De quoi j'ai besoin pour repondre ?" — Le cerveau qui route

Intent Router

Classifie : contexte ? donnees live ? action ?

AI Engine

Charge hot + warm, genere la reponse, execute les tools

MCP Gateway

Route vers les bons tools : context, data, intel, actions

3

CONNAISSANCE

Le "cerveau" — ce que le systeme sait sur l'entreprise

📁

Context OS

Nouveau

"Qui sommes-nous ? Comment on fonctionne ?"

CONTEXT.md ← HOT

company/

team-structure.md

vision-mission.md

product/

platform-overview.md

sales/

process.md

objections.md ← auto-enrichi

customers/

icp-definition.md

brand/

voice-guidelines.md

Multi-tenant · Versioning · Hybrid search · Tiered retrieval

📚

Intelligence KB

Existant

"Ce qu'on sait" — documents, PDFs, articles, savoir

13 tools MCP (search, add, ingest...)
Pipeline async (extract → chunk → embed)
Hybrid BM25 + Vector + RRF
Multi-tenant par token
Gemini embedding-001 (768d, gratuit)

Complementarite

Context OS = identite et fonctionnement (stable)
Intelligence = savoir accumule (documents, enrichi)

4

CONNEXIONS AU MONDE REEL

Integrations, agents autonomes et outputs generes

Integrations (query live)

HubSpot CRM
Stripe / Paiements
Google Calendar
Email / Gmail
Fireflies / Meetings
Slack
Clay / Enrichment
Matomo / Analytics

Temps reel — jamais copiees, toujours fraiches

Agents Autonomes

Daily Brief (7h)
Post-Meeting Analysis
Slack Monitor
Lead Scorer
Upsell Detector
AI Landscape Monitor
Security Audit
Context Auto-Update

Cron ou evenement, alimentent le Context OS

Outputs Generes

briefs/

2026-03-28-daily.md

meetings/

2026-03-28-yann-call.md

reports/

2026-w13-swot.md

Historique searchable

4 natures de donnees

Chaque type a son format, sa frequence, et sa source de verite. Ne pas les melanger est la cle.

Contexte
Format.md en DB Postgres
ExemplesCONTEXT.md, team.md, process.md
FrequenceMensuel / Trimestriel
Maintenu parHumain + IA (propose → confirme)
Savoir
FormatChunks + Embeddings
ExemplesPDFs ingeres, articles, docs
FrequenceA l'ingestion
Maintenu parPipeline Intelligence (async)
Donnees live
FormatAPIs en temps reel
ExemplesPipeline HubSpot, MRR Stripe, calendrier
FrequenceTemps reel (query on demand)
Maintenu parSource externe (jamais copie)
Outputs
Format.md auto-generes
ExemplesDaily briefs, meeting summaries, SWOT
FrequenceQuotidien / Par evenement
Maintenu parAgents autonomes

Le feedback loop

Comment le contexte reste vivant sans maintenance manuelle.

1

🎙️ Un meeting a lieu

Fireflies transcrit automatiquement

2

🤖 L'agent analyse

Extraction de taches, detection de changements

3

💡 Proposition d'update

"Nouvelle objection detectee : ajouter a sales/objections.md ?"

4

📱 Confirmation WhatsApp

Le fondateur repond via bouton [Oui] [Non]

5

Context OS mis a jour

Le .md est enrichi, version incrementee

Resultat

Le Context OS reste frais. Personne ne maintient les fichiers manuellement. L'IA propose, l'humain valide.
Compound, don't repeat.

Interface MCP — 12 tools

N'importe quel agent IA peut se connecter via MCP et lire/ecrire les fichiers contexte.

Fichiers

file_read{ path, offset?, limit? }
file_write{ path, content }
file_update{ path, old, new }
file_delete{ path }
file_move{ from, to }

Navigation

list{ path?, recursive?, glob? }
tree{ path? }

Recherche

search{ query, path? }
search_semantic{ query }
search_exact{ query }

Meta

info{ path }
history{ path, limit? }

Resources

context://hot

Tous les fichiers hot concatenes

context://warm/{intent}

Fichiers warm selon l'intent

Retrieval en 3 tiers

200 fichiers par client — on ne charge jamais tout. On charge intelligemment.

HOT

Chaque requete

5-10K

tokens

CONTEXT.md + fichiers critiques

Toujours en memoire

WARM

Selon l'intent

10-50K

tokens

/sales/ si on parle vente, /product/ si produit

Charge a la demande

COLD

Recherche semantique

2-10K

tokens

Top 3-5 chunks pertinents

Hybrid BM25 + Vector + RRF

Stack technique

Construit sur Supabase/Postgres — reutilise l'infra prouvee d'Intelligence.

DatabaseSupabase PostgreSQL + pgvector + ltree + tsvector
EmbeddingsGemini embedding-001 (768d, gratuit)
SearchHybrid BM25 + Vector cosine + RRF (k=60)
Edge FunctionsDeno (Supabase Edge Functions)
MCP TransportStreamable HTTP (spec juin 2025)
AuthAPI tokens par org + RLS + path-scoped permissions
VersioningOptimistic locking (version field) + table file_versions
Sync GitExport/import bidirectionnel pour usage Claude Code local
DashboardNext.js + Tailwind (editeur Markdown web)
Performance20K fichiers → read <5ms, search <100ms, list <10ms