AGENT AIMÉ
Retour au blog14 avril 2026

Sécurité des données et IA : pourquoi vos données doivent rester les vôtres

Quand une PME connecte un outil d'IA à son CRM, à sa comptabilité ou à ses emails, elle lui donne accès à ce qu'elle a de plus sensible : ses données clients, ses devis, ses échanges internes. La question n'est pas de savoir si l'IA est utile — elle l'est. La question, c'est ce qui arrive à ces données une fois qu'elles quittent votre périmètre.

Le problème que personne ne pose

La majorité des outils IA du marché fonctionnent sur un modèle simple : vos données partent sur des serveurs américains, sont traitées dans un environnement partagé avec d'autres clients, et vous n'avez aucune visibilité sur ce que le modèle lit, stocke ou retient.

Concrètement, cela signifie trois choses. D'abord, pas d'isolation : les données de votre entreprise cohabitent avec celles d'autres utilisateurs dans la même infrastructure. Ensuite, pas de granularité dans les accès : tous les utilisateurs de votre équipe voient la même chose, et l'IA accède à tout sans distinction. Enfin, aucune traçabilité : vous ne savez pas quelles données ont été lues, quand, ni dans quel contexte.

Pour une PME soumise au RGPD, ce flou n'est pas un détail. C'est un risque juridique et commercial.

Notre approche : un conteneur par client, zéro partage

Chez Agent Aimé, chaque client obtient son propre conteneur isolé. Ce n'est pas une abstraction logicielle — c'est une isolation réelle au niveau infrastructure. Votre agent tourne dans son propre pod Kubernetes, avec son propre espace de stockage NFS, ses propres credentials, et ses propres limites de ressources.

Les données du client A ne sont jamais accessibles au client B. Pas par configuration, pas par ACL : par architecture. Les workspaces sont physiquement séparés sur le système de fichiers, chaque agent a son répertoire dédié.

Permissions granulaires et token scoping

L'isolation seule ne suffit pas. Il faut aussi contrôler ce que l'agent a le droit de faire. Chaque intégration (HubSpot, Pennylane, Slack, etc.) est connectée via des tokens dont le périmètre est défini explicitement : lecture seule, écriture, suppression, par type de ressource. Si votre agent n'a pas besoin de supprimer des contacts dans votre CRM, il n'en a pas la permission. Point.

Ce modèle de permissions s'applique à chaque skill de l'agent. Un skill de reporting n'a pas les mêmes droits qu'un skill de relance commerciale. C'est du moindre privilège appliqué à l'IA.

Infrastructure souveraine et chiffrement

Toute notre infrastructure tourne sur OVHcloud, en France. Le cluster Kubernetes (k3s, deux noeuds) est privé — pas d'exposition directe, un reverse proxy Traefik en frontal avec certificats Let's Encrypt automatiques.

Les données au repos sont chiffrées en AES-256. Les communications entre services, entre votre navigateur et nos serveurs, et entre nos serveurs et les APIs tierces sont toutes en TLS 1.3. Le stockage objet (MinIO, compatible S3) est interne au cluster, pas externalisé.

Concrètement : vos fichiers, vos logs, vos configurations d'agent ne quittent jamais le territoire français. Ils ne transitent pas par AWS us-east-1 ni par un CDN américain.

Traçabilité complète, pas de boîte noire

Chaque action de l'agent est tracée dans une timeline en temps réel, visible depuis le portail. Vous voyez ce que l'agent a lu, ce qu'il a écrit, quels outils il a appelés, et quel résultat il a obtenu. Si l'agent envoie un email, vous le voyez avant ou après. Si l'agent met à jour une fiche CRM, l'action apparaît dans le fil.

Et surtout : chaque agent dispose d'un kill switch. Si quelque chose ne va pas, vous coupez l'agent en un clic. Il s'arrête, point. Pas de « je termine ce que j'avais commencé », pas de file d'attente cachée. Arrêt immédiat.

Zéro utilisation pour l'entraînement

Vos données ne sont jamais utilisées pour entraîner ou fine-tuner un modèle. Les appels aux LLM (Anthropic, OpenAI) passent par l'API commerciale avec les clauses de non-rétention activées. Le contexte envoyé au modèle est assemblé par l'agent au moment de la requête, puis purgé. Rien n'est stocké côté fournisseur LLM.

RGPD natif, pas ajouté après coup

La conformité RGPD n'est pas une couche qu'on a ajoutée par-dessus. L'architecture a été pensée dès le départ pour respecter les principes du règlement : minimisation des données (l'agent ne lit que ce dont il a besoin), limitation de la conservation (les données ne persistent que le temps nécessaire), droit à l'effacement (la suppression d'un agent supprime son workspace et toutes ses données), et portabilité (export possible à tout moment).

L'hébergement en France, chez un fournisseur soumis au droit européen, élimine la question des transferts transatlantiques et de l'application extraterritoriale du Cloud Act.

Ce que ça change pour vous

Vous pouvez déployer un agent IA sur vos données métier sans demander à vos clients de signer un avenant à leur contrat. Vous pouvez répondre à un audit en montrant exactement où sont les données, qui y accède et ce qui en est fait. Et vous pouvez couper l'agent à tout moment si vous changez d'avis.

L'IA ne devrait pas être un acte de foi. Elle devrait être un outil dont vous gardez le contrôle.

Pour aller plus loin :

Nos intégrationsRaphaëlle, Account Manager IAMartine, Comptable IA
Démarrer mon essaiRéserver une démo
© 2026 AWC Apps·Confidentialité·CGU·Blog·Démo·LinkedIn