Argy — le système d’exploitation de l’IA en entreprise
Un point d’entrée unique (LLM Gateway), des agents IA gouvernés et des Un module Argy est un golden path empaqueté (schéma de configuration + implémentation + garde‑fous). Il transforme votre toolchain en self‑service gouverné. de plateforme pour industrialiser l’IA, avec quotas, audit et conformité intégrés.
Pour les CTO / VP Eng
Livrez plus vite, standardisez sans rigidité.
Pour la plateforme / SRE
Golden paths, gouvernance, automatisation du run.
Pour les développeurs
Self‑service, conventions claires, moins de charge cognitive.
Argy — le système d’exploitation de l’IA en entreprise
Argy se place entre les équipes, les modèles et la Votre toolchain est votre ensemble d’outils (Git, CI/CD, cloud, IaC, sécurité). Argy ne les remplace pas : il les orchestre et standardise l’expérience. : un LLM Gateway unique, des agents gouvernés et des Un module Argy est un golden path empaqueté (schéma de configuration + implémentation + garde‑fous). Il transforme votre toolchain en self‑service gouverné. pour industrialiser les Un workflow est une suite d’étapes orchestrées (ex. provisionner → déployer → vérifier). Argy standardise et observe ces flux pour réduire la charge cognitive..
Argy est l’OS IA d’entreprise : standardisez une fois, gouvernez tous les usages IA, et livrez en sécurité sur tous vos Dans Argy, un produit regroupe une application ou un service et ses environnements. C’est l’unité sur laquelle vous appliquez des modules, politiques et automatisations..

De la friction à l’autonomie, sans perdre le contrôle.
Argy structure vos workflows en modules : standardisation, self‑service et gouvernance deviennent un système.
Avant
Des tickets pour chaque besoin
Après
Self‑service contrôlé via modules
Les demandes récurrentes deviennent des capacités standardisées.
Avant
Des solutions uniques (snowflakes)
Après
Des Golden Paths versionnés
Standardiser sans friction : conventions + paramètres.
Avant
Contrôles manuels après coup
Après
Gouvernance by design
Policies et garde‑fous intégrés au delivery et au run.
Un OS pour l’IA en entreprise
Créez des apps et workflows IA sans compromettre sécurité, gouvernance ou souveraineté.
Accès centralisé aux modèles avec routage multi‑providers, quotas et audit.
Argy Chat, Argy Code et agents custom avec checks de policies.
Uploads privés, scopes partagés et ACLs sur la connaissance interne.
Workflows industrialisés, versionnés et sécurisés par défaut.
Policy‑as‑Code, traçabilité complète et gouvernance par rôles.
SaaS, hybride ou LLM Gateway on‑premise avec clés dans votre périmètre.
Un parcours produit clair, de la création à l’exploitation.
Argy structure l’expérience IDP : vous publiez des capacités, vos équipes les consomment en self‑service, et la gouvernance suit.
Étape 1
Configurer le tenant
Configurez SSO/SCIM, canaux de notification, clés LLM et garde‑fous selon le plan.
Étape 2
Créer un produit
Déclarez un produit (service, data product, plateforme interne) avec ses environnements.
Étape 3
Choisir un module pattern
Sélectionnez un golden path : microservice, job, API, pipeline data…
Étape 4
Configurer DEV / UAT / PRD
Appliquez les paramètres et garde‑fous par environnement (policies, gates, observabilité).
Étape 5
Déployer
Argy orchestre IaC et CI/CD pour produire un résultat cohérent et traçable.
Étape 6
Observer
Dashboards et SLOs par défaut, alerting actionnable, ownership clair.
Étape 7
Améliorer
Itération : versionnez les modules, mesurez l’adoption, et optimisez les routines run.
LLM Gateway — le point d’entrée de l’OS IA
Un point d'entrée unique et sécurisé pour toutes vos requêtes IA, avec quotas, audit et filtrage.
Le LLM Gateway d'Argy centralise tous les appels vers les modèles de langage (OpenAI, Anthropic, Google, Azure OpenAI) avec une gouvernance complète, et sert de socle au Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées et sourcées. tenant-aware et aux agents gouvernés.
Multi-Providers
OpenAI (GPT-4/5), Anthropic (Claude), Google (Gemini), xAI (Grok), Mistral AI.
Quotas & Crédits
Système de crédits (1 crédit = 1M tokens) avec alertes, limites par plan et contrôle des dépassements.
Routage Intelligent
Sélection automatique du modèle selon le budget, la qualité souhaitée ou le type de tâche.
Filtres Sécurité
Détection et masquage automatique des PII, secrets et sujets interdits en entrée/sortie.
Cache & Performance
Cache Redis des réponses pour réduire les coûts et améliorer la latence (p95 ≤ 2.5s).
Audit Complet
Traçabilité de chaque requête : utilisateur, tokens, crédits, modèle, filtres appliqués.
API Compatible OpenAI
Intégration transparente avec vos outils existants grâce à une API style OpenAI.
/v1/chat/completionsInférence LLM/v1/usageConsommation et quotas/v1/modelsModèles disponiblesExemple de requête
curl -X POST https://llm.argy.cloud/v1/chat/completions \
-H "Authorization: Bearer $ARGY_TOKEN" \
-H "X-Tenant-Id: $TENANT_ID" \
-H "Content-Type: application/json" \
-d '{
"model": "auto",
"messages": [{"role": "user", "content": "Hello!"}]
}'Argy Code — Agent de Codage IA gouverné
Un assistant de développement autonome qui respecte vos Un golden path est un chemin de delivery recommandé, standardisé et versionné (IaC, CI/CD, policies, runbooks). Le but : livrer vite, sans drift, avec les mêmes garde‑fous., vos policies et vos périmètres de données.
Argy Code est un agent de codage (CLI + plugins IDE) qui exploite le LLM Gateway et le contexte métier d'Argy pour générer, tester et maintenir du code conforme à vos standards et à vos tenants.
Online-Only & Sécurisé
Aucune clé API LLM côté client. Toutes les requêtes passent par le LLM Gateway gouverné.
Contexte Métier
Accès aux Un golden path est un chemin de delivery recommandé, standardisé et versionné (IaC, CI/CD, policies, runbooks). Le but : livrer vite, sans drift, avec les mêmes garde‑fous., Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées et sourcées. sur votre documentation, recommandations contextuelles.
Gouvernance Intégrée
Vérification des policies avant chaque action sensible (écriture, commit, PR).
Quality Gates
Exécution automatique des tests, lint et scan de secrets avant tout commit.
Plugins IDE
Extensions pour VS Code, JetBrains (IntelliJ, WebStorm, PyCharm...).
CLI Puissant
Intégration dans vos Un pipeline correspond à une exécution automatisée (build, tests, déploiement, validations). Argy orchestre ces exécutions sur votre CI/CD existant. CI/CD pour l'automatisation avancée.
Catalogue d'Actions
Filesystem
- Lecture/écriture de fichiers
- Recherche dans le code
- Application de patches
Git
- Status et diff
- Commits automatiques
- Création de Pull Requests
Exécution
- Commandes sandboxées
- Tests automatisés
- Builds
Argy Platform
- Récupération des Un golden path est un chemin de delivery recommandé, standardisé et versionné (IaC, CI/CD, policies, runbooks). Le but : livrer vite, sans drift, avec les mêmes garde‑fous.
- Vérification des policies
- Requêtes Le RAG (Retrieval-Augmented Generation) enrichit les requêtes avec des passages issus de vos documents afin de produire des réponses contextualisées et sourcées.
Workflow de l'Agent
Argy Code suit une machine à états gouvernée pour une génération de code sûre et auditable.
Avec boucles d'itération et portes de confirmation utilisateur pour les opérations sensibles.
Options de déploiement flexibles
Choisissez le modèle adapté à vos contraintes de sécurité, conformité et souveraineté.
SaaS (Cloud Managé)
Démarrez immédiatement sur une infrastructure Azure managée. Zéro maintenance, mises à jour automatiques.
- Hébergement Azure en Europe (conformité RGPD)
- SLA 99.9% de disponibilité
- Mises à jour automatiques et transparentes
- Support inclus selon votre plan
Hybride (Agent Self-Hosted)
Control Plane SaaS + agents déployés chez vous pour exécuter les actions sensibles.
- Agents docker légers déployés dans votre réseau
- Connexion sortante uniquement (HTTPS/gRPC)
- Accès direct à vos ressources internes
- Logs streamés en temps réel vers Argy
- Disponible à partir du plan Growth
Enterprise (LLM Gateway On-Premise)
Déployez le LLM Gateway dans votre infrastructure pour garder vos données IA internes.
- LLM Gateway déployé chez vous
- Vos clés API LLM restent dans votre périmètre
- PostgreSQL et Redis fournis par vous
- Audit complet des requêtes IA
- Option on-prem complet (Enterprise)
Architecture SaaS (vue d’ensemble)
Argy opère un control plane managé en Europe, avec des points d’entrée uniques vers vos services et vos modèles IA.
Haute disponibilité & continuité
Argy est conçu pour rester disponible et souverain, même en cas d’incident régional.
Flux réseau à ouvrir
Pour un déploiement hybride ou on-premise, voici les flux à autoriser.
| Source | Destination | Port | Protocol | Direction | Description |
|---|---|---|---|---|---|
Agent Argy (votre infra) | api.argy.cloud | 443 | HTTPS/gRPC | Sortant | Communication Agent → Control Plane Argy |
Agent Argy (votre infra) | Vos ressources internes | Variable | Variable | Interne | Exécution des actions (Terraform, K8s, Git...) |
LLM Gateway (si on-premise) | api.openai.com / api.anthropic.com | 443 | HTTPS | Sortant | Appels vers les fournisseurs LLM |
LLM Gateway (si on-premise) | api.argy.cloud | 443 | HTTPS | Sortant | Synchronisation quotas et audit |
Sécurité & Conformité
Une plateforme conçue pour les environnements réglementés.
SSO & MFA
Intégration Azure AD, Okta, Google Workspace (SAML 2.0, OIDC) + SCIM. MFA via votre fournisseur SSO.
RBAC Granulaire
6 rôles prédéfinis (Admin, Platform Engineer, PM, User, Approver...) avec principe du moindre privilège.
Audit Trail Immuable
Journalisation complète des actions. Export CSV/JSON pour intégration SIEM.
Isolation Multi-Tenant
Row-Level Security PostgreSQL, cache Redis isolé, RAG avec ACL par tenant.
Gestion des Secrets
Intégration Vault, Azure Key Vault, AWS Secrets Manager. Aucun secret en clair.
Policy-as-Code
Règles OPA/Kyverno appliquées automatiquement. Validation pré-déploiement.
Conformité & Certifications
99.9%
SLA de disponibilité
< 2.5s
Latence p95 (LLM Gateway)
100%
Données hébergées en UE
Des automatisations consommables en self‑service.
Une vue claire de ce que vos équipes peuvent automatiser — delivery, sécurité, run et gouvernance.
Provisioning & environnements
Créer des environnements cohérents (réseau, compute, Kubernetes, bases de données, secrets) à partir de standards d’entreprise.
CI/CD & release
Déclencher, paramétrer et industrialiser vos pipelines pour livrer plus vite, avec des étapes identiques entre équipes.
Sécurité & conformité
Intégrer des contrôles de sécurité et de conformité directement dans les flux, avec des garde‑fous par défaut.
Observabilité & SRE
Standardiser la mise en place de la supervision, des alertes et des routines opérationnelles dès le premier déploiement.
Documentation & communication
Générer de la documentation et notifier automatiquement les équipes et parties prenantes après chaque action.
Gouvernance & approbations
Mettre en place des workflows d’approbation, de traçabilité et de contrôle d’accès adaptés à votre organisation.
Cas d’usage
Des scénarios concrets, orientés outcomes : vitesse, autonomie, gouvernance et fiabilité.
Industrialiser DevSecOps (premier cas d'usage)
La sécurité arrive trop tard : checklist, exceptions et rework en fin de cycle.
- • Moins de rework
- • Décisions explicites
- • Maturité mesurable
Gouverner l'IA d'entreprise
Prolifération des POC, clés éparpillées, coûts et risques difficiles à piloter.
- • Adoption IA maîtrisée
- • Traçabilité complète
- • Indépendance fournisseurs
Créer des assistants et agents IA
Chaque équipe expérimente ses propres agents sans cadre commun ni contrôle des données.
- • Mise en prod accélérée
- • Workflows réutilisables
- • Confidentialité préservée
Tarifs simples et transparents
Choisissez le plan adapté à vos besoins. Évoluez à votre rythme.
SaaS managé pour tous les plans. Hybride dès Growth. LLM Gateway on-prem en Enterprise.
Free
- Console Argy complète
- Catalogue de modules standard
- Intégrations Git (GitHub, GitLab)
Growth
- Tout le plan Starter +
- Argy Code illimité
- Module Studio complet
Enterprise
- Tout le plan Growth +
- LLM Gateway on-premise
- Agents privés self-hosted
Pas de carte bancaire requise • -15% sur les plans annuels • Résiliable à tout moment
FAQ
Les questions qu’on nous pose le plus souvent.
Argy remplace‑t‑il vos outils existants ?⌃
Non. Argy s’interface avec votre toolchain (Git, CI/CD, cloud, Kubernetes, observabilité, secrets). Le rôle d’Argy est d’orchestrer et de standardiser via des modules versionnés, pas de réinventer chaque brique.
Qu’est‑ce qu’un ‘module’ Argy ?⌃
Un module encapsule un workflow opérationnel : schéma de configuration, templates (IaC/CI), politiques/guardrails, documentation et runbooks. Il est réutilisable, extensible et appliqué par environnement.
Quelle est la différence avec une IDP ‘maison’ ?⌃
Argy apporte un operating layer SaaS : catalogue, gouvernance, versioning, expérience self‑service et pilotage. Vous gardez vos choix techniques et vos outils — Argy accélère la standardisation et l’adoption.
Comment démarrer en quelques semaines ?⌃
On commence par 1 à 2 golden paths prioritaires (ex. microservice + env éphémères). Ensuite, on étend le catalogue et on ajoute gouvernance/observabilité de manière incrémentale.
Quel est le rôle de l'IA dans Argy ?⌃
L'IA assiste les équipes plateforme et les développeurs dans la configuration des modules, la détection de drifts par rapport aux standards (Golden Paths) et la génération automatisée de runbooks opérationnels.
Argy est-il adapté aux grandes entreprises ?⌃
Absolument. Argy a été conçu pour l'échelle, avec une gestion fine du RBAC, du SSO, des audit logs et un support dédié. C'est la solution ultime pour les organisations qui veulent industrialiser leur DevSecOps.
SaaS Européen
Conforme RGPD & hébergé en UE
Pas de Lock-in
Basé sur des standards ouverts
API-First
Tout est automatisable
Prêt à transformer l’IA en OS d’entreprise ?
Partagez votre contexte (toolchain, contraintes, organisation). Nous préparons un plan de déploiement pragmatique pour une IA gouvernée, scalable et souveraine.