EU AI Act 2026
Le guide complet pour les entreprises.
Tout ce qu'un dirigeant de PME, d'ETI ou de profession réglementée doit savoir sur le Règlement IA européen (UE 2024/1689) : calendrier officiel, qui est concerné, classification du risque, sanctions, plan d'action en 5 étapes. Référencé sur les sources primaires de la Commission européenne, du AI Office et de la CNIL.
Prochaine échéance majeure
J–98 avant le 2 août 2026
Mise en application complète des obligations GPAI pour les modèles publiés avant le 2 août 2025.
1. L'AI Act en 90 secondes
Le Règlement (UE) 2024/1689, dit EU AI Act, est le premier cadre juridique mondial qui régule l'intelligence artificielle de manière transversale. Il a été adopté par le Parlement européen le 13 mars 2024, publié au Journal officiel de l'UE le 12 juillet 2024, et est entré en vigueur le 1er août 2024.
Sa logique est graduée par le risque: plus un système d'IA peut affecter la sécurité, les droits fondamentaux ou la santé des personnes, plus les obligations sont strictes. Quatre niveaux : risque inacceptable (interdit), high-risk (encadrement strict), risque limité (transparence), risque minimal (libre).
Le règlement s'applique à tout acteur qui développe, distribue, importe ou déploie un système d'IA sur le marché de l'Union européenne— y compris les fournisseurs établis hors UE dès lors que la sortie du système est utilisée dans l'UE. Il complète le RGPD sans le remplacer ; les deux textes s'appliquent en cumul.
Concrètement: si vous utilisez ChatGPT au travail, vous êtes déployeur. Si vous intégrez un modèle dans un produit que vous vendez, vous êtes fournisseur. Si vous fine-tunez un modèle au point d'en modifier substantiellement les capacités, vous pouvez devenir fournisseur GPAI vous-même. Chaque rôle implique des obligations différentes.
2. Le calendrier officiel 2024-2030
L'application n'est pas immédiate : le règlement prévoit un échelonnement sur trois ans pour laisser aux entreprises le temps de se mettre en conformité. Voici les jalons à connaître par cœur.
Entrée en vigueur
Le règlement entre formellement en vigueur. Aucune obligation directe à cette date — début du compte à rebours pour les paliers suivants.
Pratiques interdites + littéracie IA
Les 8 catégories de pratiques interdites de l'Art. 5 deviennent applicables. L'obligation de littéracie IA (Art. 4) s'applique : tout déployeur doit former ses collaborateurs aux risques et bonnes pratiques de l'IA.
Obligations GPAI + gouvernance
Les obligations pour les fournisseurs de modèles GPAI (Art. 53) s'appliquent aux modèles mis sur le marché à partir de cette date. Mise en place de l'AI Office, des autorités nationales compétentes et du Conseil de l'IA.
Application générale + GPAI rétroactif
Application générale du règlement à tous les systèmes d'IA, à l'exception des high-risk Annexe I. Les modèles GPAI déjà mis sur le marché avant le 2 août 2025 doivent être mis en conformité à cette date. C'est la principale échéance pour la grande majorité des entreprises.
High-risk Annexe I (machines, jouets, médical...)
Les systèmes IA intégrés dans des produits déjà soumis à harmonisation UE (Annexe I : machines, jouets, dispositifs médicaux, équipements pression, ascenseurs, équipements radio, etc.) doivent être conformes.
Systèmes IA des autorités publiques
Les systèmes IA déjà déployés par les autorités publiques avant l'entrée en vigueur doivent être mis en conformité. Échéance ultime du règlement.
3. Êtes-vous concerné ? Les 4 rôles définis par l'AI Act
L'AI Act distingue quatre rôles juridiques. Vos obligations dépendent du rôle que vous jouez — et vous pouvez en cumuler plusieurs. La toute première étape de mise en conformité consiste à cartographier votre rôle pour chaque système IA que vous opérez.
Fournisseur (provider)
Vous développez ou faites développer un système IA et le mettez sur le marché sous votre nom. Obligations les plus lourdes : conception, gestion du risque, documentation Art. 9-15, déclaration UE de conformité, marquage CE, surveillance post-marché.
Déployeur (deployer)
Vous utilisez un système IA dans le cadre d'une activité professionnelle. C'est le rôle de la grande majorité des PME et ETI. Obligations : usage selon notice du fournisseur, supervision humaine, monitoring, conservation des logs (high-risk), FRIA, transparence vis-à-vis des personnes (Art. 50).
Importateur
Vous importez dans l'UE un système IA d'un fournisseur établi hors UE. Vous vérifiez que le fournisseur a respecté ses obligations, conservez la documentation, et coopérez avec les autorités.
Distributeur
Vous mettez à disposition sur le marché de l'UE un système IA sans en être fournisseur ni importateur. Vous vérifiez la documentation et le marquage CE avant distribution.
Cas pratique fréquent: un cabinet d'expertise comptable qui utilise un outil de pré-saisie de pièces basé sur GPT-4 est déployeur de cet outil. Si ce même cabinet construit un agent custom qui automatise les déclarations TVA et le revend à ses confrères, il devient fournisseurpour cet agent. Deux rôles, deux paquets d'obligations distincts.
4. Les 4 niveaux de risque
La pierre angulaire de l'AI Act est sa classification graduée. Chaque système d'IA tombe dans un et un seul niveau, et c'est ce niveau qui détermine les obligations.
Risque inacceptable
Qui : Pratiques listées Art. 5
Régime : Interdites. 8 cas d'usage strictement prohibés (voir section 5). Sanction maximale : 35 M€ ou 7 % du CA.
Risque élevé (high-risk)
Qui : Annexe I + Annexe III
Régime : Encadrement strict. Documentation Art. 9-15, supervision humaine, registre, conservation logs, FRIA, déclaration UE conformité, marquage CE pour Annexe I.
Risque limité
Qui : Chatbots, deepfakes, IA générative
Régime : Obligation de transparence (Art. 50). L'utilisateur doit savoir qu'il interagit avec une IA. Le contenu généré doit être identifiable comme tel.
Risque minimal
Qui : Tout le reste
Régime : Aucune obligation spécifique au-delà des règles générales (RGPD, droit du travail, droit de la consommation). Représente la majorité des usages bureautiques.
5. Les 8 pratiques interdites (Art. 5)
Depuis le 2 février 2025, les pratiques suivantes sont absolument prohibées sur le marché européen. Diamond Solutions ne livrera jamais aucune mission qui s'y rattache.
- Manipulation cognitive subliminale ou techniques trompeuses qui altèrent matériellement le comportement et causent un préjudice.
- Exploitation des vulnérabilités liées à l'âge, au handicap ou à la situation socio-économique.
- Notation sociale (social scoring) par les autorités publiques sur la base du comportement social ou de caractéristiques personnelles.
- Évaluation du risque criminel d'une personne physique fondée uniquement sur le profilage.
- Création ou élargissement de bases de reconnaissance faciale par scraping non ciblé d'Internet ou de la vidéosurveillance.
- Reconnaissance d'émotions sur le lieu de travail ou dans l'éducation (sauf usages médicaux ou de sécurité strictement encadrés).
- Catégorisation biométrique inférant l'origine, les opinions politiques, l'appartenance syndicale, les convictions religieuses ou philosophiques, la vie sexuelle ou l'orientation sexuelle.
- Identification biométrique à distance « en temps réel » dans l'espace public à des fins répressives (sauf exceptions strictement encadrées : recherche victimes, menace imminente, infractions graves listées).
Cas piège fréquent
Un éditeur de logiciel RH qui ajoute une fonctionnalité de « détection d'émotion » à partir de la voix ou du visage des candidats lors des entretiens vidéo bascule directement en pratique interdite. Sanction théorique maximale : 7 % du CA mondial. Les RH françaises confondent souvent cette pratique avec « l'analyse de sentiment textuel » qui, elle, n'est pas interdite.
6. Les obligations GPAI (Art. 53)
Un GPAI(General-Purpose AI Model) est un modèle entraîné avec une grande quantité de données et capable d'exécuter un large éventail de tâches distinctes, indépendamment de la manière dont il est mis sur le marché. En pratique : tous les LLM frontière (GPT-4, Claude, Gemini, Mistral Large) et la plupart des modèles open-source à plus de 7 milliards de paramètres.
Les fournisseurs de GPAI doivent fournir :
- Documentation technique (Annexe XI) : capacités, limites, données d'entraînement, énergie consommée, évaluations.
- Information aux fournisseurs aval (Annexe XII) : ce qu'ils doivent savoir pour intégrer le modèle conformément.
- Politique de respect du droit d'auteur — y compris pour le scraping de contenu protégé.
- Résumé suffisamment détaillé du contenu utilisé pour l'entraînement (template publié par l'AI Office).
Pour les GPAI à risque systémique(modèles dépassant 10²⁵ FLOPs cumulatifs au cours de l'entraînement, ou désignés comme tels par la Commission), des obligations additionnelles s'ajoutent : évaluation de modèle selon protocoles standardisés, mitigation des risques systémiques, signalement des incidents graves à l'AI Office, cybersécurité du modèle.
Exception open-source: les modèles publiés sous licence libre et gratuite, dont les poids et l'architecture sont publics, bénéficient d'exemptions partielles — sauf si le modèle est à risque systémique, auquel cas toutes les obligations s'appliquent.
7. Les obligations high-risk (Art. 9-15)
Si votre système tombe en high-risk (Annexe I produits, ou Annexe III usages), voici le pipeline complet de conformité à mettre en place. C'est le cœur du Compliance Pack que nous proposons.
Art. 9
Système de gestion du risque
Processus continu d'identification, d'analyse et de mitigation des risques connus et raisonnablement prévisibles.
Art. 10
Gouvernance des données
Critères de qualité des datasets d'entraînement, de validation et de test : pertinence, représentativité, absence d'erreurs et de biais.
Art. 11
Documentation technique
Établir et maintenir une documentation conforme à l'Annexe IV — disponible 10 ans après mise sur le marché.
Art. 12
Conservation des logs
Logging automatique des événements pertinents pendant l'utilisation, durée minimale 6 mois (sauf disposition contraire).
Art. 13
Transparence et information aux déployeurs
Notice d'utilisation claire incluant capacités, limites, performances, supervision humaine recommandée.
Art. 14
Supervision humaine
Mesures techniques et organisationnelles pour qu'une personne physique puisse comprendre, surveiller et, le cas échéant, désactiver le système.
Art. 15
Exactitude, robustesse et cybersécurité
Niveaux appropriés tout au long du cycle de vie. Résistance aux erreurs, défaillances, et manipulations adverses.
Art. 27
FRIA — analyse d'impact droits fondamentaux
Pour déployeurs publics et certains privés : évaluer les risques pour les droits fondamentaux avant mise en service.
8. Les sanctions
Le barème de l'Art. 99 est calqué sur le RGPD mais durci pour les violations les plus graves. Le montant retenu est le plus élevéentre la somme fixe et le pourcentage du CA mondial consolidé de l'exercice précédent.
Les PME et startups bénéficient d'une atténuation : pour ces structures, c'est le plus basdes deux montants qui s'applique. Les autorités tiennent également compte de la nature, gravité, durée du manquement, du nombre de personnes affectées, du caractère intentionnel, des mesures correctives prises et de la coopération avec l'autorité (Art. 99.7).
9. AI Act vs RGPD : qui régule quoi
La confusion la plus fréquente que nous rencontrons sur le terrain. Les deux textes coexistent, ne se substituent pas l'un à l'autre, et s'appliquent souvent en cumul.
10. ChatGPT, Claude, Copilot : où vous mettent-ils en risque ?
Utiliser un assistant IA généraliste en entreprise n'est pas interdit. Mais cinq points de vigilance reviennent dans tous les audits que nous menons.
- Transferts hors UE— par défaut, OpenAI, Anthropic et Microsoft Copilot opèrent sur infra US. Tout prompt envoyé sort de l'UE. Pour le RGPD : clauses contractuelles types (CCT) signées avec le fournisseur sont obligatoires, et l'analyse d'impact côté client doit en tenir compte.
- Confidentialité du prompt— un prompt qui contient le chiffre d'affaires non-publié, des données de santé d'un patient, ou des informations couvertes par le secret professionnel sort potentiellement du contrôle de l'entreprise. Les CGU des fournisseurs précisent quand le prompt sert à entraîner — et les politiques évoluent souvent.
- Décisions automatisées— si la sortie du modèle alimente une décision affectant une personne (RH, crédit, prestations), l'Art. 22 RGPD impose information, droit d'opposition et intervention humaine. L'AI Act ajoute la qualification high-risk si le cas tombe en Annexe III.
- Hallucinations sur sujet réglementaire— un modèle généraliste qui invente une jurisprudence, un protocole médical ou une norme technique reste de la responsabilité de l'utilisateur. La documentation Art. 11 et la supervision humaine Art. 14 deviennent indispensables si l'usage est high-risk.
- Absence de logs— pour un système high-risk, l'Art. 12 exige la conservation automatique des événements pendant l'utilisation. Un usage de ChatGPT en interface web standard ne génère pas ces logs côté client. Solution : passer par une API avec logging maîtrisé, ou déployer en self-hosted.
11. ISO 42001 : pourquoi c'est complémentaire
L'ISO/IEC 42001:2023est la norme internationale pour les systèmes de management de l'intelligence artificielle. Elle est volontaire — l'AI Act ne l'impose pas — mais elle structure exactement les processus que le règlement exige.
Concrètement, ISO 42001 impose un cycle PDCA (Plan-Do-Check-Act) appliqué à l'IA : politique IA, gouvernance, gestion du risque, supervision humaine, gestion des incidents, amélioration continue. Une certification accordée par un organisme accrédité COFRAC simplifie considérablement la démonstration de conformité AI Act lors d'un contrôle.
Pour qui ?
ETI, professions réglementées (santé, juridique, financier), éditeurs de logiciels intégrant de l'IA, prestataires d'IA en B2B.
Combien ?
Audit blanc + accompagnement : 6 000 - 15 000 € pour une structure < 100 personnes. Audit de certification par organisme accrédité : 5 000 - 15 000 € additionnels selon scope.
Délai ?
6 à 12 mois entre la décision et l'obtention. La phase de mise en place du SMS-IA prend l'essentiel du temps.
Effet AI Act ?
ISO 42001 ≠ certification AI Act, mais 80 % des exigences de l'AI Act sont couvertes par 42001. Lors d'un contrôle AI Office, présenter un certificat 42001 valide raccourcit la procédure.
12. Plan d'action en 5 étapes
Ce que nous appliquons sur chaque mission Compliance Pack. Ordonné, mesurable, opposable à un contrôle.
Étape 1 — Inventaire et cartographie
Recenser tous les systèmes IA en usage : SaaS (ChatGPT, Copilot, Cursor, Notion AI…), agents internes, modèles intégrés dans des produits, IA "cachée" dans des outils tiers (CRM, ATS, scoring crédit). Pour chacun : fournisseur, finalité, données injectées, rôle Diamond Solutions/client (provider/deployer), volumétrie. Livrable : registre AI Act au format Excel ou Notion.
Étape 2 — Classification du risque
Pour chaque système, déterminer le niveau de risque selon les Art. 5, Annexe I, Annexe III, et l'usage limité (chatbot, IA générative). Documenter le raisonnement par écrit. Identifier les pratiques interdites (à arrêter immédiatement) et les systèmes high-risk (à encadrer dans les 6 mois).
Étape 3 — Documentation et politiques
Pour les high-risk : documentation Annexe IV (méthodologie, datasets, performance, supervision humaine, robustesse), politique d'utilisation interne, procédure de gestion des incidents, contrats DPA + clauses AI Act avec sous-traitants. Pour les autres : politique IA générale, charte d'usage des outils GenAI.
Étape 4 — Litéracie IA
Formation obligatoire (Art. 4) de tous les collaborateurs qui interagissent avec des systèmes IA. Adaptée à leur niveau (1 h pour utilisateurs occasionnels, 1 jour pour power users, 2 jours pour responsables conformité). Comptes-rendus signés à conserver.
Étape 5 — Suivi et amélioration continue
Revue trimestrielle du registre, veille réglementaire (actes d'exécution AI Office, jurisprudence, recommandations CNIL), tests de drift sur les systèmes high-risk, audit annuel signé. Ce suivi est la ligne récurrente de notre offre (390 €/mois).
13. Foire aux questions
L'EU AI Act, c'est quoi exactement et quand entre-t-il en vigueur ?+
L'EU AI Act (Règlement UE 2024/1689) est le premier cadre juridique mondial dédié aux systèmes d'intelligence artificielle. Il est entré en vigueur le 1er août 2024. Son application s'étale par paliers : les pratiques interdites (Art. 5) s'appliquent depuis le 2 février 2025, les obligations pour les modèles d'IA à usage général (GPAI) depuis le 2 août 2025 (avec transition jusqu'au 2 août 2026 pour les modèles déjà sur le marché), et les obligations complètes pour les systèmes high-risk au 2 août 2027.
Mon entreprise utilise ChatGPT, Claude ou Copilot. Suis-je concerné par l'AI Act ?+
Oui, dans la plupart des cas. Si vous déployez un système d'IA dans le cadre de votre activité professionnelle dans l'UE, vous êtes considéré comme un déployeur (deployer) au sens de l'AI Act. Les obligations dépendent du cas d'usage : un chatbot de service client n'a que les obligations de transparence Art. 50 (signaler que c'est une IA), tandis qu'un outil de présélection de CV tombe en high-risk et exige documentation, supervision humaine, registre, et FRIA (analyse d'impact sur les droits fondamentaux).
Quelle est la différence entre AI Act et RGPD ?+
Le RGPD régule le traitement des données personnelles (collecte, conservation, droits des personnes). L'AI Act régule les systèmes d'IA quelle que soit la nature des données — y compris les données non personnelles, anonymisées, ou techniques. Les deux textes coexistent : un système IA qui traite des données personnelles est soumis aux deux. En pratique : le RGPD répond à "que faites-vous avec ces données ?" et l'AI Act à "comment l'IA prend-elle ses décisions et avec quelles garanties ?".
Mon entreprise est une PME / TPE. Suis-je vraiment concerné ?+
Oui, l'AI Act n'a pas de seuil d'effectif ou de chiffre d'affaires. La taille de l'entreprise n'exonère personne. Le règlement prévoit néanmoins des aménagements : accès gratuit aux sandboxes réglementaires, modèles de documentation simplifiés pour les PME, et adaptation des sanctions à la capacité contributive (Art. 99.7). Mais l'obligation existe — un cabinet d'expertise comptable de 15 personnes utilisant un outil de scoring crédit est tout autant soumis qu'une banque de 10 000 salariés.
Quelles sont les sanctions en cas de non-conformité ?+
Le barème est calqué sur le RGPD mais plus sévère pour les violations graves. Pratiques interdites Art. 5 : jusqu'à 35 M€ ou 7 % du CA mondial annuel (le plus élevé). Manquement aux obligations GPAI ou high-risk : jusqu'à 15 M€ ou 3 % du CA. Information incorrecte aux autorités : jusqu'à 7,5 M€ ou 1 % du CA. Les autorités nationales (en France : la CNIL pour les usages liés aux données personnelles, la DGCCRF, l'ANSSI selon le secteur) peuvent enquêter, exiger documentation, et sanctionner.
Mon système d'IA est-il high-risk ?+
Un système est high-risk s'il relève soit (a) d'un produit déjà soumis à harmonisation UE listé en Annexe I (machines, jouets, dispositifs médicaux, ascenseurs, etc.), soit (b) de l'un des 8 domaines listés en Annexe III : biométrie, infrastructures critiques, éducation, emploi/RH, accès aux services essentiels (crédit, prestations sociales, urgence), maintien de l'ordre, migration/asile, justice/processus démocratiques. La majorité des cas d'usage bureautique (rédaction, support client basique, knowledge management) ne sont PAS high-risk — mais leur classification doit être documentée.
Qu'est-ce qu'un GPAI et qui est concerné par les obligations Art. 53 ?+
GPAI signifie General-Purpose AI Model — un modèle entraîné avec une grande quantité de données, capable de réaliser un large éventail de tâches distinctes (typiquement les LLM frontière : GPT-4, Claude, Gemini, Mistral Large, Llama 3 70B+). Les fournisseurs de GPAI doivent fournir documentation technique, résumé du corpus d'entraînement, politique de respect du droit d'auteur, et — pour les GPAI à risque systémique (>10²⁵ FLOPs d'entraînement) — évaluation de modèle, mitigation de risques systémiques, signalement d'incidents. Vous êtes concerné directement si vous publiez un modèle de fondation ; indirectement si vous l'utilisez (exigence de chaîne documentaire).
Que veut dire "modification substantielle" d'un GPAI et qu'est-ce que ça change ?+
Si vous fine-tunez un modèle GPAI au point de modifier substantiellement ses capacités ou son profil de risque, vous pouvez devenir vous-même fournisseur GPAI au sens de l'Art. 53 — avec les obligations associées. La ligne exacte (combien de tokens, quel changement de capacité) est en cours de précision par l'AI Office via des actes d'exécution. Recommandation prudente : tout fine-tuning lourd (>1B tokens, ajout d'une capacité non présente) doit être documenté comme s'il créait un nouveau modèle.
L'AI Act exige-t-il que mes données restent en Europe ?+
L'AI Act lui-même n'impose pas la résidence des données ; c'est le RGPD qui le fait pour les données personnelles, et certaines réglementations sectorielles (HDS pour la santé, DGSE/DGSI/SGDSN pour la défense, secret bancaire, secret professionnel des avocats). Cependant, une exécution sur sol UE ou air-gapped sur infra cliente écarte les risques de transfert hors UE et de sollicitation par autorités tierces (Cloud Act US, FISA Section 702). C'est ce que résout AI On-Prem dans nos services.
L'IA générative dans nos process internes (rédaction, codage, traduction) — qu'est-ce qu'on doit faire concrètement ?+
Quatre actions minimales : (1) tenir un registre des systèmes IA utilisés (fournisseur, modèle, finalité, données injectées) ; (2) former vos collaborateurs à la litéracie IA — c'est une obligation explicite de l'Art. 4 depuis le 2 février 2025 ; (3) évaluer les cas d'usage qui touchent décisions RH, accès au crédit, ou tout autre cas Annexe III ; (4) si votre usage relève de high-risk, mettre en place documentation, supervision humaine, et logging conformes Art. 9-15. Pour le reste (usage non high-risk), une politique IA interne + formation suffisent.
Qu'est-ce que l'ISO 42001 et faut-il la certification ?+
L'ISO/IEC 42001:2023 est la norme internationale pour les systèmes de management de l'IA — l'équivalent ISO 27001 pour la cybersécurité, mais pour l'IA. Elle est volontaire, non imposée par l'AI Act. Cependant, une certification ISO 42001 simplifie considérablement la démonstration de conformité AI Act, car elle structure les processus que le règlement exige (gouvernance, gestion du risque, supervision humaine, documentation). Pour un audit régulateur, présenter un certificat 42001 valide raccourcit la procédure. Recommandée pour les ETI et professions réglementées ; optionnelle pour les PME.
Que prévoir si on est contrôlé par la CNIL ou l'AI Office ?+
Présenter immédiatement : (1) le registre des systèmes IA, (2) la classification du risque par système, (3) la documentation Art. 9-15 pour les systèmes high-risk, (4) les comptes-rendus de formation litéracie IA, (5) les politiques internes (usage IA, gestion des incidents, gestion du risque), (6) les contrats avec sous-traitants (DPA, clauses AI Act), (7) les analyses FRIA si applicables, (8) les logs d'utilisation des systèmes high-risk. Plus la documentation est tenue à jour en continu, plus le contrôle se passe vite.
Combien coûte une mise en conformité AI Act pour une PME ?+
Pour une PME (10-100 salariés) avec usage standard d'outils IA SaaS, un accompagnement complet va de 4 800 € (audit) à 7 900 € HT (Compliance Pack avec formation et politique). Ajoutez 390 €/mois pour un suivi trimestriel léger qui maintient la documentation à jour au fil des évolutions réglementaires et de votre stack. Pour une ETI ou un usage high-risk, comptez plutôt 15 000 - 30 000 € + maintenance. Le coût d'une non-conformité (sanction, suspension, perte d'image) reste sans commune mesure.
14. Sources officielles
- Règlement (UE) 2024/1689 — texte officiel sur EUR-Lex
- Commission européenne — cadre réglementaire IA
- AI Office — autorité européenne dédiée
- CNIL — page dédiée intelligence artificielle
- ISO/IEC 42001:2023 — norme management de l'IA
- AI Pact — engagement volontaire pré-AI Act
Cette page est mise à jour en continu au fil des actes d'exécution publiés par l'AI Office, des recommandations de la CNIL et de la jurisprudence européenne. Dernière mise à jour : 2026-04-26.
Prêt à passer à l'action ?
Le diagnostic flash de 5 minutes vous donne un score, un plan d'action priorisé en 3 points, et un calendrier réaliste — par email, sans engagement. Si vous souhaitez aller plus loin, réservez un appel de 30 min directement.