Les critères d’acceptation : le maillon (trop) souvent oublié des User Stories

Parmi les erreurs les plus fréquentes dans la rédaction des User Stories, la négligence des critères d’acceptation figure en tête de liste. Pourtant, ces derniers sont essentiels pour garantir une compréhension partagée entre les développeurs, les testeurs et le Product Owner. Et surtout, ils conditionnent la validation fonctionnelle du livrable.
Un constat alarmant : 86 % des US n’ont pas de critères d’acceptation
Lors de nos interventions, nous avons constaté que 86 % des User Stories analysées ne contenaient aucun critère d’acceptation. Elles se limitaient à une simple description, parfois agrémentée de commentaires issus d’échanges informels.
La première question est simple : comment l’équipe valide-t-elle l’US ? Sur quelles bases s’appuie-t-on pour dire « c’est fait » ou « c’est conforme aux attentes » ?
Ce que doit contenir une User Story de qualité
Une User Story bien rédigée doit impérativement inclure deux éléments :
- Une description claire, compréhensible par l’ensemble de l’équipe (et pas seulement par les développeurs).
- Des critères d’acceptation, formulés de manière fonctionnelle, décrivant ce que le système doit faire (et ne pas faire).
Attention : les critères d’acceptation ne sont pas des tests d’acceptance. Ce sont des conditions de validation fonctionnelles, pas des cas de test détaillés ni des instructions techniques.
Pourquoi les critères d’acceptation sont essentiels ?
Les critères d’acceptation jouent un rôle central dans la qualité logicielle :
- Pour les développeurs, ils clarifient les objectifs de l’US et réduisent les zones d’ombre.
- Pour les testeurs, ils permettent d’identifier les éléments à tester, les comportements attendus, les cas limites…
- Pour le Product Owner, ils sécurisent la validation du périmètre fonctionnel.
En somme, ils favorisent un alignement clair des attentes.
Bonnes pratiques pour rédiger des critères d’acceptation efficaces
Voici quelques conseils concrets pour améliorer la qualité de vos critères d’acceptation :
- Formulez-les en termes de comportements attendus, en vous posant la question : que doit faire le système dans ce cas précis ?
- Décrivez également ce qu’il ne doit pas se produire, comportements interdits, messages d’erreur, accès restreints…
- Évitez les instructions techniques : les critères d’acceptation ne sont pas une notice pour les développeurs.
- Limitez-vous à 6 à 9 critères maximum par US. Au-delà, c’est souvent le signe que votre User Story est trop complexe.
- Plus de 10 critères ? Scindez votre US en plusieurs stories plus simples et mieux ciblées.
Et vous, avez-vous déterminé des critères d’acceptation à vos US ?
La réalisation d’un audit de maturité avec SSID vous permet d’avoir une vision claire de votre projet et de déterminer vos axes d’amélioration pour atteindre vos objectifs. SSID vous accompagne également dans la réalisation d’un plan d’action afin de mettre en place nos préconisations efficacement dans votre équipe. Alors, on s’appelle ?
Cet article fait référence à un webinaire sur « les 10 commandements pour livrer de la non-qualité en production ». À retrouver en replay sur notre chaîne YouTube.
Retrouvez les autres commandements sur notre blog :
- La pyramide des tests : élément incontournable à respecter dans vos projets !
- Pourquoi laisser de côté les risques produit peut nuire à votre projet IT ?
- L’Analyse d’Impact : Clé de l’Agilité et de la Qualité Logicielle
- L’agilité en V : une approche hybride pour une meilleure qualité logicielle
- La Culture de la Qualité : pourquoi un testeur dédié est indispensable ?
- Pourquoi il est urgent d’intégrer les testeurs dès le début du cycle de développement
Envie d'une autre lecture ?
Fanny Velsin et son « Mag du Testeur » dans QG Qualité ce mois-ci !
500 J’aime, 91 commentaires et 87 republications à ce jour pour un post LinkedIn sur la création et la sortie du premier numéro du Mag du Testeur. C’est à Fanny Velsin que l’on doit ce petit bijou de viralité dans notre communauté du testing francophone. Et c’est elle que l’on reçoit dans ce nouvel épisode de QG Qualité.
Automatisation des tests : la liberté sans cadre mène au chaos
Dans la course à la rapidité et à la réactivité, l’automatisation des tests est devenue incontournable. Pourtant, trop souvent, elle est mise en œuvre sans vision globale ni stratégie claire, ce qui mène inévitablement à l’échec.
Benjamin Butel – co-organisateur de la PTC et Software Engineering Manager chez Ilek pour QG Qualité !
Dans ce nouvel épisode de QG Qualité, on prend le virage des start-ups avec Benjamin Butel, Software Engineering Manager chez Ilek, scale-up française de l’énergie. Fort de 18 ans d’expérience dans la qualité logicielle, Benjamin a traversé les mondes de l’ESN, du médical, de la défense, de l’énergie… Avant de plonger dans la vitesse d’exécution des environnements agiles comme Klaxoon et Ilek.


