Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Azure DevOps Services
Utilisez le Hub d’exécution de test pour suivre l’exécution des tests, analyser les résultats et maintenir la qualité entre les cycles de développement.
Une exécution de test capture l’exécution d’un ou plusieurs cas de test : résultat d’enregistrement, durée et environnement. Le système crée automatiquement des exécutions de test lorsque vous exécutez des cas de test à partir d’un plan de test ou d’un pipeline.
Les séries de tests aident les équipes :
- Surveiller les tendances de qualité : suivez les taux de réussite et la progression des tests au fil du temps.
- Identifiez rapidement les problèmes : régressions, échecs et tests bloqués.
- Conserver l’historique des tests : auditez et analysez les données d’exécution historiques.
Exécutions de test Access
Dans votre projet Azure DevOps, sélectionnez Plans de test>Exécutions.
La page des exécutions de test répertorie toutes les exécutions manuelles et automatisées avec des fonctionnalités de filtrage et de recherche.
Tip
Vous pouvez utiliser l’IA pour vous aider à effectuer cette tâche plus loin dans cet article, ou voir Activer l’aide à l’IA avec Azure DevOps MCP Server pour commencer.
Exécutions de test de recherche et de filtre
Par défaut, le Test Run Hub affiche les exécutions manuelles des sept derniers jours. Utilisez les filtres de liste déroulante pour affiner les résultats par chronologie, type d’exécution et autres attributs.
Le Hub d’exécution de test prend en charge les fonctionnalités de recherche et de filtre suivantes :
- Recherche d’ID d’exécution : entrez un ID d’exécution de test exact pour accéder directement à cette exécution. Une recherche d’ID remplace tous les autres filtres actifs.
- Exécuter la recherche de titre : recherchez par titre de processus. La recherche correspond aux titres d’exécution qui commencent par votre terme de recherche.
- Intervalle de temps : recherchez jusqu’à 90 jours à partir de n’importe quel point dans le temps.
- Filtres persistants : les sélections de filtres et les largeurs de colonne persistent entre les sessions jusqu’à ce que vous les effacez.
Les filtres fonctionnent de manière additive. Le hub d’exécution de test affiche un maximum de 5 000 résultats. Vous pouvez sélectionner et copier du texte à partir de n’importe quel écran pour le partage ou la documentation.
Pour personnaliser les colonnes qui s’affichent :
Sélectionnez les options de colonne.
Choisissez les colonnes souhaitées, puis sélectionnez Appliquer.
Note
La colonne Exécution du pipeline s’applique uniquement aux exécutions automatisées. Il affiche le nom de build pour les exécutions déclenchées par une build et le nom de déploiement pour les exécutions déclenchées par un déploiement.
États d’exécution des tests
L’état d’exécution du test reflète le résultat agrégé de ses cas de test :
| State | Description |
|---|---|
| Completed | Tous les cas de test réussis ou tous les autres cas réussis après l’exclusion des cas non applicables . |
| Besoin d'enquête | Un ou plusieurs cas de test ont échoué ou ont été bloqués. |
| En cours | Un ou plusieurs cas de test sont suspendus. L’exécution peut être reprise. |
Afficher les détails de l’exécution de test
Sélectionnez une exécution de test pour ouvrir sa page de détails. Les détails de l’exécution incluent un résumé, un tableau de bord d’analyse et des résultats de cas de test individuels.
Résumé de l’exécution
L’onglet Résumé affiche le taux de réussite global, les résultats de cas de test, les métadonnées d’exécution et toutes les pièces jointes ou journaux capturés pendant l’exécution.
- Taux de réussite : pourcentage de cas exécutés qui ont réussi. Les cas marqués Non applicables sont exclus du calcul.
-
Commentaires : commentaires au niveau de l’exécution avec mise en forme Markdown. Étiqueter les utilisateurs avec
@, lier des éléments de travail avec#, et référencer des demandes de tirage avec!. - Résultats de cas de test : résultat de chaque cas de test : réussi, échec ou non exécuté.
- Exécuter les métadonnées : qui a exécuté le test, lorsqu’il a été exécuté et quel environnement a été utilisé.
- Pièces jointes et fichiers journaux : captures d’écran, fichiers journaux et autres artefacts capturés pendant l’exécution.
Tableau de bord Analytique
Chaque série de tests inclut un tableau de bord d’analyse qui décompose les résultats par résultat, priorité, configuration, type d’échec et résolution. Sélectionnez une étiquette de sous-catégorie sur une vignette pour filtrer le tableau de bord sur cette répartition spécifique.
Naviguer des journaux de pipeline vers les exécutions de test
Pour les exécutions automatisées déclenchées par un pipeline, vous pouvez passer directement des détails de l’exécution du pipeline au résumé de l’exécution de test. Sélectionnez le lien des résultats de test dans les journaux de pipeline pour ouvrir l’exécution correspondante dans le hub d’exécution de test.
Gérer les pièces jointes
Pour ajouter des pièces jointes à une exécution de test :
Dans les détails de l’exécution du test, sélectionnez + Ajouter des pièces jointes.
Sélectionnez vos fichiers et chargez-les.
Vous pouvez ensuite afficher, télécharger ou supprimer des pièces jointes.
Sélectionnez un nom de fichier pour afficher un aperçu des images et des fichiers PDF inline.
Note
Les pièces jointes au niveau de l’exécution sont distinctes des pièces jointes de résultat de test. Pour afficher les fichiers spécifiques aux résultats, ouvrez les détails du résultat et sélectionnez l’onglet Pièces jointes .
Utiliser les résultats de cas de test
Passez en revue les résultats de test individuels et personnalisez l’affichage des colonnes à partir de la section résultats de cas de test. Pour les exécutions automatisées, le filtre De résultat par défaut est défini sur Échec ou Abandonné pour accélérer le triage. Pour les exécutions manuelles, tous les résultats sont affichés.
Lier les résultats aux éléments de travail
Pour associer des résultats de test à des bogues ou à d’autres éléments de travail :
Activez les cases à cocher pour les cas de test que vous souhaitez lier.
Créez un bogue ou un lien vers une tâche existante.
Lier des éléments de travail entre des projets
Pour rechercher et lier des bogues ou des éléments de travail qui vivent dans un projet différent du résultat du test :
- Ouvrez un résultat de cas de test et sélectionnez + Ajouter dans la section Éléments de travail liés .
- Activez l’option Requête entre les projets .
- Recherchez l’élément de travail par ID ou titre dans tous les projets de votre organisation.
La liaison entre projets est utile lorsque les composants partagés ou les dépendances s’étendent sur plusieurs projets.
Analyser les résultats de test détaillés
Sélectionnez n’importe quel cas de test pour afficher ses résultats détaillés :
| Section | Description |
|---|---|
| Résumé des résultats de test | Vue d’ensemble de l’exécution pour le cas de test sélectionné. |
| Éléments de travail liés. | Bogues associés et éléments de travail. Sélectionnez + Ajouter pour lier plus d’informations. Par défaut, seuls les éléments de travail directement liés au résultat du test apparaissent, et non les éléments liés indirectement par le biais de méthodes de test. |
| Étapes de test | Résultats et commentaires pas à pas. Activez l’option Afficher les images pour afficher un aperçu des captures d’écran capturées inline. |
| Trace de pile (exécutions automatisées) | Affichage optimisé des traces de pile avec une lisibilité améliorée pour les traces de pile complètes. |
| Informations d’analyse | Analyse post-exécution et actions suivantes. |
| Attachments | Fichiers attachés à ce résultat de test spécifique. Pour les exécutions automatisées, toutes les pièces jointes de sous-résultat sont visibles sur chaque page de résultats de test. |
L’exemple suivant montre les résultats détaillés d’un cas de test sélectionné :
Pour les exécutions automatisées, la vue de trace de pile offre une meilleure lisibilité pour les traces de pile complètes :
Informations d’analyse
La section d’analyse permet de structurer la révision après l’exécution. Il est disponible pour tous les résultats de test après l’exécution. Les cas ayant échoué, suspendus et bloqués ont des champs de triage supplémentaires. Les commentaires d’analyse sont distincts des commentaires au niveau de l’exécution et des résultats.
Pour personnaliser les options de liste déroulante, telles que l’ajout de types d’échecs, utilisez les API REST Azure DevOps.
Rétention de l’exécution des tests
Azure DevOps gère automatiquement la rétention des données d’exécution de test pour maintenir le système performant.
Limites de rétention par défaut
| Type d’exécution | Rétention par défaut | Détails |
|---|---|---|
| Résultats manuels des tests | 365 jours | Azure DevOps supprime les résultats manuels des tests après un an, sauf si vous configurez une période de rétention différente au niveau du projet. |
| Résultats de test automatisés | Lié à la gestion des builds | Les résultats automatisés sont conservés tant que la build associée est conservée. La suppression d’une build supprime également ses résultats de test. |
Avertissement
Lorsque la rétention supprime les exécutions de test et les résultats des tests, les résultats du point de test associés sont réinitialisés à Active. Cette modification peut entraîner une diminution des taux d'exécution dans les rapports de progression.
Configurer les paramètres de rétention
Il s’agit des paramètres de rétention par défaut. Pour ajuster les limites de rétention pour votre projet :
- Accédez aux paramètres Project>Test>Retention.
- Définissez le nombre de jours pour conserver les résultats des tests manuels.
Si vous souhaitez que les exécutions de test ne soient jamais supprimées, sélectionnez l’option Ne jamais supprimer .
Pour conserver les résultats des tests automatisés après la suppression de leurs builds associées, modifiez la stratégie de rétention de build et configurez la rétention des résultats de test séparément. Pour les référentiels Git, vous pouvez spécifier la rétention en fonction de la branche.
Pour obtenir des étapes de configuration détaillées, consultez Définir des stratégies de rétention de test. Pour connaître les paramètres de rétention au niveau de la build, consultez Définir des stratégies de rétention pour les builds, les versions et les tests.
Utiliser l’IA pour gérer les exécutions de test
Si vous configurez le serveur MCP Azure DevOps, vous pouvez utiliser des assistants IA pour gérer vos exécutions de test à l’aide d’invites en langage naturel.
Exemples d’invites pour la gestion des exécutions de test
| Tâche | Exemple d’invite |
|---|---|
| Afficher les exécutions de test récentes | Show all test runs in project <Contoso> from the last 7 days |
| Vérifier les résultats de l’exécution des tests | Show the results of test run <56789> in project <Contoso> |
| Rechercher des tests défaillants | List all failed test cases in the most recent test run for test plan <12345> |
| Analyser les tendances des tests | Show test run pass rates for project <Contoso> over the last 30 days |
| Suivre la progression des tests | Show the count of passed, failed, and not-run test cases in test plan <12345> |
| Rechercher des tests bloqués | List test cases in test run <56789> that have outcome = <Blocked> |
| Comparer deux exécutions de test | Compare the results of test run <56789> and test run <56790> in project <Contoso> |
| Rechercher des zones non testées | List area paths in project <Contoso> with no test runs in the last 14 days |
| Identifier les tests les plus longs en cours d’exécution | Show the 10 test cases with the longest execution time in test run <56789> |
| Régressions de surface | List test cases that passed in test run <56789> but failed in test run <56790> |
Tip
Si vous utilisez Visual Studio Code, le mode agent est particulièrement utile pour résoudre les scénarios complexes de série de tests.
- Pour éviter d’utiliser des données obsolètes ou mises en cache à partir de requêtes précédentes, ajoutez à votre invite « N’utilisez pas les données extraites précédemment ».