Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Azure DevOps Services
Verwenden Sie den Testlaufhub, um die Testausführung nachzuverfolgen, Ergebnisse zu analysieren und die Qualität über Entwicklungszyklen hinweg aufrechtzuerhalten.
Eine Testausführung erfasst die Ausführung eines oder mehrerer Testfälle – Aufzeichnung von Ergebnissen, Dauer und Umgebung. Das System erstellt automatisch Testläufe, wenn Sie Testfälle aus einem Testplan oder einer Pipeline ausführen.
Testläufe helfen Teams:
- Überwachen von Qualitätstrends – Verfolgen Sie die Passraten und den Testfortschritt im Laufe der Zeit.
- Schnelles Erkennen von Problemen – Erkennen von Regressionen, Fehlern und blockierten Tests.
- Testhistorie pflegen – Historische Ausführungsdaten auditieren und analysieren.
Access-Testläufe
Wählen Sie in Ihrem Azure DevOps-Projekt " Testpläne ausführen">aus.
Auf der Seite "Testläufe" werden alle manuellen und automatisierten Ausführungen mit Filter- und Suchfunktionen aufgelistet.
Tip
Sie können KI verwenden, um Ihnen bei dieser Aufgabe zu helfen später in diesem Artikel oder sehen Sie sich an, wie Sie die KI-Unterstützung bei Azure DevOps MCP Server aktivieren, um loszulegen.
Testläufe durchsuchen und filtern
Der Test Run Hub zeigt standardmäßig manuelle Ausführungen aus den letzten sieben Tagen. Verwenden Sie die Dropdownfilter, um Ergebnisse nach Zeitachse, Ausführungstyp und anderen Attributen einzugrenzen.
Der Test run Hub unterstützt die folgenden Such- und Filterfunktionen:
- Ausführen der ID-Suche – Geben Sie eine genaue Testlauf-ID ein, um direkt zu dieser Ausführung zu springen. Eine ID-Suche setzt alle anderen aktiven Filter außer Kraft.
- Titelsuche ausführen – Nach Titel suchen. Die Suche gleicht Titeln ab, die mit Ihrem Suchbegriff beginnen.
- Zeitraum : Suchen Sie nach einem Zeitraum von bis zu 90 Tagen ab einem beliebigen Zeitpunkt.
- Persistente Filter – Filterauswahlen und Spaltenbreiten bleiben in Sitzungen bestehen, bis Sie sie löschen.
Filter funktionieren additiv. Der Testausführungshub zeigt maximal 5.000 Ergebnisse an. Auf jedem Bildschirm können Sie Text auswählen und kopieren, um ihn freizugeben oder zu dokumentieren.
So passen Sie an, welche Spalten angezeigt werden:
Wählen Sie "Spaltenoptionen" aus.
Wählen Sie die gewünschten Spalten aus und klicken Sie dann auf „Übernehmen“.
Note
Die Spalte "Pipelineausführung" gilt nur für automatisierte Ausführungen. Er zeigt den Build-Namen für build-getriggerte Ausführungen und den Release-Namen für release-getriggerte Ausführungen an.
Testlaufzustände
Der Testlaufstatus spiegelt das Aggregatergebnis seiner Testfälle wider:
| State | Description |
|---|---|
| Completed | Alle Testfälle haben bestanden, oder alle verbleibenden Fälle haben bestanden, nachdem nicht anwendbare Fälle ausgeschlossen wurden. |
| Erfordert Untersuchung | Mindestens ein Testfall ist fehlgeschlagen oder wurde blockiert. |
| Wird ausgeführt | Einer oder mehrere Testfälle werden angehalten. Die Ausführung kann fortgesetzt werden. |
Anzeigen von Testausführungsdetails
Wählen Sie eine Testausführung aus, um die Detailseite zu öffnen. Die Ausführungsdetails umfassen eine Zusammenfassung, ein Analysedashboard und einzelne Testfallergebnisse.
Ausführungszusammenfassung
Auf der Registerkarte "Zusammenfassung" werden die Bestehensquote, die Testfallergebnisse, Laufmetadaten und alle Anlagen oder Protokolle angezeigt, die während des Laufs erfasst werden.
- Passrate – Prozentsatz der ausgeführten Fälle, die bestanden wurden. Fälle, die als nicht zutreffend gekennzeichnet sind, werden von der Berechnung ausgeschlossen.
-
Kommentare – Kommentare auf Ausführungsebene mit Markdown-Formatierung. Markieren Sie Benutzer mit
@, verknüpfen Sie Arbeitsaufgaben mit#, und verweisen Sie Pullanforderungen mit!. - Testfallergebnisse – Ergebnis jedes Testfalls: Bestanden, fehlgeschlagen oder nicht ausgeführt.
- Ausführen von Metadaten – Wer hat den Test ausgeführt, wann er ausgeführt wurde und welche Umgebung verwendet wurde.
- Anlagen und Protokolle—Screenshots, Protokolle und andere Artefakte, die während der Ausführung erfasst wurden.
Analytics-Dashboard
Jede Testausführung enthält ein Analysedashboard, das Ergebnisse nach Ergebnis, Priorität, Konfiguration, Fehlertyp und Auflösung aufschlüsselt. Wählen Sie eine beliebige Unterkategoriebezeichnung auf einer Kachel aus, um das Dashboard nach dieser bestimmten Aufschlüsselung zu filtern.
Vom Pipeline-Log zu den Testläufen navigieren
Für automatisierte Ausführungen, die von einer Pipeline ausgelöst werden, können Sie direkt von den Details der Pipelineausführung zur Testlaufzusammenfassung wechseln. Wählen Sie den Link "Testergebnisse" in den Pipelineprotokollen aus, um die entsprechende Ausführung im Test run Hub zu öffnen.
Anhänge verwalten
So fügen Sie einer Testausführung Anlagen hinzu:
Wählen Sie in den Testausführungsdetails + Anlagen hinzufügen aus.
Wählen Sie Ihre Dateien aus, und laden Sie sie hoch.
Sie können dann Anlagen anzeigen, herunterladen oder löschen.
Wählen Sie einen Dateinamen aus, um Bilder und PDF-Dateien inline anzuzeigen.
Note
Anhänge auf Ausführungsebene sind von Testergebnis-Anhängen getrennt. Um ergebnisspezifische Dateien anzuzeigen, öffnen Sie die Ergebnisdetails, und wählen Sie die Registerkarte "Anlagen " aus.
Arbeiten mit Testfallergebnissen
Überprüfen Sie einzelne Testergebnisse, und passen Sie die Spaltenanzeige aus dem Abschnitt "Testfallergebnisse" an. Bei automatisierten Ausführungen wird der Standardergebnisfilter auf "Fehlgeschlagen" oder "Abgebrochen" festgelegt, um die Triage zu beschleunigen. Bei manuellen Ausführungen werden alle Ergebnisse angezeigt.
Verknüpfen von Ergebnissen mit Arbeitsaufgaben
So ordnen Sie Testergebnisse fehlern oder anderen Arbeitsaufgaben zu:
Aktivieren Sie die Kontrollkästchen für die Testfälle, die Sie verknüpfen möchten.
Erstellen Sie einen neuen Fehler oder einen Link zu einer vorhandenen Arbeitsaufgabe.
Verknüpfen von Arbeitsaufgaben in Projekten
Um Fehler oder Arbeitsaufgaben zu suchen und zu verknüpfen, die sich in einem anderen Projekt als das Testergebnis befinden:
- Öffnen Sie ein Testfallergebnis und wählen Sie + Hinzufügen im Abschnitt Verknüpfte Arbeitsaufgaben aus.
- Aktivieren Sie die Option "Abfrage für projekteübergreifend ".
- Sie können nach dem Arbeitselement anhand von ID oder Titel in allen Projekten in Ihrer Organisation suchen.
Projektübergreifende Verknüpfungen sind nützlich, wenn freigegebene Komponenten oder Abhängigkeiten über mehrere Projekte hinweg reichen.
Analysieren detaillierter Testergebnisse
Wählen Sie einen beliebigen Testfall aus, um die detaillierten Ergebnisse anzuzeigen:
| Abschnitt | Description |
|---|---|
| Testergebniszusammenfassung | Ausführungsübersicht für den ausgewählten Testfall. |
| Verknüpfte Arbeitselemente | Zugeordnete Fehler und Arbeitsaufgaben. Wählen Sie +Hinzufügen aus, um mehr zu verknüpfen. Standardmäßig werden nur Arbeitsaufgaben angezeigt, die direkt mit dem Testergebnis verknüpft sind, nicht elemente, die indirekt über Testmethoden verknüpft sind. |
| Testschritte | Schritt-für-Schritt-Ergebnisse und Kommentare. Aktivieren Sie "Bilder anzeigen ", um aufgenommene Screenshots inline in der Vorschau anzuzeigen. |
| Stapelablaufverfolgung (automatisierte Ausführung) | Erweiterte Stapelablaufverfolgungsansicht mit verbesserter Lesbarkeit für vollständige Stapelablaufverfolgungen. |
| Analyseinformationen | Analyse nach der Ausführung und nächste Aktionen. |
| Attachments | An dieses spezifische Testergebnis angefügte Dateien. Bei automatisierten Durchläufen sind alle Teilergebnisanhänge auf jeder Testresultatseite sichtbar. |
Das folgende Beispiel zeigt die detaillierten Ergebnisse für einen ausgewählten Testfall:
Bei automatisierten Ausführungen bietet die Stapelablaufverfolgungsansicht eine verbesserte Lesbarkeit für vollständige Stack-Traces:
Analyseinformationen
Der Analyseabschnitt hilft bei der Struktur der Überprüfung nach der Ausführung. Nach der Ausführung ist es für alle Testergebnisse verfügbar. Fehlgeschlagene, angehaltene und blockierte Fälle weisen zusätzliche Triagefelder auf. Analysekommentare unterscheiden sich von Kommentaren auf Ausführungsebene und Ergebnisebene.
Um Dropdownoptionen anzupassen, z. B. das Hinzufügen von Fehlertypen, verwenden Sie die Azure DevOps-REST-APIs.
Testlaufbeibehaltung
Azure DevOps verwaltet automatisch die Aufbewahrung von Testlaufdaten, damit das System leistungsfähig bleibt.
Standardaufbewahrungsgrenzwerte
| Ausführungstyp | Standardaufbewahrung | Informationen |
|---|---|---|
| Manuelle Testergebnisse | 365 Tage | Azure DevOps löscht manuelle Testergebnisse nach einem Jahr, es sei denn, Sie konfigurieren einen anderen Aufbewahrungszeitraum auf Projektebene. |
| Automatisierte Testergebnisse | Gebunden an die Build-Aufbewahrung | Automatisierte Ergebnisse bleiben erhalten, solange der zugeordnete Build beibehalten wird. Durch das Löschen eines Builds werden auch die Testergebnisse gelöscht. |
Warnung
Wenn die Aufbewahrung Testläufe und Testergebnisse löscht, werden die zugehörigen Testpunktergebnisse auf "Aktiv" zurückgesetzt. Diese Änderung kann dazu führen, dass Statusberichte verringerte Durchlaufquoten anzeigen.
Konfigurieren von Aufbewahrungseinstellungen
Dies sind die Standardaufbewahrungseinstellungen. So passen Sie Aufbewahrungsgrenzwerte für Ihr Projekt an:
- Wechseln Sie zu Projekt Einstellungen>Test>Retention.
- Legen Sie die Anzahl der Tage fest, um manuelle Testergebnisse beizubehalten.
Wenn Testläufe nie gelöscht werden sollen, wählen Sie die Option "Nie löschen" aus .
Um automatisierte Testergebnisse nach dem Löschen der zugehörigen Builds beizubehalten, bearbeiten Sie die Buildaufbewahrungsrichtlinie, und konfigurieren Sie die Aufbewahrung von Testergebnissen separat. Für Git-Repositorys können Sie die Aufbewahrung basierend auf dem Branch angeben.
Ausführliche Konfigurationsschritte finden Sie unter Festlegen von Testaufbewahrungsrichtlinien. Informationen zu Aufbewahrungseinstellungen auf Buildebene finden Sie unter "Festlegen von Aufbewahrungsrichtlinien für Builds, Versionen und Tests".
Verwenden von KI zum Verwalten von Testläufen
Wenn Sie den Azure DevOps MCP-Server konfigurieren, können Sie KI-Assistenten verwenden, um Ihre Testausführungen mithilfe von Eingabeaufforderungen in natürlicher Sprache zu verwalten.
Beispielaufforderungen für die Testausführungsverwaltung
| Aufgabe | Beispielaufforderung |
|---|---|
| Anzeigen der letzten Testausführungen | Show all test runs in project <Contoso> from the last 7 days |
| Überprüfen der Testausführungsergebnisse | Show the results of test run <56789> in project <Contoso> |
| Suchen nach fehlerhaften Tests | List all failed test cases in the most recent test run for test plan <12345> |
| Analysieren von Testtrends | Show test run pass rates for project <Contoso> over the last 30 days |
| Nachverfolgen des Teststatus | Show the count of passed, failed, and not-run test cases in test plan <12345> |
| Suchen blockierter Tests | List test cases in test run <56789> that have outcome = <Blocked> |
| Vergleichen von zwei Testläufen | Compare the results of test run <56789> and test run <56790> in project <Contoso> |
| Nicht getestete Bereiche suchen | List area paths in project <Contoso> with no test runs in the last 14 days |
| Identifizieren von Tests mit der längsten Laufzeit | Show the 10 test cases with the longest execution time in test run <56789> |
| Oberflächenregressionen | List test cases that passed in test run <56789> but failed in test run <56790> |
Tip
Wenn Sie Visual Studio Code verwenden, ist der Agentmodus besonders hilfreich für die Problembehandlung komplexer Testausführungsszenarien.
- Um veraltete oder zwischengespeicherte Daten aus früheren Abfragen zu vermeiden, fügen Sie Ihrer Eingabeaufforderung "Zuvor abgerufene Daten nicht verwenden" hinzu.