Since this post accompanies a talk in German, it is written in German, too.
Bei langlebiger Software treten die meisten Fehler dort auf, wo viel geändert wird. Wenn wir richtig testen wollen, müssen wir daher sicherstellen, dass keine wichtigen Änderungen ungetestet bleiben. Hierbei hilft uns Test-Gap-Analyse, ein Analyseverfahren, das ungetestete Änderungen vollautomatisch ermittelt. Nach einer Einführung in Test-Gap-Analyse zeigen wir den Einsatz der Test-Gap-Analyse mit unserem Analysewerkzeug Teamscale. Wir zeigen einerseits, wie Test-Gaps auf Gesamtsystemebene betrachtet werden könnten, um beispielsweise die Testqualität über alle Teststufen (von automatisierten Unit Tests bis hin zu manuellen Systemtests) für ein Software-Release zu bewerten. Außerdem demonstrieren wir, wie sich Test-Gaps auf die Ebene einzelner Issues (User Stories, Change Requests, Bug Reports, etc.) herunterbrechen lassen, um bereits während der Entwicklung den Überblick zu behalten, wie gründlich getestet wurde und, nicht zuletzt, wo aufgrund von nachfolgenden Code-Änderungen nochmal nachgetestet werden sollte. Auch im virtuellen Vortragsformat versprechen wir eine praxisnahe und ungeschönte Demo.