Natürlich hätten wir am liebsten robuste automatisierte Tests, die unsere komplette Anwendung abdecken. Aber was tun, wenn man die nicht hat und (wenigstens teilweise) manuelle Tests durchführen muss?
Bei langlebiger Software treten meist dort Fehler auf, wo viel geändert wurde. Es lohnt daher, geänderte Bereiche besonders ausführlich zu testen. Unsere Forschungsarbeiten zeigen jedoch, dass trotzdem große Mengen an geändertem Code ungetestet in Produktion gelangen und dort den Großteil der Feldfehler verursachen.
Ich stelle im Vortrag Test-Gap-Analyse vor, einen Ansatz, der statische und dynamische Analyseverfahren kombiniert, um geänderten aber ungetesteten Code zu identifizieren. Ich gehe dabei auf die Erfahrungen aus mehreren Jahren Einsatz in Teams mit bis zu zwanzig Entwicklern und dreißig Testern ein. Ich zeige, wie Test-Gap-Analyse Transparenz in die Qualitätssicherung bringt und dabei hilft, Testaufwände bewusst zu allokieren und die Zusammenarbeit zwischen Entwicklern und Testern zu synchronisieren.