Hinweis: Die aktuelle German Testing Day Konferenz finden Sie hier!

Programm 2023

Konferenzprogramm 2023

Track: Automation

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Mittwoch
    24.05.
, (Mittwoch, 24.Mai 2023)
10:35 - 11:10
1.1
Why you should not run acceptance tests using BDD: How overused BDD slows down your delivery
Why you should not run acceptance tests using BDD: How overused BDD slows down your delivery

It's tempting to use BDD as a way to describe and run acceptance tests on the UI. Our experience has shown, that BDD is more beneficial, when used in earlier testing stages instead.

Target Audience: Test managers, testers, developers, ... so for the whole team
Preriquisites: Knowledge in BDD advantageous, but not mandatory
Level: Basic

Extended Abstract:

BDD is well established way to provide abstract description of expected system behaviors to developers. But, due to years of siloed mindsets, BDD is often described as the next big thing to describe and automate testcases for QA teams. This talk gives a small insight, in why using BDD in later testing stages (System-Integration and Acceptance Testing) could create additional overheads and more complicated test automation setups. You will learn how BDD can be beneficial when used correctly, but also how it can disrupt team velocity if introduced at the wrong places.

Testen sollte deutlich mehr wertgeschätzt werden, das ist meine persönliche Überzeugung. Deshalb engagiere ich mich seit über 10 Jahren in der Testautomatisierung und dem Testmanagement und zusätzlich begleite ich unsere Associate IT-Consultants sowohl in ihrer fachlichen als auch persönlichen Entwicklung. In meiner Freizeit sind die Interessen vielfältig: Angefangen vom Drachenfliegen, über Gospel-Musik bis zum Go-Spielen.

Während ich mich in meinem Medieninformatik-Studium sehr viel ausprobiert habe, bin ich auf mein Interesse für Qualitätssicherung gestoßen. Seitdem konnte ich in diesen Bereich viel Praxiserfahrung sammeln und übernehme nun Fachtests, Testmanagement, sowie Testautomatisierung. In meiner Freizeit bin ich gerne aktiv, unternehme etwas mit Freunden und versuche so oft es geht in der Woche zum Sport zu gehen.

Andreas Döring, Byron Zeitschel
Plateau
Andreas Döring, Byron Zeitschel
Plateau
Vortrag: 1.1

Vortrag Teilen

11:20 - 11:55
1.2
Cypress überall - Ein einziges Automatisierungswerkzeug für alle Teststufen?!
Cypress überall - Ein einziges Automatisierungswerkzeug für alle Teststufen?!

Mehr Inhalte dieses Speakers? Kein Problem, schaut doch mal bei sigs.de vorbei:
https://www.sigs.de/autor/dehla.sokenou

Cypress ist ursprünglich als Alternative zu Selenium gestartet. Inzwischen füllt es mit Component Testing auch die Lücke zwischen Unit- und End-2-End-Tests in der Webentwicklung, die bisher nur ungenügend besetzt war.
Lässt man Cypress Component Tests in sein Projekt, dann automatisieren sie schnell nicht nur Komponententests, sondern bieten sich auch als Ersatz für typische Unit-Test-Werkzeuge wie Jest an.
Kann Cypress wie ein Schweizer Taschenmesser wirklich den kleinen Zoo der bisher verwendeten Werkzeuge ablösen? Wir haben es ausprobiert und berichten über Erfahrungen positiver Art, aber auch über die Grenzen, an die wir gestoßen sind.

Zielpublikum: Tester, Entwickler, Testautomatisierer
Voraussetzungen: Projekterfahrung, Testautomatierungserfahrung, Basiskenntnisse in der Webentwicklung
Schwierigkeitsgrad: Advanced

Extended Abstract:
Das Open-Source-Werkzeug Cypress ist ursprünglich als Alternative zu Selenium im Bereich der End-2-End-Tests in der Webentwicklung gestartet. Inzwischen füllt es mit Component Testing auch die Lücke zwischen Unit- und End-2-End-Tests in der Webentwicklung, die bisher nur ungenügend besetzt war, also bei den Komponenten- und Integrationstests.
Lässt man Cypress Component Tests in sein Projekt, dann automatisiert man damit schnell nicht nur Komponententests, sondern auch Unit-Tests. Sie bieten sich damit als Ersatz für typische Unit-Test-Werkzeuge für Webanwendungen wie Jest oder Karma an. Cypress etabliert sich damit als Automatisierungswerkzeug für alle Teststufen, von den Unit- bis hin zu den End-2-End-Test.
Kann Cypress wie ein Schweizer Taschenmesser wirklich den kleinen Zoo der bisher verwendeten Werkzeuge ablösen? Wir haben es ausprobiert und berichten über Erfahrungen positiver Art, aber auch über die Grenzen, an die wir gestoßen sind. Unter anderem zeigen wir, wie einfach bestehende Tests migriert werden können, und haben evaluiert, was unter welchen Bedingungen schneller und stabiler ist, die Unit-Tests in Jest oder die in Cypress.

 

Dr.-Ing. Dehla Sokenou promovierte 2005 an der TU Berlin über UML-basiertes Testen. Sie fühlt sich in allen Phasen der Softwareentwicklung zu Hause, einen besonderen Schwerpunkt bilden allerdings auch weiterhin alle Themen rund um Qualitätssicherung und Testen. Bei der WPS ist sie als Test- und Qualitätsmanagerin sowie Softwarearchitektin tätig. Daneben ist sie Sprecherin der GI-Fachgruppe Test, Analyse und Verifikation von Software (TAV). 

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/dehla-sokenou/

Dehla Sokenou
Plateau
Dehla Sokenou
Plateau
Vortrag: 1.2

Vortrag Teilen

12:05 - 12:40
1.3
Theorie der Softwarequalität und wie man sie praktisch verbessert durch Überwachung in einer CI-Pipeline
Theorie der Softwarequalität und wie man sie praktisch verbessert durch Überwachung in einer CI-Pipeline

Ein Adrenalinkick für QA Experten - mussten Praktiken, Testansätze und -"Software muss stabil funktionieren und bei der Beurteilung von Softwarequalität ist das sicherlich das wichtigste Kriterium. Langfristig darf aber auch die Wartbarkeit der Software nicht vernachlässigt werden, denn das führt zu Mehraufwänden bei Fehlerbeseitigungen und Weiterentwicklungen, auch bekannt als technische Schulden.  Fehlende, nicht-kontinuierliche oder nicht-automatisierte Testfälle dürfen ebenso zu technischen Schulden gezählt werden.
In diesem Vortrag wird erklärt, was genau unter Softwarequalität zu verstehen ist.
Ergebnisse und Erkenntnisse aus einem Jahr der Qualitätsüberwachung in einer CI-Pipeline werden vorgestellt.

Zielpublikum: Tester:innen, Entwickler:innen, Testmanager, Projektleiter
Voraussetzungen: Keine
Schwierigkeitsgrad: Basic

Extended Abstract:
ISO 25010 zieht zur Definition von Softwarequalität neben Funktionalität und Stabilität auch Wartbarkeit als Bewertungskriterium in Betracht. Eine Vernachlässigung der Wartbarkeit führt zu Mehr-Aufwänden bei Fehlerbeseitigungen und Weiterentwicklungen, auch bekannt als technische Schulden oder 'Technical Debt'.
Bei der Bewertung von Softwarequalität darf man aber auch das umgebende Test-Setup nicht vernachlässigen, z.B. Code-Abdeckungs-Metriken aus dynamischen Tests. Auch fehlende, nicht-kontinuierliche oder nicht-automatisierte Testfälle dürfen als technische Schulden verstanden werden.
'Continuous Integration' (CI) ermöglicht einen automatisierten, kontinuierlichen Test und definierte Qualitäts-Kontrollpunkte. Durch die kontinuierliche Überwachung kann eine gleichbleibende und hohe Softwarequalität sichergestellt werden, wodurch eine kontinuierliche Bereitstellung der Software, auch bekannt als 'Continuous Deployment' (CD), ermöglicht wird. Probleme können frühzeitig erkannt, adressiert und Kosten-optimal beseitigt werden.
In diesem Beitrag erhalten Sie einen Überblick über Grundlagen der Softwarequalität und eine Umsetzung der kontinuierlichen Überwachung in einer CI Pipeline.
Anhand eines konkreten Projekt-Beispiels werden Ergebnisse und Erkenntnisse aus einem Jahr der Anwendung vorgestellt.

Ingo Nickles blickt auf mehr als 20 Jahre Berufserfahrung in der Softwarentwicklung für embedded Geräte in der Telekommunikationsbranche zurück. Seit 2012 ist er Field Application Engineer für die Firma Vector und verantwortlich für Schulungen, Seminare, Präsentationen und den Support rund um die VectorCAST Produktfamilie. Er verfügt über zahlreiche Erfahrungen aus den unterschiedlichsten Kundenprojekten und den verschiedensten Entwicklungswerkzeugen.

Ingo Nickles
Plateau
Ingo Nickles
Plateau
Vortrag: 1.3
Themen: CI/CD

Vortrag Teilen

14:45 - 15:20
1.4
Schnellere = selektierte Regression Tests, aber sicher!
Schnellere = selektierte Regression Tests, aber sicher!

Die IVU hat eine große automatische Testsuite mit mehrere tausend Testfällen. Diese sind zum Teil Sprachübergreifendend aufgebaut (C++, Java). Vorhandene Ansätze zur Testselektion waren bisher nicht sicher genug oder wegen der Struktur der Testfälle nicht anwendbar. Dadurch wurde es immer schwieriger, ein umfangreiches und gleichzeitig zeitnahes Feedback an die Entwickler:innen zu liefern. Gemeinsam mit der TU München haben wir Werkzeuge zur Testselektion entwickelt, die dafür sorgen, dass nur die relevanten Testfälle ausgeführt werden. Ich stelle im Vortrag die grundsätzlichen Konzepte und Ergebnisse dieser Zusammenarbeit vor.

Zielpublikum: Tester:innen, Test-Manager:innnen, Entwickler:innen, Architekt:innen
Voraussetzungen: Grundlegende Kenntnisse zur Testautomatisierung
Schwierigkeitsgrad: Basic

Silke Reimer ist Leiterin der Qualitätssicherung für eines der beiden Geschäftsfelder bei der IVU Traffic Technologies AG. Ein wesentlicher Teil ihrer Aufgabe beinhaltet Verbesserungen im Bereich Testautomatisierung auf allen Ebenen. Diesem Thema hat sie sich vor ihrer aktuellen Position auch als Testarchitektin langjährig gewidmet. Damit bringt sie viele Jahre an Erfahrung im Aufbau und der Wartung von automatischen Testsuites mit.

Silke Reimer
Plateau
Silke Reimer
Plateau
Vortrag: 1.4

Vortrag Teilen

15:30 - 16:05
1.5
Wie bei Dolby die CI trotz ständig wachsender Test-Suite immer unter 10min bleibt
Wie bei Dolby die CI trotz ständig wachsender Test-Suite immer unter 10min bleibt

Eine gute Continuous Integration läuft weniger als 10min - etwa die Zeit, um einen Kaffee zu holen. Für Dolby liegt die größte Herausforderung dabei in der Testlaufzeit, denn das sind oft Stunden. Ein Lösungsansatz ist, nur eine Teilmenge der Tests direkt auszuführen und die übrigen Tests in nachgelagerte Test-Builds (z.B. nightly) auszulagern. Wir berichten von den Nachteilen manueller Testauswahl, von technischen und organisatorischen Herausforderungen einer automatisierten Lösung und davon, wie es im Projekt 'Dolby Car Automotive' letztendlich doch gelang, sicherzustellen, dass die CI dauerhaft unter 10 Minuten bleibt.

Zielpublikum: Tester:innen, Testmanager:innen, Entwickler:innen
Voraussetzungen: Basiswissen Softwareentwicklung und -test
Schwierigkeitsgrad: Basic

Extended Abstract:
Eine gute Continuous Integration läuft weniger als 10min - etwa die Zeit, um einen neuen Kaffee zu holen. Diese Ansicht teilen die Entwickler:innen von Dolby mit vielen Kolleg:innen aus anderen Organisationen [1] und Pionieren wie Martin Fowler [2]. Für Dolby liegt die größte Herausforderung dabei in der Laufzeit der (automatisierten) Tests, denn viele dieser Tests müssen wenigstens alle paarweisen Kombination von Konfigurationsoptionen wie dem Lautsprechersystem (5.1, 5.1.2, 7.1, ...) und der Bitrate des Tons durchlaufen. So werden aus 40 Testfunktionen schnell einmal 1300 Testfälle und die Ausführung aller Testfälle dauert mehrere Stunden.

Ein Lösungsansatz ist, eine Teilmenge der Tests für schnelles Feedback direkt auszuführen und die übrigen Tests in nachgelagerte Test-Builds (z.B. nightly) auszulagern, die auch länger brauchen dürfen. Wenn man diese Teilmenge passend zu den konkreten Änderungen auswählt, die getestet werden sollen, lassen sich rund 90% der Testfehlschläge in nur 2% der Testlaufzeit erkennen. Doch wie gelingt eine solche Testauswahl im Alltag?

Lars Kempe (Dolby)  und Sven Amann (CQSE) haben verschiedene Taktiken miterlebt. Sie berichten von den Nachteilen manueller Testauswahl, von technischen und organisatorischen Herausforderungen bei der Eigenentwicklung einer automatisierten Lösung und davon, wie es ihnen im neuen Projekt 'Dolby Car Automotive' letztendlich doch gelungen ist, mit der Test-Impact-Analyse von Teamscale sicherzustellen, dass die Continuous Integration dauerhaft unter 10 Minuten bleibt.

  [1]: Hilton et al.: dl.acm.org/doi/abs/10.1145/3106237.3106270
  [2]: Fowler: martinfowler.com/articles/continuousIntegration.html

Dr. Sven Amann hat als Berater für Software-Qualität bei der CQSE GmbH bereits vielen Kunden erfolgreich geholfen Geschwindigkeit und Effektivität ihrer Tests zu verbessern. Sven  hält seit vielen Jahren Vorträge und Keynotes auf Konferenzen und Fachtagen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/sven-amann/

Lars Kempe beschäftigt sich als QA-Lead und Audio-Tester bei Dolby täglich mit der wachsenden Test-Suite und weiß wie schnell eine praktikable CI sein muss. Lars spricht seit vielen Jahren auf Konferenzen und Fachtagen.

Sven Amann, Lars Kempe
Satellit
Sven Amann, Lars Kempe
Satellit
Vortrag: 1.5

Vortrag Teilen

Zurück