Konferenzprogramm

Konferenzprogramm 2020

Track: Track+

Nach Tracks filtern
  • Dienstag
    01.09.
  • Mittwoch
    02.09.
10:35 - 11:10
Vortrag Browser Stack
Vortrag Browser Stack

[weitere Informationen folgen in kürze]
Track: Track+
Vortrag: Di 3.1
Themen:
11:20 - 11:55
Wie fühlen wir uns heute? Einfache Anamnese der QA-Strategie für agile Teams
Wie fühlen wir uns heute? Einfache Anamnese der QA-Strategie für agile Teams

Vergleichbar mit einem falschen Architekturansatz oder der Verwendung der falschen Programmiersprache kann eine falsche Test- und Qualitätssicherungsstrategie zu Problemen führen. Die agilen Entwicklungsteams bemerken in der Retrospektive, dass etwas nicht stimmt, können aber wegen fehlender QA-Expertise nicht die Ursache erkennen.

Mit Hilfe unseres agilen Visualisierungswerkzeugs, dem sogenannte QA-Schlachtplan, möchte ich eine Methode vorstellen mit der agile Entwicklungsteams eigenständig oder durch einen agilen QA Coach die Möglichkeit bekommen typische QA-Problemfälle und deren Auswirkungen zu erkennen und diese zu beseitigen.

Zielpublikum: Agile Entwicklungsteams, Agile Tester, Scrum Master
Vorraussetzungen: Erfahrungen im Agilen Methoden wie Scrum
Schwierigkeitsgrad: Advanced

Extended Abstract:
Vergleichbar mit einem falschen Architekturansatz oder der Verwendung der falschen Programmiersprache kann eine falsche Test- und Qualitätssicherungsstrategie zu Problemen führen. Die agilen Entwicklungsteams bemerken in der Retrospektive, dass etwas nicht stimmt, können aber wegen fehlender QA-Expertise nicht die Ursache erkennen.

Mit Hilfe unseres agilen Visualisierungswerkzeugs, dem sogenannte QA-Schlachtplan, möchte ich eine Methode vorstellen mit der agile Entwicklungsteams eigenständig oder durch einen agilen QA Coach die Möglichkeit bekommen typische QA-Problemfälle und deren Auswirkungen zu erkennen und diese zu beseitigen. Dies wird durch die Identifizierung von Artefakten wie Testarten, Testwerkzeugen und Ressourcen und deren anschließende Überführung und Darstellung im Entwicklungsprozess. Das so entstandene Bild kann durch einen QA-Experten zur Anamnese der QA-Strategie des Projektes genutzt werden.

Im Vortrag werden verschiedene Konstellationen als negative Beispiele vorgestellt, deren Auswirkung besprochen und Lösungen aufgezeigt. Mit dem QA-Schlachtplan haben die Entwicklungsteams ein visuelles Hilfsmittel, mit dem sie frühzeitig die planerischen Aspekte der Qualitätssicherung beurteilen können. Dabei kann der QA-Schlachtplan innerhalb der Projektlaufzeit auch als Referenz des aktuellen Vorgehens und als Ansatz für potentielle Verbesserung genutzt werden.

Kay Grebenstein arbeitet als Testmanager und agiler QA-Coach für die Carl Zeiss Digital Innovation. Er hat in den letzten Jahren in Projekten unterschiedlicher fachlicher Domänen (Telekommunikation, Industrie, Versandhandel, Energie, ...) Qualität gesichert und Software getestet.
Kay Grebenstein
Kay Grebenstein
Track: Track+
Vortrag: Di 3.2
Themen:
12:05 - 12:40
Erfahrungen aus 8 Jahren Test-Gap-Analyse im Praxiseinsatz
Erfahrungen aus 8 Jahren Test-Gap-Analyse im Praxiseinsatz

Durch Tests möchten wir Fehler finden, bevor diese in Produktion gelangen. Leider gelingt das nicht immer. Studien zeigen, dass die meisten Feldfehler dort auftreten, wo viel geändert, aber wenig getestet wurde. Seit 2012 setzen wir deshalb mit unseren Kunden Test-Gap-Analyse ein, wodurch solche ungetesteten Änderungen bereits während der Entwicklung vollautomatisch identifiziert werden, damit Entwickler und Tester frühzeitig und kontinuierlich reagieren können.

In unserem Vortrag stellen wir zunächst kurz die Grundlagen der Test-Gap-Analyse und die benötigten Datenquellen vor. Anschließend diskutieren wir verschiedene Anwendungsszenarien, die sich im Laufe der Zeit aus den Anforderungen unserer Kunden ergeben haben.

Die Bandbreite reicht dabei von Test-Gap-Analyse für automatisierte Unit-Tests einzelner Systemkomponenten bis zu automatisierten oder manuellen End-to-End-Tests, die mehrere unabhängige Systeme in verschiedenen Technologien durchlaufen. Wir sprechen sowohl über die Anwendung von Test-Gap-Analyse durch Test-Manager, die einen Überblick auf Systemebene brauchen, als auch durch Tester und Entwickler, die effizient die Test-Gaps für einzelne Change Requests analysieren wollen.

Im zweiten Teil des Vortrags stellen wir Herausforderungen bei der Einführung der Test-Gap-Analyse vor. Beispielsweise ist in Embedded-Umgebungen die Aufzeichnung von Testabdeckung oft nicht ohne Weiteres möglich, und die neuen Deployment-Paradigmen aus dem Microservice- und Docker-Umfeld erfordern neue Strategien zum Einsammeln und Aggregieren der Testdaten.

Nach mehrjährigem Einsatz der Test-Gap-Analyse bei einigen Kunden können wir zudem erstmals den intuitiv wahrgenommenen Nutzen mit konkreten Zahlen untermauern. So konnten Projekte, die die Analyse kontinuierlich nutzen, die Anzahl der Fehler in Produktion um über 20% reduzieren. Mit einer Analyse dieser Erkenntnisse beschließen wir unseren Vortrag.

Dr. Andreas Göb ist Team Lead Customer Success und Berater für Softwarequalität bei der CQSE GmbH. Er begleitet seit Jahren viele Firmen beim Verbessern ihrer Softwareentwicklungs- und Testprozesse. Er hat eine Promotion im Bereich Softwarequalität der TU München und spricht auf nationalen und internationalen Konferenzen.
Dr. Sven Amann ist Berater für Softwarequalität bei der CQSE GmbH. Er studierte Informatik an der TU Darmstadt und der Pontifícia Universidade Católica in Rio de Janeiro und promovierte in Software Engineering, mit Förderung durch das Führungskräfteentwicklungsprogramm Software Campus. Anfang 2017 gründete er den Blog AcademicsCode.com.
Andreas Göb, Sven Amann
Andreas Göb, Sven Amann
Track: Track+
Vortrag: Di 3.3
Themen:
10:35 - 11:10
Vortrag andagon
Vortrag andagon

Track: Track+
Vortrag: Mi 3.1
Themen:
12:05 - 12:40
Qualitätssicherung unter erschwerten Bedingung - oder wie Sauce Labs die eigene Testing-Infrastruktur testet
Qualitätssicherung unter erschwerten Bedingung - oder wie Sauce Labs die eigene Testing-Infrastruktur testet

Mobile-Tester stehen täglich vor der Herausforderung die Qualität ihrer Testing-Infrastruktur aufrecht zu halten. Dass in immer kürzeren Zeiträumen neue mobile Endgeräte und Betriebssysteme auf den Markt gepusht werden, erschwert die Situation nur zusätzlich.

Aber wie stellt ein Cloud-Testing-Provider wie Sauce Labs sicher, dass alle Features in der Cloud mit über 400 verschiedenen Geräten und OS-Kombinationen zuverlässig nach jedem Release funktionieren?

Bekommen Sie in diesem Talk einen Einblick in die Prozesse und Tools, die Sauce Labs nutzt, um die Real Device Cloud zu testen. Wir werden einen Blick auf funktionale JUnit, XCUI und Espresso Tests werfen, die die Funktionstüchtigkeit aller Features auf den unterstützten OS Version sicherstellt. Des Weiteren werden wir und Last- und Ausdauertests mit Selenium und Appium anschauen, um die Zuverlässigkeit der Cloud auch bei starker Nutzung zu prüfen. Und selbstverständlich dürfen wir synthetische Nutzertests nicht vernachlässigen, die während der Laufzeit überwachen, ob alle Teile des Systems die SLAs erfüllen.

Zusätzlich schauen wir uns an wie alle diese Tools in unseren CI/CD Prozess integriert werden, um möglichst automatisiert und datengetrieben täglich Änderungen in unsere Produktionsumgebung zu deployen.

Zielgruppe:
Tester, Programmierer, Architekten, agile Teams
Prerequisites: none
Level: All

Andreas ist als Director Engineering für die Entwicklung der Mobile Real Device Cloud bei Sauce Labs verantwortlich. Seit mehr als 7 Jahren arbeitet er daran das Testen auf realen mobilen Engeräten einfacher, schneller und zuverlässiger zu machen. Durch seine Rollen als Entwickler, Architekt, Manager und Ansprechpartner für Kunden hat er sich in seiner Karriere aus den verschiedensten Blickwinkeln mit dem Thema Qualitätsicherung auseinader gesetzt.
 

Andreas Lüdeke
Andreas Lüdeke
Track: Track+
Vortrag: Mi 3.3
Themen:

Zurück