Konferenzprogramm

Die im Konferenzprogramm des GTD 2022 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Gerne können Sie die Konferenzprogramm auch mit Ihren Kolleg:innen und/oder über Social Media teilen.

Der Track+ besteht aus Präsentationen der Sponsoren und unterliegt somit nicht der Qualitätssicherung des Conference Boards.

Bitte beachten Sie, dass es für vereinzelte Workshops ggf. eine Teilnehmendenbeschränkung gibt. Weitere Infos hierzu finden Sie in den Workshop-Beschreibungen. 

Konferenzprogramm 2022

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Dienstag
    03.05.
  • Mittwoch
    04.05.
, (Dienstag, 03.Mai 2022)
09:00 - 09:20
Eröffnung
Eröffnung der Konferenz
Eröffnung der Konferenz

09:30 - 11:30
Di3.1
Vom Defect Ping Pong zur motivierten Teamarbeit – Vodafones Erfolgsweg zu einer agilisierten Qualitätssicherung
Vom Defect Ping Pong zur motivierten Teamarbeit – Vodafones Erfolgsweg zu einer agilisierten Qualitätssicherung

Die 2-stündige interaktive Session zeigt am Beispiel von Vodafone Deutschland welche Rolle Kommunikations- & Changemanagement für eine nachhaltige agile Transformation der Qualitätssicherung spielen. Was bedeutet der Change für alle am Test beteiligten? Warum ist Kommunikation essenziell? Wie kann Coaching hierbei unterstützen? Und wie kann diese Kombination zu höherer Qualität bei gleichzeitig steigender Effizienz führen? Gerne teilen wir Vodafones Erfolgsweg und Lessons Learned zu diesen Fragestellungen und weben Ihre Erfahrungen und Eindrücke mit ein. Fürs selbst ausprobieren können Sie außerdem eine Überraschung mit nach Hause nehmen.

Viviane Hennecke ist Agile Quality „Coachsultant" mit Schwerpunkt auf strukturierten Verbesserungen von Qualitätsprozessen in skalierten agilen Projekten. Testing-Erfahrung wird mit ihrem Background im Kommunikationsmanagement kombiniert, um die Prozesse zu definieren, angemessen an eine breite Masse auszurollen und zum Leben zu bringen.

Thomas Karl ist Organizational Change Manager, LSS MBB, SAFe® SPC5, IC-Agile Enterprise Agile Coach, ISTQB Full Advanced Level zertifiziert, Kanban Trainer und Systemischer Coach. Die Schwerpunkte seiner Tätigkeit sind Qualitätsmanagement und die Entwicklung von leanagilen Organisationen von der Team- bis zur Strategie- & Portfolio-Ebene. Er ist Sprecher auf internationalen Konferenzen und berät Vorstände und Führungskräfte im agilen Wandel.

Sandra Pütz ist Leiterin der IT-Qualitätssicherung bei Vodafone Deutschland, dem führenden Anbieter von Kabel-Breitband-, Video- und Mobilfunkdiensten mit 16.000 Mitarbeitern und 30 Millionen Mobilfunk-, fast 11 Millionen Breitband- und 13 Millionen TV-Kunden in ganz Deutschland. Sandra ist verantwortlich für die Leitung der IT-Qualitätssicherung von Vodafone DE, die mit „Testing as a Service“ einen zielgerichteten und strategisch ausgerichteten Ansatz für alle Stacks bietet. Sandras Organisation bietet auch interne Beratungsdienste, die kontinuierliche Verbesserung unserer Testingtools und das Testumgebungsmanagement.

Viviane Hennecke, Thomas Karl, Sandra Pütz
Viviane Hennecke, Thomas Karl, Sandra Pütz
Track: Track+
Vortrag: Di3.1

Vortrag Teilen

09:30 - 11:30
Di4.1
Limitiert Introduction in Internet of Things (IoT) testing on the example of testing connected vehicles on an IoT emulator.
Introduction in Internet of Things (IoT) testing on the example of testing connected vehicles on an IoT emulator.

In the workshop, I will use a practical example to introduce the testing of Internet of Things (IoT). In doing so, it is of considerable importance that the participants get an impression of the possibilities for testing IoT devices that are not physically available in emulators. In addition, I will discuss how they can build on their current knowledge and experience in software testing for specialization in IoT testing. There will also be a practical example demonstrating how to emulate an autonomous vehicle and how to implement a suitable test infrastructure. Finally, the workshops includes a hands-on session to experiment by themselves.

Maximum Number of participants: 25

Target Audience: Software Engineers with focus on testing, quality assurance with about one to two years professional experience.
Prerequisites: Basic knowledge in Software Testin, e.g. ISTQB Foundation Level
Level: Basic

Extended Abstract:
The main intention of the workshop is that attendees experience Internet of Things (IoT) testing on a practical use case. The workshop provides an opportunity, to experience IoT on real devices.  There are many virtual trainings on this topic available, but it needs to be considered that the Internet of Things is based on hardware that build up a connection to the Internet. Before physical hardware is transmitted to an emulator, it is essential to experience its functionality in a physical environment.

Bachelor and Master degree in Informatics, currently PhD thesis on Internet of Things Education  at the University of Innsbruck, since 2013 professional in Software Testing, currently Test Expert at the CoE Automation Integration.

Thomas Auer
Thomas Auer
Track: Workshop
Vortrag: Di4.1

Vortrag Teilen

09:45 - 10:30
Di1.1
Reducing nightly test result analysis from hours to minutes
Reducing nightly test result analysis from hours to minutes

G+D currency technology develops highly complex embedded software that operates in a challenging mechatronics environment. A major challenge has been the manual analysis of our automatic nightly test execution results - in particular with growing test sets and a complex test execution environment. Via an in-house developed tool that combines ideas of patterns and learning we have reduced our analysis time from hours to less than a minute. We believe this idea can drastically reduce time spent on analysis for any tester - even in manual system test - and will show how it can even help to automate processes in other contexts.

Target Audience: testers, developers, test managers, project managers
Prerequisites: Experience in test automation or analysis of test execution results
Level: Basic

Extended Abstract:
G+D currency technology has been developing its banknote processing system (BPS) products for many years now using an agile development approach which is supported by a sophisticated continuous integration (CI) pipeline. Every night thousands of unit tests as well as hundreds of functional tests are executed on our servers to ensure that the subsystem software operates correctly and that no regressions have been introduced during the day by software development. Our most complex BPS subsystem - the coordination subsystem - consists of multiple communicating processes which are developed based on a common platform by 6 independent teams in parallel sprints.Our test system used for functional tests is equally complex and includes simulations of other subsystems. Each functional test covers the entire cycle from subsystem software installation to taking the product through a complete workflow in a virtualized environment, and can take from 30 to 60+ min to execute. In each agile team, one automation tester is responsible for developing new and maintaining existing regression tests as well as monitoring each day the results of nightly automatic test execution. The effort spent on analysis is generally reasonable as long as most regression tests pass, but the required effort easily triples, e.g., when sporadic failures from our complex test environment interfere from time to time. We started realizing that the testers that work independently on similar but different products follow similar patterns in their (manual) analysis. A brilliant idea for a simple test result analysis tool enabled us to slash our time spent on analysis for each tester from hours to minutes.In this presentation, we want to present our pattern based approach and its integration into our CI pipeline, which we strongly believe can easily also be used by other testers to reduce their effort. We will talk about the ways in which we deployed the tool to even further automate our testing process at G+D, e.g., for smart automation of reruns for tests that have failed sporadically. Currently, we are even investigating to use this approach also to solve another big challenge we have been facing, which is to accurately and completely automatically track feature test coverage independent of the test implementation and the tests executed.

 

 

Graham Rawlings is a Test Architect at Giesecke + Devrient Currency Technology. With a mechatronics background and 38 years of software development and architecture experience in English and German companies, including 24 years with Giesecke + Devrient, he is now helping to extend and improve their TTCN-3 automated test infrastructure.

Dr. Stephan Schulz is a Test Architect at Giesecke + Devrient Currency Technology. For the past 20 years he has been researching, educating, consulting, and authoring numerous publications and standards on test automation and model based testing.

Graham Rawlings, Stephan Schulz
Graham Rawlings, Stephan Schulz
Vortrag: Di1.1

Vortrag Teilen

09:45 - 10:30
Di2.1
Wie eine neue Kubernetes Version getestet und released wird
Wie eine neue Kubernetes Version getestet und released wird

Kubernetes ist eines der größten Open Source Projekte und definitiv neben Linux das einflussreichste auf dem Markt. Aber wie wird sichergestellt, dass 18.000 Entwickler, 45.649 Commits und 40.180 PRs aus über 260 Git Repositories ein funktionsfähiges System liefern? Max ist seit über 2 Jahren Teil des Kubernetes Release Teams und gibt in diesem Vortrag einen Einblick welche Abläufe, Tests und Quality-Gates im Release Prozess von Kubernetes zum tragen kommen. Welche Ansätze lassen sich auf andere Projekte übertragen? Wo hat das vorgehen Schwachstellen? Und wie können sie daraus lernen?

Zielpublikum: Test Manager, Test Automation Engineers, Release Manager
Voraussetzungen: Grundwissen über CICD, Git Workflows, vlt. zum Verständnis des Kontext was Kubernetes ist
Schwierigkeitsgrad: Advanced

Extended Abstract:
Kubernetes ist eines der größten Open Source Projekte und definitiv neben Linux das einflussreichste Projekt auf dem Markt. Aber wie wird sichergestellt, dass 18.000 Entwickler, 45.649 Commits und 40.180 PRs aus über 260 GitHub Repositories ein funktionsfähiges System liefern? Max ist seit über 2 Jahren Teil des Kubernetes Release und Release Engineering Teams und gibt in diesem Vortrag einen Einblick welche Abläufe, Tests und Quality-Gates im Release Prozess von Kubernetes zum tragen kommen. Welche Ansätze lassen sich auf andere Projekte übertragen? Wo hat das vorgehen Schwachstellen? Und wie können sie daraus lernen? Neben den Abläufen wird Max Ihnen verwendete Tools, Infrastrukturen und auch die Workarounds erläutern.

Max ist Kubernetes und Cloud Native Advocate bei Liquid Reply mit Sitz in München. In den vergangenen Jahren hat er Cloud-native Lösungen auf/mit Kubernetes gebaut. In letzter Zeit treibt er das Thema Plattform-Engineering bei verschiedenen Kunden voran, um die aktuellen Herausforderungen mit komplexen Zielumgebungen zu vereinfachen. Nachts arbeitet er mit dem Kubernetes-Release-Team zusammen, um neue Kubernetes-Versionen zur Verfügung zu veröffentlichen.

Max Körbächer
Max Körbächer
Vortrag: Di2.1

Vortrag Teilen

10:45 - 11:30
Di1.2
Remote Ensemble Testing - From Experiment to Common Practice
Remote Ensemble Testing - From Experiment to Common Practice

I believe in collaboration, in diversity, and in the whole team approach. However the fact that I believe in those values does not necessarily mean others believe them too. So, the question is 'How do I share my message successfully with the team?' After experiments, failures, and frustration I found my answer. It's ensemble testing in a cross-functional team. I want to share the story of our diverse ensemble testing team. How it changed our way of collaborating and testing and how it helped us to stay connected while working from home.

Target Audience: Everyone interested in collaboration or ensemble testing
Prerequisites: Curiosity
Level: Basic

Hi, I'm Andrea! A tester since 2011, what started unplanned by chance I now continue out of passion. Currently, I am a Software Quality Engineer in the maritime industry by day. And a reader, crafter, curious learner and RiskStorming Online advocate by night. You can find me on LinkedIn or Twitter.

Andrea Jensen
Andrea Jensen
Vortrag: Di1.2

Vortrag Teilen

10:45 - 11:30
Di2.2
Next-Level Unit Testing - Entwicklungsqualität steigern
Next-Level Unit Testing - Entwicklungsqualität steigern

Unit Testing wird von Entwicklern oft mit mühseliger Kleinstarbeit gleichgesetzt. Code für tausende Testfälle muss erstellt und laufend gewartet werden. In unserem Vortrag diskutieren wir anhand eines praktischen Beispiels, (i) wo die Pain Points im Erstellen von Unit Tests liegen und (ii) zeigen auf, wie Codegenerierungs-Mechanismen und künstliche Intelligenz dabei helfen, diese Punkte zu verbessern. Anhand aktueller Forschungsergebnisse und Kundenerfahrungen diskutieren wir die Auswirkungen der aufgezeigten Methodiken auf die nächste Generation des Unit Testing.

Zielpublikum: Tester*innen, Entwickler*innen, Projektleiter*innen, Teamleiter*innen Software Entwicklung
Voraussetzungen: Verständnis von Unit Tests, bzw. dem Prozess zur Erstellung und Wartung von Unit Tests.
Es hilft, wenn man selbst bereits Unit Tests in verschiedenen Projekten erstellt hat.
Schwierigkeitsgrad: Advanced

Daniel Lehner is a full-time enthusiast for Digitalization and High-Quality Software Engineering. As a phd candidate at JKU in Linz, his research includes identifying the potential of Artificial Intelligence techniques for software testing.
As a freelance writer and speaker, he makes his research results accessible to a wide audience. Find out more about Daniel at http://derlehner.at, or contact him via daniel.lehner@jku.at

- seit 1988 berufliche Tätigkeit im IT-Bereich als Software-Engineer, Consultant, Projektleiter, technischer Leiter und Geschäftsführer mit zahlreichen auch internationalen Erfahrungen in Projekten unterschiedlichster Größenordnung und Ausrichtung

Daniel Lehner, Johannes Bergsmann
Daniel Lehner, Johannes Bergsmann
Vortrag: Di2.2

Vortrag Teilen

11:30 - 13:00
Mittagspause
Mittagspause & Ausstellung
Mittagspause & Ausstellung

12:00 - 12:55
LC1
Lean coffee
Lean coffee

Sie haben Fragestellungen, die Sie mit anderen Teilnehmer:innen diskutieren möchten? Sie möchten mit Ihrer Erfahrung anderen Teilnehmer:innen eine Perspektive auf Fragen anbieten? Dann sind Sie beim Lean Coffee genau richtig. Denn im Lean Coffee bestimmt die Gruppe, welche Themen für wie lange diskutiert werden, um den maximalen Nutzen des Austauschs zu erreichen. 

Lean Coffee ist ein strukturiertes agenda-loses Meeting-Format, bei dem die Teilnehmer:innen die Tagesordnung durch die Themen, die sie einbringen, selbst bestimmen. 

Treten Sie in den Austausch mit Gleichgesinnten und diskutieren die aktuellen Themen rund um das Thema „Testen", „Qualität“ oder was auch immer in diesem Moment gerade wertvoll ist.

Vortrag: LC1

Vortrag Teilen

12:45 - 14:45
Di4.3
Let's Play! Gamification-Techniken praktisch erproben
Let's Play! Gamification-Techniken praktisch erproben

Spielerische Ansätze in der Qualitätssicherung haben einen positiven Effekt auf die Softwarequalität und stärken den Teamzusammenhalt und den Stellenwert von Softwarequalität im Team. Oft stellt sich jedoch die Frage, wie sich Gamification in den Softwareentwicklungsalltag integrieren lässt. Wir wollen Hilfestellung geben, indem wir ganz praktisch einige der Ansätze mit den Teilnehmern erproben. Techniken und zu beachtende Fallstricke lassen sich am besten am konkreten Beispiel aufzeigen.

Zielpublikum: Tester, Entwickler, Testmanager, Projektmanager
Voraussetzungen: Erfahrung im Softwaretest, agilen Projekten oder Projektmanagement sind hilfreich, aber nicht zwingend notwendig
Schwierigkeitsgrad: Basic

Extended Abstract:
Spielerischer Ansätze bieten viele Vorteile in der Softwareentwicklung. So stärken sie den Teamzusammenhalt durch das gemeinsames Erlebnis und die Challenge. Auch für Aufgaben der Softwarequalitätssicherung gibt es einige interessante Ansätze, die sich einfach in den Projektalltag integrieren lassen. Sie stärken zudem das Verständnis aller Projektmitglieder für das Thema Softwarequalität und ihren Stellenwert im Team. Spielerische Ansätze können auch durch die gemeinschaftliche Fehlersuche die Qualität weiter erhöhen, weil das Team dabei durch den intensiven kreativen Prozess auf neue Fehler stoßen kann. 

Doch wie geht man vor, wenn Gamification im Projekt eingeführt werden soll? Dazu ist zunächst eigene Erfahrung mit den anzuwendenden Techniken notwendig. Wir wollen dafür Hilfestellung geben, indem wir nach Wahl der Teilnehmer zwei Ansätze kurz vorstellen und dann ganz praktisch mit den Teilnehmern erproben. Tipps zur Einführung in das eigene Projekt und zu beachtenden Fallstricke werden während der Session am konkreten Beispiel erläutert.

Dehla Sokenou fühlt sich in allen Phasen der Software-Entwicklung zu Hause, besonders im Testen. Bei WPS - Workplace Solutions ist sie als Test- und Qualitätsmanagerin und Software-Architektin tätig.
Baris Güldali begleitet als Agile Coach und Quality Coach agile Teams und unterstützt diese bei der Erreichung ihrer Sprintziele. Er organisiert Community-Events mit Schwerpunkt Agilität und Qualität.
Dehla Sokenou, Baris Güldali
Dehla Sokenou, Baris Güldali
Track: Workshop
Vortrag: Di4.3

Vortrag Teilen

13:00 - 13:45
Di1.3
Insights from children about testing; how children who've read the Dragons Out book about software testing learn.
Insights from children about testing; how children who've read the Dragons Out book about software testing learn.

The popular Dragons Out book about software testing is much liked. Schools have used the free supporting software testing presentation to organize a lesson or two to talk about software testing. I've interviewed children about how they learned software testing and what do they think about it. Now it is time to reveal the secrets of how children learn to test. There are also insights into how adults could learn in a much more effective and fun way. We'll talk about storytelling as a way to learn but also of hands-on practice and fun as an essential learning element. I'll also recap the Dragons Out book project.

Target Audience: Anyone interested in expanding the testing profession.
Prerequisites: No pre-requisites.
Level: Basic

Extended Abstract:
The popular Dragons Out book about software testing is much liked. It has been read in schools. Children have read it on their own after receiving the book from teachers or parents. Schools have used the free supporting software testing presentation to organize a lesson or two to talk about software testing. Especially coding and mathematics classes have been suitable for software testing learning.

I've been a guest lecturer in several classes at advanced schools. On those occasions, I've interviewed children about how they learned software testing and what do they think about it. Now it is time to reveal the secrets of how children learn to test. There are also insights into how adults could learn in a much more effective and fun way. We'll talk about storytelling as a way to learn but also of hands-on practice and fun as an essential learning element.

I'll also recap the book project briefly. I chose to write a book about software testing targeted to children to help in the great lack of software testing in the ICT business, the lack that just seems to be increasing. I also wanted to show people an alternative route into the exciting world of software. It is not only the coding that exists in the software world. The process took almost three years, but in that time I have founded a company for the book project, written the book in Finnish, had numerous pilot readers and review rounds, translated the book to English, found publishers for both Finnish and English editions, organized a crowd-funding campaign, gave many lectures at schools and conference speeches at event and fairs. The project culminated in associations and companies donating books to schools and a diploma of donations being handed to the Minister of Education. And finally, of course, I as the author getting the EuroSTAR Testing Excellence Award, which I feel is not only about my 25 years of dedication to the software testing community but especially this book for children initiative.

Mr. Kari Kakkonen is the 2021 EuroSTAR Testing Excellence Award winner. He is the author and CEO of Dragons Out Oy, creating a fantasy book to teach software testing to children. Kari Kakkonen is working in Finland at Knowit. He has M.Sc. in from Aalto University (aalto.fi). He works mostly with agile testing, lean, test automation, DevOps and AI.

Kari was on Executive of ISTQB (istqb.org) 2015-2021. He is on Board of Directors of TMMi. He is Treasurer of FiSTB (fistb.fi).

Kari is a singer, snowboarder, kayaker, husband and dad.

Kari Kakkonen
Kari Kakkonen
Vortrag: Di1.3
Themen: Learning

Vortrag Teilen

13:00 - 13:45
Di2.3
Tester trifft CI System - lessons learned
Tester trifft CI System - lessons learned

Was passiert wenn ein Tester auf ein CI System trifft - und beschließt sich darum zu kümmern?
Das war die Ausgangsbasis als ich meinen aktuellen Job als Tester angetreten habe. In diesem Vortrag blicke ich auf die letzten 8 Jahre in meinem aktuellen Job zurück und berichte von meinen größten Erfolgen und Fehlschlägen. Welche Änderungen konnte ich an unserem CI System selbst durchführen, welche lediglich anstoßen und welche haben sich im Nachhinein als Fehler herausgestellt?
Und wie bewältigt man das alles ohne in einem weiteren Gebiet zum Bottleneck zu werden?

Zielpublikum: Tester, Entwickler, Build Ingenieure
Voraussetzungen: Basiswissen CI Systeme
Schwierigkeitsgrad: Basic

Extended Abstract:
Angeschnittene Themen:

  • Wie schafft man es die Feedbackschleife des CI Systems zu verkürzen?
  • Wieso ist es keine gute Idee harte Limits für Code-Coverage einzuführen?
  • Wie verhindert man dass der Tester an noch einer Stelle zum Bottleneck wird?
  • Müssen wir wirklich alles testen? 

Tobias Geyer wollte nie bewusst ein Tester werden, aber nach mehr als 13 Jahren Erfahrung in diesem Beruf ist er froh einer geworden zu sein.

Seine Erfahrung reicht von Wasserfallprozessen in großen Unternehmen bis zu kleinen agilen Teams. Seine Begeisterung für das Lernen und den Wissensaustausch brachte ihn dazu die 'Software Testing User Group Hamburg' mitzugründen. Er liebt es auf Konferenzen zu sprechen und twittert unter http://twitter.com/the_qa_guy.

Tobias Geyer
Tobias Geyer
Vortrag: Di2.3
Themen: CI

Vortrag Teilen

13:00 - 13:45
Di3.3
Love at first site - Visual Testing explained
Love at first site - Visual Testing explained

Functional testing is evolving – digital confidence is more important than ever and visual testing is a rapidly emerging technique that is enabling organisations to push the boundaries of traditional test automation.

This presentation introduces visual testing, explains what visual defects are and will show some recent examples found on the web. It will then go on to explain some of the ways you can capture these defects within your testing processes utilizing Sauce Visual solution and hypothetical impact on your existing test automation strategy.

Yi Min is an EMEA-based Senior Solution Engineer working for Sauce Labs. He has been in the IT industry for 9+ years in various roles, including being a Software Engineer, QA Engineer, IT consultant and less technical roles like Scrum Master among others. As a Senior Solution Engineer Yi Min helps customers with their testing journey by advising and developing solutions for each and everyone's unique requirements and tech stack. He is comfortable in facilitating communication and collaboration between business and IT teams and presenting in front of business leaders. When not working Yi Min can be found playing Badminton, mountain biking, playing computer games or tinkering with home automation.

Yi Min Yang
Yi Min Yang
Track: Track+
Vortrag: Di3.3

Vortrag Teilen

14:00 - 14:45
Di1.4
'OK Mobi, bringe mich zu Ausgang Beatrixgasse' Indoornavigation in U-Bahnstationen für blinde Personen.
'OK Mobi, bringe mich zu Ausgang Beatrixgasse' Indoornavigation in U-Bahnstationen für blinde Personen.

Navigation im Freien ist mittlerweile sehr gut abgedeckt. Aber wie schaut es Indoor, also z.B. in U-Bahnstationen aus. Ziel unseres R&D Projektes (Codewort: Mobi') war es herauszufinden, inwieweit man mit aktuell zur Verfügung stehenden Technologien, wie SmartGlasses, speziellen Indoor Navigationssystemen und Spracherkennung ein sprachgesteuertes Navi entwickeln kann, womit sich Blinde und sehbehinderte Personen(Persona: Gustav) mit modernster Technologie in U-Bahnstationen verlässlich führen lassen können.

Target Audience: Alle Interessierte die erfahren wollen, was uns die Zukunft an Unterstützung bringen kann
Prerequisites: Keine
Level: Basic

Extended Abstract:
Digitale Assistenten wie z.B. Smart Phones können und werden bei der Navigation im öffentlichen Raum ja bereits eingesetzt. Es zeigt sich allerdings, dass auch Smart Glasses zunehmend massentaugliche Technologie darstellen und im speziellen hinsichtlich Orientierung großartige Dienste, auch für EndkundInnen, leisten können. 

Im ersten Anwendungsszenario (R&D Pilotprojekt) verwenden wir Smart Glasses für Sehende, Sehbehinderte und Blinde. Wichtige Informationen werden im Sichtfeld des Smart Glass Trägers eingeblendet. Dadurch werden die virtuelle und reale Welt auf einem Smart Glass Device zusammengeführt.

Mit Audio-Informationen und Head-up Informationen, also Informationen im Sichtfeld der NutzerInnen werden diese durch die U-Bahnstationen geleitet. Die Steuerung der Smart Glass erfolgt über Spracheingabe und/oder Touch Funktion.

So wird den NutzerInnen die aktuelle Position genannt und die verfügbaren Ziele und POIs zur Auswahl angeboten, wie z.B verfügbare Ausgänge, Cafes, Bänke, Notrufstellen usw. Blinde & sehbehinderte Personen werden über zusätzliche Audio-Kommentare zum gewünschten Ziel navigiert.

Hindernisse, wie Bänke oder Säulen, aber auch temporäre Warnschilder werden vom Smart Glass, via AI unterstützter Algorithmen, erkannt und über Audiofunktion an die NutzerInnen übermittelt. Die Datenbrille fungiert als virtueller Assistent für die Sehbehinderten U-Bahn NutzerInnen und gewährleistet mehr Bewegungsfreiheit, und erhöhte Sicherheit für die NutzerInnen im öffentlichen Verkehr.

Können wir in Kürze Menschen mit Sehbehinderung mehr Freiheit&Erleichterung bieten?

 

Während seiner langen Karriere hat Helmut auf zahlreichen Konferenzen Vorträge über Softwaretests gehalten. Er ist ein leidenschaftlicher Trainer und verantwortlich für das gesamte Schulungsprogramm bei Nagarro. Er ist Mitautor des Buches 'Agile Testing' und ein Veteran in der internationalen Tester Community. Aufgrund der immer größer werdenden Notwendigkeit, Präsenztrainings in Remote-Trainings umzuwandeln, führt Helmut häufig vertiefende Workshops zu kollaborativen Tools durch. Es macht ihm Spaß, seine Erfahrungen weiterzugeben, insbesondere in Bezug auf neue Technologien. Darüber hinaus ist er Präsident des Austrian Testing Boards (der ISTQB®-Vertreter Österreichs), das für Softwaretest-Zertifizierungen zuständig ist.

Helmut Pichler
Helmut Pichler
Vortrag: Di1.4

Vortrag Teilen

14:00 - 14:45
Di2.4
Software Developers in Test Automation A Dream or Reality in Agile Software Development?
Software Developers in Test Automation A Dream or Reality in Agile Software Development?

Gone are the days of throwing software builds over the proverbial wall to a team of testers that sit and click pages all day. The agile way of working has shown that maybe a small revolution has started to happen in the world of software developers. The rising of software developers writing e2e functional tests that check their front-end using real browsers. Challenges of having success in this way of doing test automation are real. Let's be sincere! Software Developers don't like to write tests much, but the right TA framework can help. In this talk I will describe what we did to make this dream come true.

Target Audience: Agile Teams, Developers, Testers
Prerequisites: Basic knowledge in Agile methods
Level: Basic

Extended Abstract:
Gone are the days of throwing software builds over the proverbial wall to a team of testers that sit and click pages all day. The agile way of working has shown that maybe a small revolution has started to happen in the world of software developers. The rising of software developers writing e2e functional tests that check their front-end using real browsers. Challenges of having success in this way of doing test automation are real. Let's be sincere! Software Developers don't like to write tests much, but the right TA framework can help. In this talk I will describe what we did to make this dream come true.

This is a real life story of how our product team made possible to succeed in delivering quality and speed in every sprint.

 

I have been working in IT for 15 years and I am a passionate software developer and solution architect. I work as a Web Technology Solutions Lead in the IT department at Raiffeisen Bank Albania in Tirana. In the last 2 years, I am also in the role of IT Delivery Lead for retail lending products. In this role I am promoting continuous testing philosophy inside product value teams as the most critical part to achieve speed and quality for the deliverables. I'm focused more and more to create a good developer experience in test automation and putting the word fun into doing it. In addition, I am an associate professor, who enjoys a lot learning to students the magic of web software development.

Blerina Nasto
Blerina Nasto
Vortrag: Di2.4

Vortrag Teilen

14:00 - 14:45
Di3.4
Effizienter testen mit passgenauen synthetischen Testdaten – einfach auf Knopfdruck generiert
Effizienter testen mit passgenauen synthetischen Testdaten – einfach auf Knopfdruck generiert

Zunehmende Digitalisierung, Verbesserung der Customer Experience, KI und Cloud-Strategien – angesichts steigender Herausforderungen gewinnen effiziente und qualitativ hochwertige Testprozesse für den Erfolg von Software-Projekten immer mehr an Bedeutung. Die Generierung geeigneter Testdaten ist dabei in aller Regel einer der größten Herausforderungen für den Software-Test und verschlingt einen großen Teil der Zeit und der Kapazitäten.

Sehen Sie, welche Mehrwerte mit succest erstellte passgenaue, synthetische Testdaten für Ihre Test-Projekte generieren können.

Isabella Rieger leitet bei FMC GmbH den Bereich Sales und Business Development für succest und beschäftigt sich intensiv mit den Themen Testdatenmanagement und Testautomatisierung. Zuvor war Isabella Rieger in verschiedenen Positionen in der Industrie sowie viele Jahre bei SAP in den Bereichen Business Development, Sales und Partnermanagement tätig.

Isabella Rieger
Isabella Rieger
Track: Track+
Vortrag: Di3.4

Vortrag Teilen

15:00 - 16:00
KeyDi
KEYNOTE: Testing in modern times: a story about quality and value
KEYNOTE: Testing in modern times: a story about quality and value

Secret number one: this keynote is less about testing as you would expect...

Software Development is a complex thing. We are dealing with customers who do not exactly know what they want. We also have to deal with complexity, confusion, changes, new insights and half answers. This requires research and experiments to create valuable software. Since my first days in IT, over 20 years ago, I have heard discussions about whether or not we need testers. Testing is boring! It is not creative and it doesn't add real value. Testing is always slow and expensive; testers are cynical people who deliver bad news and most of all they do their utmost to slow delivery. Also, there are stories on how test automation can replace the expensive testers in our projects. To CTO’s it sounds comforting that all these expensive resources can be replaced by automation, doesn’t it?

In agile and especially DevOps approaches the motto is: automated everything! Companies like Facebook claim they do not have testers at all. Microsoft only has SDET (software development engineers in Test), other companies are T-shaping developers to do the testing. New kid on the block is AI and machine learning, that will definitely replace testing I hear people claim. What is really happening globally? Do we no longer need testers? Can we actually automate everything? How can we make valuable software for our clients?

In this interactive keynote we will look at quality software, risks and value. We'll dive into biases and misunderstanding surrounding testing. Testing makes developers look good! And developers make testing easier. And that is why developers (read: everybody in IT) should understand what modern testing can look like and how it can be very valuable, fast and fun. Our clients expect us to speed up and go faster. So how can we fine tune our work to make this expectation real? How can we deliver quality software fast? As a team we can do this, but only if we collaborate...

In this keynote I will share my experience in collaborating with developers as a tester and working with development teams as an agile and quality coach. We'll explore and discuss testing. In my stories I will give examples of great collaboration in teams. I will explain the difference in mind sets and shine a light on topics such as: quality culture, unit testing, pairing, automation, test strategy and testability. Stories that inspired others to up their game and experiment with new ways of working. Working together to create valuable software for our clients!

In this presentation I will address questions like:

  • How can we create quality software fast?
  • Do we need testing? And if so: why is testing important?
  • What is the business case of testing?
  • Can developers also test? And if so: do we still need testers?

Key takeways:

  1. How can we create quality software fast?
  2. How can your team manage risks and value?
  3. Learn if we need testing? And if so: why is testing important?
  4. Learn about great collaboration in teams, new ways of working to create valuable software for our clients!

Hi, I’m Huib Schoots, nice to meet you. My personal mission is shaping better people and software quality by connecting, innovating, facilitating, coaching, enabling and teaching. I’m fascinated by mindset, thinking, behaviour and collaboration. I’m active in many communities.

Some keywords about me: humanist, open, direct, creative, idea generator, result driven, humor, problem solver, curious, confronting, critical thinker, passionate and energetic, lifelong learner, entrepreneurial, analytic and continuous (world) improver. I like hanging out with friends, play trombone in a brass band, board & computer game, LEGO, photography, running, beer brewing, magic tricks, travelling and reading.

I work as a managing consultant & quality coach at qualityaccelerators.nl and as an agile test expert, trainer and senior consultant at deagiletesters.nl

Huib Schoots
Huib Schoots
Track: Keynote
Vortrag: KeyDi

Vortrag Teilen

20:00 - 22:00
TestSphere
Let’s Talk Testing – Let’s Talk TestSphere
Let’s Talk Testing – Let’s Talk TestSphere

TestSphere ist eine Kartensammlung über Testen und Qualität mit vielfältigen Einsatzmöglichkeiten. Eine davon ist der Erfahrungsaustausch. Und genau diesen wollen wir in der Abend-Session fördern. Dazu laden wir wechselnde Teilnehmer:innen zu einem Gespräch in kleiner Runde über verschiedene Testthemen ein. Das Thema wird durch eine TestSphere-Karte vorgegeben. Welche Erfahrungen habt ihr in Bezug auf Testability gemacht? Habt ihr einen spannenden Fehler in Bezug auf Accessibility gefunden? 
Ihr redet gerne über Testen? Dann meldet euch gerne als Interessent:in für eine aktive Teilnahme bei Marie.Hild(at)sigs-datacom.de. Ihr lernt gerne aus den Erfahrungen und Geschichten anderer? Dann seid ihr hier ebenfalls genau richtig. 
Stellt euch euer Lieblingsgetränk bereit und auch die Snacks eurer Wahl. Genießt den lockeren Austausch, bevor es dann fließend in ein Beisammensein mit allen interessierten Teilnehmenden übergeht. 

Thomas Rinke
Thomas Rinke
Vortrag: TestSphere

Vortrag Teilen

, (Mittwoch, 04.Mai 2022)
08:00 - 09:00
LC2
Lean coffee
Lean coffee

Sie haben Fragestellungen, die Sie mit anderen Teilnehmer:innen diskutieren möchten? Sie möchten mit Ihrer Erfahrung anderen Teilnehmer:innen eine Perspektive auf Fragen anbieten? Dann sind Sie beim Lean Coffee genau richtig. Denn im Lean Coffee bestimmt die Gruppe, welche Themen für wie lange diskutiert werden, um den maximalen Nutzen des Austauschs zu erreichen. 

Lean Coffee ist ein strukturiertes agenda-loses Meeting-Format, bei dem die Teilnehmer:innen die Tagesordnung durch die Themen, die sie einbringen, selbst bestimmen. 

Treten Sie in den Austausch mit Gleichgesinnten und diskutieren die aktuellen Themen rund um das Thema „Testen", „Qualität“ oder was auch immer in diesem Moment gerade wertvoll ist.

Vortrag: LC2

Vortrag Teilen

09:05 - 09:30
LT
Ausbildung Vor-Während-Nach Corona!
Ausbildung Vor-Während-Nach Corona!

Corona hat vieles verändert und vieles möglich gemacht, was vorher nicht denkbar war. Wie hat sich das auf die Ausbildung der Mitarbeiter und die Möglichkeiten für Trainer ausgewirkt.
Vorher waren in bei vielen Unternehmen nur Präsenz-Schulungen denkbar. Während Corona haben alle Schulungen mit Online-Präsenz und neuen Methoden stattgefunden und was bleibt uns nun? Kehren wir zu alten Verhaltensweisen zurück? Machen wir alles Online oder gibt es gute und neue Wege für die Ausbildung. 
Sind vielleicht auch die Art und Weise und die Inhalte der Schulungen nun andere. Müssen wir anders bzw. anderes schulen?

Michael Fischlein ist seit über 20 Jahren im Bereich Software-Testing aktiv und über 15 Jahren im Breich Agile. Neben der Prersonalführung liegt sein Hauptaugenmerk seit gut 10 Jahren auf der Ausbildung von Kunden und Mitarbeitern. Seit zwei Jahren verantwortet er zusätzlich den Bereich L&D bei Sogeti Deutschland.

Automatisiert und manuell: Releasetests zwischen CI-/CD-Pipeline und manueller Testdurchführung
Automatisiert und manuell: Releasetests zwischen CI-/CD-Pipeline und manueller Testdurchführung

Wie sieht ein optimales Zusammenspiel zwischen automatisierten Regressionstests und weiterhin notwendigen manuellen Tests für ein Release aus? Mehrere Teams arbeiten in Sprints an Wartung und Weiterentwicklung der Beispielanwendung, das vor der monatlichen Produktivsetzung in mehreren Umgebungen zu testen ist. Auf automatisierte Regressionstests folgen in den Testumgebungen je Deployment manuelle Tests. Vorbereitung und Durchführung der automatisierten Tests sind mit den manuellen Tests abzustimmen, um im finalen Quality Gate zu einer fundierten Freigabeentscheidung zu kommen. Optimierungschancen bieten sich mit jedem Release.

Markus Thaler ist Senior Testmanager und Testarchitekt bei der Qytera Software Testing Solutions GmbH. Zuvor war er 22 Jahre in der Commerzbank als Testmethodiker, Testautomatisierer und Testmanager.

Being an Opera Singer Prepared me for a Career in Tech
Being an Opera Singer Prepared me for a Career in Tech

Anna McDougall is no stranger to career discussions. At 25 she moved on from her project management and marketing career to complete a Masters in Music and worked for seven years as a professional opera singer. In 2020, it was time for another change, and Anna ended up successfully transitioning into web development and software engineering. She now works as a Director, Product and Engineering at National Media and Tech. Anna spends a lot of her free time on social media and YouTube, coaching others from non-traditional backgrounds and helping them to launch successful careers in programming and tech.

Michael Fischlein
Markus Thaler
Anna McDougall
Michael Fischlein

Vortrag Teilen

Markus Thaler

Vortrag Teilen

Anna McDougall

Vortrag Teilen

09:45 - 11:45
Mi4.1
Limitiert Ensemble Exploratory Testing
Ensemble Exploratory Testing

Ever wondered how experienced testers provide feedback quickly, discover unknown unknowns, and find that issue yet again on the first touch of the application? Let's lift the curtain together and discover the magic behind exploratory testing - as an ensemble. Whether you identify yourself as a developer, product person, tester, or anything else, whether you consider yourself a newbie or rather experienced, you are welcome to join this ensemble. Let's practice and explore together!

Maximum number of participants: 25

Target Audience: Testers, developers, product owners, UX, business analysts - anyone on a product development team
Prerequisites: Participant required equipment: Laptop with permission to install applications
Level: Basic

Having graduated in sinology, Lisi fell into agile and testing in 2009 and has been infected with the agile bug ever since. She's especially passionate about the whole-team approach to testing and quality as well as the continuous learning mindset behind it. Building great products which deliver value together with great people is what motivates her and keeps her going. She received a lot from the community; now she's giving back by sharing her stories and experience. She tweets as @lisihocke and blogs at www.lisihocke.com. In her free time you can either find her in the gym running after a volleyball, having a good time with her friends or delving into games and stories of any kind.

Elisabeth Hocke
Elisabeth Hocke
Track: Workshop
Vortrag: Mi4.1

Vortrag Teilen

10:00 - 10:45
Mi1.1
Annoying Documentation? - how should documentation behave, that everybody loves?
Annoying Documentation? - how should documentation behave, that everybody loves?

Documentation costs money and time. Still it is required in regulated industries and is needed to be able to maintain large scale software projects.Most projects are trapped in a world with a limited ability to e.g. maintain versions and baseline. It puts people in silos, requires handovers with cost and loss of information.Coming from waterfall, Siemens Healthineers identified documentation handling as major enabling for engineering efficiency. A process and tool change was initiated to introduce collaborative, seamless, actionable documentation.Follow me on the journey from first pilot to successful migration a project.

Target Audience: Testers, QA Engineers, Test Managers, Developers, Business/Product Owners
Prerequisites: None
Level: Advanced

Extended Abstract:
Nobody likes writing documentation. It costs money and time, it is boring, nobody knows when and how it is used. Still it is required in regulated industries. Software development documentation like requirements and test cases etc. is needed to be able to maintain large scale software projects.Most software projects are trapped in a documentation tooling with a limited ability to maintain versions, baseline, trace between dependencies and link between planning and documentation. Often documentation tooling is project phase specific (e.g. requirements management or test case design) and puts people in silos and requires handovers with cost and loss of information. Coming from waterfall, Siemens Healthineers identified software development documentation handling as major enabling for engineering efficiency in agile. A process and tool change was initiated to introduce collaborative, comprehensive, seamless, actionable, lightweight, controlled documentation that is always up-to-date with the software itself. Follow me on a journey from first pilot to successful migration in a whole project. Learn about culture change and return on invest. Celebrate with me the results, there is something in for everybody. Most benefits are for testers who get early and flexible design input. Testers can showcase the impact of any test results to requirements and release at a push of a button. Even the product can benefit from the ability to focus on value stream.

 

Andre Mainka is an ALM Solution Architect responsible for a large software stack supporting the whole toolchain from Requirements Engineering to Releasing Products at Siemens Healthineers.

He started his career as a software tester, became an integration manager, configuration manager and a product owner for the process tool infrastructure.

Andre has more than 15 years' experience in SW Testing, Development and supporting teams on their journey towards an agile culture.

His main topics are in the field of agile testing, getting people to work together and establishing quality in the whole software development and release cycle, always with the goal to develop customer value easier and faster.

Andre Mainka
Andre Mainka
Vortrag: Mi1.1

Vortrag Teilen

10:00 - 10:45
Mi2.1
Shift-Left-Security: Die Sicherheitstest-Pyramide
Shift-Left-Security: Die Sicherheitstest-Pyramide

Die Testpyramide von Mike Cohn dürfte den meisten Entwicklern ein Begriff sein. Aber beinhalten die Tests in Ihrem Projekt auch die Verifikation der Anwendungssicherheit? Im Kontext von agiler Entwicklung und Continuous Delivery ist ein 'Shift-Left' mit konkreten Security-Anforderungen und einer kontinuierliche Prüfung der Sicherheit essentiell. In diesem Talk werden wir die bekannte Testpyramide einmal aus der Sicherheitsperspektive betrachten. Wir werden lernen wie man effektive Sicherheitstests auf jeder Ebene der Pyramide hinzufügt. Dies wird durch entsprechende Live-Demos begleitet.

Zielpublikum: Architekten, Entwickler, Tester
Voraussetzungen: Grundlegende Java-Kenntnisse
Schwierigkeitsgrad: Advanced

Extended Abstract:
Die Testpyramide von Mike Cohn dürfte den meisten Entwicklern ein Begriff sein und wird innerhalb der testgetriebenen Entwicklung vielfach in Projekten eingesetzt.
Aber beinhaltet die Testpyramide auch die Verifikation der Anwendungssicherheit?

Im Kontext von agiler Entwicklung und Continuous Delivery ist eine kontinuierliche Prüfung der Anwendungssicherheit essentiell. Das heute häufig immer noch praktizierte Muster mit Penetrationstests kurz vor dem Produktivgang skaliert hier nicht mehr. 

Vielmehr müssen in jedem Sprint konkrete Anforderungen an die Sicherheit formuliert werden, welche dann mit entsprechenden (möglichst automatisierten) Tests verifiziert werden können. Nur so läßt sich ein wirkunsvolles Shift-Left für die Sicherheit erreichen.

In diesem Talk werden wir die bekannte Testpyramide einmal aus der Sicherheitsperspektive betrachten. Wir werden uns anschauen wie man effektive Sicherheitstests auf jeder Ebene der Pyramide hinzufügt. Auf diese Weise läßt sich tatsächlich ein großer Teil der OWASP Top 10 Sicherheitskategorien automatisch abtesten. 

Dies wird anhand von Live-Demos auf Basis einer Spring Boot Java Applikation mit automatisierten Tests u.a. für Authentifizierung, Autorisierung, Eingabevalidierung und SQL-Injection-Prevention praktisch veranschaulicht.

Andreas Falk arbeitet für die Novatec Consulting mit Sitz in Stuttgart. In verschiedenen Projekten ist er seither als Architekt, Coach, und Trainer im Einsatz. Sein Schwerpunkt liegt auf der agilen Entwicklung von Cloud-Nativen Java Anwendungen. Als Mitglied der OWASP Community und der OpenID Foundation beschäftigt er sich auch gerne mit diversen Aspekten der Anwendungssicherheit.

Andreas Falk
Andreas Falk
Vortrag: Mi2.1
Themen: Security

Vortrag Teilen

10:00 - 10:45
Mi3.1
Test Intelligence: Auf Basis der eigenen Daten mehr Fehler in weniger Zeit finden
Test Intelligence: Auf Basis der eigenen Daten mehr Fehler in weniger Zeit finden

Historisch gewachsene Test-Suites testen oft gleichzeitig Zuviel und Zuwenig. Zuviel, da sie Tests enthalten, die Kosten erzeugen, aber kaum Mehrwert gegenüber ähnlichen Tests bieten. Zuwenig, da trotzdem wichtige Funktionalität ungetestet bleibt. Im Vortrag stelle ich Analysetechniken vor, die das auf Basis der eigenen Daten aufzeigen (u.a. Test-Gap-Analyse, Historienanalyse von Fehlern und Pareto-Optimierung von Tests). Ich zeige für jede Analyse die zugrundeliegenden Konzepte aus der Forschung und unsere Erfahrungen im Einsatz in der Praxis.

 

Zielgruppe: Tester, Test-Manager, Entwickler, Architekten.

Dr. Elmar Juergens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten.
Elmar Juergens
Elmar Juergens
Track: Track+
Vortrag: Mi3.1

Vortrag Teilen

11:00 - 11:45
Mi1.2
CurrantRunner - Testpriorisierung mit KI live erleben
CurrantRunner - Testpriorisierung mit KI live erleben

Die Auswahl von Testfällen aus einer Menge vorhandener Tests erfolgt in aller Regel anhand der Erfahrungen der Test-Manager oder Tester. Wir haben untersucht, inwiefern dabei Methoden der Künstlichen Intelligenz Unterstützung bringen. Welche Metriken können hier zum Einsatz kommen? Ist ein Neuronales Netz oder doch ein Entscheidungsbaum der effektivere Algorithmus? Und lässt es sich mit wenigen Zeilen Code in eine bestehende Testautomatisierung einbauen?

Zielpublikum: Tester, Testautomatisierer, Testmanager, Projektleiter
Voraussetzungen: Grundlagen SW-Test und Testautomatisierung, Grundlegende Java-Kenntnisse von Vorteil, aber nicht zwingend
Schwierigkeitsgrad: Advanced

Extended Abstract:
Eine Glaskugel, ob ein Test bei der Ausführung in Zukunft PASSED oder FAILED liefern wird, können wir leider nicht anbieten. Einen Algorithmus, der anhand von Daten früherer Testausführungen eine Wahrscheinlichkeit berechnet, ob ein Tests FAILED sein wird, hingegen schon. Im Rahmen des Vortrags werden wir diesen Ansatz vorstellen, verschiedene Metriken diskutieren (Letzte Ergebnisse, Ähnlichkeit von Testnamen, ...) und einen Vergleich verschiedener Machine-Learning-Methoden durchführen (kNN, DNN, SVM, Hoeffting-Tree). Die dabei entstandene Bibliothek 'CurrantRunner' ist auf GitHub als OpenSource verfügbar , demonstriert das Vorgehen am Beispiel von TestNG + JaCoCo + Maven und ist im entsprechenden Kontext sofort einsetzbar.

 

Andreas Döring studierte Computervisualistik in Magdeburg und ist seit 2011 im Test-Umfeld aktiv. Als Test-Manager kam er 2020 zur profi.com AG und unterstützt den Bereich der Testautomatisierung. Schwerpunkt seiner Tätigkeit ist die Frage, wie innovative Testautomatisierungslösungen erfolgreich umgesetzt werden können.

Getreu dem Motto 'Sing mal wieder' ist er Tenor bei den Spiritual- und Gospel-Singers Dresden, ergründet die Ruhe und Komplexität des Go-Spiels und zaubert mit Lenkdrachen akrobatische Figuren in den Himmel.

Andreas Döring
Andreas Döring
Vortrag: Mi1.2

Vortrag Teilen

11:00 - 11:45
Mi2.2
SAST / DAST / IAST / RASP putting DevSecOps on steroids - Four fists and a Hallelujah
SAST / DAST / IAST / RASP putting DevSecOps on steroids - Four fists and a Hallelujah

Continuous Security testing is becoming more and more a key factor for success. Especially if we consider that the development and release process is speeding up enormously. Just imagine that your potential shippable product is going to production with a huge vulnerability or a back door open. The damage to your company and bad reputation would be even not measurable.
So how can we avoid this? How can we build- security -in? Let's leave the stone age behind, break down the security silo. In my talk I will show you how the four fists get implemented in your DevSecOps team and how they will improve your product's quality! 

Target Audience: Testers, Developers, Product Owner, decision makers
Prerequisites: none
Level: Advanced

Extended Abstract:
Continuous Security testing is becoming more and more a key factor for success. Especially if we consider that the development and release process is speeding up enormously. Just imagine that your potential shippable product is going to production with a huge vulnerability or a back door open. The damage to your company and bad reputation would be even not measurable.
So how can we avoid this? How can we build- security -in? Let's leave the stone age behind, break down the security silo and implement DevSecOps.

During my talk, I will tell you where you can implement and improve security testing. What different kinds of functional and non-function security testing methods are available and what are the low-hanging fruits.
On a high level, I will explain SAST / DAST / IAST / RASP and how your team could implement these methods with examples. Then I will lift it to the next level and show how you can add
security testing to your pipeline to get fast feedback to fix the vulnerabilities at a very early stage (shift left). By showing where to implement security tests in your software development lifecycle, I will explain where it makes sense
to have security as a deep skill part of your team and go for DevSecOps!

After I increased our transparency of security and showed you how to deal with 'the four fists', I will close my talk by presenting the 10 successful steps to DevSecOps.

Matthias Zax arbeitet als Agile Engineering Coach bei Raiffeisen Bank International AG (RBI). Eigentlich gelernter Software Developer und '#developerByHeart, beschäftigt er sich seit 2018 mit dem Testen von Software mit Schwerpunkt Testautomation im DevOps Umfeld und organisiert die RBI Testautomation Community of Practice.

Matthias Zax
Matthias Zax
Vortrag: Mi2.2
Themen: Security

Vortrag Teilen

11:00 - 11:45
Mi3.2
Agile Testmetriken – Die Spreu vom Weizen trennen
Agile Testmetriken – Die Spreu vom Weizen trennen

Transformationen bedeuten gewollte Veränderungen. Wir ändern Rollen, Prozesse und Artefakte, mal mit mehr Erfolg, mal mit weniger. Aber wie sieht es mit unseren Testmetriken aus? Klar, Scrum und anderen agile Vorgehensweisen sind empirisch und bauen auf dem Dreiklang Transparenz, Inspektion und Adaption auf. Aber genügen unsere Testmetriken einem empirischen Anspruch und schaffen sie wirklich die Transparenz, die wir benötigen, um im Sinne von Inspektion und Adaption eine gezielte Qualitätssteuerung vornehmen zu können?
Im Rahmen dieses Vortrags zeige ich das Spannungsfeld auf, das sich aus traditionellen Testmetriken und dem agilen Manifest ergibt und welche Implikationen sich daraus ergeben. Sie lernen ergänzend mit dem CIRA-Modell einen Ansatz kennen, der Metriken nutzt, um die agile Selbststeuerung zu fördern. Weiterhin werde ich eine Möglichkeit zur Bewertung von Testmetriken hinsichtlich ihrer Sinnhaftigkeit und ihres Nutzens aufzeigen, der die Ideen Cem Kaners zu diesem Thema aufgreift, wie sie bspw. aus den BBST Kursen bekannt sind. Der Aufhänger werden agile Testmetriken sein, die Bewertungsmöglichkeit ist jedoch unabhängig vom Softwareentwicklungsmodell.


Zielpublikum: Tester*innen, Testmanager*innen, Projektleiter*innen, Agile Coaches
Voraussetzungen: Grundlegendes Verständnis von Softwareentwicklung und Testen
Schwierigkeitsgrad: Basic

Als Trainer und Berater liegen meine Schwerpunkte im Bereich der Qualitätssicherung und Softwaretests.

Über zehn Jahre habe ich in verschiedenen Rollen - vom manuellen Tester in der vergleichenden Warenprüfung  über Testmanager im Automobilsektor bis zum Abteilungsleiter Test für ERP-Software - dazu beigetragen, dass die Kunden die Qualität bekommen, die sie benötigen. Meine Themenschwerpunkte liegen im Bereich des agilen Testens, des explorativen Testens und dem Verankern von Qualitätsbewusstsein im gesamten Softwareentwicklungsprozess.

Auch privat lassen mich die Rollen Trainer und Coach seit über 20 Jahren nicht los, wenngleich es dann nicht um Softwaretests, sondern um Basketball geht.

Christian Kram
Christian Kram
Track: Track+
Vortrag: Mi3.2

Vortrag Teilen

11:45 - 13:00
Mittagspause
Mittagspause & Ausstellung
Mittagspause & Ausstellung

12:45 - 14:45
Mi2.3
Limitiert Aktuelles zu Sicherheitstesten für web-basierte Anwendungen
Aktuelles zu Sicherheitstesten für web-basierte Anwendungen

Die Sicherheit von Web-Anwendungen ist ein schnell-lebiges Thema mit ständig neuen Schwachstellen. Als Tester ist es schwierig, damit in der täglichen Arbeit Schritt zu halten. Wir werden uns daher die neuen Einträge in den OWASP Top 10 der schwerwiegendensten Schwachstellen von Webanwendungen ansehen und wie man diese mit Methoden und Werkzeugen des Sicherheitstestens addressieren kann: Insecure Design, Software and Data Integrity Failures, sowie Server-Side Request Forgeries (SSRF). Konkret werden wir uns in Praxisaufgaben damit beschäftigen, wie man diese Schwachstellen mittels des Werkzeugs SonarQube finden und beheben kann.

Maximale Teilnehmerzahl: 15

Zielpublikum: Tester, Entwickler, Testmanager, Projektleiter mit Interesse an sicheren Web-Anwendungen
Voraussetzungen: Grundlegende Kenntnisse im Softwaretest
Schwierigkeitsgrad: Basic

Extended Abstract:
Jedes Jahr werden zigtausende Schwachstellen in Softwareanwendungen bekannt, mit desaströsen Auswirkungen für die Reputation der betroffenen Entwickler und die Daten ihrer Kunden, oft mit signifikanten finanziellen Schäden.
Die Sicherheit von Web-Anwendungen ist dabei ein schnell-lebiges Thema, bei dem ständig neue Schwachstellen relevant werden. Als Tester ist es schwierig, damit in der täglichen Arbeit Schritt zu halten
Wir werden uns daher die neuen Einträge in den OWASP Top 10 der schwerwiegendensten Schwachstellen von Webanwendungen ansehen und wie man diese mit Methoden und Werkzeugen des Sicherheitstestens addressieren kann: Insecure Design, Software and Data Integrity Failures, sowie Server-Side Request Forgeries (SSRF). Konkret werden wir uns in Praxisaufgaben damit beschäftigen, wie man diese Schwachstellen mittels des Werkzeugs SonarQube finden und beheben kann.
Beim Sicherheitstesten müssen wir dabei wie ein Angreifer denken können. In diesem Tutorial werden wir uns daher in das Gehirn des Angreifers schleichen und auf seine Art zu denken lernen. Dazu basiert das Tutorial auf einem praktischen Einsatz des Softwareanalysewerkzeugs SonarQube seitens der Teilnehmer. So werden wir lernen, wie wir die dort umgesetzten Sicherheitstests nutzen können und diese automatisch ausführen lassen können. Diese Tests spiegeln die Best Practices in der Entwicklung sicherer Web-Anwendungen wieder.
Das Tutorial ist entlang praktischer Übungen mittels open-source Werkzeugen für das Sicherheitstesten strukturiert, für die ein eigener Laptop mitgebracht werden sollte. Konkret sind dies u.a. die Software-QS-Plattform SonarQube, die wir für Sicherheitstests verwenden werden. Dabei werden wir aus erster Hand erfahren, wie Angreifer bei der Schwachstellensuche vorgehen, was uns dabei hilft, solche Schwachstellen zu vermeiden.

Jan Jürjens ist Director Research Projects am Fraunhofer ISST und leitet als Professor für Software Engineering das Institut für Softwaretechnik an der Universität Koblenz. Sein Arbeitsschwerpunkt ist die Entwicklung und das Testen sicherheitskritischer Software, für die er Ansätze und Werkzeuge in Kooperation mit Unternehmen entwickelt. Er ist Autor des Buches 'Secure Software Development with UML', das auch ins Chinesische übersetzt wurde.

Jan Jürjens
Jan Jürjens
Track: Workshop
Vortrag: Mi2.3
Themen: Security

Vortrag Teilen

13:00 - 13:45
Mi1.3
Schnelles Feedback von langlaufenden Tests. Ein Erfahrungsbericht.
Schnelles Feedback von langlaufenden Tests. Ein Erfahrungsbericht.

Je älter und größer Softwaresysteme sind, desto wichtiger ist eine verlässliche, automatisierte Testsuite. Da die Suite (und deren Ausführungsdauer) jedoch mit wächst, kommt ihr Feedback immer später, was das Lokalisieren von Fehlern erschwert. Eine wirksame Lösung ist, eine Teilmenge der Tests häufiger auszuführen. Zur Auswahl einer solchen Teilmenge haben wir Pareto-Testing und die Test-Impact-Analyse entwickelt. Im Vortrag stellen wir beide Ansätze vor und berichten vom Einsatz bei der Bayerischen Versorgungskammer, wo wir sie auf der großen automatisierten Testsuite eines komplexen Softwaresystems angewendet und verglichen haben.

Zielpublikum: Tester, Testmanager, Projektleiter
Voraussetzungen: Basiswissen über automatisiertest Testen.
Schwierigkeitsgrad: Advanced

Extended Abstract:
Je älter und größer ein Softwaresystem ist, desto wichtiger ist eine verlässliche, automatisierte Testsuite. Insbesondere, wenn viele Änderungen umgesetzt und kurze Release-Zyklen angestrebt werden. Mit der Größe des Systems wächst jedoch die Testsuite, und damit steigt auch deren Ausführungsdauer. Wir sehen bei unseren Kunden immer öfter Testsuites, die mehrere Stunden oder sogar Tage laufen. Langlaufende Testsuites werden aber meist seltener ausgeführt als schnelle, z.B. wöchentlich statt täglich. Dadurch müssen Entwickler länger auf Feedback warten, was es ihnen erschwert, die Ursache für fehlschlagende Tests zu lokalisieren. Ironischerweise mindert das den Wert der Testsuites gerade für die Systeme, für die sie besonders wichtig sind.

Ein wirksamer Lösungsansatz ist, eine Teilmenge mit viel kürzerer Laufzeit häufiger auszuführen, z.B. stündlich. Wenn diese Teilmenge gut gewählt ist, findet sie einen Großteil der Fehler in sehr kurzer Zeit, und die gesamte Testsuite kann weiterhin wöchentlich ausgeführt werden, um den Rest der Fehler zu finden. Damit erreichen wir, trotz langsamer Testsuite, sehr schnelles Feedback für die meisten Fehler.

Dieser Ansatz steht und fällt natürlich mit der Auswahl der Teilmenge an Tests, die häufig ausgeführt werden. Hierfür haben wir in den letzten Jahren zwei unterschiedliche Ansätze entwickelt: Pareto-Testing und Test-Impact-Analyse. Im Vortrag stellen wir erst die Grundideen und Forschungsergebnisse vor und dann die Erfahrungen, die wir bei der Bayerischen Versorgungskammer damit gesammelt haben, als wir beide Ansätze auf der großen automatisierten Testsuite eines komplexen Softwaresystems angewendet und verglichen haben.

 

Dr. Sven Amann ist Berater für Software-Qualität bei der CQSE GmbH. Er studierte Informatik an der TU Darmstadt und der PUC in Rio de Janeiro und promovierte am Fachgebiet Softwaretechnik der TU Darmstadt. Seit über 10 Jahren spricht Sven auf Konferenzen und Fachtagen. Sein Themenschwerpunkt ist Software-Qualitätssicherung auf allen Ebenen.

Sven Amann
Sven Amann
Vortrag: Mi1.3

Vortrag Teilen

13:00 - 13:45
Mi3.3
Umfassende Applikationssicherheit – unternehmensweit und DevOps-integriert
Umfassende Applikationssicherheit – unternehmensweit und DevOps-integriert

Applikationssicherheit gehört mittlerweile zu den höchsten Prioritäten in Unternehmen.

Doch während bzgl. Infrastruktur und Netzwerk die Sicherheitsstandards sehr hoch sind, gibt es noch häufig Sicherheitslücken auf Applikationsebene.

Dabei passieren die meisten Angriffe genau hier!

Um Applikationen möglichst sicher zu entwickeln, müssen die verantwortlichen Teams – Entwickler, Tester und die Sicherheits-Verantwortlichen – Hand in Hand arbeiten.

Gleichzeitig sollten die Vorgehensweisen und die entsprechende Lösung optimal in den DevOps-Prozess integriert sein. HCL stellt mit der Lösung HCL AppScan eine unternehmensweite Sicherheitsplattform zur Verfügung, die alle Kriterien abdeckt: Vom Code-Scanning über dynamisches Scanning (Simulation von Hackerangriffen) und das Auffinden von sicherheitskritischen 3rd-Party Bibliotheken (Stichwort: Log4J) bis hin zu einem einheitlichen Dashboard.

Sehen sie wie HCL AppScan all diese Teilbereiche über die verschiedenen Gates von der Entwicklung bis hin zur Produktion schützt und wie die verschiedenen Teams voneinander profitieren.

Außerdem wird gezeigt, wie die Ergebnisse in eine Value-Stream Management Lösung integriert werden können, um alle agilen- und DevOps-Aspekte auf einer einheitlichen Ebene zu veranschaulichen.

Dadurch kann der Ist-Zustand objektiv bewertet werden und ermöglicht zielgerichtete Verbesserungen.

 

Udo Blank
Udo Blank
Track: Track+
Vortrag: Mi3.3

Vortrag Teilen

13:00 - 14:45
Mi4.3
Limitiert D.A.R.E. more, F.E.A.R. less - Journaling for Tech People
D.A.R.E. more, F.E.A.R. less - Journaling for Tech People

During my career in IT and people development I had several turning points where I either was made to use journaling techniques or experimented with them myself to successfully tackle the next challenge. Over the years I reflected why those 'written self-reflection' techniques are so powerful and - at the same time - they are still quite rarely used in the business context.

Maximum number of participants: 40

Extended Abstract:
During my career in IT and people development I had several turning points where I either was made to use journaling techniques or experimented with them myself to successfully tackle the next challenge. Over the years I reflected why those 'written self-reflection' techniques are so powerful and - at the same time - they are still quite rarely used in the business context.

In this workshop I will happily share my experience and my findings backend by a scientific psychological model with you!

You want to leverage your resources?
You want to change habits in your life's 'departments'?
You want to harvest outstanding outcomes - at work and beyond?
YES? Then join us to get ready for ACTion and be inspired how to leverage journaling techniques for yourself, for teams and for your organization. We'll even use our hands, hearts and minds to directly try out some of them!

Cosima is an experienced independent coach, consultant and trainer with a proven track record in a variety of industries (automotive, finance & banking, healthcare, travel & tourism).

Having a strong background as a developer and people lead in software engineering, she enhanced her professional portfolio over the years with solid coaching skills and BSc studies focused on I/O and Health Psychology.

Cosima cares more about systems thinking than local optimization, she is an introvert, a runner and a passionate community gardener (i.e. organising several (un)conferences, leading and contributing to usergroups and meetups).

Cosima Laube
Cosima Laube
Track: Workshop
Vortrag: Mi4.3

Vortrag Teilen

14:00 - 14:45
Mi1.4
Automate all the things: Hands-on Beispiel für Großprojekte einer Bank
Automate all the things: Hands-on Beispiel für Großprojekte einer Bank

Seit Jahren spricht die Community über Automatisierung. Aber wie bringt man in der Praxis in kurzer Zeit Automatisierung ans Laufen? Wir zeigen Beispiele für erfolgreiche Automatisierung in Projekten der Deutschen Bundesbank. Die Projektteams haben einen modernen Open-Source Stack für Testautomatisierung mit BDD sowie Automatisierung im Bereich Infrastruktur aufgebaut. Stakeholder sind nun in der Lage auf Knopfdruck aus JIRA heraus komplette Testumgebungen zu erstellen, dort ihre Tests automatisiert auszuführen und Analysen der Ergebnisse zu bekommen. Du lernst hier wie ein solches Projekt aufgesetzt und die Lösung skaliert werden kann.

Zielpublikum: alle, die Kontakt zu Test haben
Voraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Seit Jahren sprechen wir in der Community über Automatisierung jeglicher Art wie bspw. Testautomatisierung oder Infrastruktur. Viele Ansätze aus Agile Testing, DevOps, etc. sind den meisten theoretisch bekannt. Aber wie sieht es in der Praxis aus? Wie schafft man es in kurzer Zeit die Methodik + Tools + Skills wirklich 'ans Laufen' zu bringen?In diesem Vortrag zeigen wir mehrere Beispiele für erfolgreiche Automatisierung in Projekten der Deutschen Bundesbank. Es handelt sich um Projekte von 10 bis >100 Personen. Diese Teams haben es geschafft einen modernen Open-Source Stack für Testautomatisierung mit BDD sowie komplette Automatisierung im Bereich Infrastruktur (Docker, Kubernetes, Rancher, Jenkins, etc.) aufzubauen und miteinander zu verheiraten. Jegliche Stakeholder in Projekten sind jetzt in der Lage 'auf Knopfdruck' innerhalb von wenigen Minuten komplette Umgebungen (komplexe Host-Systeme inkl. sämtlicher Einschränkungen eines Banking-Systems) zu erstellen, dort ihre Tests automatisiert auszuführen und Analysen der Testergebnisse automatisiert zu bekommen. Das ganze zentral aus JIRA heraus und im Umfeld komplexer Tests für den Zahlungsverkehr. So geht Testautomatisierung in der Bankwelt heute! Als Zuhörer:in lernst Du wie ein solches Projekt aufgesetzt werden kann, welche Stolpersteine wir dabei lösen mussten und wie eine solche Lösung skaliert werden kann. Das ganze sehr praxisnah an realen Beispielen aus Großprojekten mit einer guten Dosis Spaß an der Arbeit :)

 

Katja ist eigentlich Biologin, zählt aber neuerdings lieber bugs als Moleküle. Neben ihrer Arbeit als Testerin sucht sie Lösungen für die alltäglichen Probleme eines Testers in großen, agilen Projekten.

Nach seinem Abschluss in Wirtschaftsinformatik ist Simon nun seit über 10 Jahren in der QS unterwegs. Aktuell arbeitet er als Testmanager bei der Deutschen Bundesbank mit dem Fokus auf Zahlungsverkehr-Anwendungen.

Tobias programmiert seid 23 Jahren treu Java, nach seinem Informatik Studium begann er im Bereich Anwendungsentwicklung und QS zu arbeiten. Heute arbeitet er bei QualityMinds als Teamlead des R&D Teams.

Katja Meyer, Simon Schreiner, Tobias Varlemann
Katja Meyer, Simon Schreiner, Tobias Varlemann
Vortrag: Mi1.4

Vortrag Teilen

14:00 - 14:45
Mi3.4
MIT helping saving lives during COVID with Digital Twin Testing
MIT helping saving lives during COVID with Digital Twin Testing

In the digital economy, customer perception is the only reality, but the complexity of testing across digital interactions and physical transactions boundaries can blur the real user experience. 

In this session, we will explore two unique use cases that highlight the importance of testing the human experience within the digital world:

The challenges that millions of remote workers face today is how to collaborate better with more effective interactions and engagements. By design, digital workforce collaborations extend an integrated and immersive experience to meet that challenge, but it expands a chain of workflows across applications that can be difficult to test. 

Taking a shift-right testing approach is needed to engage directly with end-users to understand their behaviors and reactions to new choices and actions.

 Time to market impacts lives. Releasing faster means testing and building faster. Jonathon will also share real-world examples of testing the software for the introduction of COVID contact tracing, and the rollout to over 30 countries and different languages. 

It’s more important than ever to gain a better understanding of real-world user journeys. In this talk, you will learn: Simple Automated Tests (SAT), Model-Based Testing (MBT) patterns, and Image-Based Testing (IBT) of mobile wallets and blockchain.

  

Key Takeaways:

Real-world examples of the shift-right approach 

How to apply real-world patterns MBT from part 8 of the ISO 29119 standard

Observability of complex real-world oracle meta test data (i.e. hyper-baselining)

 Attend the session to learn about digital twin testing in the physical world (MBT/IBT), and test data engineering and analytics to discover how they are revolutionizing test automation.

Jonathon Wright is a strategic thought leader and distinguished technology evangelist. He specializes in emerging technologies, innovation, and automation, and has more than 25 years of international commercial experience within global organizations. He is the Chief Technology Evangelist for Eggplant a Keysight Technologies company based in Cambridge in the UK. Jonathon combines his extensive practical experience and leadership with insights into real-world adoption of Cognitive Engineering (Enterprise A.I. and AIOps).

Jonathon Wright
Jonathon Wright
Track: Track+
Vortrag: Mi3.4

Vortrag Teilen

15:00 - 16:00
KeyMi
KEYNOTE: Deep Democracy – Widerstände im Team verstehen – Alle mitnehmen
KEYNOTE: Deep Democracy – Widerstände im Team verstehen – Alle mitnehmen

Lewis Deep Democracy wurde von Myrna und Greg Lewis in Südafrika in der Nach-Apartheid-Zeit entwickelt. Die Methode dient im Kern dazu, alle Stimmen hörbar zu machen, die Minderheiten ernst zu nehmen, und ihre „Weisheit“ zu integrieren. Wenn Menschen nicht gehört werden, weil sie beispielsweise in der Minderheit sind, entstehen Spannungen. Wir erleben diese Spannungen häufig als Widerstand. In diesem Vortrag lernen wir, die Widerstände zu deuten, das darin liegende Wissen zu nutzen, und wie wir damit die Beziehungs- und Gruppendynamik in einen positiven Fluss bringen.

Christiane Leiste arbeitet an der Hochschule Osnabrück als Programmleiterin und lehrt dort sowie an der Heliopolis University Kairo das von ihr entwickelte Modul „Mindful Leadership“, in dem Elemente von Positiver Psychologie, Achtsamkeit, Meditation und Deep Democracy verbunden sind.
Lehraufträge führten sie in letzter Zeit neben der Hochschule Osnabrück und der Heliopolis University Kairo unter anderem zu Akademic Emilan Stanev in Bulgarien, zur Kreisau Stiftung in Polen und nach Beirut. 
Für Christiane birgt jeder Konflikt Chancen der Veränderung und kann Anlass für Entwicklung sein. Aus dieser Haltung heraus moderiert sie empathisch und lösungsorientiert Konflikte, entwickelt und coacht Führungskräfte. Sie ist die erste Lewis Deep Democracy Trainerin in Deutschland und bislang die einzige Deep Democracy Ausbilderin im deutschsprachigen Raum. 

Christiane Leiste
Christiane Leiste
Track: Keynote
Vortrag: KeyMi

Vortrag Teilen

Zurück