Konferenzprogramm

Konferenzprogramm 2023

Track: Non-Funtional Requirements

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Mittwoch
    24.05.
, (Mittwoch, 24.Mai 2023)
10:35 - 11:10
2.1
Achterbahnfahrt (aka Lasttest) einer Live-Streaming Plattform mit 310.000 Benutzern
Achterbahnfahrt (aka Lasttest) einer Live-Streaming Plattform mit 310.000 Benutzern

Ein Adrenalinkick für QA Experten - mussten Praktiken, Testansätze und -fähigkeiten doch rasch angepasst werden, um bei diesem enormen Fahrtwind weiterhin qualitativ hochwertige Erlebnisse zu garantieren. In diesem Vortrag nehmen wir Sie mit auf eine spektakuläre Achterbahnfahrt durch Last- und Performancetests eines komplexen Anwendungsfalls einer Audio-Video-Streaming-Plattform. Die Herausforderung: Gleichzeitiger Zugriff von 310.000 Benutzern auf die Plattform und ein begrenztes Budget.Wir entschieden uns für ein Open-Source-Tool, suchten nach einer kosteneffizienten Testinfrastruktur und entwickelten selbst eine Reihe von Dienstprogrammen

Zielpublikum: Test-Experten, speziell Last-, Perf Test-Engineers, Testmanager
Voraussetzungen: Grundkenntnisse Testing Nichtfunktionaler Anforderungen, speziell Last-, Performance Tesing
Schwierigkeitsgrad: Advanced

Extended Abstract:
Ein Adrenalinkick für QA Experten - mussten Praktiken, Testansätze und -fähigkeiten doch rasch angepasst werden, um bei diesem enormen Fahrtwind weiterhin qualitativ hochwertige Erlebnisse zu garantieren.
In diesem Vortrag nehmen wir Sie mit auf eine spektakuläre Achterbahnfahrt durch Last- und Performancetests eines komplexen Anwendungsfalls einer Audio-Video-Streaming-Plattform.
Die Herausforderung: Gleichzeitiger Zugriff von 350.000 Benutzern auf die Plattform und ein begrenztes Budget.
Wir entschieden uns für ein Open-Source-Tool, suchten nach einer kosteneffizienten Testinfrastruktur und entwickelten selbst eine Reihe von Dienstprogrammen.
Der Schwerpunkt lag nicht nur auf der Sicherstellung der Gesamtleistung des Systems, sondern auch auf der Überwachung der Qualität des Audio-Video-Streamings, wenn 350.000 Benutzer live in der Anwendung an verschiedenen, parallellaufenden Vorträgen teilnehmen.

 

Peter Kuras durchlief nach dem Studium mehrere Stationen in den Bereichen Multi-Projektmanagement bis zur Umsetzung der Digitalisierung und Vorantreiben größerer Anwendungsplattformen. Im seinem Zusammenspiel zwischen IT und weiteren Fachbereichen war qualitativ hochwertig Software stets ein wichtiges und herausforderndes Thema. Peter blüht auf wenn es um kundennahe, mehrwertschöpfende aber auch intensive Projekte geht wo QA sehr stark im Fokus steht. Heute treibt Peter als Director Business Development den QA Bereich in Deutschland voran und verantwortete bisher große Kundenprojekte mitunter im L&P Test Bereich. Dabei hat Peter stets die Optimierung durch Einsatz neuster oder gut bewährter Technologien im Auge.

Helmut Pichler blickt auf eine langjährige Karriere im Bereich Test- und Qualitätsmanagement zurück. Neben seiner Beratertätigkeit hält er auf zahlreichen Konferenzen Vorträge über Softwaretest-Themen. Seine Leidenschaft gilt einer praxisnahen, pragmatischen, lösungsfokussierten QA im agilen sowie auch traditionellen Umfeld, Last- und Performancetests und beschäftigt sich in letzter Zeit intensiver mit Emerging Technologie-Lösungen. Helmut ist Co-Autor des Buches 'Agile Testing' und ein Veteran in der internationalen Tester Community. Darüber hinaus ist er Präsident des Austrian Testing Boards (ISTQB®-Vertretung in Österreich), das für Softwaretest-Zertifizierungen zuständig ist.

Peter Kuras, Helmut Pichler
Peter Kuras, Helmut Pichler

Vortrag Teilen

11:20 - 11:55
2.2
A tester's job in sustainable software engineering
A tester's job in sustainable software engineering

The field of 'green IT & green programming' was established decades ago. But not only due to the current circumstances it becomes more popular. If we take a look on the life cycle of (cloud) applications, it feels like that we have forgotten to take care on used computing resources as they are seemed to be available unlimited.
Within this session we explain 'sustainability' as a non-functional requirement for software systems, define metrics and KPIs to measure it and analyse the impact from and towards other NFR classes, like performance or availability. We close the session with testing approaches for this quality attribute.

Target Audience: Tester, NFR engineers, developers, architects
Prerequisites: None
Level: Basic

Extended Abstract:
This session tries to give an answer to the following questions - or it is at least a starting point for your context-specific discussions on this important topic:

  • what does sustainability mean in the field of software engineering?
  • how is sustainability defined in other branches?
  •  is sustainability a new class of non-functional requirements?
  • what other NFR classes have an - positive and negative - impact on sustainability?
  • how can we measure sustainability?
  • how can we test for sustainability in software projects?

Markus works as lead software performance engineer at Celonis. In a data intensive domain he works on efficient ways to ensure performance and scalability, combined with internal software qualities like maintainability or testability.

As portfolio manager Florian aims to enable Siemens companies for their digitalization transformation by conducting applied research, consulting and operational lead, while envisioning the strategic roadmap for related research questions.

As Lead Test Architect in Siemens MindSphere and other innovation projects he was responsible for Test Architecture and Infrastructure, leading related international distributed teams and closely collaborating with R&D, QV, Architecture, Security and Operations Management.

Markus Lachenmayr, Florian Krautwurm
Markus Lachenmayr, Florian Krautwurm

Vortrag Teilen

12:05 - 12:40
2.3
Bessere Testbarkeit durch Code-Design- und Architekturmuster, die Abhängigkeiten beherrschbar machen
Bessere Testbarkeit durch Code-Design- und Architekturmuster, die Abhängigkeiten beherrschbar machen

Tester werden in agilen, crossfunktionalen Teams zunehmend zu Qualitäts-Spezialisten und -Moderatoren und arbeiten gemeinsamen mit den Entwicklern an der Testautomatisierung auch auf den unteren Teststufen. Es ist also wichtig, dass Tester nicht nur die Test-Grundlagen kennen und vermitteln, sondern auch die Herausforderungen bei der Programmierung verstehen: Wann Code bzw. die Komponenten einer Anwendung gut automatisiert testbar sind - und was dem häufig im Wege steht. In diesem Vortrag zeige ich mit einfachen Beispielen, wie man eine gute Testbarkeit im Code-Design und in der Architektur erreicht: Durch das Beherrschen von Abhängigkeiten.

Zielpublikum: Tester, Testmanager, Entwickler, Architekten
Voraussetzungen: Erfahrungen mit dem Schreiben von Code und automatisierter (Unit-)Tests sind hilfreich, aber nicht erforderlich
Schwierigkeitsgrad: Basic

Extended Abstract:
Tester werden in agilen, crossfunktionalen Teams zunehmend zu Qualitäts-Spezialisten und -Moderatoren. Dabei arbeiten sie gemeinsamen mit den Entwicklern an der Testautomatisierung auch auf den unteren Teststufen. Es ist also wichtig, dass Tester nicht nur die Test-Grundlagen kennen und vermitteln, sondern auch die Herausforderungen bei der Programmierung verstehen: Wann Code bzw. die Komponenten einer Anwendung gut automatisiert testbar sind - und was dem häufig im Wege steht. In diesem Vortrag zeige ich mit einfachen Beispielen, wie man eine gute Testbarkeit im Code-Design und in der Architektur erreicht: Durch das Beherrschen von Abhängigkeiten. Ziel dieser Session ist, dass man als Tester Impulse bzw. erste Anregungen bekommt, wie man Softwareentwicklungsteams durch geeignete Fragen und Ideen unterstützen kann, damit Testen und Testbarkeit ein nachhaltiger, integraler Bestandteil der gemeinsamen Arbeit ist.

Auf welchem Hintergrund entstand dieser Vortrag, warum liegt der Fokus auf Testbarkeit von Code-Design und Architektur? Bei meiner Arbeit mit zahlreichen Teams habe ich während der letzten Dekade ein wiederkehrendes Muster beobachtet: Teams mit guter, schneller Testautomatisierung liefern oftmals bessere Lösungen kontinuierlicher ab - und arbeiten dabei oft auch sehr gut rollenübergreifend zusammen. Aber warum erreichen manche Teams eine gute Testautomatisierung, während sich andere damit über Jahre abmühen?

Meiner Erfahrung nach hängt dies davon ab, ob der Code einfach testbar ist. Das hat positive Auswirkungen nicht nur auf die unteren (Unit-)Teststufen, sondern erleichtert meist auch das Testen auf höheren Stufen. Gerade bei Unit-Tests denkt man dann sofort an Programmierpraktiken wie Test-Driven Development (TDD), durch die ein besseres - besser testbares! - Code-Design entsteht. Aber darum soll es in diesem Vortrag nicht (oder nur ganz am Rande) gehen. Denn es gibt auch einige Architekturstile bzw. -muster, die ein einfacheres Testen mit schnelleren Feedback-Schleifen ermöglichen. Und das ist nicht nur für Entwickler interessant, sondern auch für andere Rollen wie beispielsweise Tester.

Wir schauen uns in dieser Session an, was es bedeutet, Geschäftslogik von Integrationscode zu trennen, welche unterschiedlichen Code-Designs und Architekturmuster es gibt, um dieses Ziel zu erreichen - und warum damit kleinere und schnellere automatisierte Tests möglich sind. Es geht dabei um die absoluten Grundlagen von testbarem Code und testbarer Architektur. Wer sich nicht täglich mit diesen Themen beschäftigt, wird Anregungen und Tipps bekommen, worauf es sich bei der täglichen Arbeit zu achten lohnt.

Die gezeigten Beispiele bestehen aus einfachem, sprachunabhängigem Pseudo-Code und einfachen Architekturdiagrammen.

 

Thomas ist Technical Agile Coach für Die Techniker (TK) in Hamburg. Zusammen mit seinen Coaching-Kolleg:innen unterstützt er Teams dabei, in der Zusammenarbeit und den agilen, kontinuierlichen Programmierpraktiken immer besser zu werden - unter anderem durch die Förderung von Pair- und Team-Programming, TDD und Testautomatisierung.

Thomas Much
Thomas Much

Vortrag Teilen

Zurück