Vergleichsprozesse optimieren - Erzeugung von automatisierten Performance-Tests

Stehen mehrere Produkte, Software-Lösungen oder Algorithmen zur Auswahl, werden oft bereits für die entsprechende Kategorie erprobte Vergleichsprozesse und Bewertungsmaßstäbe (sogenannte Benchmarks) eingesetzt. Mit ihnen kann eine Entscheidung für oder gegen die einzelnen Kandidaten in Hinblick auf ihre Leistungsfähigkeit (Performanz) getroffen werden.

Beim Einsatz von Benchmarks können zwei Probleme auftreten:

  1. Ein Benchmark selbst kann fehlerhaft sein und die Entscheidung nur zum Teil passend unterstützen.

  2. Ein Produkt kann ganz oder zum Teil dafür konstruiert worden sein, möglichst gut in einem bestimmten Benchmark abzuschneiden.

Die AG Software Engineering befasst sich mit der automatisierten Erzeugung von Performanz-Tests für Software, bei der diesen Problemen Rechnung getragen wird. Das Exponat führt die Besucher spielerisch an die dargestellte Problematik und aktuellen Forschungsarbeiten heran.

Fachgebiet: Software Engineering
Leitung: Mathias Menninghaus, Elke Pulvermüller