Themen für Abschlussarbeiten (Bachelor & Master)
Allgemeine Hinweise
Kontakt
Wirtschaftsinformatik
Professur für Anwendungssysteme und E-Business
M.Sc. in Wirtschaftsinformatik
Tamino Marahrens
Platz der Göttinger Sieben 5
37073 Göttingen
Raum MZG 5.131
Tel. 0551 39-28419
tamino.marahrens@uni-goettingen.de
Themen für Abschlussarbeiten (Bachelor & Master) im SoSe 2025
Betreuer
Status
Thema
Kurzbeschreibung
M. Groth
Vergeben
Analyse der Barrieren des Einsatzes von Machine Learning in der industriellen Ablaufplanung und Erstellung von Gestaltungsempfehlungen zur Überwindung dieser Barrieren (Abgabe spätestens 22.08.2025)
Die industrielle Ablaufplanung wird durch steigende Anforderungen an Flexibilität und Individualisierung zunehmend komplexer. Die wachsende Nachfrage nach maßgeschneiderten Produkten und kleinere Losgrößen erhöhen nicht nur die Herausforderungen in der Planung, sondern verschärfen auch die Auswirkungen dynamischer Einflüsse wie Maschinenausfälle oder kurzfristige Eilaufträge. Diese Entwicklungen unterstreichen den Bedarf an innovativen Lösungsansätzen, darunter der Einsatz von Machine-Learning-Algorithmen.
Trotz des Potenzials von Machine Learning bei der Bewältigung solcher Herausforderungen existieren jedoch zahlreiche Barrieren, die eine erfolgreiche Implementierung behindern, etwa technologische, organisatorische oder datenspezifische Hürden.
Ziel dieser Arbeit ist es, diese Barrieren systematisch zu analysieren und basierend auf den Erkenntnissen Gestaltungsempfehlungen zu entwickeln, die eine Überwindung dieser Hindernisse ermöglichen.
M. Groth
Vergeben
Konzeption und Evaluation eines Benchmarkdatensatzes für den Vergleich von industriellen Ablaufplanungsalgorithmen im Kontext von Industrie 4.0 (empfohlen für Master, Abgabe spätestens 22.08.2025)
Die Einflüsse von Industrie 4.0 und gestiegene Kundenansprüche haben die Komplexität der industriellen Ablaufplanung erhöht. Dies ist auch ein Problem für den Vergleich von Ablaufplanungsalgorithmen, da die Ablaufplanungsalgorithmen anwendungsfallspezifische Anforderungen umsetzen und damit eine erhöhte Komplexität berücksichtigen. In den bestehenden Benchmarkdatensätzen ist diese Komplexität nicht abgebildet. Um die Vergleichbarkeit von Ablaufplanungsalgorithmen im Kontext von Industrie 4.0 zu gewährleisten, sind angepasste Benchmarkdatensätze erforderlich.
Folglich ist das Ziel dieser Arbeit einen Benchmarkdatensatz zu konzipieren und zu evaluieren, der die geänderten Anforderungen durch den Einfluss von Industrie 4.0 berücksichtigt.
M. Groth
Vergeben
Konzeption, prototypische Entwicklung und Evaluation eines agentenbasierten Machine-Learning-Algorithmus für die industrielle Ablaufplanung (nur Master, Abgabe spätestens 22.08.2025)
Die Miniaturisierung und der Preisrückgang von Sensoren und anderen informations- und kommunikationstechnischen Komponenten ermöglichen den Einsatz dieser in Produktionsressourcen. Dadurch können beispielsweise Maschinen ihren eigenen Status sowie den Status ihrer Umwelt wahrnehmen, sodass datengetriebene Machine-Learning-Ablaufplanungsalgorithmen umgesetzt werden können. In der Forschung werden hierfür bereits verschiedene Ansätze verfolgt. Ein vielversprechender Ansatz für die Ablaufplanung sind agentenbasierte Systeme, damit Besonderheiten einzelner Maschinen individuell berücksichtigt werden können.
Ziel dieser Arbeit ist es daher einen agentenbasierten Machine-Learning-Ablaufplanungsalgorithmus zu konzipieren, prototypisch zu entwickeln und zu evaluieren.
Betreuer
Status
Thema
Kurzbeschreibung
L. Kopahs
Vergeben
Evaluierung und Weiterentwicklung eines bestehenden Prototyps einer virtuellen Produktionsstätte (nur Master)
In dieser Arbeit wird ein bestehender Prototyp evaluiert und auf Basis der Ergebnisse weiterentwickelt, um die nächste Iteration des Design Science Research (DSR) Zyklus umzusetzen. Das Vorgehen umfasst zunächst eine umfassende Analyse des bestehenden Prototyps in Hinblick auf Funktionalität, Benutzerfreundlichkeit und Anwendungseffizienz. Auf Basis dieser Evaluation werden konkrete Anpassungen und Erweiterungen konzipiert, die sowohl technische als auch didaktische Anforderungen adressieren. Die vorgeschlagenen Modifikationen werden anschließend in den Prototyp integriert und in einer praxisnahen Testsituation validiert. Die Ergebnisse des Tests dienen als Grundlage für weitere Optimierungen und als Beitrag zur kontinuierlichen Verbesserung des Prototyps. Ziel ist es, ein robustes und effektives Artefakt zu entwickeln, das den Anforderungen der Praxis gerecht wird.
L. Kopahs
Vergeben
Entwicklung didaktischer Lernvideos: Erstellung und Optimierung auf Basis eines bestehenden Prototyps
Diese Arbeit widmet sich der Erstellung didaktischer Lernvideos, die auf einem bestehenden Prototyp basieren. Ziel ist es, effektive Videos zu entwickeln, die komplexe Inhalte verständlich und interaktiv vermitteln. Das Vorgehen umfasst zunächst eine Analyse des Prototyps, um das Szenario nachzuvollziehen und anschließend wird dies in Lernvideos umgesetzt. Abschließend wird der Entwicklungsprozess dokumentiert, und es werden Handlungsempfehlungen für die zukünftige Erstellung von Lernvideos erarbeitet.
L. Kopahs
Vergeben
Evaluierung eines Frameworks zur digitalen Vermittlung komplexer Lerninhalte: Eine Analyse der Praxistauglichkeit und Effektivität
In der Arbeit wird ein bestehendes Framework untersucht, das darauf abzielt, komplexe Lerninhalte in digitalen Schulungsformaten effektiv zu vermitteln. Das Framework wird in einer realen Anwendungssituation getestet. Hierbei werden Schulungsteilnehmer und Experten einbezogen, um qualitative und quantitative Daten zu sammeln. Die Evaluation kann durch Interviews, Umfragen und Beobachtungen erfolgen, um die Effektivität und Anwendbarkeit des Frameworks zu beurteilen. Abschließend werden die Ergebnisse systematisch ausgewertet und Optimierungsvorschläge für zukünftige Anwendungen erarbeitet.
Betreuer
Status
Thema
Kurzbeschreibung
T. Marahrens
Vergeben
Einfluss von Employer Branding auf die Rekrutierung von Seniors und Professionals in der IT-Branche (in Kooperation mit Prof. Schumann GmbH)
T. Marahrens
Vergeben
Anforderungsanalyse und Konzeption eines Datenmodells für den Informationsaustausch zwischen digitalen Zwillingen in der logistischen Wertschöpfungskette
Die Digitalisierung der logistischen Wertschöpfungskette birgt großes Potenzial zur Optimierung von Prozessen, der Effizienzsteigerung und der Förderung der Zusammenarbeit zwischen verschiedenen Akteuren. Digitale Zwillinge, die als virtuelle Abbilder physischer Systeme und Prozesse fungieren, spielen hierbei eine zentrale Rolle. Sie ermöglichen den Austausch von Informationen in Echtzeit, wodurch die Koordination entlang der gesamten Wertschöpfungskette verbessert werden kann. Trotz der vielfältigen Möglichkeiten fehlt es bisher an einer standardisierten Datenbasis, die den Informationsaustausch zwischen digitalen Zwillingen in der Logistikbranche ermöglicht.
Das Ziel dieser Masterarbeit ist es, zunächst die Anforderungen an ein Datenmodell für den Informationsaustausch zwischen digitalen Zwillingen in der logistischen Wertschöpfungskette zu erheben. Basierend auf einer Analyse der Einsatzmöglichkeiten von digitalen Zwillingen werden anschließend Konzepte für ein datenbasiertes Modell entwickelt, das die Interoperabilität und Integration in bestehende Systeme sicherstellt.
T. Marahrens
Vergeben
Einsatzmöglichkeiten und Herausforderungen von digitalen Zwillingen im Kommissionierungsprozess (nur Bachelor)
Digitale Zwillinge sind virtuelle Abbilder physischer Objekte, Prozesse oder Systeme. Im Kommissionierungsprozess, der eine entscheidende Rolle in der Logistik spielt, bieten sie Potenzial zur Verbesserung der Effizienz und Genauigkeit. Mithilfe digitaler Zwillinge können Prozesse wie die Auftragsbearbeitung, die Wegeoptimierung oder die Ressourcenzuteilung in Echtzeit überwacht und analysiert werden. Zudem ermöglichen sie Simulationen zur Identifikation von Verbesserungspotenzialen und zur Vorhersage von Problemen, beispielsweise durch Engpässe oder ineffiziente Lageranordnungen.
Das Ziel dieser Bachelorarbeit ist es, die Einsatzmöglichkeiten digitaler Zwillinge im Kommissionierungsprozess systematisch zu untersuchen und zu bewerten. Dabei sollen auch die Herausforderungen analysiert werden, die bei der Implementierung entstehen, wie etwa die Integration in bestehende IT-Systeme, die Qualität der zugrunde liegenden Daten sowie die Sicherheit und Skalierbarkeit der Systeme.
Betreuer
Status
Thema
Kurzbeschreibung
L. Wilhelmi
Vergeben
Untersuchung des Einflusses kontextbasierter Informationsintegration auf die Performance domänenspezifischer Large Language Models
Generative KI, insbesondere Large Language Models (LLMs), eignet sich für die Textverarbeitung, da sie unstrukturierte Textdaten analysiert, semantische Zusammenhänge extrahiert und kontextualisierte Informationen für spezifische Anwendungsfälle generiert. Durch ihre Anpassung an die Terminologie und Aufgaben einer bestimmten Domäne erreichen LLMs bei domänenspezifischen Aufgaben eine höhere Präzision und Genauigkeit.
Im Hinblick auf die Verwendung von LLMs für domänenspezifische Anwendungen, beispielsweise im Bereich der Nachhaltigkeitsberichterstattung gilt es zu untersuchen welche Methoden sich zur Einbindung kontextueller Informationen eignen und inwiefern diese messbar sind. Ziel der Arbeit ist die Analyse von Methoden zur Einbindung sowie des Einflusses dieser auf die Leistung von LLMs am Beispiel der Nachhaltigkeitsberichterstattung.
L. Wilhelmi
Vergeben
Untersuchung der Einsatzmöglichkeiten eines Vision Language Models zur Extraktion von ESG-Metriken aus Nachhaltigkeitsberichten (nur Master)
Die Analyse von Nachhaltigkeitsberichten und den darin enthaltenen ESG-Metriken stellt eine unverzichtbare Komponente für nachhaltige Investitionsentscheidungen dar, da sie Investoren Einblicke in nicht-finanzielle Faktoren bieten, welche die langfristige Unternehmensentwicklung beeinflussen können. In den Nachhaltigkeitsberichten liegen die Metriken häufig in heterogenen Layouts und unterschiedlichen Formaten wie Texten, Tabellen und Grafiken vor, was die automatische Extraktion erschwert. Vision Language Models (VLMs) bieten hierbei einen vielversprechenden Ansatz, um neben Text auch Grafiken und Tabellen visuell zu verarbeiten und so ESG-Metriken zuverlässig zu extrahieren. Ziel dieser Arbeit ist es daher, die verschiedenen Einsatz- und Anpassungsmöglichkeiten eines VLM im ESG-Kontext zu untersuchen und die der Extraktion vorausgehenden notwendigen Verarbeitungsschritte zu analysieren.
L. Wilhelmi
Vergeben
Entwicklung einer Taxonomie zur Systematisierung von ESG-Datenanbietern
Die Bewertung von Umwelt-, Sozial- und Governance-Leistungen (ESG) von Unternehmen gewinnt zunehmend an Bedeutung. Traditionelle ESG-Ratings werden häufig von menschlichen Analysten erstellt, was zu einer subjektiven Beurteilung führen kann. In den letzten Jahren haben jedoch technologische Innovationen im Bereich der Finanztechnologie zu einer neuen Art von ESG-Datenprovidern geführt. Diese „alternativen ESG-Datenanbieter“ nutzen Künstliche Intelligenz (KI) und maschinelles Lernen, um unstrukturierte Daten aus vielfältigen Internetquellen zu sammeln und zu analysieren, ohne auf direkte Unternehmensangaben zurückzugreifen (Hughes et al. 2021).
Ziel dieser Arbeit ist es, nach dem Vorgehen von Nickerson et al. (2013) eine Taxonomie für den Markt von ESG-Datenanbietern zu entwickeln, um eine Systematisierung zu schaffen, auf der unter anderem Unterschiede zwischen traditionellen und alternativen Anbietern herausgearbeitet werden können. Die Iterationen der Taxonomieentwicklung können dabei eine Literatursuche und Marktanalyse umfassen.
Michael Groth - Themenschwerpunkt: Industrielle Ablaufplanung (3/3 vergeben)
Leonie Kopahs - Themenschwerpunkte: Didaktische Konzepte und technische Anforderungen für virtuelle Lernszenarien (3/3 vergeben)
Tamino Marahrens - Themenschwerpunkte: Digitalisierung und Automatisierung in der Intralogistik (3/3 vergeben)
Lars Wilhelmi - Themenschwerpunkte: Validierung und Analyse von ESG-Daten in der Unternehmenskommunikation (3/3 vergeben)