Realisierung eines offlinefähigen Open Source-Sprachassistenten zur Nutzung durch vulnerable Personengruppen


Eric Landgraf

Präsentation
05. October 2021, 10:30 Uhr, Raum Zoom
Betreuer
Prof. Dr. Stefan Bente
Kooperationspartner
TH-Köln - Forschungsprojekt INTIA
Stichworte
Sprachassistenten, Vulnerable Personengruppen, Raspberry Pi, Docker, Node-RED, MQTT
Bildrechte
Eric Landgraf

Abstract

Durch die Regelung des Datenschutzes in Deutschland können herkömmliche Sprachassistenten wie Alexa, Siri oder der Google Sprachassistent nicht an Orten eingesetzt werden, in denen vulnerable Personengruppen betreut werden. Der Datenschutz bei den oben genannten Sprachassistenten wird nicht eingehalten, da die Auswertung der Sprachbefehle ausgelagert wird, also nicht direkt auf den Geräten selbst stattfindet. Dies ermöglicht zwar die Einsparung von Ressourcen und eine bessere Erkennung der Befehle, aber es schließt eine Bevölkerungsgruppe von der digitalen Teilhabe mit solchen Geräten aus.

In dem Projekt ging es darum die Zielgruppe genauer zu bestimmen, Stakeholder des Projektes zu identifizieren und mittels Domänen- und Zielgruppenanalyse besser zu verstehen. Hierfür wurden zwei Interviews mit “Domänen-Experten” aus den Bereichen Jugendbetreuung/-förderung (Mitarbeiterin des Jugendamts) und Alten- und Krankenbetreuung/-pflege (Mitarbeiterin einer Altentagespflege) geführt. Durch die Herangehensweise mittels Microsoft’s “Inclusive Design” und dem Prinzip “Solve for one, extend to many” (auf deutsch: Für einen lösen, auf viele erweitern) wurde die Altenpflege, mit der Überlegung Ergebnisse ebenfalls auf andere Bereiche der Domäne erweitern zu können, zum Schwerpunkt der Betrachtung des Projektes. Darauf aufbauend wurden Anforderungen an den Sprachassistenten gebildet.

Im Wintersemester 20/21 fand das Informatikprojekt “Open-Source-Sprachassistenten” statt, hierbei wurden existierende Open-Source Sprachassistenten Frameworks (Jasper, Rhasspy, Project Alice, Mycroft und Almond) begutachtet, getestet und Prototypen entwickelt. Auf den Anforderungen basierend wurde eine Analyse und eigene Tests mit den entwickelten Prototypen und ihrer Dokumentationen durchgeführt.

Ergebnis der Analyse war die Wahl des Frameworks Rhasspy und damit wurde dann ein evaluierbarer, offlinefähiger Open-Source Sprachassistent in einem iterativen Prozess entwickelt. Bedienbarkeit und “Skills” richten sich auf eine Nutzung in der Altenpflege, aber können ebenfalls in anderen Bereichen der Domäne interessant und nutzbar sein.

Material & weiterführende Infos

Vorschläge für weitere Arbeiten im Themenfeld

Empirische Forschung zum Feststellen des Erreichungsgrades von Anforderungen - Wie leicht kann MaxMax von Mitgliedern der Zielgruppe installiert, verstanden und benutzt werden?

Vertiefung der für gelungene Inklusion benötigten Merkmale eines Sprachassistenten