• Menü menu
  • menu Menü öffnen
Forschungsinfrastruktur -  
Digital

Human Factors Labor

Das Labor vereint modernste Messtechnologien mit intelligenter Analyse-Software für Prototypentwicklungen und Studien im Bereich „Human Factors und Ergonomie“.

Humanfaktoren stellen den Menschen und sein Verhalten, ausgelöst durch Stress und starke Emotionen, in den Mittelpunkt und sind ein wesentlicher Punkt, um technische Systeme dem Menschen optimal anzupassen. Im Human Factors Labor können innovative Messungen zur Analyse von menschlicher Aufmerksamkeit, Belastung (Stress), Emotion, und Verhalten durchgeführt werden.

Unser Experte*innen Team entwickelt digitale Biomarker für Psychopysiologisches Assessment (Kognitives Screening für Demenz, Situationsbewusstsein für Einsatzkräfte) und sind in der Entwicklung und Evaluierung von Assistenzsystemen im Forschungsbereich AAL (Active & Assisted Living) und Digital Care tätig. Einen Schwerpunkt bildet dabei das Thema Informations- und Kommunikationstechnologie und Demenz mit der Entwicklung eines blickgestützten Demenztrainings sowie VR-gestützte Entspannung für die Erweiterung der kognitiven Reserven.

Ausstattung und Messverfahren

Mit den folgenden Messinstrumenten und Plattformen werden neue Messtechnologien entwickelt, Simulationen von Mensch-Maschine-Interaktionen erstellt und intelligente mulitmodale Schnittstellen für menschenzentrierte Assistenzsysteme entwickelt:

  • Eye-Tracking-Brillen: Aufmerksamkeitsstudien werden für die Anwendungsbereiche Marketing (Aufmerksamkeit in Geschäftsbereichen), Usability (Mobile Devices, Leitsysteme), Mensch-Maschine Schnittstelle (Leitstand, Flugsimulator) Mobilität (Lenker/innen, Fahrerassistenz, Fahrersicherheit, etc.) und Leistungsdiagnostik (Einsatzkräfte, Sport) durchgeführt.
  • Blickanalyse: Mit stationären hochauflösenden, State-of-the-art Eye-Tracking-Messverfahren können präzise Studien am Bildschirm in den Bereichen Marktforschung (Produkt- und Regalforschung), Evaluierung von Leitsystemen (Beschilderung) und Videoanalyse durchgeführt werden.
  • Sensorik für Biosignale: Mit digitaler, präziser und tragbarer Sensorik für Biosignale können physische und kognitive Belastungsszenarien objektiv analysiert werden, insbesondere im Zusammenhang mit Eye-Tracking Analytik.
  • Analyse von Emotionen: Für die Analyse von Emotionen werden einerseits Sensorik für Biosignale (Analyse der Gesichtsmuskulatur) und Videoanalyse (System Affectiva) angewendet.
  • VR- und AR-Brillen: Mit VR- (Virtuelle Realität) und AR- (Erweiterte Realität) Brillen können einerseits gezielte Studien zum Design zukünftiger Arbeitsumgebung oder Interaktionstechnologie durchgeführt, oder effiziente Schnittstellen für Training, Ausbildung, Rehabilitation, oder Prozessmanagement entwickelt werden.
  • Motion Capture: Das System zur Bewegungserfassung (Motion Capture, OptiTrack) ermöglicht Bewegungsanalysen für die klinische Forschung/Rehabilitation mit Ganganalyse, Leistungsdiagnostik im Sport und im Zusammenhang mit Eye-Tracking-Brillen, die exakte Verfolgung der Aufmerksamkeit im Raum.
  • Virtualizer: Der Virtualizer ermöglicht die Erfahrung der Mobilität in virtuellen Räumen zur Untersuchung von Orientierung und Situationsbewusstsein (Einsatzkräfte, Leitsysteme).
  • Sozialer Roboter: Soziale Roboter werden für den Pflegebereich (mobil, stationär) zur Motivation, Unterhaltung und als interaktiver Informationsstand eingesetzt, sie können auch für andere Einsatzfelder adaptiert werden.

 

Pepper als „Begleiter im Alltag“

Der Soziale Roboter Pepper, der als „Gefährte“ programmiert wurde, ist ein gemeinsames Produkt des französischen Unternehmens Aldebaran Robotics SAS und des japanischen Telekommunikations- und Medienkonzerns SoftBank Mobile Corp. Der soziale Roboter kann sprechen, hören, gestikulieren, tanzen und sich mit dem Gesprächspartner austauschen.

Da Pepper keine Gesichtsausdrücke zeigen kann, wurden für die Emotionserkennung andere Lösungen verwendet: Der helle Bereich um die Pupille seiner Augen kann verschiedene LED-Farben annehmen. Durch eine Farben-Abfolge wird der Effekt einer emotionellen Reaktion erreicht. Der Roboter kann die Stellung des Kopfes, der Schultern und der Hände verändern und die erzeugten Bewegungen wirken wirklichkeitsnah, denn Pepper kann sich mit Hilfe von sensorischer Ausstattung zu dem im Raum wahrgenommenen Gespräch hinbewegen.

Unsere Expert*innen von DIGITAL entwickelten im Projekt AMIGO gemeinsam mit Partnern eine multisensorische, soziale Roboterplattform, die Menschen mit Demenz unterhaltsam für die tägliche Durchführung multimodaler Trainingsübungen motivieren soll. Der digitale „Gefährte“ ermöglicht es, personalisierte Übungen durchzuführen, um kognitive Prozesse zu stimulieren und koordinative Übungen sowie soziale Aspekte einzubeziehen.

Projekt AMIGO

Kontakt

Ihre Ansprechperson

Standort

DIGITAL – 
Institut für Digitale Technologien
Steyrergasse 17,
8010
Graz

Das sagen unsere Kunden

Weitere Forschungsinfrastruktur

Skip to content