Wir verwenden Cookies

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell, während andere uns helfen, diese Website und Ihre Erfahrung zu verbessern.

Essenziell
 
DIGITAL

Human Factors Labor

Das Human Factors Labor vereint modernste Messinstrumente mit innovativer Auswerte-Software zur Durchführung von Studien im Bereich "Human Factors und Ergonomie“.

Digitale Technologien für die Forschung in dem Bereich Human Factors

 

Human Factors stellt den Menschen, sein Verhalten, Stress und Emotionen in den Mittelpunkt um technische Systeme dem Menschen optimal anzupassen.

Im Human Factors Labor können innovative Messungen zur Analyse von menschlicher Aufmerksamkeit, Belastung (Stress), Emotion, und Verhalten durchgeführt werden.

Ausstattung und Messverfahren

Mit den folgenden Messinstrumenten und Plattformen werden im neue Messtechnologien entwickelt, Simulationen von Mensch-Maschine-Interaktionen erstellt und intelligente, mulitmodale Schnittstellen für menschenzentrierte Assistenzsysteme  entwickelt:

Eye-Tracking-Brillen

Aufmerksamkeitsstudien für die Anwendungsbereiche Marketing (Aufmerksamkeit in Geschäftsbereichen), Usability (Mobile Devices, Leitsysteme), Mensch-Maschine Schnittstelle (Leitstand, Flugsimulator) Mobilität (Lenker/innen, Fahrerassistenz, Fahrersicherheit, etc.) und Leistungsdiagnostik (Einsatzkräfte, Sport) durchgeführt.

Blickanalyse

Mit stationären Eye-Tracking-Messverfahren können präzise Studien am Bildschirm in den Bereichen Marktforschung (Produkt- und Regalforschung), Evaluierung von Leitsystemen (Beschilderung), und Videoanalyse durchgeführt werden.

Biosensorik

Mit digitaler, präziser, und tragbarer Biosensorik können physische und kognitive Belastungsszenarien objektiv analysiert werden, insbesondere im Zusammenhang mit Eye-Tracking Analytik.

Analyse von Emotionen

Für die Analyse von Emotionen werden einerseits Biosensorik (Analyse der Gesichtsmuskulatur) und Videoanalyse (System Affectiva) angewendet.

VR- und AR-Brillen

Mit VR- (Virtuelle Realität) und AR- (Erweiterte Realität) Brillen können einerseits gezielte Studien zum Design zukünftiger Arbeitsumgebung oder Interaktionstechnologie durchgeführt, oder effiziente Schnittstellen für Training, Ausbildung, Rehabilitation, oder Prozessmanagement entwickelt werden.

Motion Capture

Das System zur Bewegungserfassung (Motion Capture, OptiTrack) ermöglicht Bewegungsanalyse für die klinische Forschung/Rehabilitation mit Ganganalyse, Leistungsdiagnostik im Sport, und im Zusammenhang mit Eye-Tracking-Brillen die exakte Verfolgung der Aufmerksamkeit im Raum.

Virtualizer

Der Virtualizer ermöglicht die Erfahrung der Mobilität in virtuellen Räumen zur Untersuchung von Orientierung und Situationsbewusstsein (Einsatzkräfte, Leitsysteme)

Sozialer Roboter

Soziale Roboter werden für den Pflegebereich (mobil, stationär) zur Motivation, Unterhaltung und als interaktiver Informationsstand eingesetzt, sie können auch für andere Einsatzfelder adaptiert werden.

Videos

Das könnte Sie interessieren:

 

Die Ausstattung für Human Factors Messungen umfasst im Detail:

  • Eye-Tracking-Brillen (i) Pupil Labs Invisible, Augenkamera 200Hz @ 192x192 px IR Illumination, Szenenkamera 30Hz mit 1088x1080px, Sichtfeld 90°x90°, Echtzeit Videostreaming 55 fps Blickdaten mit Video Mikrofon, Akzelerometer und Gyroskop, (ii) SMI ETG1, ETG2, 30-60 Hz, Parallaxenausgleich, HD 1280 x 960 Pixel Szenenvideo mit Blick-Annotation, Positionierungsgenauigkeit von 0,5-1°, Sichtfeld 70° horizontal x 55° vertikal.
  • Statisches Präzisions-Eye-Tracking, 500 Hz binokular, RED 500, räumliche Auflösung 0.03°.
  • BeGaze Eye-Tracking Bearbeitungs-Software, MPEG-4 Szenenvideo mit Blick-Annotation.
  • Psychophysiologische Messtechnologien mit BIOPAC tragbarer Biosensorik (EDA, EKG, PPG, EMG, Atmung), Emotionsmessung (Facial EMG) für Echtzeitmessung von mehreren Personen im Labor und mit Datenlogger für die gleichzeitige Messung von max. 3 Personen in beliebiger Umgebung und Zeiträume.
  • Cyberith Virtualizer Elite 2 für Mobilitätsforschung in Virtual Reality Umgebungen.
  • 2 Sozial Assistive Roboter (Softbanks Inc., Pepper) für die Messung sozialer Interaktionen.
  • Virtual Reality gestützte Messungen mit Eye Tracking (HTC Vive Pro Eye), Oculus. Software zur VR-basierten Schätzung des kognitiven Zustands und Achtsamkeits-Score.
  • Augmented Reality (AR) mit Eye Tracking: 2 HoloLens 2), Hololens mit Pupil Labs Eye Tracking; AR-HMD-basierte Eye-Tracking-Messungen für Konzentration, Stress und kognitive Multi-Tasking-Belastung.
  • 10 OptiTrack-IR-Kameras mit hochpräziser Positionsverfolgung und Einlass-Eye-Tracking-Gerät.
  • iMotions Multisensor-Zeitsynchronisationssoftware.
  • Emotionsklassifikation Software (iMotions Affectiva) auf Basis videogestützter Klassifikation von Gesichtsemotionen.
  • Eye Tracking und Analytik mit Tablet-PCs: Mobile Eye Tracking Hardware für Tablet-PCs (Microsoft Surface); Webkamera gestützte Software WebGazer für Android Tablets.
  • Human Factors Analyse Multi-Sensor Messsystem für die präzise zeitsynchrone Mehrkanalanalyse von psychophysiologischen Messungen und die gleichzeitige Messung von Augenbewegungen.

Forschungsaktivitäten und Ziele

 

Das Human Factors Lab ist insbesondere in der Entwicklung und Evaluierung von Assistenzsystemen im Forschungsbereich AAL und Digital Care tätig. Einen Schwerpunkt bildet dabei „IKT und Demenz“ mit der Entwicklung eines blickgestützten Demenztrainings (Paletta et al., 2020), MIRA (Mobile Instrumental Review of Attention), sowie VR-gestützte Entspannung für die Erweiterung der Kognitiven Reserve (Paletta et al., 2020). 

    Referenzprojekte

    • multimodAAL - Spielgestützte multimodale Intervention, Monitoring und Decision Support zur Aktivierung bei Alzheimer-Demenz
    • PLAYTIME - Spielerisches multimodales tägliches Trainings-, Diagnose- und Empfehlungssystem in einem sozialen Netzwerk.
    • AMIGO - Analyse und Motivation von Trainingsaktivitäten für Demenz betroffene durch soziale Robotik mit dialoggestütztem Coaching
    • CollRob - Collaborative Robotics
    • MMASSIST - Assistenzsysteme in der Produktion im Kontext Mensch – Maschine Kooperation
    • SIXTHSENSE - Biosensor-Wearables und Entscheidungsunterstützung für die Risikoüberwachung von Einsatzkräften

    Studienauswertungen mit Methoden der internationalen Forschung

     

    • Kooperation mit Karl-Franzens-Universität, Institut für Psychologie (Klassifikation von psychophysiologischen Messungen);
    • Kooperation mit Medizinischer Universität Graz, Institut für Pflegewissenschaften (Assistenzsysteme für Personen mit Demenz, Pflegepersonal);
    • Kooperation mit Universität Augsburg, Lehrstuhl für Embedded Intelligence for Health Care and Wellbeing (Klassifikation von Audio–Daten).
    Informieren Sie sich unverbindlich bei