M2 Raum

Mensch-Maschine-Schnittstellen

M2 konzentriert sich auf die Dynamik der Ferninteraktion zwischen Mensch und Maschine und auf robuste Ansätze für Schnittstellen, die darauf abzielen, die Antizipationsfähigkeit und das Situationsbewusstsein für effektivere Interaktionen zu verbessern.

Schlüsselfragen

Wir werden multimodale Modelle entwickeln, um die Vorhersage auch bei Sichtbehinderung zu verbessern.

Wir werden multimodale Visualisierungen erforschen, die Transparenz und Vertrauen fördern und Übergänge zwischen menschlicher und autonomer Kontrolle ermöglichen.

Wir werden digitale Zwillinge und Feedback-Strategien untersuchen, um die physische Interaktion auf Distanz zu verbessern.
Wir werden semantische Repräsentationen untersuchen, um haptisches Feedback zu synthetisieren.
Wir werden analysieren, wie soziale Hinweise das Vertrauen beeinflussen und dabei verschiedene Kontexte berücksichtigen.

Ansatz

  • Verstehen menschlicher Aktivitäten und Vorhersage von Absichten: Unter Verwendung von Modellen aus M1 werden wir kontextuelle und gestische Informationen extrahieren, mit Anwendungen für Assistenzsysteme (U2).
  • Geteilte Autonomie: Wir werden einen gemeinsamen Autonomierahmen für Robotik und Teleoperation entwickeln, der in der Chirurgie Anwendung findet (U1).
  • HMI-Design für physische Ferninteraktion: Definition von Designanforderungen mit Hilfe von digitalen Zwillingen und Sensoren.
  • Semantische Kommunikation von haptischen Signalen: Entwicklung von Modellen zur Reduzierung des Bandbreitenverbrauchs und zur Verbesserung der haptischen Synthese.
  • Soziale Berührung und Vertrauen: Untersuchung des Einflusses sozialer Hinweise auf das Vertrauen. 

Erwartete Ergebnisse

  • 10%ige Verbesserung der Genauigkeit bei der Vorhersage von Absichten.
  • 30%ige Reduzierung der Datenrate mit semantischen Modellen.
  • Gemeinsamer Autonomierahmen , getestet mit U5.