Sprache:

REHALITY Schlussbericht: Virtual Reality und Closed-Loop-Neurofeedback für die Schlaganfallrehabilitation

Im Verbundprojekt REHALITY („Closed-loop Softwaresystem zur Neurorehabilitation nach Schlaganfall durch personalisiertes EEG/EMG-Hirnzustand-gesteuertes Virtual Reality-Therapieparadigma“) hat VTplus sein Teilvorhaben zur Erarbeitung eines Neurorehabilitations-System-Demonstrators mit virtueller Realität und EEG-Ansteuerung erfolgreich abgeschlossen.

Im Ergebnis entstand ein softwarebasierter Demonstrator, der immersive VR-Übungen mit EEG-/EMG-basiertem Closed-Loop-Feedback, Neurofeedback-Komponenten und therapierelevanten Interaktionsmechanismen verbindet.

Das Projekt erschließt für VTplus ein relevantes Entwicklungsfeld in der digitalen Neurorehabilitation. Gleichzeitig zeigt REHALITY, wie sich wiederverwendbare Plattformbausteine aus virtueller Realität, Biosignalverarbeitung und therapeutischer Steuerung auf zusätzliche medizinische Anwendungsfelder übertragen lassen.

Rehality VR Schlaganfall Therapie Szenario (C) VTplus

Hintergrund: Warum virtuelle Realität in der Neurorehabilitation?

Jährlich erleiden in Deutschland rund 270.000 Menschen einen Schlaganfall und weltweit wird von ca. 12,2 Mio. Fällen ausgegangen. Betroffene sind auf langwierige, möglichst frühzeitig verfügbare neurologische Rehabilitationsmaßnahmen angewiesen. Trotz erheblichem Ressourceneinsatz sind die Möglichkeiten für individualisierte Therapie häufig begrenzt.

REHALITY setzte deshalb auf eine digitale Therapie mit VR-Umgebungen und motivierenden Interaktionselementen, um zusätzliche, individualisierbare Übungen zu ermöglichen. Ein wesentlicher Gedanke des Projekts war dabei, die Versorgungslücke zwischen stationärer Akutbehandlung, Rehabilitation und einer perspektivischen Anwendung zuhause zu verkleinern.

Ziel des VTplus-Teilvorhabens

Ziel von VTplus war die Umsetzung eines Demonstrators, der Rehabilitationsübungen mit Virtueller Realität mit einer auf Hirn- und Muskelsignalen basierten zeitlichen Ansteuerung therapierelevanter Übungsschritte kombiniert.

Die Therapie soll damit auf die Bedürfnisse der einzelnen Betroffenen abgestimmt werden und gleichzeitig ein motivierendes, immersives Bewegungserleben ermöglichen. Therapeutische Übungen sollten – je nach Schweregrad der Einschränkung – selbstständig und unabhängig durchgeführt werden können, sodass Patientinnen und Patienten aktiv zum eigenen Rehabilitationserfolg beitragen können.

Vorgehen: Systemkonzeption, Closed-Loop-Architektur und Integration

VTplus entwickelte in enger Abstimmung mit dem Universitätsklinikum Tübingen und dem Institut für Games der Hochschule der Medien Stuttgart das Systemkonzept sowie die Software- und Systemarchitektur. Dazu gehörten die Definition von Systemfunktionen, Komponenten, Kommunikationsstrukturen und Schnittstellen sowie die Festlegung der relevanten Sensortechnik.

Zunächst wurde die Fokussierung auf eingeschränkte Bereiche des Oberkörpers, insbesondere Arme und Hände, beschlossen. Ergebnis dieser Phase war die Spezifikation eines vollintegrierten VR-Systems mit Closed-Loop-Hardware-Schnittstelle.

Im weiteren Projektverlauf wurden VR-Inhalte, Biosignalverarbeitung, Neurofeedback-Komponenten und therapeutische Steuerungsmodule in einer gemeinsamen Architektur zusammengeführt. Die Biosignalverarbeitung wurde um eine Neurofeedback-Komponente erweitert, ergänzt durch Schnittstellen zur Anbindung externer Sensorik und Datenströme.

Ergebnis: Demonstrator für individualisierte VR-Rehabilitationsübungen

Als Projektergebnis entstand ein Neurorehabilitations-Demonstrator mit virtueller Realität und EEG-/EMG-basierter Ansteuerung. Der Demonstrator verbindet immersive virtuelle Umgebungen mit einem Closed-Loop-Ansatz, bei dem physiologische Signale für die zeitliche Steuerung therapierelevanter Schritte genutzt werden. Damit wurde die Grundlage für individualisierte digitale Rehabilitationsübungen geschaffen, die über klassische, rein manuell angeleitete Trainingsformen hinausgehen.

Ein zentrales therapeutisches Prinzip von REHALITY besteht darin, auch stark eingeschränkten Personen ein simuliertes Bewegungserleben zu ermöglichen. Durch den Einsatz hoch immersiver virtueller Umgebungen können Patientinnen und Patienten einen Bewegungserfolg wahrnehmen, auch wenn die reale Bewegung nur eingeschränkt möglich ist.

Virtuelle Umgebungen, Avatar und Interaktion

Für REHALITY wurden spezifische VR-Umgebungen und Avatar-Funktionen ausgearbeitet. Dazu gehörten unter anderem virtuelle Trainingssituationen, Kalibrierungs- und Interaktionsbereiche sowie die Ausgestaltung von Avatar-Funktionen für die Veranschaulichung und Rückmeldung von Bewegungen.

Die Umsetzung zielte darauf, therapeutisch relevante Bewegungen, Interaktionsschritte und Feedbackprozesse in einer immersiven und kontrollierbaren Umgebung abzubilden. Ergänzend wurden einzelne Systemkomponenten wie Eye-Tracking-Integration, grafische Benutzeroberflächen sowie App-basierte Übungs- und Therapiesteuerung getestet.

Zusammenarbeit im Forschungsverbund

REHALITY bündelte Expertise aus klinischer Hirnforschung und Neurologie (Universitätsklinikum Tübingen), Interaktiven Medien, Serious Games und Virtual Reality (Hochschule der Medien Stuttgart / Institut für Games) sowie der Anwendung Virtueller Realität für Forschung und Therapie (VTplus GmbH).

VTplus brachte evaluierte VR-Szenarien, virtuelle Charaktere und die Erfahrung ein, virtuelle Umgebungen um Biosignal-Schnittstellen und motivierende Interaktionselemente zu erweitern.

Anschlussfähigkeit

Aus technologischer Sicht ist REHALITY vor allem als entwickelter Demonstrator und dokumentierter Entwicklungspfad relevant. Das Projekt zeigt, wie die VTplus-Technologieplattform um Bausteine für Biosignalverarbeitung und adaptive therapeutische Steuerung erweitert werden kann.

REHALITY belegt damit auch die Anschlussfähigkeit der VTplus-VR-Plattform für weitere medizinische Einsatzfelder, insbesondere in der Neurologie und Rehabilitation.


Projekt: REHALITY – Closed-loop Softwaresystem zur Neurorehabilitation nach Schlaganfall durch personalisiertes EEG/EMG-Hirnzustand-gesteuertes Virtual Reality-Therapieparadigma
Teilvorhaben VTplus: Erarbeitung eines Neurorehabilitations-System-Demonstrators mit virtueller Realität und EEG-Ansteuerung
Förderkennzeichen: 13GW0213D
Laufzeit: 01.04.2019 – 31.12.2022
Veröffentlichungsdatum des Schlussberichts: 30.06.2023


Virtuelle Realität in der ambulanten Psychotherapie | Praxiserfahrungen aus Mannheim

Im Rahmen einer laufenden Praxistauglichkeitsstudie zur Anwendung von Virtual Reality Exposure Therapy (VRET), d.h. VR-basierter Expositionstherapie, wurde der Einsatz von VR-Expositionsszenarien in einer Hochschulambulanz für Psychotherapie ›› untersucht. Erste Erfahrungen aus der Implementierung wurden von den Forschenden des Zentralinstituts für Seelische Gesundheit (ZI) Mannheim ›› auf einem wissenschaftlichen Poster auf dem Würzburger XR Meeting 2023 ›› vorgestellt.

Virtuelle Exposition im klinischen Alltag

Expositionsbasierte Verfahren gehören zu den zentralen evidenzbasierten Behandlungsmethoden bei Angststörungen. Virtuelle Realität bietet hierbei die Möglichkeit, Konfrontationsübungen kontrolliert, wiederholbar und individualisierbar durchzuführen.

Die VR-Exposition kann dabei reale Konfrontationen ergänzen oder vorbereiten und ermöglicht therapeutische Übungen unter standardisierten Bedingungen. Studien zeigen, dass VR-basierte Exposition eine vergleichbare Wirksamkeit zur klassischen in-vivo-Exposition erreichen kann und zugleich neue Forschungs- und Trainingsmöglichkeiten eröffnet.

Virtual Reality Exposure Therapy in Real Life. Implementation of VR Therapy in a University Outpatient Clinic. P. Halli et al. (2023)
Virtual Reality Exposure Therapy in Real Life. Implementation of VR Therapy in a University Outpatient Clinic. P. Halli et al. (2023).

Implementierung der VR-Therapie in einer Hochschulambulanz

Die Einführung der VR-Therapie erfolgte schrittweise in der Hochschulambulanz des ZI-Mannheim ››. Ziel war es, praktische Erfahrungen zur Machbarkeit, Nutzbarkeit und Integration in den Therapieverlauf zu sammeln.

Der Implementierungsprozess umfasste unter anderem:

  • Einführung der VR-Technologie im therapeutischen Setting
  • Schulung der Therapeutinnen und Therapeuten
  • schrittweise Integration der VR-Expositionssitzungen in bestehende Therapieabläufe

Die Schulung der Therapeutinnen und Therapeuten erfolgte in einer kompakten Einführungseinheit mit begleitendem Trainingsmaterial sowie anschließendem Zugang zum VR-System.

Einsatz virtueller Therapieszenarien

Im Rahmen der Anwendung kamen verschiedene VR-Szenarien zum Einsatz, die typische Expositionssituationen bei Angststörungen abbilden.

Dazu gehörten unter anderem:

  • Höhenexposition
  • Spinnenphobie
  • Flugangst
  • Klaustrophobie
  • soziale Interaktionssituationen

Insgesamt wurden mehrere unterschiedliche virtuelle Umgebungen eingesetzt, die therapeutisch gesteuerte Expositionsübungen ermöglichen.

Erfahrungen der Therapeutinnen und Therapeuten

Die Rückmeldungen aus der Anwendung zeigen, dass virtuelle Exposition im klinischen Alltag praktikabel eingesetzt werden kann. Therapeutinnen und Therapeuten beschrieben insbesondere:

  • eine schnelle Erlernbarkeit der Systembedienung
  • eine gute Integration in bestehende Therapieabläufe
  • die Möglichkeit, unterschiedliche Expositionssituationen flexibel zu wählen

Einige Rückmeldungen betonten zudem, dass virtuelle Szenarien eine intensive emotionale Reaktion bei Patientinnen und Patienten auslösen können und damit therapeutisch relevante Exposition ermöglichen.

Perspektiven für Forschung und Versorgung

Die ersten Erfahrungen zeigen, dass Virtual Reality Exposure Therapy eine vielversprechende Ergänzung für ambulante psychotherapeutische Behandlungen darstellen kann. Besonders in universitären Ambulanzen eröffnet der Einsatz virtueller Szenarien zusätzliche Möglichkeiten für Forschung, Ausbildung und Therapie.

Die laufende Praxistauglichkeitsstudie untersucht weiterhin die Integration der Technologie in therapeutische Prozesse sowie die Akzeptanz bei Therapeutinnen und Therapeuten.


Projektkontext:
Die Arbeiten stehen im Zusammenhang mit der Entwicklung und Evaluation VR-basierter Konfrontationsverfahren im Rahmen des Forschungsprojekts EVElyn › „Entwicklung einer ambulanten Konfrontationstherapie in virtueller Realität für Patientinnen und Patienten mit Angststörungen“.

Weitere Ergebnisse aus der laufenden Studie werden nach Abschluss der Datenerhebung veröffentlicht.

Unser besonderer Dank für die hervorragende Zusammenarbeit gilt Prof. Dr. Peter Kirsch und Patrick Halli vom Zentralinstitut für Seelische Gesundheit (ZI) Mannheim.


Schmerztherapie mit VR-BCI | VirtualNoPain und VTplus auf dem Würzburger XR Meeting

Auf dem Würzburger XR Meeting präsentierte VTplus als Aussteller und Verbundpartner des VirtualNoPain Projekts ein VR-EEG-BCI-System zur Schmerztherapie bei chronischen Schmerzen.

VTplus präsentiert das VirtualNoPain VR-BCI System auf dem XR-Meeting

Aktuellste Forschungsergebnisse wurden von den VirtualNoPain Verbundpartnern präsentiert.


Der interdisziplinäre Kongress bot hochwertige Vorträge, Symposien, Workshops und Beiträge zu den Themen VR/XR/AR „Benefits and Challenges“, „Social Interaction“, „Applied XR“, „Fear and VR“, „Body and Gestures“ und „Brain and Cognition“.

Spannende Posterbeiträge stellten die Etablierung von VR-Therapie in der ambulanten Praxis am ZI-Mannheim, Therapie-Forschung unter Einsatz eines VTplus VR-Therapiesystems und Einsatz von CAVE-Projektion in Verbindung mit TMS, sowie Ergebnisse eines T-Maze VR-Paradigmas zur Untersuchung von frontaler Asymmetrie unter Einsatz der VTplus VR-Experimentkontrollsoftware CyberSession vor.

Poster Kongressbeitrag: The model is bend, but never broken: A quadratic extension to the capability model of frontal asymmetry based on situational induction strength. J. Rodriguez et al. (2023)
Poster Kongressbeitrag: The model is bend, but never broken: A quadratic extension to the capability model of frontal asymmetry based on situational induction strength. J. Rodriguez et al. (2023)

VT+Expo3 – Release 2023-03

Mit dem Release 2023-03 erweitert VTplus die Systemplattform VT+Expo3 um Funktionen zur verbesserten Datenerfassung und Individualisierung.
Das Update optimiert das Sitzungsprotokoll und führt erweiterte Eyetracking-Optionen sowie Präsentationsfunktionen im VR-Umfeld ein.

Funktions- und Systemmerkmale

  • Detaillierte Sitzungsprotokolle mit Aktionen, Ratings, Screenshots und Eyetracking-Daten
  • Live-Sitzungsverlauf als Overlay-Anzeige während der Anwendung
  • Pause- / Restart-Funktion für Eyetracking-Aufzeichnungen
  • Integration eigener Vortragsfolien direkt innerhalb der VR-Szenarien

Anwendernutzen

Das Update ermöglicht eine Echtzeit-Analyse des Sitzungsverlaufs, bietet weitere Individualisierung der Anwendung und liefert präzise Messdaten zur Dokumentation, Forschung und Therapiebegleitung.


Hinweis: Dieses Release erweitert die Software- und Datenerfassungsfunktionen innerhalb der bestehenden CE-Konformität gemäß Richtlinie 93/42/EWG.
Die Änderungen betreffen ausschließlich Protokollierungs-, Eyetracking- und Präsentationsfunktionen und verändern weder Zweckbestimmung noch Risikoklasse des Medizinprodukts.

VT+Expo3 Release 2022-11

Das Release 2022-11 integriert aktuelle VR-Hardware und erweitert die Szenarienverwaltung um flexible Filter- und Auswahlfunktionen.
Mehrfachkriterien erlauben eine gezielte Sortierung nach Therapiethemen oder Störungsbildern.

Funktions- und Systemmerkmale

  • Unterstützung der VR-Brille HTC Vive Pro 2
  • Szenario-Filterung nach Störungstyp, Themengebiet oder Release-Version
  • Erweiterte Benutzerrechteverwaltung für unterschiedliche Rollen und Zugriffsebenen

Anwendernutzen

Das Update ermöglicht eine zukunftssichere Nutzung neuer VR-Geräte, eine zielgerichtete Szenarienauswahl sowie eine präzisere Rechtevergabe für klinische oder forschungsbezogene Umgebungen.


Hinweis: Dieses Release erweitert die Systemkompatibilität und Datenverwaltung innerhalb der bestehenden CE-Konformität gemäß Richtlinie 93/42/EWG.
Die Änderungen betreffen ausschließlich technische Kompatibilität, Benutzerverwaltung und Szenarienorganisation und verändern weder Zweckbestimmung noch Risikoklasse des Medizinprodukts.

Schmerzreduktion mit Virtueller Realität und EEG Feedback – VirtualNoPain im MAVEL-Labor der FHWS

Im Rahmen des Festakts zum 50 jährigen Jubiläum der FHWS besichtigten die Teilnehmenden das MAVEL (Mixed Augmented Virtual Experience Learning) -Labor.
Präsentiert wurden dort neben einem Multiview System in bundesweit einzigartiger Größe mehrere innovative VR-/AR-Projekte.

So wurde mit dem VirtualNoPain Projekt ein VR-System zur Schmerzreduktion mit EEG Feedback vorgestellt.
Zu sehen waren virtuelle Umgebungen zur Durchführung von Feedback Training in Verbindung mit im Projekt entwickelter VR-Headset EEG Erfassung (Brain Products) und einem integrierten VR-Therapiesystem (VTplus). Für die Teilnehmenden wurde die Sicht der VR-Brille zusätzlich auf der MAVEL-Labor Multiview Projektionsfläche angezeigt.

Vorgestellt wurde das System durch Mitarbeiter des Lehrstuhls für Psychologie I, AG Biologische Psychologie, Klinische Psychologie und Psychotherapie der Universität Würzburg (vertreten durch Prof. Dr. Marta Andreatta, Dr. Markus Winkler, Isabel Neumann) und dem Verbundpartner und VirtualNoPain Verbundkoordinator VTplus (Geschäftsführer Mathias Müller, Prof. Dr. Jürgen Müller, Roland Zechner)

Die technisch reibungslose Präsentation im noch im Aufbau befindlichen MAVEL-Labor wurde vom Team der Fakultät Wirtschaftsingenieurwesen der FHWS um Dekan Prof. Dr. Peter Meyer, Prof. Dr. Uwe Sponzholz und den Labor- und Software Ingenieuren Dominik Fritsch und Florian Schuster ermöglicht.

Die Besichtigung des MAVEL-Labor durch MP Dr. Markus Söder und Staatsminister Markus Blume wurde von einem regen Medieninteresse begleitet.

TV Mainfranken: MAVEL Labor der FHWS wird im Rahmen der 50 Jahrfeier MP Dr. Markus Söder vorgeführt

Weitere Informationen in der Pressemeldung der FHWS vom 27.10.2022: Die FHWS wird THWS und feierte dies im Zuge ihres 50-jährigen Bestehens mit dem MP Dr. Markus Söder

50-jähriges Bestehen der FHWS wurde mit Dr. Markus Söder gefeiert

Durch Anklicken des obigen Videos erklären Sie sich mit der Anzeige durch Youtube und der dafür notwendigen Datenübertragung laut Google Datenschutzerklärung ›› einverstanden.
SW-N TV: MAVEL-Labor Besichtigung durch MP Dr. Markus Söder im Rahmen des 50 jährigen Jubiläum

VR-Flugsimulation mit Bewegungsplattform

Das Video zeigt einen Testlauf der VR-Flugsimulation mit integrierter Bewegungsplattform im Motion-Lab des Lehrstuhls für Psychologie der Universität Regensburg. Die Simulation wird im Rahmen der VR-Therapieforschung eingesetzt, insbesondere zur Untersuchung und Behandlung von Flugangst.

VR-Flugsimulation mit Bewegungsplattform im Motion-Lab der Universität Regensburg

Durch Anklicken des obigen Videos erklären Sie sich mit der Anzeige durch Youtube und der dafür notwendigen Datenübertragung laut Google Datenschutzerklärung ›› einverstanden.

Zum Einsatz kommt die VTplus VR-Simulationssoftware CyberSession in Kombination mit den virtuellen Expositionsszenarien VT+Expo3. Die Kopplung von VR-Umgebung und Bewegungsplattform ermöglicht realitätsnahe Flugerlebnisse und eröffnet erweiterte Forschungs- und Trainingsmöglichkeiten im Bereich der Angst- und Expositionstherapie.

VR zur Therapie auf dem MedtechSummit: Wie Digitalisierung die Versorgung verbessern kann

Auf dem MedtecSUMMIT „Digitalisierung ist kein Selbstzweck – Wie die Digitalisierung die Versorgung verbessern kann“ wurde eindrucksvoll gezeigt, welche Lösungen es heute schon gibt und wie die digitale Gesundheitsversorgung von morgen aussehen wird.

Es wurden spannende interdisziplinäre Vorträge und Gelegenheiten zum Ausprobieren innovativer Digitaler Therapie Lösungen geboten.

VTplus präsentierte das Verbundprojekt VirtualNoPain, welches mit Hilfe von virtueller Realität und Neurofeedback die Reduktion von chronischen Schmerzen untersucht.

Zum Ausprobieren stand den Teilnehmern das VT+ VR-Expositionssystem mit vielen virtuellen Situationen zur Therapie von Ängsten zur Verfügung.

Herzlichen Dank für die tolle Ausrichtung gilt den Veranstaltern Bayern Innovativ / Forum MedTech Pharma e.V. in Zusammenarbeit mit ZD.B-Themenplattform Digitale Gesundheit/Medizin, Digitalisierungszentrum Präzisions- und Telemedizin (DZ.PTM) , ZTM der Region Mainfranken GmbH und dem Deutschen Zentrum für Herzinsuffizienz (DZHI).

VTplus und VirtualNoPain auf der Sommer 2022 EXPO

Spannende Projekte aus den Studiengängen Human-Computer Interaction, Mensch-Computer-Systeme, Games Engineering, Medienkommunikation der Universität Würzburg wurden auf der gut besuchten Sommer 2022 EXPO präsentiert. VTplus war als Aussteller mit dabei und präsentierte unter anderem das Verbundforschungsprojekt VirtualNoPain, welches Virtuelle Realität in Verbindung mit einem Brain-Computer-Interface zur Reduktion von chronischen Schmerzen einsetzt.

Weitere Informationen


www.virtual-no-pain.de

gefördert vom Bundesministerium für Bildung und Forschung
Verbundforschung VirtualNoPain, FKZ: 13GW0343,
gefördert vom Bundesministerium für Bildung und Forschung


Verbundvorhaben: Kombination von virtueller Realität (VR) und Brain-Computer-Interface (BCI) zur Therapie chronischer Schmerzen (VirtualNoPain)
Laufzeit: 01.07.2020 – 30.06.2023
Bekanntmachung: Bekanntmachung: „Chronische Schmerzen – Innovative medizintechnische Lösungen zur Verbesserung von Prävention, Diagnostik und Therapie“

OPTAPEB Schlussbericht zum VTplus-Teilprojekt

Im BMBF-geförderten Verbundprojekt OPTAPEB („Optimierung der Psychotherapie durch agentengeleitete patientenzentrierte Emotionsbewältigung“) hat VTplus sein Teilprojekt zur Entwicklung und Umsetzung eines assistenzgestützten Expositionssystems mit virtueller Realität erfolgreich abgeschlossen. Es entstand ein integrierter VR-Demonstrator für Verhaltenstherapieübungen bei sozialen Ängsten, der soziale Interaktionen und Vortragssituationen in virtueller Realität abbildet, emotionale Reaktionen multimodal erfasst und daraus KI-gestützte Interventionsvorschläge für die therapeutische Begleitung ableitet.

Die Anwendung wurde auf die VT+ExpoCart3-Systembasis übertragen, in einer multizentrischen klinischen Erprobung mit ambulanten und stationären Patientinnen und Patienten eingesetzt und anschließend auch für die weitere Erprobung im KI.ASSIST-Umfeld bereitgestellt.

Ziele

Ziel des VTplus-Teilprojekts war die Entwicklung eines Demonstrators für ambulante Verhaltenstherapieübungen bei Sozialphobie mit virtueller Realität. Dazu wurden VR-Szenarien, Eye-Tracking, Sprachverarbeitung, körpernahe Sensorik, Datenfusion und therapeutische Steuerung in einem integrierten Gesamtsystem zusammengeführt. Der Ansatz verfolgt das Ziel, angstauslösende Situationen hoch immersiv erlebbar zu machen, emotionale Reaktionen und Verhalten in Echtzeit multimodal zu erfassen und den Verlauf der Übungen adaptiv an die Bedürfnisse der Patientinnen und Patienten anzupassen.

Ergebnisse

Als Ergebnis entstand ein integrierter OPTAPEB-VR-Demonstrator auf Basis des VT+ExpoCart3. Das System kombiniert HTC Vive Pro Eye, Blick- und Kopftracking, Mikrofon, körpernahe Sensorik, Datenfusion und eine grafische Oberfläche zur Therapiesteuerung. Aus Bewegungs-, Blick-, Sprach- und weiteren Verlaufsdaten werden therapeutisch relevante Zielgrößen wie Angst, Aufmerksamkeit und Sicherheitsverhalten abgeleitet. Aufbereitete Messdaten und Interventionsvorschläge werden auf einem Tablet übersichtlich dargestellt und können in die Sitzungssteuerung einbezogen werden.

VR-Szenarien: Soziale Interaktion und Vortrag

Im Szenario Soziale Interaktion werden in der Lobby eines Universitätskomplexes kurze Gespräche mit virtuellen Personen geübt. Acht virtuelle Gesprächspartner stehen dafür zur Verfügung. Die Dialoge erfolgen per Spracherkennung, die Sprachausgabe ist lippensynchron, und das Verhalten der virtuellen Personen kann in mehreren Schwierigkeitsstufen variiert werden. Dadurch lassen sich soziale Annäherung und Gesprächsführung in kontrollierbarer Form trainieren.

Im Szenario Vortrag wird das Sprechen vor virtuellem Publikum trainiert. Die Umgebung umfasst einen Vorbereitungsplatz mit Laptop und Presenter sowie einen Seminarraum mit 16 virtuellen Zuhörerinnen und Zuhörern. Auch hier kann die Schwierigkeit über unterschiedliche Publikumsreaktionen gesteuert werden – von freundlich und aufmerksam bis unfreundlich und ablehnend. Geübt werden Vorträge zu alltagsnahen Themen wie Heimatort, perfekter Tag oder Bewerbung für den Traumberuf.

Therapeutische Steuerung und KI-Unterstützung

Die Übungen werden durch eine virtuelle Co-Therapeutin oder einen virtuellen Co-Therapeuten begleitet. Das Interventionskonzept gliedert sich in Einführung, Antizipation, Interaktion und Intervention. Geeignete Interventionen werden vom System vorgeschlagen und von einer Betreuungsperson außerhalb der virtuellen Realität gesteuert. Die Bedienoberfläche erlaubt die Auswahl der Szenarien, die Anzeige von physiologischen Parametern und Zielkonstrukten sowie die Erfassung von Selbstberichten. So verbindet OPTAPEB immersive VR-Übungen mit strukturierter Therapiebegleitung und datenbasierter Unterstützung.

Klinische Erprobung

Die klinische Erprobung erfolgte multizentrisch mit 20 Patientinnen und Patienten mit sozialer Angst, davon 12 ambulant in der Hochschulambulanz für Psychotherapie der Universität Regensburg und 8 stationär in der Psychosomatischen Klinik Donaustauf. Eingesetzt wurden die Szenarien Soziale Interaktion und Vortrag sowie die Shirt-Sensorik. In der internen Vorauswertung lagen Daten von 18 Patientinnen und Patienten vor; die Sitzungen wurden über mehrere Termine innerhalb von drei Wochen durch Psychotherapeut:innen beziehungsweise PiAs begleitet.

Die bisherigen Ergebnisse zeigen, dass das System unterschiedliche Verhaltensübungen bei Sozialphobie praktisch umsetzen kann. Zugleich wurde deutlich, an welchen Stellen Weiterentwicklungen sinnvoll sind, insbesondere bei Spracherkennung und der damaligen Shirt-Sensorik. Positiv bewertet wurden vor allem die Relevanz der Zielkonstrukte, die Nutzbarkeit des virtuellen Co-Therapeuten und die grundsätzliche Eignung des Systems zur Durchführung multimodal erfasster VR-Übungen.

Verbund und Zusammenarbeit

OPTAPEB wurde in enger Zusammenarbeit mit wissenschaftlichen, technologischen und klinischen Verbundpartnern umgesetzt. VTplus bedankt sich bei allen Beteiligten für den fachlichen Austausch und die engagierte Zusammenarbeit bei Entwicklung, Integration, Erprobung und Evaluation des Demonstrators.

OPTAPEB wurde durch das Bundesministerium für Bildung und Forschung (BMBF) gefördert.
Förderkennzeichen: 16SV7840
Förderprogramm: Interaktive körpernahe Medizintechnik.
Laufzeit des Vorhabens: 01.08.2017 – 28.02.2021


Anschlussfähigkeit und Weiterentwicklung

OPTAPEB wurde über das Verbundprojekt hinaus weiter genutzt. In Kooperation mit dem KI.ASSIST-Konsortium wurde der OPTAPEB-Demonstrator dem Lern- und Experimentierraum des SRH Berufsbildungswerks Neckargemünd zur Erprobung bereitgestellt. Dafür wurde das System technisch angepasst, dokumentiert, installiert und für den Einsatz im dortigen Umfeld begleitet. Die Evaluation zeigte ein großes Interesse an VR sowie an KI-gestützten Übungen zur Emotionsbewältigung, insbesondere bei Vortragsübungen und sozialen Interaktionen.

Für VTplus markiert OPTAPEB damit einen wichtigen Entwicklungsschritt: hin zu kontrollierbaren VR-Übungen für soziale Belastungssituationen, kombiniert mit multimodaler Datenerfassung, virtueller Therapiebegleitung und KI-gestützter Unterstützung. Die im Projekt entwickelte Plattform ist anschlussfähig für weitere Anwendungen in Therapie, Forschung und angrenzenden Trainingskontexten.


VTplus Präsentation
VTplus Präsentation
VTplus VR-Therapie VR-HealthCare
VTplus Poster