Prinzipiell muss zu Beginn unseres Übersichtsartikels festgehalten werden, dass sämtliche erforschten Anwendungen gerade im urologischen Fachbereich zwar meist einen subjektiven Nutzen oder Vorteil ausweisen, ohne dass jedoch zum gegenwärtigen Zeitpunkt belastbare und robuste Studien vorliegen, die dies belegen [1]. Der Trend jedoch, Virtual Reality (VR) und Augmented Reality (AR) in die klinische Routine integrieren zu wollen, ist zweifelsohne vorhanden und wohl nur eine Frage der Zeit. Während noch im Jahr 2000 auf der Metadatenbank PubMed nur 121 Artikel zu VR und 7 Artikel zu AR publiziert wurden, sind es nun jährlich mehr als > 2000 (VR) bzw. > 600 (AR) mit stetig steigender Tendenz (Abb. 1).

Abb. 1
figure 1

Anzahl wissenschaftlicher Publikationen auf der Metadatenbank PubMed mit Bezugnahme auf Virtual Reality (VR) und Augmented Reality (AR) in den Jahren 2000 bis 2021

Unter VR versteht man dabei die künstliche von Computern simulierte und generierte Umgebung, mit welcher eine Interaktion möglich ist [2]. Die VR ermöglicht es dadurch an einem Ort zu sein und gleichzeitig eine andere Umgebung, eine eben rein virtuelle Welt, wahrzunehmen.

Die AR hingegen generiert keine rein virtuelle Umgebung. Entsprechend des Begriffs „augmented“ (engl. „to augment something“ = etwas erweitern) werden hier vielmehr künstliche Informationen, meist entsprechend visuellen oder auditiven Sensationen in die reale Welt integriert [2]. Die reale Welt bleibt somit weiterhin optimiert durch virtuelle Informationen fassbar.

VR und AR werden zunehmend in die klinische Routine integriert

Ein klassisches Beispiel hierfür ist die Projektion in das Sichtfeld von Bildern oder von virtuellen Modellen mittels einer Smartglass (Abb. 2). Eine Smartglass ist dabei eine Datenbrille mit integrierten Prozessoren, die Informationen zum Sichtfeld des Benutzers hinzufügen kann. Im Falle der AR behält der Anwender dabei freie Sicht auf die reale Welt und kann parallel auf digitale Informationen zurückgreifen. Je nach Smartglass-Modell kann diese allerdings auch eine rein virtuelle Umgebung, also eine VR kreieren. Borgmann et al. [3] definierten die potenziellen Anwendungsgebiete von Smartglasses im urologischen Operationssaal folgendermaßen:

  • Foto‑, Video- und Liveübertragung für Aus‑, Fort- und Weiterbildung

  • Fotos und Videos zur Dokumentation

  • Telekonsultation von Kollegen

  • Aufrufen elektronischer Patientenakte

  • Aufrufen von radiologischer Bildgebung.

Abb. 2
figure 2

Darstellung eines virtuellen Hologramms der Nieren mit Gefäßversorgung unter Verwendung der Mixed Reality Smartglass HoloLens II (Microsoft) und der Virtual Surgery Intelligence (VSI) Software von ApoQlar. (Mit freundl. Genehmigung, ©apoQlar GmbH, alle Rechte vorbehalten)

Die Mixed Reality (MR) vereint meist mittels einer Smartglass Attribute dieser beiden Welten und ist entsprechend ein Hybrid aus realen und virtuellen Sensationen mit dynamischen Übergängen von VR in AR [4].

Während diese Begrifflichkeiten von VR, AR und MR noch halbwegs verständlich sind ist es die sog. Metaverse nur noch bedingt. Zwar existiert dieser Begriff der Metaverse schon seit 1992 (Science-Fiction Roman Snow Crash von Neal Stephenson) jedoch hat er erst kürzlich im Rahmen des „rebrandings“ von Facebook® zu Meta® mit dem Ziel eine neue technologische Epoche einzuleiten neue Aufmerksamkeit erlangt. Der CEO von Facebook Mark Zuckerberg selbst beschreibt dabei Metaverse wenig verständlich folgendermaßen: „Man kann sich das Metaverse als verkörpertes Internet vorstellen, in dem man Inhalte nicht nur anschaut, sondern in ihnen steckt“ [5]. Im Metaverse verschwimmen und verschmelzen präziser formuliert VR und AR mit dem Internet zu einem kollektiven interaktiven dreidimensionalen (3D-)Universum, wobei der Nutzer diesen interaktiven Raum als real empfindet, indem er dort als Avatar „tatsächlich“ alltägliche Dinge wie Arbeiten, Einkaufen, Reisen, Konzertbesuche etc. erleben kann.

Im Metaverse verschmelzen VR und AR mit dem Internet zu einem kollektiven interaktiven dreidimensionalen Universum

Stand heute ist davon auszugehen, dass viele Anwendungen im Bereich der VR, AR und MR ihren Nutzen im medizinischen Alltag beweisen werden, während man die Entwicklung des Metaverse vorerst als Zukunftsmusik betrachten muss.

Mehrere Studien haben den Nutzen von VR und AR im Rahmen medizinscher Anwendungen untersucht. Dabei zeigt sich, dass vielerorts bereits außerhalb des urologischen Fachgebiets insbesondere im chirurgischen Sektor fest integrierte Lösungen bestehen, die bereits routinemäßig im Alltag etabliert sind. VR und AR können dabei auf unterschiedlichste Art und Weise positiven Einfluss auf die ärztliche Wahrnehmung ausüben, wobei mehrere Studien analysierten, dass insbesondere von den folgenden drei Anwendungsgebieten medizinischer Fortschritt erwartet wird [3, 6, 7]:

  1. 1.

    intraoperative Einblendung bildgebender Verfahren

  2. 2.

    Telementoring und Telemedizin

  3. 3.

    anatomische und operative Ausbildung.

Dies verbunden mit dem Ziel, relevante Parameter wie Verringerung der Komplikationsraten, Kosteneinsparungen und präzisere chirurgische Ergebnisse mit entsprechend einhergehender verbesserter Lebensqualität und -erwartung für die Patienten zu ermöglichen. Isoliert das Fachgebiet der Urologie betrachtet haben bereits viele KollegInnen in systematischen Reviews umfassend die bestehenden Anwendungsversuche beleuchtet und mussten hierbei festhalten [1, 6, 8], dass zwar einige interessante Anwendungsideen und Ansätze in der Urologie bestehen, diese jedoch noch den Beweis schuldig bleiben, tatsächlich die urologische Versorgung hinsichtlich der oben genannten Parameter bzw. Endpunkte zu optimieren. Im Folgendem gehen wir auf die oben genannten drei vielversprechenden Anwendungsgebiete für die Implementierung von VR und AR im urologischen Alltag ein (Tab. 1).

Tab. 1 Tabellarische Übersicht über aktuelle urologische Forschungsprojekte im Bereich der Virtual Reality (VR) und Augmented Reality (AR) in den Anwendungsgebieten intraoperative Einblendung, Telementoring/Telemedizin und anatomische/operative Ausbildung

Intraoperative Einblendung bildgebender Verfahren

Viele Anwendungen im Bereich der VR und AR ermöglichen den Zugriff auf röntgenologische Bildgebung wie CT, MRT oder Echtzeitsonographie während einer Operation unter aseptischen Bedingungen [9]. Die Idee hierbei beruht darin, dem Operationsteam intraoperativ ein Tool zur Verfügung zu stellen, welches ihnen patientenindividuelle Informationen über die Lokalisation von anatomischen oder pathologischen Strukturen liefert und somit das chirurgische Verständnis am „point of care“ erweitert [10]. Dies mit dem Ziel, präzisere operative Ergebnisse unter Schonung gesunder Strukturen zu ermöglichen. Um diesen intraoperativen kognitiven Transfer des Operateurs zwischen präoperativer Bildgebung und realen Strukturen weiter zu optimieren sind bereits sog. Matching-Tools und Tracking-Tools entstanden. Diese ermöglichen ebenfalls am „point of care“ eine Fusion realer Organe/Körper mit patientenindividuellen virtuellen Hologrammen und sollen so die Navigation während der Operation erleichtern (Abb. 2; [8]). Laut Yoon et al. [7] spielen genau diese Formen der AR-Anwendungen die Schlüsselrolle in der Transformation zukünftiger Operationssäle.

Wake et al. [11] konfigurierten mittels Unity 3D-Software ein AR-Modell eines Nierentumors, welches über die Smartglass Hololens von Microsoft® (Redmond, Washington, USA) perioperativ visualisiert werden konnte und so Aufschluss über die Tumorlage, Infiltrationstiefe und Gefäßversorgung lieferte. Die Kollegen schlussfolgerten, dass die 3D-Visualisierung des Tumors die intraoperative Entscheidungsfindung bei Begutachtung des AR-Modells maßgeblich beeinflussen kann.

Porpiglia et al. [12] griffen diese Thematik ebenso in einer Reihe von Originalarbeiten auf. Für komplexe Nierentumoren mit einem PADUA-Score („preoperative aspects and dimensions used for an anatomical classification“) ≥ 10 wurden vor transperitonealer roboterassistierten Nierenteilresektion im Rahmen einer retrospektiven Studie mit insgesamt bei 48 Patienten ein AR-Modell der tumortragenden Niere mittels „hyperaccuracy three-dimensional reconstruction“ konfiguriert, welches dann intraoperativ während Tumorresektion virtuell mit der realen Niere fusioniert wurde. Als Vergleichsgruppe diente ein Arm mit 43 Patienten, bei denen nur ein konventioneller intraoperativer Ultraschall angewendet wurde. Unter dieser 3D-AR-Führung wurden weniger globale Ischämien, bessere Enukleationsraten und weniger Verletzungen des Hohlsystems beobachtet. Zudem wurde interessanterweise 3 Monate postoperativ im Rahmen des CT-Kontrollstagings ebenso eine besser erhaltene Nierenperfusion festgehalten.

3D-AR-Nierenmodelle für komplexe Tumore könnten dem konventionellen Ultraschall überlegen sein

Die Kollegen reüssierten, dass diese roboterassistierte Nierenteilresektion unter Fusion (alt. Matching) mit individuellen 3D-AR-Nierenmodellen für komplexe Tumore dem konventionellen Ultraschall überlegen ist. Zudem führte ihre AR-Fusion zu einer präziseren Resektion, weniger postoperativen Komplikationen und besseren funktionellen Ergebnissen.

Einen ähnlichen Ansatz übertrugen dieselbe Arbeitsgruppe um Porpiglia 2019 [13] auf die roboterassistierte radikale Prostatektomie und führten diese ebenso nach Erstellung eines AR-Modells der Prostata unter Verwendung des oben genannten „hyperaccuracy three-dimensional reconstruction system“ (HA3D™, MEDICS, Turin, Italien) durch. Hierbei wurde die hochauflösende multiparametrische MRT (mpMRT; 1‑mm-Schichten) der Prostata bei insgesamt 30 Patienten nach AR-Konfiguration in die da Vinci-Konsole (Intuitive Surgical, Sunnyvale, USA) eingespeist und virtuell durch den Operateur mittels TilePro™ Multi-Input Display Technology (Intuitive Surgical) mit der realen Prostata fusioniert und bei insgesamt vier Schlüsselstellen zur intraoperativen Navigation eingeblendet. Zusätzlich wurde intraoperativ bei allen 30 Patienten die Indexläsion nach AR-Fusion durch den Operateur mittels eines Clips markiert. Die finale histopathologische Beurteilung bestätigte bei allen Patienten die korrekte intraoperative Markierung auf der Höhe der tatsächlichen Indexläsion. Auch hier suggerierten die Kollegen, dass eine intraoperative Echtzeitfusion mit 3D-AR-Prostatamodellen dem operativen Ergebnis insbesondere durch die Möglichkeit der individualisierten Anpassungen Vorteile bringen könnte [13]. Basierend auf diesen Forschungsergebnissen entwickelten die Kollegen Anfang 2021 ein Verfahren, welches unter Verwendung einer Artificial Intelligence Convolutional Neuronal Network Software automatisch eine intraoperative Fusion über die da Vinci-Konsole konfiguriert. Bei 10 Patienten mit Verdacht auf ein extrakapsuläres Wachstum konnte hier in 8 von 10 Fällen ein Stadium pT3a/b bestätigt werden, und die zusätzlich anhand des AR-Modells der Prostata intraoperativ entnommenen Biopsien zeigten in 75 % einen Tumornachweis. Entsprechend wurde auch hier bei lokal fortgeschrittenen Tumoren angenommen, dass das onkologische Ergebnis durch eine intraoperative AR-Fusion verbessert werden kann [14].

Auch im Rahmen des „nerve-sparing“ scheint diese Form der AR-unterstützten roboterassistierten Prostatektomie zukünftig Vorteile bieten zu können. Schiavina et al. [15] konnten hier an 26 Patienten, die sich einem nerverhaltenden Verfahren einer Prostatektomie unterzogen, demonstrieren, dass die intraoperative Einblendung des AR-Prostatamodells basierend auf dem präoperativen mpMRT die intraoperative Identifikation der Indexläsion unterstützt und in 1 von 3 Patienten sogar zu einer Anpassung des chirurgischen Vorgehens beim „nerve-sparing“ führt.

Die AR bietet zudem die Option, den Monitor im Rahmen vieler endoskopischen Operationen zu ersetzen. Janabi et al. [16] haben dies im Rahmen der Ureterorenoskopie bei insgesamt 72 Teilnehmern (Novizen bis Experten) erforscht. Hierbei erfolgte die videoskopische Bildeinblendung über den Display der Smartglass Hololens, wobei zusätzlich über die Smartglass das präoperative CT und auch die intermittierend durchgeführte konventionelle röntgenologische Fluoroskopie eingeblendet werden konnte.

Neben der Idee den Operateur im Rahmen roboterassistierter Operationen mittels AR und VR zu unterstützen gibt es bereits Projekte, bei welchen die Assistenten (ARssist) mit einer Smartglass ausgestattet wird. Die Smartglass Hololens von Microsoft® ermöglicht dabei im Versuchsaufbau von Qian et al. [17] dem Assistenten neben der 3D-Sicht entsprechend der da Vinci-Konsole v. a. eine freie Auge-Hand-Koordination, die es ihm beispielsweise erlaubt, gleichzeitig die Clipzange einzuführen und parallel diese direkt intrakorporal weiter zu verfolgen, ohne dabei ungelenk auf einen Monitor blicken zu müssen. Zudem haben Qian et al. ein AR-unterstütztes Modul programmiert, das dem Assistenten über die Smartglass virtuell den geometrischen Verlauf der Roboterarme auf/in den Körper projiziert, um ihm die räumliche Lagebeziehung zwischen Operationsgebiet und Endoskopen besser zu verdeutlichen.

Aktuell konzentrieren sich die meisten Applikationen der intraoperativen Bildeinblendung auf laparoskopische Verfahren. Jedoch ist davon auszugehen, dass auch hier der Transfer auf die klassische offene Chirurgie erfolgen wird. Das deutsche Unternehmen ApoQlar hat sich dabei auf eben dieses virtuelle Matching radiologischer Bildgebung mit realen Körpern/Organen spezialisiert und bereits v. a. in chirurgischen Fachgebieten seinen Nutzen demonstrieren können (Abb. 2).

Telementoring und Telemedizin

Telementoring und Telemedizin sind seit Jahren viel diskutierte Konzepte, die basierend auf innovativen Weiterentwicklungen und dem zunehmend technikaffinem Patientengut an Interesse zunehmen. Während die Telemedizin mehr die Interaktion zwischen Arzt und Patient, welche sich an geographisch unterschiedlichen Orten befinden, durch ein technologisches Kommunikationsmittel beschreibt, so ist gleichermaßen das Telementoring als Anleitung eines Auszubildenden über die Ferne hinweg zu verstehen [18].

Viele ambulante urologische Patienten begrüßen routinemäßige ärztliche Konsultation via Telemedizin

Im Rahmen der COVID-19-Pandemie („coronavirus disease 2019“) konnte in einer Studie von Böhm et al. [19] demonstriert werden, dass 84,7 % der ambulanten urologischen Patienten einer deutschen Klinik ihre anstehende routinemäßige ärztliche Konsultation via Telemedizin bevorzugen würden. Dabei zeigen die bestehenden telemedizinische Produkte eine hohe Patientenzufriedenheit bei einfacher Handhabung [20].

Glenn et al. [21] demonstrierten zudem bereits 2017 in einer Umfrage unter Mitgliedern des American College of Surgeons, dass ca. 80 % der Chirurgen im ländlichen Raum unabhängig vom Ausbildungsgrad Interesse an Telementoring‑/Monitoring-Programmen bekunden. Dies insbesondere mit der Intention neue Operationstechniken zu erlernen und im Falle unerwarteter intraoperativer Befunde einen externen Experten konsultieren zu können. Diese Versorgungslücken könnten mit Hilfe von VR- oder AR-Anwendungen zukünftig unter sehr authentischen Bedingungen geschlossen werden.

Die Firma Proximie ist einer der Vorreiter in der Welt des Telementorings mit > 5000 chirurgischen Eingriffen. Proximie ist dabei eine innovative digitale Plattform, die AR-Echtzeitvideostreams verwendet, um bis zu 40 Teilnehmer gleichzeitig an einer Operation virtuell teilnehmen zu lassen [22]. Die Plattform besteht aus einem mobilen Modul mit mehreren Computer‑, Kamera- und Audiosystemen, die in jeden Operationssaal integriert werden kann, wobei das Modul zusätzlich simultan an die intraoperativ verwendeten Endoskope oder Videokameras konnektiert wird. Der entfernt sitzende Chirurg („Remote Surgeon“) leitet den auszubildenden Kollegen an, indem er direkt verbal Feedback gibt und zusätzlich manuell über das Display visualisierbar für den Kollegen via AR eingreift, beispielsweise um bestimmte Landmarken zur Orientierungshilfe zu setzten. Der Remote Surgeon hat dabei volle Navigationskontrolle über das Proximie-Modul und kann den kompletten Operationssaal aus der Vogelperspektive überblicken [22].

El-Asmar et al. [22] demonstrierten unter Verwendung der Proximie-Plattform die primäre Anlernung einer Aquablation der Prostata. Eine Aquablation wurde hier bei insgesamt 38 Patienten klassisch am Patienten und bei 21 Patienten mittels dreier Remote Surgeons via Telementoring angeleitet. Die primären Endpunkte Operationszeit, postoperative Katheterentfernung, Hämoglobinabfall, Ischurie und unerwünschte Nebenwirkungen waren dabei in den beiden Vergleichsgruppen statistisch nicht signifikant unterschiedlich. Die Autoren schlussfolgerten, dass gerade nach der klassischen Supervision am Patienten die Einführungsphase neuer chirurgischer Verfahren durch das Telementoring sicher und kosteneffektiv unterstützt werden kann.

Anatomische und operative Ausbildung

Die VR- und AR-Applikationen werden zukünftig den Umgang mit Lerninhalten revolutionieren. Anatomische Strukturen und pathophysiologische Prozesse können bereits mittels VR und AR lehrreich illustriert werden und ermöglichen zudem oftmals den interaktiven teils spielerischen Austausch mit den jeweiligen Lektionen. Moro et al. [23] beobachteten dabei bei Studenten, denen zusätzlich zum klassischen Anatomieunterricht derlei VR- und AR-Applikationen zur Verfügung standen, neben einer engagierteren Lernbereitschaft eine erhöhte Lerneffizienz. Zudem haben mehrere Forschungsgruppen aufzeigen können, dass der Einsatz von VR- und AR-Trainingseinheiten im Rahmen der operativen Ausbildung von Novizen zu einer Reduktion der Operationszeit und Komplikationsrate, sowie zu einer verbesserten chirurgischen Präzision führen [1, 6]. Zwar werden VR- und AR-Anwendungen den herkömmlichen anatomischen und operativen Ausbildungsprozess niemals ersetzen, jedoch kann dieser rascher und sicherer erfolgen.

Die VR- und AR-Applikationen werden zukünftig den Umgang mit Lerninhalten revolutionieren

Einer der wesentlichen Bestandteile der vorklinischen Ausbildung stellt der klassische Anatomieunterricht dar. Obwohl das Fach selbst sehr lernintensiv ist, so ist die Zeit im Anatomiesaal meist zu kurz. Viele innovative AR- und VR-Lernplattformen stehen als E‑Resource bereits meist kommerziell zur Verfügung und sollten nach den positiven Resultaten der Metaanalyse von Bölek et al. [24] den klassischen Anatomieunterricht im Zuge der fortschreitenden Technisierung ergänzen, wovon auch die urologische studentische Ausbildung mit seiner teils komplexen Anatomie im kleinen Becken profitieren würde. Nach McClurg et al. [25] ist hier u. a. die E‑Resource-Plattform Visible Body® im Fokus. Visible Body® ist dabei eine AR-Applikation, die es dem Anwender erlaubt über ein Tablet oder Smartphone 3D-Simulationen der kompletten menschlichen Anatomie inklusive der Mikroanatomie direkt in das Lernumfeld zu projizieren [26]. Die virtuellen Organmodelle können dann manuell skaliert und bearbeitet werden mit teils zusätzlich vermerkten Querverweisen und ermöglichen so ein optimales räumliches anatomisches Verständnis.

Die praktische Ausbildung von Studenten kosteneffektiv zu gestalten kann zudem über ein MR-Tool mit Smartglass gelingen. Schoeb et al. [4] haben dafür eine MR-Applikation konfiguriert die „step-by-step“ mittels auditiven und visuellen Anweisungen Studenten (n = 57) über die Smartglass Hololens den Blasenkatheterismus lehrt und praktisch anleitet. In ihrer randomisierten Studie stellten sie der MR-Gruppe 107 Studenten gegenüber, die klassisch durch einen Ausbilder im Rahmen eines Seminars angeleitet wurden. Beide Gruppen wurden standardisiert nach OSCE-Prüfung („objective structured clinical examination“) bewertet. Dabei schlossen die Studenten der MR-Gruppe statistisch signifikant besser ab, weshalb auch diese vermeintlich simplen Anwendungen ein großes Potenzial für derlei Applikationen zu sein scheinen mit dem Ziel, kosteneffektiv, interessant und effektiv Lehrinhalte zu vermitteln.

Im Rahmen der präoperativen Vorbereitung auf eine partielle Nierenteilresektion ist die Kenntnis über Tumorlokalisation, Infiltrationstiefe, Gefäßversorgung und Lagebeziehung zum Hohlsystem essenziell. Unlängst ist hier bekannt, dass eine 3D-Rekonstruktion beispielsweise durch ein Hologramm wichtige Information für die präoperative Planung liefern kann und der alleinigen Betrachtung eines planaren CT oder MRT überlegen ist [27]. Nach Yamada et al. [28] kann eine 3D-Rekonstruktion eines CT mit Holoeyes Software (Tokyo, Japan) in ein virtuelles Hologramm der Niere mit allen oben genannten Informationen unkompliziert erfolgen. Dies stand dem Operateur präoperativ über die VR-Smartglass Mirage Solo (Lenovo Hong Kong, China) zur operativen Planung und Visualisierung bereit. Diese 3D-Rekonstruktion der Holoeyes XR Software untersuchten auch Yoshida et al. [29] bei 8 Urologen mit Projektion von Nierentumormodellen in die Smartglass Hololens und suggerierten das die präoperative Entscheidungsfindung über den operativen Ablauf maßgeblich beeinflusst werden kann.

Auch dieses Thema griffen Porpiglia et al. auf. Zwischen 2016–2017 entwickelten sie für roboterassistierte Nierenteilresektionen bei Nierentumoren mit einem PADUA-Score ≥ 10 ein präoperatives AR-basiertes Simulationsmodell, welches eine selektive Ischämie intraoperativ ermöglichen sollte und stellten dieses Verfahren einer konventionellen Vergleichsgruppe gegenüber. Dabei konnten sie für 21 Patienten, bei denen mittels „hyperaccuracy three-dimensional reconstruction“ ein AR-Modell angefertigt worden war zeigen, dass die Notwendigkeit intraoperativ eine globale Ischämie durchzuführen wesentlich geringer war. In der Vergleichsgruppe von 31 Patienten ohne präoperatives AR-Modell waren es 80 % gegenüber nur 24 % mit AR-Rekonstruktion [30].

Die transurethrale Resektion der Harnblase (TURB) stellt einen der ersten endoskopischen Eingriffe im urologischen Weiterbildungscurriculum dar. Neumann et al. [31] stellten dabei in ihrem VR-Trainingsprogramm (UroTrainer, Karl Storz GmbH, Walsdorf) bei Medizinstudenten fest, dass bereits wenig Übung die Effektivität und Sicherheit einer VR-TURB stark erhöhen kann. Ein Transfer von VR-TURB in eine reale TURB hat in dem genannten Versuchsaufbau allerdings nicht stattgefunden. Schulz et al. [32] jedoch konnten unter Anwendung des gleichen VR-Trainingssimulators UroTrainer bei 22 urologischen Assistenz- und Fachärzten zeigen, dass der VR-Trainer subjektiv und objektiv das für TURB optimiert und deswegen zur Vervollständigung der endurologischen Ausbildung angewendet werden sollte.

Ausblick

Die VR- und AR-Anwendungen werden zunehmend in den medizinischen Alltag integriert werden. Die vielversprechendsten Anwendungsgebiete in der Urologie betreffen dabei die intraoperative Bildeinblendung, Telemedizin/Telementoring und die anatomische und operative Ausbildung. Hierfür haben bereits heute viele innovative urologische Forschungsgruppen technische Lösungen konzeptioniert.

Im Rahmen der intraoperativen Bildeinblendung bestehen bereits insbesondere bei der Nierenteilresektion bzw. Prostatektomie interessante VR- und AR-Möglichkeiten, die Telemedizin/Telementoring wird zunehmend durch innovative Lösungen vereinfacht für jedermann zugänglicher und die ärztliche Ausbildung wird v. a. durch realitätsgetreue 3D-Szenarien eine neue Dimension erfahren.

Abschließend muss angemerkt werden, dass zum gegenwärtigen Zeitpunkt wenige Studien vorliegen, die einen definitiven Nutzen für eine bestimmte AR- oder VR-Anwendung im urologischen Fachgebiet ausweisen. Allerdings verdichten sich die zunehmend positiven wissenschaftlichen Ergebnisse, sodass die Integration von VR- und AR-Anwendungen in die klinische Routine nur eine Frage der Zeit ist. Die Urologie war jeher ein innovatives Fachgebiet und wird auch diesen Wandel weiter mitgestalten.

Fazit für die Praxis

  • VR (Virtual Reality) und AR (Augmented Reality) werden zunehmend in den medizinischen Alltag integriert.

  • Die vielversprechendsten Anwendungsgebiete in der Urologie betreffen dabei die intraoperative Bildeinblendung, Telemedizin/Telementoring und die anatomische/operative Ausbildung.

  • VR (Virtual Reality) ist eine vollständig künstliche von Computern simulierte und generierte Umgebung. Die AR (Augmented Reality) hingegen generiert keine rein virtuelle Umgebung, sondern ergänzt die reale Welt mit virtuellen Informationen, während die Mixed Reality (MR) Attribute dieser beiden Welten vereint.

  • Smartglasses sind Datenbrillen die visuelle und auditive Sensationen dem Anwender bereitstellen. Hierüber können virtuelle Bilder oder Modelle in das Sichtfeld des Anwenders unter aseptischen Bedingungen projiziert werden.

  • Dreidimensionale VR und AR Organmodelle können das anatomische Verständnis verbessern und die intraoperative Entscheidungsfindung beeinflussen.

  • VR- und AR-Applikationen werden zukünftig den Umgang mit Lerninhalten revolutionieren.