zur Navigation zum Inhalt
 
Intensiv- und Notfallmedizin 10. Februar 2016

Notfallmonitor mit Augen und Ohren

Gerät arbeitet berührungslos und soll Fehlalarme vermeiden.

Auf Intensivstationen zählt jede Sekunde. Ärzte und Pfleger müssen in Notfällen rasch die richtigen Entscheidungen treffen. Fraunhofer-Forscher haben einen intelligenten Monitor entwickelt, der die Abläufe im sensibelsten Bereich eines Krankenhauses optimiert: Er zeigt die Daten der angeschlossenen medizinischen Geräte an und vermeidet Fehlalarme. Der Bildschirm lässt sich mit Gesten und Sprachbefehlen berührungslos aus der Distanz steuern und senkt das Risiko, Krankheitserreger zu übertragen.

Gerade war noch alles ruhig auf der Intensivstation. Doch jetzt herrscht Aufregung: Gleich mehrere medizinische Geräte in unterschiedlichen Krankenzimmern schlagen Alarm. Monitore blinken und piepen. Blutdruckabfall, Herzrhythmusstörungen – was wo genau zu tun ist, zeigen Computermonitore. Ärzte und Pfleger eilen zu den Zimmern der Patienten. Dort geben medizinische Geräte detailliert Auskunft über den Zustand der Schwerkranken. Aus einer Vielzahl von digitalen Anzeigen und Bildschirmen müssen die Mediziner rasch die wichtigsten Informationen herausfiltern. “Es ist nicht einfach, hier in hektischen Situationen den Überblick zu behalten“, sagt Paul Chojecki, Wissenschaftler in der Abteilung „Vision & Imaging Technology“ am Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut (HHI), in Berlin.

Mit Gesten steuern

Der Wissenschaftler hat im Verbundprojekt „Leitwarte“ zusammen mit seinem Team einen intelligenten Monitor entwickelt. Er zeigt Ärzten und Pflegern schnell das Wichtigste zu den Vitaldaten der Intensivpatienten an. Der Bildschirm hat Schnittstellen zu den medizinischen Geräten im Raum sowie zu den Informationssystemen im Krankenhaus, lässt sich mit Gesten und Sprachbefehlen steuern. Seine Grafik passt sich der Entfernung an, aus der man ihn betrachtet. „Von der Tür aus sieht der Arzt die Daten entsprechend groß. Geht er näher ran, zeigt der Bildschirm Detailinformationen an“, erklärt Chojecki.

Eine 3 D-Kamera liefert die dafür notwendigen Daten. Die Benutzeroberfläche ist webbasiert programmiert und damit auch für mobile Monitore wie Tablets geeignet. Einen Demonstrator des Proxemic Monitors zeigen die Wissenschaftler auf der CeBIT 2016 (Halle 6, Stand B36). Im Laufe dieses Jahres ist ein Praxistest in Kooperation mit der Uniklinik RWTH Aachen geplant. Das System wertet die Daten der medizinischen Geräte anhand des intelligenten Alarmierungskonzepts des Projektpartners, der Universitätsklinik Aachen, Sektion Medizintechnik, aus. Das vermeidet Fehlalarme. „Dies ist ein großes Problem, wie uns Intensivärzte geschildert haben: Aktuelle Geräte halten sich stur an fixe Grenzwerte, beziehen dabei aber nicht alle Faktoren mit ein, die notwendig sind, um die Gefahrenlage umfassend zu bewerten. Zudem entsteht durch die akustischen Signale ein enormer Geräuschpegel, der weder für das Personal noch für den Patienten gesundheitsförderlich ist“, berichtet Chojecki.

Weniger Erreger übertragen

Ein weiterer Vorteil der Gestensteuerung: Arzt oder Pfleger müssen die Geräte nicht direkt berühren. „Das Übertragen von Erregern ist in Krankenhäusern und insbesondere auf Intensivstationen immer noch ein Problem. Manchmal wird die obligatorische Händedesinfektion vergessen und werden Viren sowie Bakterien von Zimmer zu Zimmer geschleppt“, beschreibt Chojecki. Der intelligente Bildschirm kann sowohl direkt am Bett des Patienten als auch – anders konfiguriert – in der Leitwarte genutzt werden. Chojecki: „Es ist wichtig, das zu unterscheiden, denn von der Leitwarte aus darf nicht auf alle Gerätefunktionen in den Patientenzimmern zugegriffen werden. Das ist gesetzlich vorgeschrieben. Es soll sichergestellt werden, dass der Arzt den Patienten real untersucht, bevor er die Behandlung ändert.“

Drei verschiedene Kameras und ein Mikrofon tasten den Raum vor dem Monitor ab. Die eingebaute Software des HHI analysiert anhand der Videodaten, ob sich Personen im Raum befinden, wie weit diese vom Bildschirm entfernt sind und welche Bewegungen sie machen. Abhängig von der Entfernung verändern sich Anzeige und Funktionalität des Monitors. „Unser Monitor unterscheidet zwischen naher, mittlerer und ferner Distanz.

Maximal decken die Kameras vier Meter ab“, sagt Chojecki. Ab der mittleren Entfernung kann der Cursor mit Armbewegungen gesteuert und können via Sprache Befehle oder Kurzberichte eingegeben werden.

Mit vorher einprogrammierten Gesten lässt sich zum Beispiel ein Videoanruf starten, um sich mit anderen Ärzten innerhalb oder außerhalb des Krankenhauses auszutauschen. „Wir haben dem Monitor Augen und Ohren gegeben, um eine multimodale Interaktion zwischen dem Benutzer und dem System zu ermöglichen. Unsere Software erfasst berührungslos Abstände sowie Bewegungen der Nutzer, interpretiert sie und wandelt sie in Befehle für gängige Betriebssysteme um“, sagt der Fraunhofer-Experte.

Fraunhofer HHI, Ärzte Woche 6/2016

Zu diesem Thema wurden noch keine Kommentare abgegeben.

Medizin heute

Aktuelle Printausgaben