zur Navigation zum Inhalt
 
Radiologie 30. Juni 2005

Neue Standards für Bilddaten

DICOM ist ein offener Standard, der bei Methoden der digitalen Bildverarbeitung, bei Bildformaten und Übertragungstechniken Anleihen bei anderen Standards, etwa aus der Fotografie und Videotechnik, nimmt. Die Auseinandersetzung mit solchen "fremden" Standards erfolgt in Workgroups, wo die Methoden evaluiert und gegebenenfalls in den Standard aufgenommen werden. Diese Erweiterung des DICOM-Standards wird in Form von so genannten Supplements dokumentiert und publiziert. Dies betrifft in letzter Zeit zunehmend die Problematik der Kompression/Dekompression von unbewegten Bilddaten, aber auch von bewegten Bild-Sequenzen. Kompression bedeutet in diesem Zusammenhang eine Reduktion der Datenmenge, die zur Speicherung der Bildpunkte benötigt wird. Dabei werden lossless (verlustfreie) und lossy (verlust-behaftete) Verfahren unterschieden.
Lossless bedeutet, dass die Kompression reversibel ist und der ursprüngliche Bildzustand wieder hergestellt werden kann. Lossy bedeutet, dass die Reversibilität nicht mehr gegeben ist. Eine lossy Kompression verändert de facto den Bild-Datensatz. Nach heute gängiger Meinung ist eine lossy-Kompression unzulässig, solange ein Bild für diagnostische Aussagen zur Verfügung stehen muss, also während des Befundungs-Zyklus.
Seit Bilddaten in immer größerer Anzahl und Datenmenge anfallen und im Rahmen teleradiologischer Anwendungen verstärkt auch außerhalb der Befundung benötigt werden, wird über Methoden einer realistischen Verkleinerung der Datenmengen, vor allem auch zur Erzielung vernünftiger Übertragungszeiten, nachgedacht. Die für Fragen der Kompression zuständige DICOM-Workgroup IV hat Methoden, die auch eine lossy-Kompression zulassen, evaluiert.

Was bedeutet Kompression?

Die Idee hinter jeglicher Art von Daten-Kompression ist das Auffinden von Redundanzen. Bei unbewegten Bildern sind zwei Redundanzformen von Bedeutung:
n Räumliche Redundanz bedeutet, dass nahe zu einander liegende Bildpunkte oft sehr ähnliche Grauwerte (oder auch Färbungen) haben.
n Spektrale Redundanz beruht auf der Tatsache, dass man diskrete Grauwert-Folgen mathematisch auch als "Gemisch verschiedener Frequenzen" darstellen kann (Fourier-Analyse). Haben nun Folgen von Bildpunkten ähnliche Frequenz-Gemenge, sind sie spektral redundant. Bei bewegten Bildern kommt noch die Zeitliche Redundanz dazu: Ähnlichkeiten in hintereinander folgenden Frames.

JPEG für unbewegte Bilder

Neben lossless verwendeter klassischer Methoden (dzt. ca. 1:3 bis 1:4) hat sich in der digitalen Bildverarbeitung der JPEG-Standard durchgesetzt. JPEG steht dabei für Joint Photographer Experts Group, die den Standard zuerst veröffentlicht hat. JPEG ist eine Klasse von Standards; mehrere Verfahren wurden unter diesem Namen publiziert, inzwischen wurden alle in den DICOM-Standard integriert.

JPEG baseline

JPEG baseline ist das "klassische" JPEG und eignet sich für alle Arten von Raster-Bildern, wie Fotografien und auch medizinische Bilder, sowohl in Farbe als auch Grayscale. Dabei ist allerdings festzuhalten:

  • JPEG baseline ist IMMER lossy.

  • JPEG baseline ist wenig geeignet für Bilder mit hoher Dynamik.

  • Die erreichbare Kompressions-rate ist sehr hoch und beträgt bei typischen Graustufenbildern bis zu etwa 1:30 bei noch annehmbarer Bild-Qualität. Bei der JPEG baseline compression werden immer mehrere Schritte durchlaufen:

  • Initial input: Zerlegung des Bildes in 8 x 8-Matrizen.

  • DCT (Discrete Cosine Transformation): komplexes mathematisches Kodierungsverfahren, das die Werte der 8 x 8-Bildpunkte codiert.

Die Ergebnisse der DCT werden komprimiert und in kodierter Form gespeichert. Hohe Kompressionsraten bewirken bei JPEG baseline Stufen zwischen im Original weich verlaufenden Farb- oder Grauwert-Übergängen, vor allem bei Bildern mit hoher Dynamik. Dies ist in erster Linie eine Folge der Zerlegung des Bildes in 8 x 8-Matrizen.
Im Jahr 2000 wurde der Standard JPEG-2000 verabschiedet, der auch eine lossless-Kompression ermöglicht. Bei JPEG-2000 erfolgt zunächst eine Dekorrelation mittels der Wavelet-Transformation, einem komplexen mathematischen Analyseverfahren zur Charakterisierung der Bilddaten. Die Ergebnisse der Wavelet-Transformation werden komprimiert und in kodierter Form gespeichert.

JPEG 2000

Bei JPEG 2000 wird das Bild nicht in von einander weitgehend unabhängige Teilabschnitte zerlegt. Dadurch werden Stufen bei Grauwert-Übergängen vermieden. Der Trick liegt in der gegenüber der DCT völlig anders aufgebauten Wavelet-Transformation. Problem von JPEG 2000 ist der höhere
Rechenaufwand. JPEG 2000 hat über die Möglichkeit einer skalierbaren Kompression hinaus aber noch ganz wesentliche Features. Erstmalig kann man unterschiedlich hohe Kompressionsstufen in das komprimierte Bild verpacken, und die Auflösung muss nicht im gesamten Bild gleich sein. Damit bietet sich erstmalig die Möglichkeit an, Bilder z.B. zunächst mit hoher Kompression zu versenden und danach gemäß Nutzer-Anforderungen bessere Qua-lität "nachzuliefern - auch für Bildausschnitte (Regions of interest).

JPEG LS

Seit Ende 2001 gibt es auch den Standard JPEG-LS. LS steht für "lossless or nearly lossless". Dies bedeutet, dass mit JPEG-LS lossless Kompressionen, aber auch Kodierungen mit hoher Kompressionsrate möglich sind. JPEG-LS beruht auf einer völlig anderen Methode, nämlich der Ermittlung von Erwartungswerten für umliegende Bildpunkte. Das Verfahren wurde unter dem Namen LOCO-I ("LOw COmplexity") in den HP Laboratories entwickelt und benötigt weniger Rechenaufwand als JPEG-2000. Zuletzt wurden im Rahmen von Tests der ÖRG gute Erfahrungen damit gemacht. Die neuen lossy-Standards haben zu einem bemerkenswerten Schritt bei der Archivierung befundeter Bilder geführt. Im Rahmen des Wiener Krankenanstaltenverbundes wurde z. B. die Archivierung diagnostischer Bilder mit lossy-Verfahren wie JPEG-LS mittels Erlass der Generaldirektion vom 17.7.2002 ermöglicht.

MPEG/bewegte Bilder/Movies

Für bewegte Bilder (ca. 25 frames/sec bei der Video-Norm) hat sich MPEG (Moving Picture Experts Group) als Standard durchgesetzt. Es ist dies eine Klasse von Standards für die Komprimierung audio-visueller Daten. Auch komprimiert sind die Datenmengen bei bewegten Bildern wesentlich höher als bei unbewegten. Andererseits sind die mit MPEG erreichbaren Kompressionsraten wesentlich höher als bei JPEG. MPEG beruht auf einem Verfahren, das man in der Audio- und Video-Technik "Streaming" nennt. Dabei werden nicht mehr Einzelbilder betrachtet, sondern alle Bilder in ihrer Folge. Damit kann man auch eine Kompression nicht mehr nur auf Einzelbilder, sondern auf Bild-Sequenzen beziehen.

Streaming großer Datenmengen: Viewer vs. Player

Moderne Modalitäten, wie Multislice-CT und auch MR, haben mit Video-Sequenzen gemeinsam, dass die Anzahl der Einzelbilder sehr groß ist, was auch große Datensätze, z.B. 100-500 MB, bedeutet. Herkömmliche Netzwerktechniken (Einzelbild-Übertragung) und Darstellungsmethoden (Viewer) zwingen derzeit zu einer zweistufigen Bildverarbeitung. Zuerst werden alle Bilder einer Bildsequenz auf den Rechner übertragen, auf dem sie visualisiert werden sollen. Erst nach Übertragung des letzten Bildes kann die Visualisierung beginnen, bei der prinzipiell immer Einzelbilder betrachtet werden.
Streaming bedeutet, dass große Datenmengen als ein Datenstrom übertragen werden und die Visualisierung schon beim Eintreffen des ersten Bildes beginnen kann. Die DICOM WG IV arbeitet daran festzustellen, wie weit und ob z.B. MPEG-II auch für die Komprimierung und Übertragung von großen CT- und MR-Sequenzen geeignet ist. Dies erfordert aber andere Techniken der Netzwerk-Übertragung und andere Techniken der Darstellung von Bildern. Der Standard MS-Windows Mediaplayer ist z.B. eine Software, die "gestreamte" Bildsequenzen "abspielen" kann. Damit wird auch im DICOM-Standard vom Zeitalter der Viewer-Software ins Zeitalter der Player-Software übergeleitet.

F. Kalteis, Ärzte Woche 2/2001

Zu diesem Thema wurden noch keine Kommentare abgegeben.

Medizin heute

Aktuelle Printausgaben