zur Navigation zum Inhalt
Prof. Dr. Christopher Gerner
© vshivkova / Getty Images / iStock

Das Wissen über das Proteom dieser Tumorzellen könnte dabei helfen, die Therapie anzupassen.

 
Genetik 13. Februar 2017

„Extrem hilfreiche Datenbank“

Interview. Seit Kurzem gibt es eine frei zugängliche, riesige Referenzdatenbank für das menschliche Proteom. Ein Meilenstein, sagt Prof. Gerner vom Institut der Analytischen Chemie. Vergleichbar mit der Sequenzierung des menschlichen Genoms.

Was macht denn die Arbeit von Prof. Küster und Kollegen zum Meilenstein?

Gerner: Das kann ich am besten damit erklären, wie ich es meinen Studenten immer sage: Das Besondere an der Proteomik ist, dass wir nicht wissen, was in der Probe drinnen ist und wir kommen nicht hundertprozentig an die Wahrheit heran. In der klassischen Analytik werden die Substanzen vorgelegt und dann nachgemessen, wie gut diese bestimmt werden können, von denen wir wissen, was es ist.

Das geht normalerweise bei proteomischen Analysen nicht. Wir haben tausende Proteine und zehntausende Peptide und das kann man nicht selber mischen, um zu bestimmen, wie gut meine Messung ist. Und jetzt hat dieses Konsortium gezeigt – man kann doch!

Und zwar, indem hier mehrere hunderttausend Peptide synthetisiert wurden und von jedem einzelnen Peptid die massenspektrometrischen Analysen durchgeführt und entsprechende Referenzen aufgebaut wurden. Damit muss ich meine anfangs getätigte Aussage korrigieren.

Es ist wirklich ein Meilenstein; allein dass so eine große Zahl von Peptiden synthetisiert werden konnte und alle nach einem standardisierten Verfahren sowie mit unterschiedlichsten Fragmentierungsmechanismen systematisch abgearbeitet wurden, ist eine großartige Sache und sehr hilfreich für das Feld.

Wird deine Forschungsgruppe die Ergebnisse des Konsortiums für Forschung verwenden können, beispielsweise die PROSPEC-Datenbank?

Gerner: Ganz sicher; wir machen viel klinische Proteomik. Es gibt hier zwei Analysenansätze. Der eine ist molekulares Profiling, bei dem man ohne Erwartungshaltung schaut, was alles in einer Probe identifiziert werden kann – die sogenannte shotgun proteomics. Der andere Ansatz ist, dass man von vornherein sagt, bei dieser Fragestellung interessiert mich eine bestimmte Zahl an Molekülen, das können Tumormarker, Krankheitsmarker etc. sein – dabei werden gezielt diese Proteine untersucht.

Für die gezielte Analyse wird diese Datenbank extrem hilfreich sein, weil man nicht mehr selbst die Analyseparameter bestimmen muss, sondern praktisch über diese Datenbank diese Parameter für gezielte massenspektrometrische Analysen übernehmen kann – also wirklich eine Erleichterung.

Es kann also etwa beim Herausfiltern von Biomarker-Proteinen helfen?

Gerner: Genau – das Protein, das mich interessiert, kann durch die Einstellungen am Massenspektrometer mit einer sehr hohen Messgenauigkeit gemessen werden. Darüber hinaus muss man sich nicht selbst die Peptide synthetisieren lassen oder das Protein charakterisieren, sondern kann hier ebenfalls auf die Datenbank zugreifen.

Ich bin mir sicher, dass wir das in naher Zukunft verwenden werden. Wir machen gezielte Analysen aus Blutserum und -plasma und bisher haben wir die Bestimmung der Parameter für die Peptide immer selbst gemacht. Nun können wir diesen Schritt überspringen und sind dadurch effizienter und schneller.

Wie beurteilst du die Zusammenarbeit von Universität und Industrie?

Gerner: Interessant war, dass Universitäten mit der Industrie sehr effizient zusammen gearbeitet haben. Letztendlich war diese Synthese von hundert tausenden Peptiden nur aufgrund einer hohen Automatisierung möglich. Die Peptide wurde nicht, wie vor ein paar Jahren noch, einzeln manuell oder halb-automatisch mit Peptidsynthesizer hergestellt, sondern mit Robotics-Systemen, die hoch effizient arbeiten; diese stehen hauptsächlich der Industrie zur Verfügung. Universitäten entwickelten das Know-how, um das entsprechend umzusetzen und zu implementieren. Ich finde, dass es wirklich ein Vorzeige-Projekt ist, wie die Zusammenarbeit zwischen Universität und Industrie in vorbildlicher Weise ausgeführt wurde und letztendlich auch einen tollen Erfolg gebracht hat.

Was noch nicht erwähnt wurde: Dieses Wissen wurde absolut frei zugänglich gemacht. Man muss nicht einmal ein Universitätsmitarbeiter sein. Es ist jedem Menschen übers Internet zugänglich. Das macht das Ganze besonders wertvoll. Eine tolle Sache, da Forschung in der Industrie normalerweise hinter verschlossenen Türen stattfindet und die Resultate nicht veröffentlicht werden. Das ist eine ganz wichtige Entwicklung.

Was für einen Einfluss hat das auf die klinische Forschung?

Gerner: Die meisten Proteinanalytik-Verfahren, die in der Klinik etabliert sind, basieren auf Antikörper. Das sind also ELISA und ELISA-abgeleitete Antikörper-basierende Methoden. Diese haben den Hauptvorteil, dass sie sich extrem gut automatisieren lassen – das sind dann die Analysestraßen, die aber Nachteile haben. Die schlimmsten Nachteile sind, dass man bei einem neugefundenen Protein, das einen interessiert, es sehr schwierig ist, einen verlässlichen und validierten ELISA aufzubauen – d. h. der auf Matrixanfälligkeit, Robustheit usw. geprüft ist.

Es gibt auch sehr viele ELISA-Resultate, die einer strengen Überprüfung nicht standhalten. Es werden Messfehler gemacht, weil die Antikörper kreuzreagieren. Diese Reaktionen sind systematisch schwer erfassbar, da sie im Prinzip unvorhersehbar sind, beispielsweise treten sie erst bei bestimmten Patientengruppen auf.

Die Verwendung der Massenspektrometrie – kurz MS – in der Klinik ist im Moment noch beschränkt, beispielsweise auf Aminosäuren und Medikamente, aber die Möglichkeiten etwa Proteine oder andere Biomarker mittels MS werden von Jahr zu Jahr besser. Ich bin überzeugt, dass diese Arbeit den Zugang zu dieser Methode erleichtern wird, weil der Vorteil der MS ist, dass es vollkommen egal ist, welches Protein uns interessiert. Wir können grundsätzlich mit demselben Instrument jedes Protein messen.

Jetzt haben wir über so eine Datenbank die Möglichkeit eine entsprechende Selektivität zu erreichen. Natürlich wird es so sein, dass manche Proteine in so geringen Konzentrationen vorliegen, dass man sie mittels MS noch nicht fassen kann, aber das ist eher die Ausnahme. Die meisten Proteine liegen in ausreichend großer Konzentration vor, weil die MS ohne Weiteres für Konzentrationen im pg/ml-Bereich geeignet ist, was etwa bei Blutproben wichtig ist.

Das Serum zählt nämlich bei der Bioanalytik zu den kompliziertesten Matrizen, weil hier die größten Konzentrationsunterschiede vorliegen. Es gibt Proteine, die im Vergleich zur Hauptkomponente in zehn milliardenfach geringeren Konzentrationen vorliegen, die biologisch noch aktiv sind. So große Unterschiede haben wir sonst nicht. In Zellen und Geweben wird man das kaum finden.

Insofern könnte diese Basisarbeit zu einer Trendwende führen, sodass in den kommenden Jahren immer mehr MS-Verfahren Eingang in die Routine finden könnten.

Wird man von den ELISA-Methoden weggehen?

Gerner: Wahrscheinlich wird es sich parallel dazu entwickeln. ELISA wird sicher nicht so schnell verdrängt werden, da es einige qualitativ hochwertige gibt, für die die MS wahrscheinlich noch länger keine Konkurrenz darstellen wird. Das gilt aber nur für eine beschränkte Anzahl von Antikörpern. Bei einer großen Zahl von Analyten wissen wir noch wenig über deren Bedeutung. Gerade im Zuge der individualisierten Medizin wollen wir natürlich immer mehr Personen-bezogene Daten erfassen und diese große Zahl an Biomarkern lässt sich optimal mittels MS bestimmen.

In einer Analyse können viele hundert Proteine bestimmt werden und damit bekomme ich natürlich ein viel akkurateres Bild vom Patienten, als wenn ich nur ein oder zwei Parameter bestimme. Das ist sicher eine moderne Entwicklung, die viel nach sich zieht, weil man etwa viel genauer Medikamente einstellen kann, die richtigen Medikamenten Cocktails finden kann und viel besser auf die spezifischen Bedürfnisse der Patienten eingehen kann. Auch dafür spielt diese Referenzdatenbank eine große Rolle.

Wie sieht es mit dem Zusammenspiel von Genomics- und Proteomics-Daten aus, werden sie synergisch wirken können?

Gerner: Davon halte ich sehr viel. Bei den next generation sequencing Methoden wird schon individualisiert sequenziert. Tatsächlich sind Genomics und Proteomics komplementär. Man sagt, im Genom liegt das Potenzial und im Proteom liegt das realisierte Potenzial, dass dann noch eine entsprechende Umsetzung im Metabolom erfährt.

Wir können aus dem Genom oft den aktuellen Status eines Patienten kaum ablesen, da das Genom eine relativ statische Größe ist. Da kann man Dispositionen herausrechnen; vielleicht auch vorausbestimmen, wie sich etwa ein Tumor im Verlauf einer Therapie verhalten wird. Aber den Istzustand eines Patienten, in Bezug auf die Aktivität von signal transduction pathways, wo Adaptierungen stattfinden, die lassen sich genomisch nicht abbilden. Die Ergänzung von Genomics mit Proteomics schafft völlig neue Perspektiven, die bisher noch nicht realisiert sind.

Also könnte man beispielsweise den Tumor genetisch vorbestimmen und während der Therapie proteomisch nachvollziehen, ob diese wirkt oder nicht?

Gerner: Tatsächlich; auch welche genetischen Eigenschaften zum Tragen kommen. Oft ist es so, das Tumoren Eigenschaften entwickeln, die sich nicht leicht aus dem genomischen Veränderungen ableiten lassen. Es gibt beispielsweise Tumoren mit recht wenigen sogenannten driver mutations, die aggressivst metastasieren und es gibt auf der anderen Seite Metastasen, die Eigenschaften haben, die nicht mit dem Genotyp korrelieren, sondern die einen Phänotyp aufweisen, der sich damit nicht gut erklären lassen; und das ist dann proteomisch zugänglich.

Es spielt aber nicht nur eine Rolle für die Krebserkrankungen, sondern auch für andere wichtige Zivilisationserkrankungen, sei es etwa Neurodegeneration oder Gefäßerkrankungen. Das sind Lifestyle-Erkrankungen, die eher wenig genetisch determiniert sind. Der Status so eines Patienten lässt sich über die Proteine sehr gut ableiten. Das sind Dinge, die, weil sie technisch sehr schwer zugänglich waren, noch kaum gemacht wurden, über die Entwicklung der Referenzdatenbank aber zugänglich gemacht wurden. Man kann davon ausgehen, dass hier vollkommen neue Perspektiven eröffnet werden und Zusammenhänge gefunden werden, die noch nicht einmal vermutet wurden.

Wie lange dauert es im Moment in der Klinik, wenn ein Arzt zu dir kommen würde und so eine Probe durchmessen lassen würde?

Gerner: Wenn das eine klassische Blutanalyse ist, dann dauert eine Einzelanalyse etwa zwei Stunden am Gerät; hinzu kommt ein Tag der Probenvorbereitung. Die Hauptlimitierung ist hier jedoch die mangelnde Parallelisierung. Bei genomischen Messungen haben wir die Möglichkeit, dass wir Millionen Reaktionen parallel durchführen können und dadurch einen entsprechenden Durchsatz bekommen.

Die MS ist zwar unglaublich schnell aber nur linear. Vor wenigen Jahren haben wir etwa ein Peptid pro Sekunde sequenziert; mittlerweise sind es schon 30 Peptide pro Sekunde, also eine unglaubliche Beschleunigung. D. h. es ist heute noch nicht denkbar, dass wir 10.000 Proben in kurzer Zeit parallel mittels MS analysieren können. Das kann man nur mit ELISA machen, wo viele Parallelansätze gemacht werden können.

Das ist sicher noch die methodische Hauptlimitierung. Wir werden zwar die Messzeit pro Einzelprobe verkürzen können. Eine gezielte Analyse, wo beispielsweise 20 Proteine gemessen werden, dauert 30 Minuten. Durch eine existierende Infrastruktur kann so eine Messung auf fünf bis sechs Minuten verkürzt werden.

Der Probendurchsatz kann dadurch schon vernünftig erhöht werden, aber wir sind dann immer noch bei vielleicht ein paar hundert Proben am Tag, und von einem Wunschziel von ein paar tausend pro Tag ist man noch entfernt – man kommt dem näher, denn es ist kein Problem 10 oder 20 Geräte parallel zu betreiben.

Man sieht, die Entwicklung geht in eine Richtung, dass Dinge schön langsam machbar werden, die vor fünf Jahren noch undenkbar waren. Insofern erwarte ich mir in den nächsten Jahren auch, dass sich das abbilden wird, dass mehr Geräte auch in Kliniken in Betrieb genommen werden und immer mehr Assays von den Ärzten verwendet werden, um bei ihren Patienten eine genauere Anamnese durchführen zu können. Da wird sich jetzt vieles tun.

Was bedeutet das für den behandelnden Arzt?

Gerner: Für die Ärzte ist es eine unglaubliche Herausforderung, da die methodischen Entwicklungen sehr schnell vorangehen. Selbst für den Fachmann ist es nicht leicht hier schrittzuhalten und ständig nachzuvollziehen, welche Möglichkeiten sich erschließen. Es ist auch ein Grund warum wir auch oft eine Verzögerung von 10 bis 15 Jahren haben, von dem was in einem Labor technisch machbar ist bis zu dem, was tatsächlich genutzt wird.

Ein Arzt wird nur das nutzen können, was er versteht und wo er auch Entscheidungen treffen kann, die dann in Therapieadaptionen münden können. Das dauert Jahre, das geht nicht anders, die Geduld muss man haben.

Philip Klepeisz, Christopher Gerner
, Ärzte Woche 7/2017

Zu diesem Thema wurden noch keine Kommentare abgegeben.

Mehr zum Thema

<< Seite 1 >>

Medizin heute

Aktuelle Printausgaben