Jubiläum: Zehn Jahre Humangenom

3 Milliarden Basenpaare umfasst das menschliche Erbgut. Vor zehn Jahren wurde eine erste grobe Karte des Humangenoms veröffentlicht. <ic:message key='Bild vergrößern' />
3 Milliarden Basenpaare umfasst das menschliche Erbgut. Vor zehn Jahren wurde eine erste grobe Karte des Humangenoms veröffentlicht. Quelle: Jonathan Bailey/NIHGRI

Der 26. Juni 2000 markiert einen Meilenstein in der Humangenom-Forschung. Vor nunmehr zehn Jahren legte der US-Unternehmer Craig Venter gemeinsam mit seinem staatlich geförderten Konkurrenten Francis Collins eine Rohversion des entschlüsselten menschlichen Genoms vor. Seither hat das menschliche Erbgut die Biomedizin enorm beschleunigt, auch wenn viele der hochgesteckten medizinischen Ziele von damals  bislang nicht erreicht wurden. Durch das Humangenom wurde jedoch die Technik der Sequenzierung in kürzester Zeit revolutioniert. Dieser enorme Fortschritt lässt nun die einstigen Hoffnungen deutlich realistischer erscheinen. Dabei zeichnet sich ein Wandel hin zu individuellen Therapien ab - durch die immer engere Verknüpfung von Diagnostik und Medikament, die für den Patienten maßgeschneiderte Behandlungen ermöglichen.

Das Wettrennen um die erste Genom-Sequenz



Der 26. Juni 2000 markiert ein historisches Datum in der Genomforschung:  US-Präsident Bill Clinton hatte die beiden Forscher Craig Venter und Francis Collins eigens in den East Room des Weißen Hauses geladen. Seite an Seite verkündeten die beiden Rivalen einen Erfolg: Die erste Entzifferung des menschlichen Erbguts war geschafft. Zwar handelte es sich seinerzeit noch um eine grobe und lückenhafte Karte der Abfolge der insgesamt drei Milliarden Bausteine der menschlichen DNA, darüber hinaus erfolgte die offizielle Veröffentlichung der Daten im wissenschaftlichen Fachmagazin erst im Februar 2001. Dennoch frohlockte der US-Präsident: „Ohne Zweifel halten wir hiermit die wichtigste und wundervollste Karte in den Händen, die Menschen jemals erstellt haben. Die Genomwissenschaft wird die Diagnose, Prävention und die Behandlung der meisten, wenn nicht aller menschlichen Krankheiten revolutionieren.“

Konkurrenz von öffentlichen und privaten Teams

Die Welt feierte den vorläufigen Abschluss eines jahrelangen Wettlaufs um die erste komplette Entzifferung der menschlichen Erbinformation, der die Humangenetiker in Atem gehalten hatte und bislang noch bei keinem Wissenschaftsprojekt so ausgeprägt war. Alles begann mit der  Gründung der Humanen Genomorganisation (HUGO) im Jahr 1990 in den USA. Damit hatte das bis dato größte Forschungsprojekt der Welt seinen Anfang genommen. Unter der Leitung des Entdeckers der DNA-Struktur, James Watson – nach Streitigkeiten übernahm später der ebenfalls berühmte Genetiker Francis Collins –, wollte ein öffentlich finanzierter Verbund von 1000 Forschern aus 40 Ländern bis zum Jahr 2005 die Abfolge der drei Milliarden Basen des menschlichen Genoms entziffern und alle Daten innerhalb von 24 Stunden in eine für alle zugängliche Datenbank einspeisen. Schon kurz nach dem Start kam es aber zum Eklat über die Patentierung von Genen. Aus diesem Grund verließ 1992 der US-Genetiker Craig Venter HUGO, gründete sein eigenes Forschungsinstitut, später seine eigene Firma Celera Genomics und sein kommerzielles Sequenzierungsprojekt.

Das Fachmagazin "Nature" widmete der Entschlüsselung des menschlichen Genoms im Februar 2001 eine umfangreiche Sonderausgabe.Lightbox-Link
Das Fachmagazin "Nature" widmete der Entschlüsselung des menschlichen Genoms im Februar 2001 eine umfangreiche Sonderausgabe.Quelle: Nature

Schrottschuss-Methode versus Chromosomenkarte

Damit begann ein noch nie dagewesenes Wettrennen zwischen privater und öffentlicher Forschung. Venter verfolgte bei Celera einen neuen methodischen Ansatz, die sogenannte Schrotschuss-Methode (whole-genome shot-gun sequencing). Dabei wurde das menschliche Genom zunächst wahllos in winzige Bruchstücke zerlegt. Die genetische Buchstabenfolge in diesem Mix kleiner, sich überlappender Abschnitte konnte dann von Sequenziermaschinen abgelesen werden. Leistungsstarke Rechner und Computerprogramme puzzelten die entzifferten Abschnitte danach rasch wieder zu einer sinnvollen Abfolge zusammen. Gleichwohl war man hier zunächst gezwungen, auf die öffentlich zugänglichen Chromosomenkarten des Humangenomprojektes (HGP) zurückgreifen, um die Sequenzdaten zu ordnen. Was Ende der 1990er Jahre noch als umstrittene Pioniertat galt, hat sich jedoch heute längst zum Standardverfahren in der Genomforschung entwickelt.

Das öffentliche Humangenom-Projekt (HGP) hingegen setzte auf die bis dato traditionelle Strategie, das menschliche Erbgut schrittweise in große DNA-Fragmente aufzuteilen. Diese wurden Stück für Stück entschlüsselt, und die herausgelesene Information dann exakt in einer Chromosomen-Karte zusammengetragen (map-based cloning). Diese Informationen wurden umgehend in frei zugänglichen Datenbanken veröffentlicht. Insgesamt war das HGP-Vorgehen ein zeitraubendes und kostspieliges Verfahren, das aber als das Zuverlässigere galt.

Deutschland erst spät an Bord

Jede am öffentlichen Konsortium beteiligte Nation kümmerte sich um einen eigenen Abschnitt des menschlichen Genoms. Die deutschen Erbgut-Analytiker waren allerdings Spätzünder. Erst 1995 stiegen sie mit dem vom Bundesforschungsministerium und der Deutschen Forschungsgemeinschaft unterstützten Deutschen Humangenomprojekt (DHGP) bei HUGO ein – unter ihnen die drei Sequenzierzentren  an der Gesellschaft für Biotechnologische Forschung in Braunschweig (heute Helmholtz-Zentrum für Infektionsforschung), am Institut für Molekulare Biotechnologie in Jena, sowie am Max-Planck-Institut für molekulare Genetik in Berlin.  Die Deutschen  waren dabei an der Sequenzierung der Chromosomen X,7,11 und 21 beteiligt. Beim Chromosom 21 hatte die Forscherin Marie-Laure Yaspo aus Berlin die Leitung inne, Anfang Mai 2000 war es entziffert. Am Ende steuerte Deutschland genau 57,8 Millionen Basen zum internationalen Gentopf bei. Kostenpunkt: 40 Millionen D-Mark.

Der Genetik-Unternehmer Craig Venter verkündete am 26. Juni 2000 zusammen mit seinem Rivalen Francis Collins die Entschlüsselung des menschlichen Genoms.Lightbox-Link
Der Genetik-Unternehmer Craig Venter verkündete am 26. Juni 2000 zusammen mit seinem Rivalen Francis Collins die Entschlüsselung des menschlichen Genoms.Quelle: University of Florida

 Manche Forscher kritisierten seinerzeit mehrfach, dass Deutschland mit einem solchen Budget und zaghaften Engagement den Anschluss an die internationale Genomforschung verpassen könnte. Im Jahr 2001 legt das Bundesforschungsministerium schließlich das Nationale Genomforschungsnetz (NGFN) auf. Unter dem Dach dieses Verbundes sind inzwischen rund 600 Wissenschaftler organisiert, die nach genetischen Ursachen für Krankheiten suchen. Parallel dazu wurden Initiativen zur Genomforschung an Pflanzen und Mikroorganismen sowie zur Bioinformatik und Proteomforschung gestartet. Am 12. Februar 2001 stellten die deutschen Forscher - parallel zu vielen anderen HGP-Wissenschaftlern in anderen beteiligten Ländern - gemeinsam mit der damaligen Bundesforschungsministerin Edelgard Buhlman auf der Bundespressekonferenz ihre Ergebnisse vor, die damals im Fachmagazin Nature (2001, Band 409, 15. Februar) veröffentlicht wurden. Parallel dazu veröffentlichte Craig Venter die Daten aus seinem kommerziellen Projekt im Wissenschaftsmagazin Science (2001, Band 291, 16. Februar)

2003 ist das Humangenomprojekt abgeschlossen 

Insgesamt hat das Humangenomprojekt etwa drei Milliarden US-Dollar öffentlicher Gelder verschlungen, Analysen und weitere genomische Projekte mit eingeschlossen. Erst im Jahr 2003 schlossen die internationalen Forscherteams die Sequenzierungsarbeiten am menschlichen Erbguts ganz offiziell ab und schlossen damit die Lücken, die in dem groben Entwurf von 2000 noch geblieben waren.

In einem kürzlich veröffentlichten Kommentar zum zehnjährigen Sequenz-Jubiläum vergleicht Francis Collins in der Fachzeitschrift Nature (1. April 2010, Bd. 464, S.674) die Hoffnungen für die Medizin aus dem Jahr 2000 mit den Möglichkeiten von heute. "Das Versprechen einer Revolution für die Gesundheit des Menschen bleibt wahr", so Collins. Doch für die klinische Medizin seien die Konsequenzen bisher noch eher bescheiden. Diejenigen, die dramatische Ergebnisse über Nacht erwarteten, mögen enttäuscht sein, sollten sich aber bewusst machen, dass Genforschung der obersten Regel aller Technologien folgt: Wir überschätzen ausnahmslos den kurzfristigen Einfluss einer neuen Technologie und unterschätzen ihre Langzeiteffekte."

Auch deutsche Beteiligte erinnern sich noch gut an die damalige Zeit: "Verglichen mit den Schritten davor, war das HUGO ein unglaubliches Unternehmen. Wir haben lange diskutiert, wie das möglich sein könnte, die Sequenzen des Humangenoms zu bestimmen, das war unglaublich beeindruckend, dass das gelungen ist. Jetzt sind wir natürlich weit darüber hinaus", so Hans Lehrach, Genetiker am Max-Planck-Institut für Molekulare Genetik in Berlin.

Was der humane Gencode offenbart



Das menschliche Genom im Zellkern besteht aus 3,2 Milliarden Erbgut-Bausteinen. Mithilfe verschiedener Techniken gelang es den beiden konkurrierenden Forscherteams, den Code des humanen Genoms zu knacken und 2000 den Abschluss erster Arbeitsversionen zu verkünden, was schließlich im Februar 2001 zur Veröffentlichung in renommierten Wissenschaftsmagazinen führte (Nature, Bd.409, S. 860; Science, Bd. 291, S. 1304). Erst im Jahr 2004 wurde der vollständig sequenzierte Erbgut-Katalog veröffentlicht (Nature, Bd.431, S.931).  Das erste entschlüsselte Referenzgenom von 2000 stammte übrigens nicht von einem Menschen, sondern gleich von sechs: Die Forscher hatten sich damals auf einen repräsentativen Erbgut-Mix geeinigt, um möglichst ein Muster-Genom zu erstellen. Heute halten Forscher die damalige Entscheidung für einen Fehler, da sie die besonders interessanten Variationen im Erbgut verdeckte. 2007 war es einmal mehr Gen-Pionier Craig Venter aus dem amerikanischen Rockville, der sein eigenes persönliches Genom entziffern ließ (mehr...) und veröffentlichte (PLoS Biology, Bd.5,e254). Weitere Prominente folgten: Der Nobelpreisträger James Watson (2008, Nature, Bd. 452, S. 872), der US-Forscher George Church (2009, Science, Bd. 327, S. 78) und der südafrikanische Bischof Desmond Tutu (2010, Nature, Bd. 463, S.943). Bis dato sind rund 20 humane Genome komplett sequenziert und veröffentlicht, die Zahl steigt rasant.

Was Wissenschaftler aus dem Humangenom herausgelesen haben:

  • Wenig Gene: Eine der Überraschungen für die Biologen war die verblüffend geringe Anzahl der Gene in unserem Erbgut. So werden nur etwa 26.000 Gene in Proteine übersetzt. Das sind gerade einmal 1,5 Prozent des Genoms. Früher hatten Molekularbiologen die Zahl der menschlichen Erbanlagen auf bis zu 300.000 geschätzt. Immer mehr offenbarte sich, dass ein Gen nicht wie lange angenommen die Bauanleitung für ein einziges Protein ist, sondern bisweilen viele verschiedene Versionen hervorbringt.
  • Große Genwüsten: Riesige Bereiche unseres Erbguts, etwa 96 Prozent, haben vermeintlich keine Funktion. Einige Forscher haben diese „nichtkodierenden Bereiche“ daher früher als Schrott-DNA (junk DNA) abgetan. Erst in den letzten Jahren kristallisierte sich heraus: Einige Bereiche, die zum Großteil aus sich wiederholenden Abschnitten bestehen, besitzen sehr wohl wichtige Funktionen. So haben Forscher inzwischen entdeckt, dass einige DNA-Abschnitte die Bauanleitung für eine zuvor unbekannte Molekülklasse tragen - nämlich kleine RNA-Moleküle, die regulatorische Aufgaben in der Zelle übernehmen und inzwischen intensiv beforscht werden (mehr...).
  • Komplexe Regulation: Forscher wollen nach der Entzifferung der puren Erbinformation verstehen, wie das Genom eigentlich funktioniert. Es geht insbesondere darum, wie Gene an- und abgeschaltet werden, damit eine Zelle eine bestimmte Rolle im Körper übernehmen kann (funktionelle Genomik). Für die Regulation der Genaktivität sind verschiedene Steuerbereiche und Schalter nötig. Seit 2003 beschäftigt sich das internationale Forscherkonsortium namens ENCODE (Encyclopedia of DNA Elements) als HUGO-Nachfolger damit, die Regulatoren und Regisseure unseres Genoms zu katalogisieren. In einer Zwischenbilanz 2007 in einem Nature-Artikel (14. Juni 2007, Bd. 447, S. 799) kamen die Autoren zu dem Fazit: „Das menschliche Genom ist ein eleganter, aber mysteriöser Speicher von Informationen“.
  • Wirkungsvolle Verpackung: Einen Boom erlebte die Disziplin der Epigenetik: Sie untersucht kleine chemische Markierungen auf der DNA oder den sie umgebenden Eiweißen. Die Anhängsel beeinflussen den Verpackungszustand des Erbguts und kontrollieren so, wie und wann ein Gen abgelesen wird. Durch Epigenetik lassen sich Genaktivitätsmuster programmieren und sogar vererben. Erst jüngst wurde ein International Human Epigenome Consortium (IHEC) gegründet, an dem auch deutsche Forscher beteiligt sind (mehr...).
  • Kleine Unterschiede: Das Human-Genomprojekt war der Startschuss für die Suche nach kleinen Buchstaben-Unterschieden im Erbguttext. Die Molekularbiologen  begannen in den Genomen verschiedener Menschen nach sogenannten SNPs („Snips“, single nucleotide polymorphisms) zu fahnden. Das internationale HapMap-Projekt förderte in den Jahren 2002 bis 2005 eine Vielzahl solcher Unterschiede zu Tage. Diese Informationen bilden die Grundlage für die Suche nach krankmachenden oder gesundheitsförderlichen Genvarianten.
  • Fenster unserer Evolution: Der humane Genom-Code lieferte erstmals die ultimative genetische Referenz, um die Herkunft und die Evolution des Menschen zu studieren. Anhand von Genomanalysen ließ sich beispielsweise untermauern, dass der frühe Mensch aus Afrika auswanderte. Mit der neuesten Technik lassen sich inzwischen auch aus winzigen Resten von Urmenschen viele Daten gewinnen - zum Beispiel dass der Neandertaler Sex mit Menschen hatte (mehr...).

Moderne Genomforschung im Leserausch



Das Humangenomprojekt, die Mutter aller großen Genomprojekte, hatte enorme Auswirkungen für die Biotechnologie, sowohl für die Wissenschaft als auch für die Industrie. In der Forschung bildete es den Startschuss für eine Reihe weiterer Mammutprojekte, an denen hunderte Wissenschaftler, Sequenzierroboter und leistungsstarke Computer beteiligt waren und sind. In der modernen Genomforschung sieht der aktuelle Präsident der Humangenom-Organisation HUGO, Edison Liu, zwei große Stoßrichtungen: „Wir wollen die genetische Vielfalt zwischen den Menschen verstehen. Und wir fahnden nach den molekularen Ursachen für Krankheiten.“

Neue Labortechnik mit enormer Lese-Leistung

Der prestigeträchtige Wettlauf um die erste Genomsequenz hat die Entwicklung neuer Entzifferungs-Technologien angeheizt. Immer neue Generationen von Sequenzier-Robotern haben die Entschlüsselung von Genomen bei Tieren, Pflanzen und Mikroben revolutioniert. Immer schneller und günstiger lassen sich mittlerweile Genome auslesen.

Die Fortschritte in der Sequenziertechnik - hier der Genome Sequencer 20 von Roche - haben die Kosten und die Dauer einer Sequenzierung dramatisch gesenkt.Lightbox-Link
Die Fortschritte in der Sequenziertechnik - hier der Genome Sequencer 20 von Roche - haben die Kosten und die Dauer einer Sequenzierung dramatisch gesenkt.Quelle: Roche

Lange war die sogenannte Sanger-Methode (Kettenabbruch-Methode) der Standard in den Labors. Dieses biochemische Decodierverfahren hatte der Doppelnobelpreisträger Fred Sanger bereits Ende der 1970er entwickelt. Hierfür muss die DNA zunächst in kleinere Fragmente zerlegt und in Mikroben vervielfältigt werden (Klonierung). Mit Hilfe von Enzymen und farbstoff-markierten Erbgut-Bausteinen wird dann ein neuer DNA-Strang synthetisiert. Die dabei entstehenden Fragmente verschiedener Länge können durch Elektrophorese aufgetrennt und von einem Laser ausgelesen werden. Durch Automatisierung und Parallelisierung wurden hier schon beachtliche Lesegeschwindigkeiten erreicht. Einen Quantensprung in der Sequenzierung haben die Geräte der „neuen Generation“ (Next Generation Sequencing) ausgelöst. 2005 kamen die ersten „Pyrosequenzer“ der Firma Roche auf dem Markt, die schon Millionen von Basenpaare in einem Schritt auslesen konnten. Weitere Verfahren der Unternehmen Illumina (Solexa) oder Applied Biosystems (SOLiD) folgten. Der Vorteil: Bei allen neuen Verfahren fällt der aufwendige DNA-Vermehrungsschritt mithilfe von Bakterien weg. Stattdessen können die Erbgutschnipsel mit der Polymerasekettenreaktion (PCR) stark vervielfältigt und dann gelesen werden. Die neueste Technik der „dritten Generation“ unterscheidet sich von bisherigen vor allem darin, dass nur noch ein einziges DNA-Molekül als Lesevorlage benötigt wird.

In der 20. Folge von biotechnologie.tv wird unter anderem erklärt, wie die Sequenzierung von Genen funktioniert.Quelle: biotechnologie.tv

Ein Humangenom an einem Tag

Die Entwicklung ist mit der stürmischen Entwicklung von Mikroprozessoren vergleichbar. Schaffte eine moderne Sequenziermaschine im Jahr 2000 gerade einmal 6000 DNA-Bausteine pro Tag, bewältigen Automaten der neuesten Generation sagenhafte 30 Milliarden solcher Nukleotide. Im Schnitt hat sich damit die Lesegeschwindigkeit um den Faktor 50.000 beschleunigt. Und auch die Kosten sind im Sinkflug: Waren für das Humangenomprojekt seinerzeit noch 3 Milliarden US-Dollar veranschlagt, so schaffen es manche Sequenzer heute schon für weniger als 6000 Dollar. Dauerte die Entzifferung des ersten menschlichen Referenzgenoms noch 13 Jahre, so ist ein Humangenom heute binnen weniger Wochen zu haben.

Bei den Sequenzierungen werden die Abschnitte gleich mehrfach gelesen, es entstehen gigantische Datenmengen und bisweilen fehlerbehaftete Daten, die von Bioinformatik und leistungsstarken Rechnern ausgewertet werden müssen.

Experten gehen davon aus, dass weiter sinkende Preise endgültig den Weg für eine personalisierte Genomik ebnen werden, in der Patienten zur Vorsorge ihr Erbgut sequenzieren und durchleuchten lassen.

Eine neue Ära der Genomforschung



Die immense Kostensenkung der Sequenzierung ermöglicht Wissenschaftlern inzwischen ganz neue Groß-Projekte, die zuvor aus Kostengründen völlig unrealistisch erschienen.

  • 1000 Genomes Project: 2008 formte sich ein internationals Konsortium aus Genomzentren in den USA, Großbritannien und China. Bis Ende 2011 will die Allianz das komplette Erbgut von 1000 Menschen aus aller Welt entziffern, um genetische Unterschiede zwischen Individuen (genetische Variation) aufzudecken. Mittlerweile ist das Projekt sogar um weitere 1000 Genome aufgestockt worden. Beteiligt ist  auch das Max-Planck-Institut für Molekulare Genetik in Berlin, für die Decodierung stellt das Bundesministerium für Bildung und Forschung fünf Millionen Euro bereit (mehr...).

  • Metagenom der Darmflora: Gemeinsam mit Danone Research und dem Unternehmen UCB Pharma  in Madrid haben Forscher des chinesischen Bejing Genomics Institute in Shenzen die gesamte Darmflora des Menschen sequenziert (mehr...). Ziel der im Metahit-Konsortium organisierten 23 Arbeitsgruppen: Zu ermitteln, welche Rolle die Zusammensetzung der Darmbewohner bei Krankheiten wie den chronischen Darmentzündungen Colitis ulcerosa und Morbus Crohn spielen und diese so zu steuern, dass ein gesundheitsfördernder Effekt zustandekommt.

  • Krebsgenom-Projekt: Krebs ist zu großen Teilen ein genetisch bedingte Erkrankung. Mehrer Großvorhaben haben sich zum Ziel gesetzt, die genetischen Wurzeln von Tumorleiden umfassend aufzudecken.  Das Aufspüren erworbener Mutationen in der Erbinformation vieler verschiedener Krebszellarten steht im Mittelpunkt des humanen Krebsgenomprojektes (mehr...). So soll künftig die Diagnose und Behandlung von Krebs zu verbessert werden. Ähnliche Vorhaben laufen bereits in Großbritannien und den Vereinigten Staaten: Das Krebsgenom-Projekt des Sanger-Instituts und der Krebsgenom-Atlas des Nationalen Krebsinstituts der USA.

  • Epigenom-Projekt:  Derzeit formiert sich das International Human Epigenome Consortium (IHEC). Es zielt darauf ab, genomweit das DNA-Methylierungsmuster in Zellen aus sämtlichen Geweben des Menschen zu identifizieren – und damit die bei Krankheiten aktiven Gene zu erfassen und ihre An-und Abschaltautomatik zu verstehen (mehr...).

Im Zuge der zahlreichen Mammutprojekte in der Genomforschung („Big Biology“) sind in der letzter Zeit auch immer wieder kritische Stimmen laut geworden. Manche Forscher fürchten gerade in Zeiten knapper Budgets, dass die Sequenzierungsprojekte zuviel öffentliche Fördergelder vereinnahmen und die klassische, auf Hypothesen gestützte Forschung zurückgedrängt wird. In vielen Fällen liefern die Genomprojekte massenhaft Daten, die durch Bioinformatiker ausgewertet und validiert werden müssen. Nur wenige dieser Informationen mündeten auch wirklich in medizinische Anwendungen, von denen Patienten profitieren.

Molekulare Medizin: Genbasierte Medikamente und Tests



Herrschte nach der Entzifferung des Genoms 2001 reichlich Euphorie im Hinblick auf eine neue Ära der Medizin, so machte sich in den Folgejahren bei den Forschern und Ärzten Ernüchterung breit. Denn der Blick in die Gene offenbarte vor allem, wie komplex unsere Erbinformation ist. Für die meisten Erkrankungen sind nämlich viele Gene verantwortlich, nicht selten spielt ein Genprodukt an ganz verschiedenen Stellen im Körper eine Rolle. Doch vergleichende Analysen des Erbguts von tausenden Menschen, sogenannte genomweite Assoziationsstudien, haben in den letzten Jahren in rasantem Tempo Veränderungen im Genom aufgespürt, die das Risiko für bestimmte Krankheiten beeinflussen. Damit bekamen Pharmaunternehmen wichtige neue Angriffspunkte zur Entwicklung zielgerichteter Therapien an die Hand.

Erst nach und nach scheint somit das Wissen um die humane Genomsequenz medizinische Früchte zu tragen: Auf Basis des Gen-Katalogs werden inzwischen viele neue Medikamente entwickelt  - zum Beispiel etwa gegen Krebs (mehr...). Für bestimmte Genvarianten sind molekulare Tests für die Vorsorge und die Therapieplanung entstanden. Sie sollen den Weg zu einer personalisierten Medizin ebnen, die auf das genetische Profil eines Patienten zugeschnitten ist. In Deutschland sind derzeit zehn Wirkstoffe zugelassen, für die ein solcher Gentest zwingend vorgeschrieben ist: Dazu gehören Therapien zu Brust- oder Darmkrebs, die nur dann für Patienten geeignet sind, wenn sie eine bestimmte Genvariante aufweisen. Neben Pharmafirmen wie die Schweizer Roche oder Merck aus Darmstadt, die derartige Medikamente vertreiben, proftieren in der Biotechnologie-Branche besonders Spezialisten für Labortechnik und für Molekulare Diagnostik von diesen Auswirkungen des Humangenomprojekts.

Trend zur personalisierten Medizin: Ein Blick auf die individuelle genetische Ausstattung eines Menschen soll verraten, ob ein Medikament hilft oder nicht.Lightbox-Link
Trend zur personalisierten Medizin: Ein Blick auf die individuelle genetische Ausstattung eines Menschen soll verraten, ob ein Medikament hilft oder nicht.Quelle: Qiagen

Wachstumsmarkt Molekulare Diagnostik

Gerade im Bereich der Diagnostik ist in den letzten Jahren ein starker Wachstumsmarkt entstanden, von dem Anbieter Erbgut-basierter Tests profitieren. „Aus dieser Hinsicht hat sich das Humangenomprojekt wahrscheinlich schon mehrmals refinanziert“, glaubt etwa Peer Schatz, Vorstandsvorsitzender von Deutschlands größtem Biotech-Unternehmen Qiagen. Das Mammutprojekt habe zu wichtigen Plattformtechnologien geführt. Den Trend zur Molekulardiagnostik hat das Unternehmen schon früh erkannte und sich seitdem systematisch in diese Richtung entwickelt – 2009 machte das Molekulardiagnostik-Geschäft bereits rund die Hälfte der Umsätze des Unternehmens aus Hilden bei Düsseldorf aus. Ein Standbein von Qiagen sind zum Beispiel Test auf Krankheitserreger. Doch mittlerweile richtet sich der Biotech-Riese immer mehr auf den Trend hin zur personalisierten Medizin aus: Ein Blick auf die individuelle genetische Ausstattung eines Menschen soll verraten, ob ein Medikament hilft oder nicht. Dazu entwickelt Qiagen im Rahmen von Partnerschaften mit Pharmaunternehmen sogenannte Begleitdiagnostika (Companion Diagnostics). Noch in diesem Jahr rechnet Qiagen mit Zulassungen einiger dieser Tests in den USA. Diese Tests sollen Ärzten verraten, ob ein Patient für die Behandlung mit einer bestimmten Arznei in Frage kommt oder nicht. Der Doppelpack aus Test und zielgenauem Medikament soll den Weg zu einer personalisierten Medizin ebnen. Die Hoffnung: Fehlbehandlungen vermeiden und Behandlungskosten sparen. Aber auch während der Medikamentenentwicklung könnten entsprechende Tests - frühzeitig eingesetzt - besser und schneller herausfinden, welche Patientengruppe auf welches Medikament anspringt. Das, so hoffen viele Pharmaunternehmen, könnte künftig auch die derzeit sehr hohen Fehlerraten in der klinischen Entwicklung senken sowie Kosten für klinische Studien sparen. An derartigen Strategien wird auch in Deutschland vielfach gearbeitet. Erst jüngst hat sich das Münchner Konsortium m4 im Sptizencluster-Wettbewerb des BMBF mit dem Thema personalisierte Medizin durchgesetzt (mehr...). Und NRW stellt in einem großen Wettbewerb 25 Millionen Euro dafür bereit (mehr...).

Der Münchner Biotechnologie-Cluster m4, einer der Gewinner im BMBF-Spitzencluster-Wettbewerb 2010, will die Entwicklung der personalisierten Medizin vorantreiben. Im Bild von links Georg Kääb, Ania Muntau (Universitätsklinikum LMU München) und Horst Domdey.Lightbox-Link
Der Münchner Biotechnologie-Cluster m4, einer der Gewinner im BMBF-Spitzencluster-Wettbewerb 2010, will die Entwicklung der personalisierten Medizin vorantreiben. Im Bild von links Georg Kääb, Ania Muntau (Universitätsklinikum LMU München) und Horst Domdey.Quelle: biotechnologie.de

Mit Turbo-Sequenzern zum persönlichen Genom

Inzwischen mehren sich auch die Zeichen, dass die ultraschnellen Sequenziermaschinen nicht nur in der Forschung, sondern auch zur Diagnose zum Einsatz kommen werden. Mit den Sequenzierautomaten der dritten Generation könnte ein menschliches Genom, so die Vision der Forscher, schon bald für 1000 US-Dollar an einem Tag entschlüsselt werden. Noch ist aber umstritten, ob solche Projekte überhaupt einen Nutzen für den einzelnen Patienten bringen, zumal die massenhafte Produktion von persönlichen und sensiblen Informationen auch Datenschutzfragen aufwerfen. In den letzten Jahren drängten trotzdem zahlreiche kommerzielle Anbieter von Gentests für Privatkunden auf den Markt, wie etwa die Firmen Decode Genetics oder 23andMe. Da die Firmen zwar genetische Informationen in rauen Mengen liefern, quasi eine genetische Krankenakte, aber keine medizinische oder juristische Begleitung anbieten, ist der Wert ihrer Dienstleistungen umstritten. Tatsächlich haben Biologen Gene entdeckt, die klinisch relevant sind. "BRCA1" oder "BRCA2" erhöhen das relative Risiko, an Brustkrebs zu erkranken, um das Drei- bis Siebenfache. Und das "APOE4"-Gen erhöht das Alzheimer-Risiko um das 3- bis 15fache. Ein großes Problem: Nur für wenige Risiko-Genvarianten gibt es - wie bei Brustkrebs - auch schon eine passende Behandlung auf dem Markt. Auch der Deutsche Bundestag hat sich schon mit dem Thema beschäftigt und einen Bericht zur Technikfolgenabschätzung erarbeiten lassen (mehr...)

Mehr zum Thema auf biotechnologie.de

Wissenschaft: 200 Personen diskutieren in München über personalisierte Medizin

Wissenschaft: Biomedica in Aachen - Wege zu maßgeschneiderten Therapien

Wirtschaft: Analytica 2010 - Trends für das Labor der Zukunft

Wirtschaft: Qiagen entwickelt Krebs-Biomarker

Mega-Projekt vergleicht Phänotyp und Genotyp

In der Wissenschaft wiederum boomt es weiter. Welche Auswirkungen hat eine bestimmte Erbgut-Version auf einen Menschen? Der Phänotyp im Vergleich zum Genotyp, die Analyse des komplexen Zusammenspiels von Erbgut und Umwelt, gilt als die zentrale Herausforderung der aktuellen Forschungsanstrengungen weltweit.

Wie die Analyse der auf den schnellen Sequenzern ermittelten Genom-Daten Patienten konkret helfen kann, zeigt das unlängst gestartete „Treat1000-Projekt“ in Berlin. Dazu haben sich Forscher um den Berliner Genomexperten Hans Lehrach und  Genetik-Professor George Church von der Harvard Medical School in Boston mit Onkologen um Reinhold Schäfer von der Berliner Charité zusammengeschlossen. Per Sequenzierung wollen sie alle krebsrelevanten Mutationen und der vom Tumor eines Patienten produzierten Boten-RNA-Moleküle erfassen. Auf dieser Datenbasis wollen die Experten für jeden einzelnen Patienten die optimal wirksame Therapie ermitteln. "Die Vision ist, dass wir für jeden individuellen Tumor eines Krebspatienten ein umfassendes genetisches Profil ermitteln und wir dann Angriffspunkte für zielgerichtete Therapien anschauen können", erläutert Reinholf Schäfer, stellvertretender Direktor für translationale Forschung an der Charité-Universitätsmedizin. Das individuelle Profil des Tumors kann dabei mit dem Profil von ungeschädigten Zellen des Patienten verglichen werden. Die Daten werden dann in ein spezielles Computermodell gespeist, das Daten aus der Krebsforschung der vergangenen 20 Jahre enthält. Dieses vergleicht die Daten mit Informationen über verfügbare Anti-Krebs-Arzneimittel und spuckt Therapievorschläge aus. Dieses Vorgehen ist nahezu revolutionär. Bislang nutzen Mediziner mikroskopische Bilder von Krebszellen. Damit wird eingeschätzt, welcher Tumor vorliegt und wie fortgeschritten die Erkrankung ist. Auf diese Weise wird Krebs in mehr als 200 verschiedene Tumorarten unterteilt. Lehrach: "Das Problem, das wir momentan haben, besteht darin, dass alle Tumore eines bestimmten Typs in erster Näherung gleich behandelt werden, obwohl sie zum Teil enorme Unterschiede in den biologischen Mechanismen haben, die im Tumor wirken". Aber die Forscher wissen: unendlich viele Gene und Proteine sind daran beteiligt, das Krebs entsteht. Dieses Wissen, das in den letzten 20 Jahren gewonnen wurde, haben die Forscher in ein komplexes Computermodell gesteckt, das dem Arzt künftig bei seiner Entscheidung für eine Therapie helfen soll.

Das Expertensystem, das zunächst an 1.000 Patienten erprobt werden soll, interessiert bereits die Pharmaindustrie. Die Firma Alacrispharma wurde gegründet. Als einziges unter 42 Projekten soll Lehrachs Initiative zudem mit bis zu 30 Mio. Euro innerhalb der europäischen Innovative Medicines Initiative (IMI) gefördert werden.

Harvard-Forscher George Church hat zudem das „Personal Genome Project (PGP)“ initiiert, das als eines der ehrgeizigsten Großvorhaben der Genomforschung gilt. Hier sollen die Genome von 100 000 Menschen mit neuester Technologie entziffert werden, gleichzeitig sollen die Probanden ihre Krankenakte abliefern und zahlreiche intime Details in einem Fragebogen angeben.

Hintergrund

Start: Den Anstoß zur Entschlüsslung des Humangenoms gab die Gründung der Humanen Genomorganisation, kurz HUGO.
www.hugo-international.de

Die Deutschen: Deutschland stieg Mitte der 90er Jahre in das öffentliche Sequenzierprojekt bei HUGO mit ein. Im Jahr 2001 startete zudem das Nationale Genomforschungsnetz (NGFN), gefördert vom Bundesforschungsministerium.
www.ngfn.de


Der Polarisierer: Der US-Genetiker Craig Venter gehört zu den schillernsten Figuren der internationalen Genomforschung, der die Szene stark polarisiert. Kurz nach dem Start von HUGO schert er aus, gründet sein eigenes Forschungsinstitut und seine eigene Firma. Damit hat das öffentliche Projekt private Konkurrenz.
www.jcvi.org
www.celera.com

Die Veröffentlichung: Nachdem im Juni 2000 beide Teams den Abschluss der ersten Rohversion des menschlichen Genoms beim amerikanischen Präsidenten verkünden, werden die Daten im Februar 2001 offiziell in den Fachmagazinen Science und Nature veröffentlicht.
Nature (2001, Bd. 409, 15. Februar)
Science (2001, Bd. 291, 16. Februar)

  

Weltkongress: Seit 1899 treffen sich die internationalen Genomforscher alle fünf Jahre zum Weltkongress der Genetik. 2008 fand die berühmte Veranstaltung nach mehr als 80 Jahren wieder in Deutschland statt. biotechnologie.de hat ausführlich darüber berichtet: 

zum Artikel: hier klicken

Genomforschung verstehen: Im Rahmen des NGFN wurden Unterrichtsmaterialien "GENial einfach!" erstellt, mit denen sich die Genomforschung leicht verstehen lässt.

zu den Unterrichtsmaterialien: hier klicken
zur Erklärung auf biotechnologie.de: hier klicken

biotechnologie.tv

Sondersendung von biotechnologiel.tv zur Humangenomforschung