DNA-Sequenzierautomaten der nächsten Generation
Drei Geräte im Test bewiesen in einer neuen Studie ihre sehr gute Eignung für den Analysebetrieb auch in kleineren Labors.
Es gibt sie seit knapp zwei Jahren, und sie sind nur noch so groß wie Laserdrucker: DNA-Sequenzierer der nächsten Generation. Was mit Geräten der ersten Generation noch 13 Jahre gedauert hat, gelingt heute in wenigen Tagen: die Analyse des menschlichen Genoms. 3,2 Milliarden Basenpaare sind das immerhin. Legt man einen 500-Seiten-Roman mit seinen etwa eine Million Buchstaben zugrunde, entspräche die DNA eines einzigen Menschen demnach einer 3200-bändigen Romanreihe.
Aber auch nur dann, wenn - wie bei einem guten Roman - nur die "geschönte" Endfassung zwischen den Buchdeckeln erscheint. Weil aber die DNA mehrfach gelesen werden muss, um damit unvermeidliche Lesefehler "herausmitteln" zu können, kommt man in der „Rohfassung“ schnell auf die 100fache Menge an Buchstaben.
Dass anschließend jedes einzelne Puzzleteile "in die Hand genommen werden muss", um es mit jedem anderen zusammenzuführen, um festzustellen, ob es passt, und wenn es passt, ob es nur zufällig passt, also nur zufällig auch passt, oder ob es wirklich das richtige ist, gibt wohl nur eine magere Vorstellung von dem, was in der "Sklavenabteilung" moderner Analytik wirklich passiert.
Informatiker übernehmen das Geschäft
Und der wehmütige Blick zurück in die guten gemütlichen alten Zeiten sei hier erlaubt, als ganz besonders demütige und willige japanische Postdocs, in - Hasenställen nicht unähnlichen - Biochemie-Labors gepfercht, noch unermüdlich die Banden von Acrylamidgelen ausgelesen haben.
Denn mehr und mehr tritt seit dieser Zeit der chemische Analytiker in den Hintergrund, um dem Informatiker Platz zu machen, der die Kärrnerarbeit bei dieser neuen Art von DNA-Analytik leisten lässt. Auf noch engerem Raum - aber diesmal von Elektronen. Weil eine Analytik, die auf paralleles Sequenzieren von "blind" - weil zufällig - geschroteten DNA-Schnipseln in einem einzigen Ansatz, einem Run, setzt, zwangsläufig immer mehr auch auf elektronische Rechenleistung setzen muss.
Denn nur Softwareprogramme mit ihren hochkomplexen mathematischen Algorithmen können den Zeitvorteil ernten, den dieses gleichzeitige Sequenzieren von Millionen von DNA-Fragmenten vorher gesät hat. Denn dieses Puzzle aus Millionen von Teilen muss am Ende richtig zusammengefügt werden. Dies kriegt aber auch der klügste Mensch ohne elektronische Unterstützung nicht mehr hin. Im Falle der DNA-Sequenzierung geht die benötigte Rechenleistung inzwischen selbst schon weit über das Niveau eines normalen PCs hinaus. Zumindest dann, wenn der Rechner in einer akzeptablen Zeit ans Ziel kommen soll.
Immer schneller, immer günstiger
Ob aber diese Sequenzierautomaten der nächsten Generation (NGS) diese unglaubliche Reduktion der Analysezeit und die gleichzeitige Reduktion des Kaufpreises um einen Faktor fünf bis zehn nicht nur auf Kosten der analytischen Qualität erreichen, war Gegenstand einer Studie, die jetzt am Centrum für Biotechnologie (CeBiTec) der Universität von Bielefeld und an den Universitäten von Münster und Wien sowie dem Alfred Wegener Institut in Bremerhaven gemacht wurde.
Dazu waren drei Geräte im Test: der GS Junior von 454 Life Science, einer Tochter von Roche, der MiSeq von Illumina und die Personal Genome Machine (PGM) von Ion Torrent.
Die Aufgabe für alle drei Geräte: die Sequenzierung des Gesamtgenoms eines EHEC-Stammes mit etwa fünf Millionen Basenpaaren.
Das Ergebnis vorweg: Alle drei Sequenzierautomaten haben sich für diese Aufgabe als geeignet erwiesen. Mit nur kleinen, für den Anwender aber zu vernachlässigenden Schwächen.
Das Humangenomprojekt
So richtig in Bewegung gekommen ist der Markt der Genom-Analytik erst mit dem Humangenomprojekt aus dem Jahre 1990, das 2003 erfolgreich abgeschlossen werden konnte. Dabei war es aber erst dann zu einer Beschleunigung des Verfahrens gekommen, als die Privatfirma Celera von Craig Venter als Konkurrent der öffentlichen Laboratorien aufgetreten war und das Schrotschuss-Verfahren von Frederick Sanger an den Start gebracht hatte - revolutioniert durch den massiven Einsatz der Bioinformatik.
Bis dahin hatte die Aufgabe der „Staatlichen“ aus dem Zerschneiden des Genoms in kleinere Stücke mit Hilfe von Restriktionsenzymen bestanden und dem anschließenden Einbau dieser Stücke in die Vektoren (ringförmige DNA-Strukturen) von Bakterien, in denen sie zusammen mit der Bakterien-DNA vermehrt wurden. Auf diese Weise entstand eine sogenannte DNA-Bibliothek. Die Reihenfolge dieser DNA-Fragmente wurde dabei in einer sogenannten Chromosomenkarte festgehalten, in der die Lage der einzelnen Fragmente mittels Markern verzeichnet war. Craig Venter hatte ursprünglich geglaubt, ganz ohne solche Kartierungen ans Ziel zu kommen. Allein mithilfe der Computer wollte er die parallel ausgelesenen Fragmente wieder in der richtigen Reihenfolge zusammensetzen. Aber was bei einem kleineren Bakterien-Genom noch problemlos funktioniert, musste beim Humangenom wegen seiner schieren Größe und wegen der vielen repetitiven Sequenzen im Molekül versagen. Seine Computer mussten deshalb beim Puzzeln schnell durcheinander geraten.
Dass im Jahr 2003 dennoch das erfolgreiche Ende der Humangenom-Sequenzierung überraschend schnell vermeldet werden konnte, war deshalb der gemeinsame Erfolg der beiden konkurrierenden Systeme.
Das 1000-Genome-Projekt
Seit 2008 liegt nun das 1000-Genome-Projekt auf. Es ist auf der Spur von wichtigen Genvarianten im weltweiten menschlichen Genpool. In einer ersten Pilotstudie wurden bereits sechs weitere Genome sequenziert. Jeder einzelne Buchstabe der DNA durchschnittlich 20 bis 60 Mal, um eine möglichst hohe Ablesegenauigkeit zu erreichen. Das wird dadurch erreicht, dass das vorgelagerte Schrotschussverfahren die vielen Gesamtgenom-Ketten am Start jeweils an unterschiedlichen Stellen auseinanderbricht, weshalb es im Idealfall zu jeder Stelle des Gesamtgenoms mehrere unterschiedlich lange Schnipsel gibt, die sich mehr oder weniger überlappen, was schließlich zu einer mehrfachen "Abdeckung" des Genoms führt. Diese Überlappungen sind es, die die Software in die Lage versetzen, die Schnipsel wieder in die richtige Reihenfolge zu bringen.
In einer zweiten Pilotstudie mit 179 Individuen hat man sich dann auf eine Abdeckung von durchschnittlich drei Ablesungen pro Base beschränkt.
In der dritten Pilotstudie schließlich wurde die Suche nach Genom-Varianten auf 1000 Gene eingeengt und gleichzeitig auf 700 Individuen ausgedehnt. Auch dieser Ansatz hat sich als zielführend erwiesen.
Allein durch diese drei Pilotstudien wurde schon eine tausendfache Abdeckung des humanen Genoms erreicht - was bereits drei Millionen 500-Seiten-Romanen entspräche. Aktuell läuft jetzt die Hauptstudie mit weiteren 2500 Individuen aus weltweit 27 verschiedenen Bevölkerungsgruppen.
In das 1000-Genome-Projekt sind neben vielen staatlichen Laboratorien auch die Hersteller der drei getesteten NGS-Geräte involviert, ohne deren Weiterentwicklungen diese ehrgeizigen Unternehmungen so überhaupt nicht möglich wären.
Neben der explodierenden Rechenleistung der Computer ist in der modernen Analytik die Nanotechnologie der zweite Faktor, der diese mehr und mehr revolutioniert. Diese Nanotechnik ist es, die die Analytik "handlich" und "mobil" macht, die die Reaktionswege verkürzt (Schlagwort: Mikrofluidik) und damit auch die Reaktionszeiten .Sie reduziert zudem die Arrays für Millionen von "Messstationen" auf wenige Quadratzentimeter, die schließlich vom dritten Erfolgsfaktor moderner Analytik extrem schnell gescannt werden können: die Laser- und CCD-Sensor-Technik.
Im Einzelnen sieht der Workflow der neuen NGS-Geräten so:
Der GS Junior von Roche
Der GS Junior greift zunächst, wie die Konkurrenz-Geräte auch, auf eine Schrotschuss-Technik zurück, mit der meist durch physikalische Kräfte, aber manchmal auch mit Restriktionsenzymen zufällige und unterschiedlich lange Fragmente entstehen, die in einem zweiten Schritt mit Adaptern "adressiert" werden. Diese Adapter finden ein Gegenstück auf der Oberfläche von Nanokügelchen, an das sie ihren DNA-Schnipsel heften, jedes einzelne Fragment an ein einziges "Nanobead". Jedes dieser einfach besetzten Kügelchen wird anschließend zusammen mit allen Reagenzien, die für eine PCR notwendig sind, in je eines der winzigen Wassertröpfchen eingeschlossen, die in einer durch Mikrowellen erzeugten Wasser-in-Öl-Emulsion entstehen. Diese Wassertröpfchen dienen als Reaktoren, in der jedes Fragment - isoliert von den anderen Fragmenten -millionenfach kopiert wird und sich die Kopien zusammen mit der Vorlage an die Oberfläche ihres Kügelchens binden.
Dieser Amplifikations-Schritt ist deshalb notwendig, weil nur dann am Ende ein gut messbares Signal zu erhalten ist.
In einem nächsten Schritt wird diese Emulsion dann wieder aufgelöst und die Beads durch Zentrifugation in die nanostrukturierten Senken einer Picotiterplatte verbracht.
Nun ist die Anordnung bereit für die eigentliche Analyse: In Gegenwart einer DNA-Polymerase werden den Millionen Fragmenten nun die vier Nukleotid-Bausteine angeboten. Einer nach dem andern. Ist es der zum Fragment-Baustein komplimentäre, kommt es zur Kettenverlängerung und zur Abspaltung von Pyrophosphat, was in Gegenwart von Sulfurylase und Luziferase zu einer Reaktionskette führt, an deren Ende ein Lichtsignal entsteht. Dieses wird von einem CCD-Sensor unter der Titerplatte detektiert und an einen Computer weitergeleitet.
Anders als bei den Geräten der ersten Generation wird also bei den NGS auf eine elektrophoretische Auftrennung der entstehenden Kopien verzichtet und stattdessen die Signale während der Entstehung der neuen Ketten gemessen.
Der PGM von Ion Torrent
Auch der PGM von Ion Torrent nutzt die oben beschriebene Emulsions-PCR, an deren Ende ebenfalls Nanokügelchen mit dem Klon jeweils eines Fragmentes entstanden sind. Auch diese werden anschließend in die Nanokämmerchen einer nanoskaligen Titerplatte verbracht.
Was jetzt aber folgt, ist neu. Denn während die Konkurrenz ausnahmslos auf optische Sensorik setzt, hat es Ion Torrent erstmals mit einer Halbleiter-Sensorik probiert. Mit der berechtigten Hoffnung, damit mit dem hervorragend etablierten Mikrochip-Markt verbandelt zu sein - und mit dem dort gültigen Mooreschen Gesetz, das in seiner universellsten Form so heißt: immer schneller, immer billiger.
Der Boden der 1,2 Millionen Reaktionskammern dieser Titerplatte, dieses Chips, besteht aus einer Spezialschicht, in der bei pH-Änderung ein Spannungsimpuls entsteht, der an einen darunter liegenden Feldeffekt-Transistor weitergeleitet wird. Diese pH-Änderung tritt immer dann auf, wenn neue Nukleotide in die wachsende Kette eingebaut und dabei Protonen freigesetzt werden.
Der Einbau eines neuen Nukleotids gelingt beim PGM immer erst dann, wenn die Fluoreszenz des vorherigen Nukleotid-Farbstoff-Derivats gemessen und der Farbstoff abgespaltet wurde.
Der MiSeq von Illumina
Die Verfahrensweise des MiSeq unterscheidet sich in zwei wesentlichen Schritten von der Konkurrenz. Während diese die Emulsions-PCR verwendet, setzt Illumina auf eine Festphasen-Amplifikation. Die Adapter, die an die während der Segmentierung gewonnenen Fragmente gekoppelt wurden, finden dabei ihren Gegenpart auf der Oberfläche einer Durchflusszelle. An der Stelle, an der sie zufällig andocken, entstehen in Gegenwart von Polymerasen und Nukleotiden schnellwachsende "Nester" von Klonen dieser Fragmente, die von den Nestern der anderen Fragmente im Idealfall komplett isoliert bleiben.
Nach diesen Vorarbeiten beginnt nun die eigentliche Sequenzierung mit Nukleotiden, die mit unterschiedlichen Farbstoffen so derivatisiert sind, dass die 3'-OH-Gruppe im Molekül blockiert ist. Das ist aber genau die Stelle, an der der nächste Nukleotid-Baustein ankoppeln würde, was deshalb nach dem Einbau dieses Elements zwangsläufig zum Kettenabbruch führt.
Was unbestreitbar ein Vorteil dieses Verfahrens ist. Denn pro Durchgang kann so immer nur eine Base eingefügt werden, auch dann, wenn ein homologer Sequenzabschnitt vorliegt. Genau das aber umschifft die Fehlerquelle Nummer 1, die den konkurrierenden Sequenzierverfahren Probleme bereitet. Denn wird an solchen Stellen mit mehreren gleichen Bausteinen hintereinander der komplementäre Baustein ordnungsgemäß mehrmals eingebaut, zeigt sich dies im Sensorsystem nur in der unterschiedlichen Höhe eines einzigen Signals. Dieses Signal quantitativ richtig zu erfassen, wird spätestens ab dem vierten gleichen Baustein schwierig und produziert sogenannte Indel-Fehler: Insertions- und Deletionsfehler, also dazuerfundene oder weggelassene DNA-Bausteine.
Der zweite Vorteil dieser speziellen Nukleotid-Farbstoff-3'-Terminatoren ist, dass sie bei der Sequenzierung der DNA gleichzeitig auftreten und damit beim Einbau zueinander in Konkurrenz treten, was auch den Einbau eines falschen Nukleotids - sogenannte Substitutionsfehler - nach Aussage von Illumina minimieren soll.
Was allerdings die Deutsch-Österreichische Studie nur teilweise bestätigen konnte. Die sieht zwar die MiSeq bei den Indel-Fehlern als Sieger des Trios, bei den Substitutionsfehlern hatten aber wohl die beiden Konkurrenten leicht die Nasen vorn. Bei der UK-Vorgängerstudie aus dem Jahr zuvor war der MiSeq noch in beiden "Kategorien" der Erfolgreichste gewesen.
Allerdings haben in der Zwischenzeit die Gerätehersteller nachgerüstet. Sie brachten neue Reaktionschemikalien-Kits an den Start und bei Ion Torrent zusätzlich leistungsstärkere Chips.
"Der PGM hat sich wirklich rapide entwickelt und ist inzwischen ein starker Konkurrent für den MiSeq", fasste Prof Dr. Dag Harmsen, der Koordinator der Studie, die neuen Ergebnisse zusammen. Nur noch in der Länge der Reads, der durchschnittlichen Länge der fehlerlos lesbaren Fragmente, habe der GS Junior die Nase vorn.
Aber insgesamt sei auch diese neue Einordnung der Geräte wohl nur eine momentane, da die Hersteller - und nicht nur diese drei - ihre Plattformen ständig weiterentwickeln und Fehlerquellen mehr und mehr ausschließen.
Zudem hätten die gefundenen Fehler für den Praktiker, den reinen Anwender der Geräte - etwa in der medizinischen Analytik - nur akademischen Wert. Denn bei diesen Fehlern handelt es sich vor allem um solche, die die Genauigkeit des einmaligen Lesens eines Reads betreffen. Diese Fehler verschwinden aber dann, wenn wegen der mehrfachen Abdeckung jedes Genom-Bereiches die mathematischen Algorithmen diese wieder herausmitteln.
Alle drei Geräte sind deshalb für die an sie gestellten Aufgaben sehr gut geeignet, und die Wissenschaftler der Studie rechnen deshalb damit, dass jetzt auch immer öfter auch kleinere Labors sich diese erschwinglichen Geräte zulegen werden.
Acht Wochen braucht es mit diesen NGS-Geräten noch, um das menschliche Genom zu sequenzieren. Kostenpunkt der Analyse: etwa 100.000 Dollar. Der erste Versuch hatte noch 300 Millionen Dollar gekostet, und tausende Mitarbeiter hatten 13 Jahre lang zu tun.
Und schon drängen Geräte der "neuen nächsten Generation" auf den Markt. Sie wollen ohne Amplifikation auskommen - vielleicht sogar ohne Sequenzierung.
Ein NGS für die Schreibtischplatte: Dr. Jörn Kalinowski, Andreas Albersmeier und Sebastian Jünemann (von links) der Uni Bielefeld haben zusammen mit Kollegen aus Münster, Wien und Bremerhaven drei DNA-Sequenzierer „der nächsten Generation“ miteinander verglichen.
Quelle: Universität Bielefeld
Keine Kommentare:
Kommentar veröffentlichen