ArchivDeutsches Ärzteblatt43/2006Computersimulation: Dem Schlaganfall auf der Spur

TECHNIK

Computersimulation: Dem Schlaganfall auf der Spur

Dtsch Arztebl 2006; 103(43): A-2888 / B-2512 / C-2416

Krüger-Brand, Heike E.

Als E-Mail versenden...
Auf facebook teilen...
Twittern...
Drucken...
LNSLNS
Aneurysmen werden mit Stents oder Coiling behandelt. Foto: UPF Barcelona
Aneurysmen werden mit Stents oder Coiling behandelt. Foto: UPF Barcelona
Arteriosklerose ist die häufigste Todesursache in den Industrieländern; in Deutschland geht fast jeder zweite Todesfall auf Krankheiten des Herz-Kreislauf-Systems, wie Herzinfarkt oder Schlaganfall, zurück. Bei Arteriosklerose kommt es zu Ablagerungen von Blutfetten, Blutgerinnseln, Bindegewebe und Kalk in den Gefäßwänden. Diese können zu einem vollständigen oder teilweisen Gefäßverschluss führen, der den Blutfluss verlangsamt oder unterbricht und schließlich einen Infarkt verursachen kann. Bislang war es nicht möglich vorherzusagen, wann solche Engstellen entstehen, wie sie sich verändern und ab welchem Zeitpunkt tatsächlich eine Unterversorgung von Sauerstoff in den betroffenen Körperregionen vorliegt. So sind etwa Thromben in den Adern nicht in jedem Fall gefährlich. Lösen sie sich und werden vom Blutstrom mitgerissen, können sie an anderen Stellen des Körpers plötzlich zu Verstopfungen und zur Unterversorgung von Organen führen. Im Gehirn kann beispielsweise ein Schlaganfall die Folge sein.
Eine andere Ursache von Schlaganfällen sind gerissene Aneurysmen. Zwischen ein und fünf Prozent der Bevölkerung haben solche örtlich begrenzten Erweiterungen der Arterie. Es lässt sich aber nur äußerst schwer vorhersagen, ob und wann es zu einem gefährlichen Riss kommt. So löst nur ungefähr in einem von 10 000 Fällen ein Aneurysma einen Schlaganfall aus.
Um die Ursachen von Schlaganfällen besser zu verstehen, sollen die zugrunde liegenden physikalischen und chemischen Prozesse mit Computersimulationen im Rahmen eines europäischen Forschungsvorhabens untersucht werden. Am @neurIST-Projekt (Integrated Biomedical Informatics in the Management of Cerebral Aneurysms; www.aneurist.org) beteiligen sich 29 europäische und fünf außereuropäische Institutionen, Universitäten und Forschungsinstitute, darunter auch das Forschungslabor des japanischen Supercomputerherstellers NEC in Sankt Augustin, der in Deutschland außerdem noch ein Forschungszentrum in Heidelberg betreibt.
Langfristig will man zu computergestützten patientenspezifischen Prognosen kommen, aus denen zum Beispiel hervorgeht, ob ein operativer Eingriff notwendig ist, welche Patienten besonders gefährdet sind und welche Rolle genetische Faktoren dabei spielen. Bei der Risikoabschätzung sollen Daten aus verschiedenen Quellen integriert werden, wie 3-D-Strömungsmuster in der Nähe des Aneurysmas, die Mechanik der Gefäßwand sowie genetische und systematische Faktoren, wie etwa der Blutdruck.
Individuelle Therapie
Aneurysmen werden häufig durch Stent-Implantation behandelt. Zur Optimierung der Behandlung sollen im @neurIST-Projekt Methoden und Programme für eine virtuelle Operation mit Stents oder anderen medizinischen Verfahren entwickelt werden. Ziel ist es, die Suche nach individuellen Therapieformen im Krankenhaus künftig direkt über Computerprogramme, die die entsprechenden Dienste im Hintergrund abrufen, zu unterstützen.
Hochleistungsrechenzentrum in Stuttgart mit dem parallelen Supercomputer Foto: NEC/Weber Shandwick
Hochleistungsrechenzentrum in Stuttgart mit dem parallelen Supercomputer Foto: NEC/Weber Shandwick
Nach dem Einsetzen eines Stents kommt es darüber hinaus häufig zur Restenosierung: Die Arterie versucht, um das fremde Material herumzuwachsen. Dabei kann sich an der entstehenden Engstelle eine Blutverklumpung bilden. Um dieses Problem zu lösen, sollen in dem EU-Projekt COAST (Complex Automata Simulation Technique) Computermodelle entwickelt werden, die diese Prozesse simulieren.
Die Berechnung solcher Modelle in den Adern ist äußerst komplex. Wenn Blut gerinnt, ändern sich auch Form und Struktur der Umgebung, was wiederum direkte Rückwirkungen auf die Strömung hat. Allein die Berechnung des Blutflusses ist überaus aufwendig, sodass dafür bislang vor allem vereinfachte 2-D-Modelle genutzt wurden. Mit neueren Supercomputern lassen sich inzwischen jedoch auch detailliertere dreidimensionale Strömungen berechnen.
Eine Simulation, die sowohl die Blutströmung als auch die Blutgerinnung gleichermaßen berücksichtigt, war bislang jedoch nicht möglich. Forscher des NEC-Labors in Sankt Augustin haben in Zusammenarbeit mit dem Höchstleistungsrechenzentrum in Stuttgart hierfür jetzt eine Lösung gefunden. „Wir sind zum ersten Mal in der Lage, den Prozess der Blutverklumpung und die Rückwirkungen der Verklumpung auf die Strömung innerhalb eines mathematischen Modells zu berechnen“, sagte Guy Lonsdale, der Leiter des Forschungszentrums. Dabei stützen sich die Forscher auf das sogenannte Lattice-Boltzmann-Verfahren, eine Methode, die auf den Gesetzen der statistischen Mechanik basiert und den Effekt von wechselwirkenden Fluidpartikeln simuliert.
Die Strömungssimulation wurde um ein Modell von Alterungs- und Verklumpungsprozessen erweitert. Die Ausgangshypothese war dabei, dass aktivierte Blutpartikel, die durch Hindernisse aufgehalten werden und sich nicht mehr bewegen, irgendwann nach der Aktivierung „altern“, wenn sie sich zu lange an einer bestimmten Stelle aufhalten, bis sie schließlich beginnen zu verklumpen. Dies geschieht allerdings nur, wenn weitere gerinnungsfördernde Faktoren hinzukommen, wie etwa die Nähe zu einem bereits bestehenden Blutklumpen oder zur Adernwand sowie die Unterschreitung einer bestimmten Strömungsgeschwindigkeit.
Auch der Aktivierungsprozess selbst, der zum Beispiel durch eine Verletzung oder durch beschädigte Gefäßwände infolge von Sauerstoffmangel ausgelöst werden kann, lässt sich simulieren. Ausgehend von den Adernwänden, entstehen dabei allmählich immer mehr feste Punkte, an die sich weitere Partikel anlagern, bis es gegebenenfalls zur Verstopfung der Ader kommt. Im Rahmen des COAST-Projektes werden diese Prozesse unter anderem mit der Abteilung für Medical Physics an der Universität Sheffield weiter erforscht.
Milch-Experimente
Zur Überprüfung des Rechenverfahrens griffen die Forscher auf Validierungsexperimente der Universität Sheffield zurück. Die Experimente wurden mit Milch durchgeführt, die sich ähnlich wie Blut verhält. Die Milch wurde mit Druck durch ein Glasrohr gepresst, dass man an einer bestimmten Stelle verengt hatte. Dadurch entstanden turbulente Strömungen und Rückwärtswirbel, die dazu führten, dass einzelne Partikel sich nicht mehr bewegten und schließlich begannen, an den Rändern des Rohrs zu verklumpen. Die Berechnungen auf dem Supercomputer entsprachen in hohem Maße den tatsächlichen Ablagerungen im Glasrohr. Das Rechenmodell gilt zudem nicht nur für die Blutgerinnungskaskade, sondern lässt sich auf alle Prozesse übertragen, in denen Strömungen unter sich ständig ändernden komplexen Geometrien auftreten.
Strömungsverhalten in einem Aneurysma. Die Druckverhältnisse sind farblich dargestellt. Foto: CCRLE, NEC Europe Ltd. and Medical Physics and Clinical Engineering, University of Sheffield
Strömungsverhalten in einem Aneurysma. Die Druckverhältnisse sind farblich dargestellt. Foto: CCRLE, NEC Europe Ltd. and Medical Physics and Clinical Engineering, University of Sheffield
Anzeige
Um die Blutverklumpung in einer Ader zu simulieren, sind Hochleistungsrechner erforderlich, die mit vielen Prozessoren parallel arbeiten. Je nach Rechenleistung, Komplexität der Geometrie und Feinheit des Modells kann das mehrere Stunden bis Tage dauern. Um beispielsweise nur zehn Minuten des Milchverklumpungsexperimentes mit dem Computer nachzuvollziehen, rechnete ein NEC-SX-8-Vektorrechner mit einem Prozessor mehr als drei Tage. Dem NEC-Forscherteam gelang es, die Berechnungen für das Modell besonders effizient auf mehrere parallel rechnende Prozessoren zu verteilen und die Rechenleistung jeder einzelnen CPU dadurch zu steigern. Um die Anwendung für den Betrieb auf einem parallelen Supercomputer zu optimieren, nutzten die Forscher den erst im Juli 2006 in Betrieb genommenen Rechner in Stuttgart, der mit 576 SX-8-Prozessoren arbeitet. Für die Berechnung von Blutfluss und -gerinnung lief der Hochleistungsrechner mit mehr als fünf Teraflops, das sind fünf Billionen Rechenoperationen je Sekunde.
Bis zur Nutzung solcher Modelle in der klinischen Routine sind allerdings noch einige Hürden zu nehmen. „Um komplexe computergestützte Analysen und Therapien zu ermöglichen, benötigen Krankenhäuser vor allem exakte Regeln und umfassende Informationssysteme – etwa eine Grid-Architektur mit genau definierten Zugangsrechten und einer absolut sicheren Kommunikationsarchitektur“, erklärte Lonsdale. Die technische Ausstattung sei dabei nicht entscheidend, denn auf Hardwareressourcen könne auch über Netzwerke zugegriffen werden. Der Experte ist davon überzeugt, dass durch die schnelle Entwicklung der Computertechnik viele Anwendungen, die heute nur auf Supercomputern möglich sind, künftig zur medizinischen Routine gehören werden.
Heike E. Krüger-Brand

Leserkommentare

E-Mail
Passwort

Registrieren

Um Artikel, Nachrichten oder Blogs kommentieren zu können, müssen Sie registriert sein. Sind sie bereits für den Newsletter oder den Stellenmarkt registriert, können Sie sich hier direkt anmelden.

Fachgebiet

Zum Artikel

Anzeige

Alle Leserbriefe zum Thema