Was das Netzwerk im Innersten zusammenhält

Möchte man die Komplexität von Netzwerken wie Flüssen berechnen, kann man sie schrittweise reduzieren. Entfernt man sukzessive ab dem kleinsten Quellfluss alle Nebenflüsse, kommt man schließlich zu einer Kernstruktur. Die Anzahl der dafür nötigen Reduktionsschritte nennt man Horton-Strahler-Index. Indizes wie diese kann man nun sehr viel genauer als bisher für komplexe Netzwerke berechnen.

Die Donau, der zweitgrößte Fluss Europas, trägt ihren Namen ab der Stelle, an der sich die Brigach und die größere Breg treffen. Die beiden Quellflüsse entspringen im Deutschen Schwarzwald. In der Folge fließt die Donau 2.857 Kilometer lang durch Europa, nimmt zahlreiche weitere Flüsse auf, die sich wieder aus kleineren Flüssen speisen, um schließlich im ausgedehnten Donaudelta ins Schwarze Meer vor der Ukraine zu münden. Zu den über 500 Kilometer langen Nebenflüssen gehören die Theiß, Pruth, Save, Drau, Olt, Sereth und Inn, mehr als 140 Kilometer lang sind Iller, Lech, Isar, Traun, Enns und zahlreiche mehr. Insgesamt gibt es rund 150 Nebenflüsse der Donau, die jeweils wiederum mehr oder weniger stark verzweigt sind.

Das Donau-System ist also ein sehr komplexes Netzwerk. Für solche Netzwerke interessiert sich Benjamin Hackl, Nachwuchswissenschaftler am Institut für Mathematik, in seiner Forschung. Konkret geht es mir darum, Wege mathematisch zu beschreiben, mit denen sich solche Netzwerke reduzieren lassen, um dann einen Blick auf deren Kern zu ermöglichen.

In der mathematischen Fachsprache bezeichnet man Elemente solcher Netzwerke als Bäume. Mathematiker*innen wenden dann immer wieder das gleiche Verfahren an, um den Kern einer solchen Struktur freizulegen. Konkret entfernen sie alle Enden eines Systems – und das tun sie schrittweise. Zuerst müssen also die Brigach und die größere Breg, sowie alle kleinen Bächlein, Rinnsale und Bergquellen daran glauben, in denen Zuflüsse von Zuflüssen von Zuflüssen (etc.) entspringen. In einem nächsten Schritt trennen sie sich von den schon etwas größeren Gewässern. Diesen Vorgang wiederholen sie so oft, bis eine nicht mehr weiter reduzierbare Struktur entsteht, in unserem Beispiel also die eine dicke blaue Linie auf der Landkarte namens Donau, die uns von Deutschland, Österreich, Slowakei, Ungarn, Kroatien, Serbien, Bulgarien, Rumänien, über die Republik Moldau schließlich in die Ukraine führt.

Im Fall der Donau weiß man, dass neun solche Reduktionsschritte nötig sind, um zu ihrer Kern-Form zu gelangen. Diese Zahl, die aufzeigt, wie verflochten ein Flussnetzwerk ist, nennt man den Horton-Strahler-Index. Rechnen wir vom Index retour zur kleinstmöglichen Anzahl von Quellen, die ein Netzwerk mit Index 9 wie die Donau haben kann, erfahren wir, dass diese bei mindestens 512 Quellen liegt. Diese Zahl zeigt auch auf, wie umfassend komplex ein Netzwerk wie ein Flusssystem ist und wie schwer dessen Struktur mathematisch korrekt zu beschreiben ist.

Damit kommen wir auch zum Kern von Benjamin Hackls Dissertation: Er hat Rechenverfahren entwickelt, mit denen wir den erwarteten Index auf eine sehr viel genauere Art und Weise als bisher für komplexe Netzwerke schätzen können.

In seiner Dissertation hat er vier verschiedene solche Reduktionsverfahren untersucht: Bei der einen Variante entfernen wir immer nur den letzten Knoten, in unserem Beispiel wäre dies die Brigach, aus der später gemeinsam mit der größeren Breg die Donau wird. Dieses Verfahren wäre sehr langsam. Dem gegenüber stünde ein aggressives Reduktionsverfahren, bei dem wir gleich bis zur nächsten Mündung reduzieren. Hinzu kommen zwei gemischte Verfahren: Bei dem einen wird jeweils die linkeste Quelle, bei dem anderen alles von der linkesten Quelle bis zur Mündung abgeschnitten. Der Reduktionsindex, der zu letzterem Verfahren gehört, misst zugleich ein bei natürlichen Flüssen recht selten auftretendes Phänomen, nämlich die Situation, in der mehr als ein Nebenfluss im gleichen Punkt einmündet. Für jedes dieser Verfahren hat Benjamin Hackl neue mathematische Methoden entwickelt, die eine äußerst genaue Berechnung des erwarteten Index erlauben.

Was sagen uns diese Reduktionen nun über ein System? Gehen wir wieder zurück zum Fluss-Beispiel: Angenommen wir wollen vergleichen, welcher Fluss komplexer ist, der nordamerikanische Rio Grande, der asiatische Ganges, der afrikanische Sambesi oder die europäische Donau. Nun könnten wir eine feste Anzahl von Anwendungen der Reduktion annehmen, zum Beispiel 5. Berechnen wir nun für alle diese Flüsse jeweils fünf Reduktionsschritte, gibt uns dies Aufschluss darüber, wie verflochten das Innere des Flussnetzwerks ist. Vielleicht sind wir bei dem einen Fluss schon bei dessen nicht mehr reduzierbarem Kern angelangt, und beim anderen haben wir noch immer ein komplexes Netzwerk von einzelnen Knoten vor uns. Auch innerhalb der einzelnen Flüsse können wir so interessante Einblicke gewinnen: Während an manchen Stellen der Hauptfluss vielleicht unbeeinflusst von Nebengewässern vor sich hinfließt, ist andernorts die Struktur stark verzweigt und von einer Vielzahl an Zuflüssen geprägt.

Wir können mit derselben Methode also auch Nebenflüsse der Donau genauer unter die mathematische Lupe nehmen. Betrachten wir auf diese Weise isoliert zum Beispiel die Mur oder die Drau, kann kommen wir – gleich wie zuvor über die Berechnung der nötigen Anzahl an Reduktionsrunden – zu jeweiligen Index-Zahlen. Während die Donau den Horton-Strahler-Index 9 hat, hat die Mur den Index 7 und die Drau einen Index von 8. Daraus können wir zum Beispiel lernen: Die Einmündung der Mur in die Drau bzw. die Einmündung der Drau in die Donau sind genau jene Punkte, an denen der Index des entstehenden Flusses um eins erhöht wird. Mur und Drau sind also bis zu deren Vereinigung gleich starke Flüsse, danach „gewinnt“ die Drau quasi eine Ordnung. Hackls Theorie erlaubt beispielsweise eine sehr präzise Beschreibung davon, wie viele solcher Nebenflüsse mit einer Stärke wie die Mur, also mit dem Index 7, sonst noch im großen Flussnetzwerk der Donau zu erwarten sind.

Grundsätzlich wäre es auch möglich, diesen mathematischen Prozess in umgekehrter Reihenfolge zu sehen. Dafür stellen wir uns eine fiktive neue Stadt vor, in der ein U-Bahn-Netz installiert werden müsste. Nun müsste man an irgendeiner Stelle mit einem Knoten, also einer Haltestelle, starten und davon ausgehend Linien und ein Netzwerk entwickeln. Auch hier könnte die Komplexität mit einem solchen Index beschreibbar bleiben.

Woran Benjamin Hackl arbeitet, ist zum größten Teil Grundlagenforschung. Eigentlich ist es auf den ersten Blick sehr einfach, die Komplexität von Netzwerken auf diese Weise zu reduzieren. Wenn man in mehreren Schritten reduziert, wird es aber vor allem für sehr große Ausgangsnetzwerke zunehmend kompliziert, die Auswirkungen zu berechnen. Darin liegt für ihn auch der Reiz dieser wissenschaftlichen Arbeit: Was vorerst recht handwerklich einfach erscheint, lässt uns Einblicke in Strukturen von Netzwerken zu, die wir sonst nicht gewinnen könnten.

Wird er danach gefragt, wofür seine Erkenntnisse in der Praxis angewandt werden können, kann er auf die Klassifikation von Flussnetzwerken verweisen. Er kann aber auch ein anderes Beispiel aus der Informatik nennen: Stellen wir uns eine komplexe Rechnung vor. In dieser Rechnung wird addiert, subtrahiert, multipliziert und dividiert – und das in der mathematisch richtigen Reihenfolge. Auf dieselbe Weise wie in unserem Fluss-Beispiel können wir auch hier ausrechnen, wie viele Zwischenspeichervorgänge man braucht, um zum richtigen Ergebnis zu kommen. Die Rechnung selbst hat dabei auch eine netzwerkartige Struktur: Dadurch, dass wir zuerst multiplizieren und dividieren, bevor wir addieren und subtrahieren (Punkt vor Strich), ergeben sich Teilschritte, die zu Zwischenergebnissen führen. Diese Zwischenergebnisse spielen die Rolle von Einmündungen in Flüssen. Wie komplex eine solche Rechnung ist, zeigt sich auch am Horton-Strahler-Index, der in diesem Zusammenhang auch „Registerfunktion“ genannt wird.

Die Analysen der in seiner Dissertation untersuchten Parameter machen so manchem Computer zu schaffen. Für die äußerst rechenintensiven Operationen brauchte Benjamin Hackl also auch eine unterstützende Software, die er gemeinsam mit Clemens Heuberger und Daniel Krenn gebaut hat. Das Modul, das sie dafür entwickelt haben, steht nun im freien, quelloffenen Computermathematiksystem SageMath öffentlich zur Verfügung.

Mit der von ihm vorgeschlagenen Methode kann man die erwartete Komplexität von großen Netzwerken schon sehr genau ermitteln. Benjamin Hackl geht davon aus, dass man für diverse praktische Anwendungen keinen höheren Genauigkeitsgrad brauchen wird. Dennoch bleiben noch viele theoretische Fragen offen, mit denen man eine noch größere mathematische Exaktheit erreichen und weitere Fragen zur dahinterliegenden Wahrscheinlichkeitsverteilung beantworten könnte.