Replikatorgleichung:Hyperzyklusgleichung

Aus Wikiludia
Wechseln zu: Navigation, Suche

Inhaltsverzeichnis

Definition

Die Hyperzyklusgleichung hat die Gestalt der Replikatorgleichung

 (1.1) \quad  \dot{x}_\mu (t) = x_\mu (t) \left( e_\mu - x \right)^T A x, \quad \mu = 1,\ldots,m;

 x \in \Delta =\left\{\left(x_1,\ldots,x_m\right)\in\mathbb{R}^m:\sum^{m}_{\mu=1} {x_{\mu}} =1, \; x_{\mu} \geq 0\right\}

wobei die Matrix A=\left(a_{ij}\right),\ A \in \mathbb{R}^{m \times m} folgende Form

 (1.2) \quad A=
\begin{pmatrix}
0 & \cdots & 0 & k_1\\
k_2 & \ddots & \vdots & 0 \\
  & \ddots & 0 &\vdots \\
0 & &k_m & 0 
\end{pmatrix} 
,
\quad k_i > 0, \quad i=1,\ldots,m

hat, d.h.  a_{ij}=k_i\cdot\delta_{(i-1)j}, wobei i-1:=i-1|\mod m gilt.
Das dynamische System (1.1) mit der Matrix (1.2) modelliert eine bestimmte Form der Kooperation und gegenseitiger Unterstützung von m\ verschiedenen Makromolekülarten bei der präbiotischen Evolution.
Der durch eine zyklische Koppelung von Makromolekülen M_\mu\ entstehende Ring wurde vom Erfinder des Modells, dem deutschen Bio- bzw. Physikochemiker und Nobelpreisträger für Chemie Manfred Eigen, Hyperzyklus gennant (s. Abb. 1).
Abbildung 1: Hyperzyklus
Ziel dieses Artikels ist es, die Stabilität des Hyperzyklus zu untersuchen.


Transformation der Hyperzyklusgleichung

Die Hyperzyklusgleichung

(2.1) \quad \dot{x}_\mu = x_\mu \left(k_{\mu}x_{\mu-1} - \sum_{\nu=1}^m{k_{\nu}x_{\nu}x_{\nu-1}}\right),\quad \mu = 1,\ldots,m
hat einen einzigen Fixpunkt  p=\left(p_1,\ldots,p_m\right) im Inneren des Simplex \Delta\ , wenn also alle x_\mu > 0\ sind. Dieser wird bestimmt durch das Lösen des folgenden Gleichungssystems:
(2.2) \quad
k_{\mu}x_{\mu-1} - \sum_{\nu=1}^m{k_{\nu}x_{\nu}x_{\nu-1}} = 0, \quad \mu=1, \ldots, m

 
x_1 + \ldots + x_m =1.

Satz 2.1
Die einzige Lösung von (2.2) ist

(2.3) \quad p_{\mu}=\frac{k^{-1}_{\mu+1}}{\sum_{\nu}{k^{-1}_{\nu + 1}}}, \quad \mu=1, \ldots, m.

Beweis:
Das Gleichungssystem (2.2) wird offensichtlich zum

k_1x_m=k_2x_1= \ldots = k_mx_{m-1}
x_1 + \ldots + x_m =1.

Die Induktion über m\ liefert folgende Ergebnisse


D=\prod^m_{\nu=1}{k_{\nu}}\sum^m_{\nu=1}{k^{-1}_{\nu}}, \quad D_{\mu}=\prod^m_{\nu=1, \  \nu \neq \mu}{k_{\nu}},

woraus (2.3) folgt.


Um die asymptotische Stabilität des Fixpunktes p\ zu untersuchen, verwendet man die Linearisierung von (2.1) durch Betrachten der Jacobi-Matrix an der Stelle p\ . Die direkte Berechnung der Jacobi-Matrix für die Gleichung (2.1) und deren Eigenwerte ist ziemlich umständlich und führt zu komplizierten Ausdrücken. Daher ist es güntstig, die Gleichung zuerst zu transformieren.

Satz 2.2
Unter der diffeomorphen Abbildung y= \Phi(x): \mathbb{R}^m \rightarrow \mathbb{R}^m mit


(2.4) \quad y_{\mu}=\frac{k_{\mu+1}x_{\mu}}{\sum^m_{\nu=1}k_{\nu+1}x_{\nu}}, \quad \mu=1, \ldots, m

geht die Gleichung (2.1) zur


(2.5) \quad \dot{y}_{\mu}=y_{\mu}\frac{y_{\mu-1}-\sum^m_{\nu=1}{y_{\nu}y_{\nu-1}}}{\sum^m_{\nu=1}k^{-1}_{\nu+1}y_{\nu}}

und der Punkt p\ zum Mittelpunkt \hat{m}=(\frac{1}{m}, \ldots, \frac{1}{m}) von \Delta\ über. Die Eigenwerte der Jacobi-Matrix von (2.1) bleiben unverändert.
Beweis:
Aus (2.4) folgt, dass \Phi(\Delta) \subseteq \Delta und \Phi(p)=\hat{m}. Die Abbildung \Phi\ ist auf \Delta\ stetig differenzierbar und ihre Umkehrabbildung \Phi^{-1}\ , die mit Hilfe des Satzes (2.1) berechnet werden kann, nämlich

(2.6) \quad x_{\mu}=\left(\Phi^{-1}(y)\right)_{\mu}=\frac{k^{-1}_{\mu+1}y_{\mu}}{\sum^m_{\nu=1}{k^{-1}_{\nu+1}y_{\nu}}}

ist es auch. Also ist \Phi\ diffeomorph und \Phi(\Delta)=\Delta\ .
Das Ableiten der Gleichung (2.4) und das Einsetzen für \dot{x}_\mu gemäß (2.1) ergibt:


\dot{y}_{\mu}=\left(\sum^m_{\nu=1}{k_{\nu+1}x_{\nu}}\right)y_{\mu}y_{\mu-1}-k_{\mu+1}x_{\mu}\sum^m_{\nu=1}{y_{\nu}y_{\nu-1}}.

Anhand von (2.6) erhält man


\dot{y}_{\mu} = \frac{y_{\mu}y_{\mu-1}\sum^m_{\nu=1}{y_{\nu}}-y_{\mu}\sum^m_{\nu=1}{y_{\nu}y_{\nu-1}}}{\sum^m_{\nu=1}{k^{-1}_{\nu+1}y_{\nu}}},

woraus (2.5) folgt.
Es bleibt noch festzuhalten, dass die Jacobi-Matrix am Fixpunkt p\ bei dieser Koordinatentransformation \Phi\ gemäß der Kettenregel in eine ähnliche Matrix übergeht. Ähnliche Matrizen haben gewiss die gleichen Eigenwerte.

Bemerkung:
Da der Nenner \sum^m_{\nu=1}{k^{-1}_{\nu+1}y_{\nu}} in (2.5) auf \Delta\ stets positiv ist, unterscheiden sich die Gleichungen

(2.7) \quad \dot{y}_{\mu} = y_{\mu}\left(y_{\mu-1}-\sum^m_{\nu=1}{y_{\nu}y_{\nu-1}}\right)

und (2.5) nur in diesem positiven Faktor, der von \mu\ unabhängig ist. Analog zur Replikatorgleichung stimmen dann die Lösungskurven der Gleichungen (2.5) und (2.7) überein. Deswegen betrachten wir weiter die Gleichung (2.7), für welche die Bezeichnung Hyperzyklusgleichung beibehatlen wird.


Berechnung der Eigenwerte der Jacobi-Matrix

Satz 3.1
Die Jacobi-Matrix der Hyperzyklusgleichung (2.7) an der Stelle \hat{m} ist zirkulant, d.h. ihre erste Zeile hat folgende Gestalt


(3.1) \quad \begin{pmatrix}
-\frac{2}{m^2} & -\frac{2}{m^2} & \ldots & -\frac{2}{m^2} & \frac{1}{m}-\frac{2}{m^2}
\end{pmatrix}

und die anderen Zeilen entstehen durch zyklische Vertauschung.

Beweis:
Für \mu, \nu=1, \ldots, m gilt nach (2.7)


\frac{\partial \dot{y}_{\mu}}{\partial y_{\nu}}=\frac{\partial y_{\mu}}{\partial y_{\nu}}\left(y_{\mu-1}-\sum^m_{\sigma=1}{y_{\sigma}y_{\sigma-1}}\right) + 
y_{\mu}\left(\frac{\partial y_{\mu-1}}{\partial y_{\nu}}-(y_{\nu-1}+y_{\nu+1})\right).

An der Stelle \hat{m}=(\frac{1}{m}, \ldots,\frac{1}{m}) verschwindet der erste Term und es bleibt


\frac{\partial \dot{y}_{\mu}}{\partial y_{\nu}}\left(\hat{m}\right) = \frac{1}{m} \left(\frac{\partial y_{\mu-1}}{\partial y_{\nu}}\left(\hat{m}\right) -\frac{2}{m}\right).

Es folgt insgesamt:


\frac{\partial \dot{y}_{\mu}}{\partial y_{\nu}}\left(\hat{m}\right) = \begin{cases}\frac{1}{m}\left(1 - \frac{2}{m}\right) & ,\quad \nu = \mu -1\\ -\frac{2}{m^2} & ,\quad \mbox{sonst}.\end{cases}


Satz 3.2
Es sei  C\ die zirkulante Matrix mit der ersten Zeile (c_0, \ldots, c_{m-1}). Ihre Eigenwerte sind gegeben durch


(3.2) \quad \gamma_k=\sum^{m-1}_{j=0}{\lambda^{kj}c_j}, \quad k=0, \ldots, m-1

mit

\lambda = e^{\frac{2\pi i}{m}}.

Die dazugehörigen Eigenvektoren sind


(3.3) \quad z_k=\left(1,\lambda^k, \ldots, \lambda^{(m-1)k}\right), \quad k= 0, \ldots, m-1.

Beweis:
Unmittelbare Überprüfung.


Satz 3.3
Die Eigenwerte der Jacobi-Matrix der Gleichung (2.7) sind


(3.4) \quad \gamma_0=-\frac{1}{m}, \quad \gamma_{\mu}=\frac{\lambda^{-\mu}}{m}, \quad \mu=1, \ldots, m-1.

Beweis:
Aus (3.1) und (3.2) folgt:


\gamma_0= \sum^{m-1}_{j=0}{c_j}=\frac{1}{m} - \frac{2}{m^2} - (m-1)\frac{2}{m^2} = -\frac{1}{m},


\gamma_{\mu} = \sum^{m-1}_{j=0}\left(-\frac{2}{m^2}\right)\lambda^{\mu j} + \frac{1}{m}\lambda^{(m-1)\mu} = -\frac{2}{m^2}\frac{1-\lambda^{m \mu}}{1-\lambda^{\mu}} + \frac{1}{m}\lambda^{(m-1)\mu} = \frac{\lambda^{-\mu}}{m}, \quad \mu = 1, \ldots, m-1.

Bemerkung:
Der Eigenwert \gamma_0 = -\frac{1}{m} gehört zum Eigenvektor z_0=(1, 1, \ldots, 1), der senkrecht auf dem Simplex \Delta\ steht. Da wir uns nur für die Einschränkung von (2.7) interessieren, brauchen wir ihn nicht weiter zu beachten. Für das (m-1)\ -dimensionale System, das durch die Einschränkung entsteht, gilt:
Die Eigenwerte der Jacobi-Matrix von (2.7) an der Stelle \hat{m} sind durch


(3.5) \quad \gamma_{\mu} = \frac{1}{m}e^{\frac{2 \pi i \mu}{m}}, \quad \mu =1, \ldots, m-1

gegeben. Daraus folgt, dass die Eigenwerte der Jacobi-Matrix von (2.1) am Gleichgewichtspunkt p\ durch


(3.6) \quad \hat{\gamma}_{\mu} = m\left(\sum_{\nu}{k^{-1}_{\nu}}\right)^{-1}\gamma_{\mu}, \quad \mu =1, \ldots, m-1

gegeben sind und das positive Vielfache der m\ -ten Einheitswurzeln darstellen. Also haben die Realteile von \hat{\gamma}_{\mu} und  \gamma_{\mu}\ das gleiche Vorzeichen.


Stabilitätsanalyse des Gleichgewichts

Für die Untersuchung der Stabilität verwendet man den Satz von Hartman und Grobman (s. Stabilität, Dynamisches System) und/oder den Satz von Ljapunow.

Satz 4.1
Das innere Gleichgewicht \hat{m} ist für m = 2,\ 3,\ 4 asymptotisch stabil.

Beweis:
(i)\ Für m = 2\ gilt nach (3.5):


\gamma_1 = \frac{1}{2}e^{\pi i} = \frac{1}{2}\left[\cos{\pi} + i\cdot\sin{\pi}\right] = -\frac{1}{2} \quad \Rightarrow \quad Re(\gamma_1)= -\frac{1}{2} < 0.

Für m = 3\ ist


Re(\gamma_1) = \frac{1}{3} Re(e^{\frac{2 \pi i}{3}}) = -\frac{1}{6} < 0,

Re(\gamma_2) = \frac{1}{3} Re(e^{\frac{4 \pi i}{3}}) = -\frac{1}{6} < 0.

Nach dem Satz von Hartman und Grobman ist also \hat{m} und damit p\ asymptotisch stabil.
Für m=4\ gilt Re(\gamma_1) = Re(\gamma_3) = 0\ . Damit lässt sich der Satz von Hartman und Grobman nicht mehr anwenden.

(ii)\ Hilfe verschafft in diesem Fall der Satz von Ljapunow. Dazu betrachten wir die folgende Ljapunow-Funktion:

 
(4.1) \quad L(y) = y_1y_2y_3y_4,\quad y\in\Delta.

Diese Funktion verschwindet am Rand vom Simplex \Delta\ (wo y_{\mu}= 0\ für mindestens ein \mu\ gilt) und ist positiv im Inneren von \Delta\ . Ihr Maximum nimmt diese Funktion genau im Punkt \hat{m} an, wo alle y_{\mu}\ gleich groß sind.
Es sei t \rightarrow y(t) die Lösung von (2.7). Man betrachte nun die Funktion \log L(y(t))\ , für deren Ableitung gilt:


\partial_t{\left(\log L\right)} = \sum^4_{\mu = 1}{\frac{\dot{y}_{\mu}}{y_{\mu}}} = \sum^4_{\mu = 1}{y_{\mu-1}} - 4\sum^4_{\nu = 1}{y_{\nu}y_{\nu-1}} = \left(\sum^4_{\mu=1}{y_{\mu}} \right)^2 - 4\sum^4_{\nu = 1}{y_{\nu}y_{\nu-1}} =: \Psi(y).

Dann gilt weiter:


\Psi(y)=(y_1+y_2+y_3+y_4)^2-4(y_1y_2+y_2y_3+y_3y_4+y_4y_1) = \left[(y_1+y_3) - (y_2+y_4)\right]^2 \geq 0.

Aber die Menge


(4.2) \quad \left\{\Psi(y) = 0 \right\} = \left\{y \in \Delta: y_1+y_3=y_2+y_4 \right\}

enthält nicht nur den Punkt \hat{m}=\left(\frac{1}{4},\frac{1}{4},\frac{1}{4},\frac{1}{4}\right).
Der Satz von Ljapunow besagt, dass jede Bahn im Inneren von \Delta\ gegen die maximale invariante Teilmenge J\ der Menge (4.2) strebt. Dann muss in J \ \partial_t(y_1+y_3)=\partial_t(y_2+y_4) gelten, woraus die Gleichheit \left(y_1 - y_3\right)\left(y_4 - y_2\right)=0 folgt. Somit liegt J\ in der Menge, wo y_1=y_3\ oder y_4=y_2\ gilt.
Aus der Invarianz von J\ folgt aber, falls y_1=y_3\ , dass \dot{y}_1=\dot{y}_3, also


y_1(y_4 - \sum^4_{\nu=1}{y_{\nu}y_{\nu-1}})=y_3(y_2 - \sum^4_{\nu=1}{y_{\nu}y_{\nu-1}})

oder einfach y_4=y_2\ gilt. Und ähnlich, falls y_4=y_2\ , dass y_1=y_3\ gilt. Daher besteht J\ nur aus dem Punkt \hat{m} und wieder strebt jede Bahn im Inneren von \Delta\ gegen \hat{m}.

Bemerkung:
Für m \geq 5 gibt es stets Eigenwerte mit positivem Realteil, denn:


Re\left(\gamma_1\right) = Re\left(e^\frac{2\pi i}{m}\right) = \cos\left(\frac{2\pi}{m}\right) > 0.

Daher ist das innere Gleichgewicht \hat{m} bzw. p\ sicher instabil.
Trotzdem ist die Lage nicht so schlecht. Es ist nämlich für die "Aufgabe", die der Hyperzyklus erfüllen soll, gleichgültig, ob sich ein Gleichgewicht einstellt, ein Grenzzyklus oder noch komplizierteres. Die "Aufgabe" des Hyperzyklus ist die Sicherung der Koexistenz aller Arten von selbstreproduzierenden Makromolekülen. Ob deren Konzentrationen regulär oder irregulär schwingen ist eher unwichtig. Die Hauptsache ist, dass keine der molekularen Spezies ausstirbt und mit ihr die entsprechende Information verschwindet.
Im Artikel Permanenzkriterium für die Replikatorgleichung wird bewiesen, dass die Replikatorgleichung permanent ist. Diese Eigenschaft verhilft dem Hyperzyklus seine "Aufgabe" zu erfüllen.

Fazit

Wir können uns nun ein Bild von der Evolution von Hyperzyklen machen. Zunächst wird es in der "Ursuppe" noch nicht viele Spezies von selbstreproduzierenden Molekülen geben. Durch Zufallsmutationen treten neue Spezies auf, aber keiner der möglichen Hyperzyklen ist vollständig. Solange der Koppelungskreis nicht geschlossen ist, besteht der "unvollständige" Hyperzyklus aus einer oder mehreren katalytischen Ketten. Das System ist noch nicht permanent und von der Spezies ohne Vorgänger gibt es nur verschwindende Mengen.
Erst wenn eine Mutation den Hyperzyklus schließt, läuft der Koppelungskreisprozess. Wenn der Hyperzyklus kurz ist (m \leq 4\ ), kommt es zu einem Gleichgewicht. Ist er länger
(m \geq 5\ ), so wird lebhaft pulsiert. Auf jeden Fall wird aber von jeder beteiligten Molekülspezies eine ansehnliche Konzetration vorhanden sein, so dass die gespeicherte Information nicht durch eine Zufallsschwankung verloren gehen kann.


Literatur

  • Hofbauer, J., Sigmund, K.: The theory of evolution and dynamical systems: mathematical aspects of selection, Cambridge University Press, 1988
Meine Werkzeuge