Sie wird unterschieden von der algebraischen Vielfachheit. Diese ist die Vielfachheit des Eigenwertes als Nullstelle des charakteristischen Polynoms. Beispiel: Eigenwerte und Eigenvektoren berechnen Nun wollen wir in einem Beispiel noch einmal komplett aufzeigen, wie man für eine gegebene Matrix die Eigenwerte und Eigenvektoren berechnen kann. Dazu betrachten wir die Matrix. Wir bestimmen zunächst das charakteristische Polynom, indem wir die Determinante der Matrix ermitteln: Die Nullstellen dieses Polynoms und somit die Eigenwerte der Matrix sind und. Wir wollen zunächst für den Eigenwert einen Eigenvektor berechnen. Dazu setzen wir den Eigenwert in die Gleichung ein und erhalten folgenden Ausdruck: Die Lösungsmenge dieses Gleichungssystems lautet Jeder Vektor aus dieser Menge ist ein Eigenvektor der Matrix zum Eigenwert. Da der Eigenwert eine einfache Nullstelle des charakteristischen Polynoms ist, ist seine algebraische Vielfachheit gleich 1. Ebenso ist seine geometrische Vielfachheit gleich 1, da sein Eigenraum eindimensional ist.
Über die Normberechnung hinaus stellt die Erweiterung auch Funktionen zur Berechnung von Eigenwerten und Eigenvektoren bereit. Wir haben wieder eine zufällige \(100\times 100\) Matrix: import numpy import as linalg A = numpy. random. rand ( 100, 100) und können nun die Eigenwerte und Eigenvektoren berechnen. NumPy liefert dann ein Tupel aus Eigenwerten ew und Eigenvektoren ev zurück: ew, ev = linalg. eig ( A) Nun können wir den betragsmäßig kleinsten und größten Eigenwert und den dazugehörigen Eigenvektor bestimmten. Zunächst berechnen wir die Beträge der (i. d. R. komplexen) Eigenwerte: ew_abs = numpy. abs ( ew) Mit argmax / argmin wird der Index des maximalen/minimalen Eigenwerts berechnet: ew_max = numpy. argmax ( ew_abs) ew_min = numpy. argmin ( ew_abs) womit wir dann auf den entsprechenden Eintrag zugreifen können: print "max EW ", ew [ ew_max] print " + EV ", ev [ ew_max] print "min EW ", ew [ ew_min] print " + EV ", ev [ ew_min] Download.
255 gelöst werden, wobei \({x_1} = 1\) gewählt wird. \begin{array}{l}\left( {5 - 3 \mp 2\sqrt 2} \right) \cdot {x_2} = - 2 \quad \\ \Rightarrow \quad \text{1. Eigenvektor} {x_1} = 1; \quad {x_2} = - \frac{2}{ {2 - 2\sqrt 2}} = - \frac{1}{ {1 - \sqrt 2}} = {\rm{2}}{\rm{, 41421}} \text{2. Eigenvektor} {x_2} = - \frac{2}{ {2 + 2\sqrt 2}} = - \frac{1}{ {1 + \sqrt 2}} = - {\rm{0}}{\rm{, 41421}}\end{array} Also lauten die Eigenvektoren {X_1} = \left( {\begin{array}{cc}1\\{2, 41421}\end{array}} \right); \quad {X_2} = \left( {\begin{array}{cc}1 {-0, 41421}\end{array}} \right) Die Bestimmung der Eigenwerte aus dem charakteristischen Polynom ist elementar nur für Matrizen mit einem Rang bis max. 3 sinnvoll möglich. In der Numerischen Mathematik gibt es elegante Verfahren zur Bestimmung der Eigenwerte von Matrizen mit höheren Rängen. Eigenvektoren (Vielfache) Ist X ein Eigenvektor der Matrix A, dann sind auch beliebige Vielfache von X Eigenvektoren von A. Das Verhältnis der Komponenten der Eigenvektoren untereinander bleibt von einer Multiplikation mit einer Konstanten unberührt.
Die Eigenwerte der Inversen A -1 sind die Kehrwerte der Eigenwerte von A. Bei der Analyse der Eigenwerte von A kann man demnach auch von der Inversen A -1 ausgehen. Dabei werden allerdings die betragsgrößten Eigenwerte von A zu den betragskleinsten von A -1 und die betragskleinsten Eigenwerte von A werden zu den betragsgrößten von A -1. Folglich kann man die Vektoriteration auch nutzen um den betragskleinsten Eigenwert und den zugehörigen Eigenvektor einer Matrix zu bestimmen. Man muss die Iteration nur mit der Inversen der jeweiligen Matrix machen und vom gefundenen Eigenwert den Kehrwert nehmen. Spektralverschiebung Wenn eine Matrix A die Eigenwerte λ 1, λ 2, λ 3,... hat, dann hat die Matrix A - c I die Eigenwerte λ 1 -c, λ 2 -c, λ 3 -c,... Es verschieben sich demnach alle Eigenwerte um die Größe c. Die Eigenvektoren ändern sich bei dieser Spektralverschiebung nicht. Damit hat man die Möglichkeit für einen beliebigen reellen Eigenwert, den man in der Nähe von c vermutet, zunächst mit einer Spektralverschiebung um -c eine Matrix zu erzeugen, für die der zugehörige Eigenwert dann in der Nähe von 0 liegt und somit als hoffentlich betragskleinster mit der inversen Vektoriteration gefunden werden kann.
Es gibt also unendlich viele Lösungen. Aus der 2. Gleichung folgt, dass stets $z = 0$ gilt. Eine spezielle Lösung erhalten wir demnach, wenn wir für $x$ oder für $y$ einen beliebigen Wert einsetzen. Wir setzen $x = 1$ in die 1. Gleichung ein und erhalten: $$ 1 - y = 0 $$ Wir lösen die 1. Gleichung nach $y$ auf und erhalten $y = 1$.
Gerschgorin-Kreise Gemäß der Eigenwertabschätzung nach Gerschgorin gibt es Kreisscheiben in der komplexen Zahlenebene, in deren Vereinigungsmenge alle Eigenwerte einer Matrix liegen. Die Kreismittelpunkte sind die Diagonalelemente der Matrix. Die Radien der Kreise bestimmen sich aus der Summe der Beträge der zugehörigen übrigen Zeilenelemente. Alternativ kann man auch die Beträge der zugehörigen übrigen Spaltenelemente aufaddieren. weitere JavaScript-Programme