< Kurs:Numerik I

In diesem Abschnitt werden "direkte" Verfahren zur numerischen Lösung linearer Gleichungssysteme vorgestellt, wobei eine gegebene Matrix und ein gegebener Vektor ist.

3.1 Dreieckssysteme

Definition 3.1

Matrizen der Form
heißen untere bzw. obere Dreiecksmatrizen.

Die Matrizen und in der Definition sind offenbar genau dann regulär, wenn gilt:

Für die obere Dreiecksmatrix mit für ist das gestaffelte Gleichungssystem für einen gegebenen Vektor von der Form

Dessen Lösung kann für reguläres , d. h. für , zeilenweise von unten nach oben durch Auflösen nach der jeweiligen Unbekannten auf der Diagonalen berechnet werden und zwar nach der folgenden Vorschrift:

Für berechne

Dabei sind in den Stufen je Multiplikationen und eine Division, d. h. wesentliche arithmetische Operationen, durchzuführen. Insgesamt sind dies also

(3.1)

Multiplikationen und Divisionen.

Für eine untere Dreiecksmatrix mit für ist das entsprechende gestaffelte Gleichungssystem für einen gegebenen Vektor von der Form

Seine Lösung kann für reguläres , d. h. für , zeilenweise von oben nach unten durch Auflösen nach der Unbekannten in der Diagonalen berechnet werden und zwar nach folgender Vorschrift:

Für berechne

Dabei sind genauso viele wesentliche arithmetische Rechenoperationen durchzuführen wie im Fall eines oberen gestaffelten Gleichungssystems mit Veränderlichen, nämlich (siehe (3.1)).

3.2 Der Gauß-Algorithmus

3.2.1 Einführung

Seien nun eine gegebene Matrix mit und ein gegebener Vektor. Im Folgenden beschreiben wir den sog. Gauß-Algorithmus. Dieser führt das lineare Gleichungssystem (kurz: LGS) in ein äquivalentes oberes gestaffeltes LGS über, dessen Lösung , wie im vorangehenden Abschnitt gezeigt wurde, leicht berechnet werden kann. Erlaubte Operationen, die zu einer äquivalenten Umformung eines LGSs führen, sind offenbar

  • die Vertauschung der Reihenfolge von Gleichungen,
  • die skalare Multiplikation von Gleichungen,
  • die Addition des skalaren Vielfachen einer Gleichung zu einer anderen Gleichung,
  • die Vertauschung von Spalten der Koeffizientenmatrix.

Dabei entspricht offenbar die Vertauschung von Spalten der Koeffizientenmatrix einer Vertauschung der Reihenfolge, in der die Variablen im LGS auftreten. Wir führen im Folgenden den Gauß-Algorithmus zunächst ohne Zeilen- und Spaltenvertauschungen ein, in welchem Fall er aber auch nur für spezielle Matrizen (wir geben einen solchen Typ an) durchführbar ist.

In der ersten Stufe des Gauß-Algorithmus wird das gegebene LGS

in ein äquivalentes LGS der Form

überführt. Wenn ist, kann dies für die erste Zeile mit

erreicht werden und für die Zeilen mit Zeilenoperationen der Form

für

bzw. explizit durch

Diesen Eliminationsschritt wiederholt man nun analog für das um die erste Zeile und Spalte reduzierte LGS für die Unbekannten . (Denn Addition eines Vielfachen einer Zeile mit Index zu einer anderen Zeile mit Index erzeugt wiederum eine Null in der ersten Spalte.) Führt man diesen Eliminationsprozess sukzessive für die jeweils entstehenden Teilsysteme durch, so erhält man also im Fall zu äquivalente Gleichungssysteme

mit Matrizen der speziellen Gestalt

(3.2)

Dabei hat man die folgenden Transformationen zu berechnen:

wobei obere Dreiecksmatrix und für möglich ist. Den Übergang von nach bezeichnen wir als -te Stufe des Gauß-Algorithmus.

Im Zuge des Gauß-Algorithmus sind in der -ten Stufe Multiplikationen und Divisionen, d. h. wesentliche arithmetische Rechenoperationen durchzuführen, so dass insgesamt maximal

wesentliche Rechenoperationen anfallen.

Es wurde hier vorausgesetzt, dass die in jeder Stufe auftretenden Diagonalelemente nicht verschwinden, d. h. ist. Der folgende Satz gibt eine Klasse von Matrizen an, für die dies der Fall und somit der Gauß-Algorithmus durchführbar ist.

Definition 3.2

Eine Matrix heißt strikt diagonaldominant, wenn gilt:

Satz 3.3

Wenn strikt diagonaldominant ist, so ist der Gauß-Algorithmus zur Lösung von durchführbar.

Beweis.

Es wird mit vollständiger Induktion über gezeigt, dass die Matrizen

strikt diagonaldominant sind und damit insbesondere gilt. Für ist dies nach Voraussetzung richtig und wir nehmen nun an, dass für ein beliebiges strikt diagonaldominant ist. Dann gilt insbesondere , so dass der Gauß-Eliminationsschritt auf anwendbar ist. Er liefert die Matrix mit

und den Koeffizienten

(Man beachte, dass nicht beim nächsten Schritt überschrieben wird und somit nicht mit einem Iterationszähler versehen werden muss.) Für ergibt sich unter Verwendung der Induktionsvoraussetzung

3.2.2 Gauß-Algorithmus mit Pivotsuche

Wir betrachten nun zunächst das folgende Beispiel.

Beispiel 3.4

(1) Für

besitzt das Gleichungssystem wegen für jedes eine eindeutige Lösung. Jedoch ist der Gauß-Algorithmus in der angegebenen Form wegen nicht für dessen Lösung durchführbar. Vertauscht man jedoch die Zeilen in dem System und damit in , so erhält man die Matrix

und kann der Gauß-Algorithmus für die Lösung des zugehörigen Systems erfolgreich angewendet werden.

(2) Die exakte Lösung des Gleichungssystems

(3.3)

lautet . Bei 3-stelliger Rechnung ergibt sich mit dem Gauß-Algorithmus der Umrechnungsfaktor , damit das Tableau

und die mit großen Fehlern behaftete "Lösung" . Vertauscht man aber die Zeilen in (3.3), so gelangt man mit zu dem Tableau

und damit zu der guten Näherungslösung .


Insbesondere können also große Umrechnungsfaktoren zu numerischen Instabilitäten führen. Zur Vermeidung solcher etwaigen Instabilitäten bietet sich die folgende Modifikation des Gauß-Algorithmus mit einer Spaltenpivotsuche an. Dabei nimmt man, sofern dies erforderlich ist, im -ten Schritt eine Zeilenvertauschung derart vor, dass man das auf bzw. unterhalb der Diagonale befindliche betragsmäßig größte Element der aktuellen -ten Spalte an die Position des -ten Diagonalelementes bringt.

Algorithmus 1 (k-te Stufe des Gauß-Algorithmus mit Spaltenpivotsuche)

(0) Gib die Matrix der Gestalt (3.2).

(1) Bestimme ein mit

(2) Erzeuge aus sowie aus durch Vertauschung der -ten und der -ten Zeile von bzw. , d. h. setze

sowie

(3) Führe den Eliminationsschritt wie oben für und beschrieben aus.

(4) Setze .

Das Element wird als Pivotelement bezeichnet. Für ist für jedes , d. h. ist der Gauß-Algorithmus mit Spaltenpivotsuche durchführbar. Denn in der -ten Stufe des Verfahrens muss für mindestens ein gelten, da man anderenfalls zur nächsten Stufe übergehen könnte und damit eine Dreiecksmatrix wäre, für die mindestens ein Diagonalelement identisch Null und somit wäre. Letzteres ist jedoch wegen nicht möglich, da die beim Gauß-Algorithmus mit Pivotsuche in jeder Stufe durchgeführten Operationen (Zeilenvertauschung und Addition eines Vielfachen einer Zeile zu einer anderen Zeile) höchstens einen Vorzeichenwechsel der Determinante zur Folge haben.

Es sei darauf hingewiesen, dass man offenbar durch Multiplikation der entsprechenden Gleichung mit einem geeigneten Skalar jedes Element in der Pivotspalte zum Pivotelement machen kann und somit eine geeignete Skalierung des zugrunde liegenden linearen Gleichungssystems den Verlauf des Gauß-Algorithmus wesentlich beeinflussen kann. Mehr dazu findet man z. B. bei Deuflhard/Hohmann. In dem Buch dieser Autoren findet man auch Aussagen zur Stabilität des Gauß-Algorithmus. So wird festgestellt, dass Gauß-Elimination mit Spaltenpivotsuche über der Menge aller invertierbaren Matrizen betrachtet nicht stabil, für wichtige Unterklassen, wie beispielsweise die der positiv definiten Matrizen (vgl. Abschnitt 3.3.6) und die der strikt diagonaldominanten Matrizen, aber stabil ist.

3.3 Die Zerlegung PA = LR

Häufig ist in der numerischen Mathematik das Gleichungssystem für eingegebene (feste) reguläre Matrix und unterschiedliche rechte Seiten zu lösen. In einem solchen Fall ist es ineffizient, für jede neue rechte Seiten wieder den Gauß-Algorithmus durchzuführen, da er bei jedem Durchlauf in Bezug auf dieselben Resultate liefern würde. Deshalb möchte man die beim Gauß-Algorithmus durchgeführten Transformationen von in irgendeiner Form speichern. Dieses kann in Form einer Zerlegung von der Form geschehen, wie sie im folgenden Unterabschnitt eingeführt wird, wobei eine untere Dreiecksmatrix, eine obere Dreiecksmatrix und eine Permutationsmatrix ist. Eine solche Zerlegung bzw. Faktorisierung von kann man, wie wir zeigen wollen, mittels des Gauß-Algorithmus mit Spaltenpivotsuche gewinnen. Liegt eine solche Faktorisierung vor, so kann man das Gleichungssystem bzw. für ein gegebenes lösen, indem man hintereinander die beiden Dreieckssysteme

(3.4)

löst, wobei die Lösung des ersten Systems die rechte Seite des zweiten Systems liefert. Hat man das System für mehrere unterschiedliche rechte Seiten zu lösen, so muss man dann nur einmal die numerisch teuere Zerlegung bestimmen, während die Berechnung der Lösung gemäß (3.4) numerisch relativ "billig" ist.

3.3.1 Permutationsmatrizen

Definition 3.5

Jede Matrix mit genau einer Eins und sonst nur Nullen in jeder Zeile und Spalte heißt Permutationsmatrix.

Beispiel 3.6

Die folgende Matrix stellt eine Permutationsmatrix dar:


Definition 3.7

Jede bijektive Abbildung heißt eine Permutation.

Bemerkung 3.8

Offensichtlich ist genau dann eine Permutionsmatrix, wenn es eine Permutation gibt, so dass

(3.5)

gilt, wobei die -te Spalte der Einheitsmatrix bezeichnet.

Beispiel 3.9

Der Matrix aus Beispiel 3.6 liegt die durch

definierte Permutation zugrunde, denn es gilt


Mittels Bemerkung 3.8 kann man nun die Aussagen des folgenden Satzes erschließen.

Satz 3.10

Sei eine Permutationsmatrix und bezeichne die zu der Matrix gehörende Permutation. Dann gilt:
(i) ist eine orthogonale Matrix, d. h. es ist .
(ii) Es gilt
.
(iii) Für gilt
(iv) Für jede Matrix mit Zeilen und Spalten gilt
(3.6)

Beweis.

(i) folgt mit (3.5) aus

Die Behauptung in (ii) ergibt sich aus

Die erste Behauptung in (iii) folgt aus

die zweite folgt mit (ii) und letzterer Identität aus

Die entsprechenden Matrixversionen in (iv) folgen analog aus

sowie unter Verwendung dieser Beziehung und (ii) aus

q.e.d.

Man beachte, dass die Indizes gemäß Aussage (ii) von Satz 3.10 gerade die Indizes der Einheitsvektoren, welche die Spalten von bzw. die Zeilen von bilden, sind. Somit bewirkt also die Multiplikation einer Matrix mit einer Permutationsmatrix von links bzw. rechts eine Permutation der Zeilen bzw. Spalten von , die der Permutation der Zeilen bzw. Spalten von im Vergleich mit der Einheitsmatrix entspricht.

Beispiel 3.11

Seien

Dann folgt


In numerischen Implementierungen erfolgt die Abspeicherung einer Permutationsmatrix mit der zugehörigen Permutation in Form eines Vektors

oder .

Eine besondere Rolle spielen Elementarpermutationen , die zwei Zahlen vertauschen und die restlichen Zahlen unverändert lassen. Im Fall einer Elementarpermutation gibt es also zwei Zahlen mit

(3.7)

Hier gilt wegen

die Identität , so dass sich für die zu gehörende Permutationsmatrix (vgl. (3.5)) ergibt:

(3.8)

3.3.2 Frobenius-Matrizen

Wir betrachten eine weitere wichtige Klasse von Matrizen.

Definition 3.12

Sei . Jede Matrix der Form
(3.9)
heißt Frobenius-Matrix vom Index .

Eine Frobenius-Matrix vom Index unterscheidet sich von der Einheitsmatrix gleicher Größe also nur in der -ten Spalte und dort auch nur unterhalb der Diagonalen. Insbesondere lässt sich die prinzipielle Vorgehensweise bei den Zeilenoperationen der -ten Stufe des Gauß-Algorithmus durch Multiplikation mit einer Frobenius-Matrix vom Index beschreiben. So gilt für Vektoren

(3.10)

Offenbar lässt sich die Frobenius-Matrix in (3.9) mit

(3.11)

wegen

in der Form

(3.12)

darstellen, wobei die Einheitsmatrix und wieder die -te Spalte von bezeichnet.

Lemma 3.13

Für sind die Frobenius-Matrizen vom Index regulär und es gilt für
(3.13)
sowie
(3.14)

Beweis.

Für hat man mit (3.11) die Darstellung (3.12). Wegen

folgt

also die Regularität von sowie die behauptete Darstellung von . Im Folgenden soll nun mittels vollständiger Induktion die Identität

(3.15)

nachgewiesen werden, welche im Fall der Formel (3.14) entspricht.

Die Darstellung in (3.15) ist sicher richtig für . Wir nehmen nun weiter an, dass sie für ein beliebiges richtig ist. Dann gilt die Darstellung in (3.15) auch für , denn

q.e.d.

Lemma 3.14

Sei eine wie in (3.12) mit (3.11) dargestellte Frobenius-Matrix vom Index und eine Permutationsmatrix mit zugehöriger Elementarpermutation von der Form (3.7) mit . Dann entsteht die Matrix aus durch Vertauschen der Einträge und in der -ten Spalte, d. h.

Beweis.

Die Aussage ergibt sich unmittelbar aus

wobei (3.8) und Satz 3.10 (iii) sowie die Forderungen für und eingehen.

q.e.d.

3.3.3 Die LR-Zerlegung mittels Gauß-Algorithmus

Im Folgenden wird die allgemeine Vorgehensweise beim Gauß-Algorithmus zur sukzessiven Erzeugung von Matrizen der Form

(3.16)

mit Spaltenpivotsuche als Folge spezieller Matrix-Operationen beschrieben. Und zwar wird im -ten Schritt entsprechend Algorithmus 1 eine Zeilenvertauschung vorgenommen. Hierbei ist eine elementare Permutationsmatrix, die nur eine Vertauschung der Zeilen und von bewirkt. ( und somit ist möglich.) Damit ergibt sich gemäß (3.6) und (3.10)

(3.17)

mit

(3.18)

für

(3.19)

sowie

(3.20)

Der Index bezeichnet dabei die Position der Zeile aus , welche das Pivotelement enthält.

Satz 3.15

Mit den Definitionen (3.16) - (3.20) gilt die Identität für
und
(3.21)
mit
(3.22)

Beweis.

Für gilt mit (3.17) sowie (3.8)

und so weiter, was schließlich

(3.23)

ergibt mit

und den Frobenius-Matrizen und

für , wobei in die letzte Identität Lemma 3.14 eingeht. Eine Umformung von (3.23) liefert dann

wobei die letzte Gleichheit mit Lemma 3.13 folgt. Damit ist alles bewiesen.

q.e.d.

Man beachte, dass die Matrix (3.21) also gerade aus den aktuellen Umrechnungsfaktoren gebildet wird, nachdem (sofern erforderlich) die Zeilenvertauschung, welche die Zeile mit dem jeweils gewählten Pivotelement an die richtige Position bringt, erfolgt ist. In Implementierungen werden die frei werdenden Anteile des linken Dreiecks der Matrix sukzessive mit den Einträgen der unteren Dreiecksmatrix überschrieben, während sich in dem rechten Dreieck der Matrix die Einträge der Dreiecksmatrix ergeben. Die Permutationsmatrix , deren Zeilen genannt seien, lässt sich einfach in Form eines Buchhaltungsvektors angeben, und es gilt, wie man mit Satz 3.10 erschließt,

Wir wollen die Vorgehensweise an einem Beispiel vorführen.

Beispiel 3.16

Gegeben sei die Matrix

Nach Anhängen des für die Speicherung der Zeilenpermutationen zuständigen Buchhaltervektors liefert der Algorithmus folgendes (unterhalb der Treppe ergeben sich sukzessive die Einträge von aus (3.21), (3.22)):

Dabei ist das jeweils gewählte Pivotelement unterstrichen. Der letzte Permutationsvektor besagt, dass

für die zu gehörende Permutation gilt und dass also aus hervorgeht, indem man die erste Zeile von in die dritte Position bringt, die zweite in die erste, usw. Es ergibt sich somit die Faktorisierung


Man beachte, dass die Zerlegung einer Matrix nicht eindeutig ist. Man könnte ja beispielsweise die Matrix mit einem Skalar und die Matrix mit dem Skalar multiplizieren.

Mit dem Gauß-Algorithmus kann man bekanntlich auch die Determinante von berechnen. So gilt im Fall, dass eine Zerlegung vorliegt,

und

wobei die Anzahl von paarweisen Zeilenvertauschungen ist, die die Überführung von in erfordert bzw. welche beim Gauß-Algorithmus vorgenommen wird und die die Diagonalelemente von sind. Demnach hat man

3.3.4 Nachiteration

Aufgrund von Rundungsfehlern errechnet man in der Praxis nicht eine Zerlegung , sondern eine Zerlegung von , so dass

gilt. Statt der (hier als eindeutig vorausgesetzten Lösung) von bzw. berechnet man demnach unter Verwendung von und eine Näherungslösung und den durch sie erzeugten Defekt

Daher ist die folgende Nachiteration sinnvoll: wiederum unter Verwendung der vorliegenden Zerlegung von bestimmt man die Lösung der Defektgleichung

(3.24)

und setzt man anschließend

Bei exakter Lösung des Systems (3.24) (mit und nicht ) hätte man dann

Da man i. a. jedoch nicht exakt rechnet, könnte man diesen Prozess wiederholen. Normalerweise genügt es jedoch, und mit doppelter Genauigkeit zu berechnen und die beschriebene Nachiteration nur einmal durchzuführen (vgl. Deuflhard/Hohmann).

Beispiel 3.17

Wir betrachten das Gleichungssystem mit

Die Lösung des Systems lautet

Gauß-Elimination ohne Zeilenvertauschung liefert bei 3-stelliger Rechnung

sowie

Man errechnet

mit dem Defekt

Nachiteration mit 6-stelliger Rechnung ergibt

3.3.5 Direkte LR-Zerlegung

In gewissen Situationen ist es möglich und zwecks Ausnutzung vorhandener Strukturen der Matrix auch sinnvoll, auf eine Pivotstrategie zu verzichten und mittels einer unteren Dreiecksmatrix und einer oberen Dreiecksmatrix eine LR-Zerlegung der Form

(3.25)

auf direkte Weise zu bestimmen. Eine solche Zerlegung einer regulären Matrix existiert genau dann, wenn für die Hauptuntermatrizen

(3.26)

von gilt (z. B. Sätze 2.14 und 2.17 bei Kanzow). Wegen ist dann auch , also und damit das folgende Vorgehen möglich.

Existiert eine LR-Zerlegung von wie in (3.25), so verwendet den Ansatz in (3.25), um für die gesuchten Größen und die Bestimmungsgleichungen

zu erhalten, welche wegen für und für mit

(3.27)

identisch sind. Dabei gibt es verschiedene Möglichkeiten, wie man aus den Gleichungen (3.27) die Einträge von und bestimmen kann. Zum Beispiel führt eine Berechnung der Zeilen von und der Spalten von entsprechend der Parkettierung auf den folgenden Algorithmus:

Algorithmus 2 (Direkte LR-Zerlegung)

(0) Gib mit und setze .

(1) Berechne

(2) Falls , stop!

(3) Setze und gehe nach (1).

Für eine solche direkte LR-Zerlegung sind insgesamt , d. h. die gleiche Größenordnung von Multiplikationen und Divisionen wie für den Gauß-Algorithmus erforderlich.

3.3.6 Cholesky-Zerlegung positiv definiter Matrizen

In diesem Abschnitt zeigen wir, dass die eben vorgestellte LR-Zerlegungen für positiv definite Matrizen besonders attraktiv ist.

Definition 3.18

Eine Matrix heißt positiv definit, falls symmetrisch, d. h. ist und falls gilt:

Mit dieser Definition selbst lässt sich, wie es ähnlich häufig in der Mathematik der Fall ist, nur schwer arbeiten. Deshalb sind äquivalente Bedingungen von Interesse.

Lemma 3.19

Folgende Aussagen sind für eine Matrix mit äquivalent:
(i) ist positiv definit.
(ii) Alle Eigenwerte von sind reell und positiv.
(iii) Die Determinanten der Hauptuntermatrizen von in (3.26) sind alle positiv.

Den Beweis des Lemmas findet man in Büchern der Linearen Algebra. Wir beweisen hier:

Lemma 3.20

Die Matrix sei positiv definit. Dann gilt:
(i) ist regulär,
(ii) alle Untermatrizen von der Form
(3.29)
sind positiv definit,
(iii) .

Beweis.

(i) Wäre singulär, so gäbe es einen Vektor mit . Damit wäre auch , was einen Widerspruch zur positiven Definitheit der Matrix darstellte.

(ii) Sei nun eine Untermatrix der Form (3.29) und . Wegen der vorausgesetzten Symmetrie von ist auch symmetrisch. Für mit

gilt dann sowie

(iii) Die Eigenwerte von sind (reell und) positiv, denn für mit gilt ja

(siehe auch Lemma 3.19). Weiter ist die Matrix nach einem Ergebnis aus der Linearen Algebra diagonalisierbar, d. h., es gibt eine reguläre Matrix mit

wobei die Matrix

ist. Somit folgt

q.e.d.

Satz 3.21

Die Matrix sei positiv definit. Dann gibt es genau eine untere Dreiecksmatrix mit und
(3.30)

Beweis.

Der Beweis wird mit vollständiger Induktion geführt. Für ist eine positiv definite Matrix eine positive Zahl . Eine solche kann eindeutig in der Form

geschrieben werden. Wir nehmen nun an, dass die Behauptung für positiv definite Matrizen bis zur Dimension richtig ist und betrachten jetzt eine positiv definite Matrix . Diese lässt sich mit der nach Lemma 3.20 positiv definiten Matrix und einem Vektor in der Form

partitionieren, wobei nach der Induktionsvoraussetzung mittels einer eindeutig bestimmten unteren Dreiecksmatrix mit zerlegt werden kann in

(3.31)

Für die gesuchte Matrix machen wir nun einen Ansatz der Form

und versuchen wir und so zu bestimmen, dass

(3.32)

gilt. Gleichheit in (3.32) hat man nun wegen (3.31) genau dann, wenn

(3.33)
(3.34)

gilt. Die Gleichung (3.33) besitzt sicher eine eindeutige Lösung , da als untere Dreiecksmatrix mit positiven Diagonalelementen regulär ist. Auch die zweite Gleichung (3.34) besitzt offenbar eine Lösung . Aufgrund von (3.32) gilt außerdem

so dass wegen (vgl. Lemma 3.20) und auch ist und somit die Gleichung (3.34) eine eindeutige Lösung hat. Damit ist alles gezeigt.

q.e.d.

Die Zerlegung einer positiv definiten Matrix bezeichnet man als Cholesky-Zerlegung von . Ein direkter Ansatz zu ihrer Bestimmung ist es, die Gleichungen bzw. die Gleichungen

als Bestimmungsgleichungen für die gesuchten Größen aufzufassen:

Spaltenweise Berechnung der Einträge der unteren Dreiecksmatrix aus diesen Gleichungen führt auf den folgenden Algorithmus:

Algorithmus 3 (Cholesky-Zerlegung)

(0) Gib eine positiv definite Matrix und setze .

(1) Berechne

(2) Falls , stop!

(3) Setze und gehe nach (1).

Beispiel 3.22

Gegeben sei die positiv definite Matrix

Dann errechnet man für den Spaltenindex die Einträge

für den Spaltenindex die Einträge

und schließlich für den Spaltenindex den Eintrag

Somit erhält man für die Cholesky-Zerlegung


Eine Cholesky-Zerlegung erfordert insgesamt die folgende Anzahl von Multiplikationen, Divisionen und Berechnungen von Quadratwurzeln:

Dies sind etwa halb so viele wesentliche Rechenoperationen, wie sie der Gauß-Algorithmus bzw. eine direkte LR-Zerlegung für eine beliebige reguläre Matrix erfordern.

3.3.7 Bandmatrizen

Bei der Diskretisierung von gewöhnlichen und partiellen Differentialgleichungen oder auch der Berechnung der Momente kubischer Splines (vgl. Abschnitt 7) ergeben sich lineare Gleichungssysteme , bei denen mit eine Bandmatrix der Bandbreite ist, d. h. bei denen die Gestalt

(3.35)

hat und somit

mit gewissen gilt. Insbesondere spricht man im Fall , d. h. im Fall

von einer Tridiagonalmatrix.

Bei Gleichungssystemen mit Bandmatrizen lässt sich der zu betreibende Aufwand bei allen in diesem Kapitel angesprochenen Methoden verringern, außer bei denen mit Pivotstrategien, da diese die Bandstruktur im Allgemeinen zerstören. Exemplarisch soll das Vorgehen für Bandmatrizen am Beispiel der direkten LR-Zerlegung demonstriert werden. Wenn eine LR-Zerlegung für in (3.35) möglich ist (und ist), so ist diese im Fall, dass man die Diagonaleinträge von als 1 wählt, eindeutig und von der Gestalt

(siehe z. B. Satz 2.29 bei Kanzow). Komponentenschreibweise geschrieben heißt dies

was bei einer Parkettierung wie in (3.28) auf den folgenden Algorithmus zur Bestimmung der LR-Zerlegung der Bandmatrix führt:

Algorithmus 4 (LR-Zerlegung für Bandmatrizen)

(0) Gib eine Matrix mit

für gegebene und setze .

(1) Für berechne und

(2) Für berechne und

(3) Falls , stop!

(4) Setze und gehe nach (1).

Ist eine Tridiagonalmatrix und schreibt man

(3.36)

so vereinfacht sich Algorithmus 4 zu

Algorithmus 4* (LR-Zerlegung Tridiagonalmatrizen)

(0) Gib eine Tridiagonalmatrix und schreibe und wie in (3.36). Setze

und .

(1) Berechne

(2) Falls , berechne

und stoppe!

(3) Setze und gehe nach (1).

Man kann zeigen, dass im Fall einer Tridiagonalmatrix eine LR-Zerlegung wie in (3.36) möglich ist, wenn gilt (Lemma 2.28 bei Kanzow):

Diese Bedingungen besagen offenbar, dass man für die erste Zeile strikte und für die anderen Zeilen nur normale Diagonaldominanz fordern muss. Die Forderung macht Sinn, da im anderen Fall eine LR-Zerlegung mit und existiert und folglich nicht berechnet werden muss. Für die LR-Zerlegung einer Tridiagonalmatrix sind offenbar nur

wesentliche Rechenoperationen erforderlich.

3.4 Orthogonalisierungsverfahren

In diesem Abschnitt soll für eine gegebene Matrix mit eine Zerlegung der Form

(3.37)

bestimmt werden, wobei eine orthogonale Matrix, d. h. eine reguläre Matrix mit

(3.38)

ist und mit einer oberen Dreiecksmatrix wie folgt gebildet wird:

(3.39)

Im Fall ist demnach insbesondere . Wie wir zeigen wollen, ermöglicht eine solche QR- bzw. QS-Zerlegung von sowohl die stabile Lösung linearer Gleichungssysteme als auch die stabile Lösung von Ausgleichsproblemen

Dafür benötigen wir einige Eigenschaften orthogonaler Matrizen.

3.4.1 Elementare Eigenschaften orthogonaler Matrizen

Lemma 3.23

Sei eine orthogonale Matrix. Dann ist auch eine orthogonale Matrix und es gilt
(3.40)

Beweis.

Wegen

ist auch eine orthogonale Matrix. Des Weiteren hat man für

und somit auch für die orthogonale Matrix .

q.e.d.

Die Beziehungen (3.40) besagen, dass die durch und definierten linearen Abbildungen isometrisch bezüglich der Euklidischen Norm sind.

Lemma 3.24

Es gilt:
(i) ,
(ii) .

Beweis.

Lemma 3.23, angewandt auf und , impliziert Aussage (i) wegen

Aussage (ii) folgt aus

q.e.d.

Korollar 3.25

Seien eine reguläre und eine orthogonale Matrix. Dann gilt

Beweis.

Nach Lemma 3.23 gilt für und somit

Weiter gilt mit Lemma 3.24 (i)

und folglich . Damit ergibt sich

q.e.d.

Multiplikation einer quadratischen Matrix von links mit einer orthogonalen Matrix führt also auf eine Matrix mit derselben Kondition wie . Weiter gilt:

Lemma 3.26

Seien orthogonale Matrizen. Dann ist auch eine orthogonale Matrix.

Beweis.

Die Aussage des Lemma folgt aus

q.e.d.

3.4.2 Lösung linearer Gleichungssysteme mittels QR-Zerlegung

Wir betrachten nun wieder die Lösung eines linearen Gleichungssystems für eine reguläre Matrix und beliebige rechte Seite und gehen davon aus, dass eine Zerlegung der Form von mit einer orthogonalen Matrix und einer oberen Dreiecksmatrix gegeben ist (vgl. (3.37) - (3.39)). Wegen Lemma 3.24 gilt offenbar

Weiter hat man die Äquivalenzen

und mit Korollar 3.25 die Beziehungen

D. h., das Gleichungssystem ist äquivalent zu dem gestaffelten Gleichungssystem , wobei die Matrix bezüglich der Spektralnorm keine schlechtere Kondition als aufweist und gemäß 3.40 gilt.

3.4.3 QR-Zerlegung mittels Gram-Schmidt-Orthogonalisierung

Es sei nun eine quadratische Matrix mit und es seien eine orthogonale Matrix und eine obere Dreiecksmatrix gesucht, so dass

(3.41)

gilt. Schreiben wir und mit Vektoren in der Form

so ist die Gleichung (3.41) offenbar äquivalent mit den Gleichungen

(3.42)

wobei für berücksichtigt wurde. Dabei sind die linear unabhängig und die wegen der Orthogonalität von paarweise orthonormal und damit auch linear unabhängig. Die Gleichungen (3.42) implizieren somit für

(3.43)

Folglich suchen wir eine orthogonale Basis des , für welche die Gleichungen (3.42) erfüllt sind. Wir wollen im Folgenden zeigen, dass man eine solche durch Orthogonalisierung der mittels des aus der Linearen Algebra bekannten Gram-Schmidt-Orthonormierungsverfahrens erhält.

Sind die gegebenen Spalten von , welche nach Voraussetzung eines Basis des bilden, so lautet für diese das Gram-Schmidt-Orthonormierungsverfahren, wobei wir die durch das Verfahren erzeugten Vektoren gleich mit bezeichnen:

(3.44)

Bekanntlich gilt für die so erzeugten Vektoren die Identität (3.43) und sind diese paarweise orthonormal.

Aus den Gleichungen (3.44) leitet man unmittelbar die folgenden Gleichungen her:

Wie ein Vergleich mit den Gleichungen (3.42) zeigt, erhält man demnach die gewünschte QR-Faktorisierung von für die Matrix mit den durch das Gram-Schmidt-Verfahren erzeugten Vektoren und die obere Dreiecksmatrix , welche folgende Elemente hat:

Der hier beschriebene Orthogonalisierungsprozess ist aber unter Umständen nicht gutartig, etwa für und damit (s. Beispiel 3.4 in Band 1 von Quarteroni/Sacco/Saleri und S. 177 bei Stoer). Mit wachsendem kann die Orthogonalität immer stärker verloren gehen. Deshalb werden zumeist andere Methoden, wie die im folgenden Abschnitt dargestellte, zur QR-Faktorisierung von herangezogen.

3.4.4 QS-Zerlegung mittels Householder-Transformationen

Sei nun allgemeiner mit gegeben. Gegenstand dieses Abschnitts ist die Bestimmung einer Zerlegung der Form mit einer orthogonalen Matrix und einer im Fall nichtquadratischen Matrix wie in (3.39) mittels sog. Householder-Transformationen. In diesem Zusammenhang zeigen wir zunächst:

Lemma 3.27

Es sei ein Vektor mit und die Matrix
(3.45)
Dann gilt
(3.46) ( ist symmetrisch),
(3.47) ( ist involutorisch),
(3.48) ( ist orthogonal).

Beweis.

Die Beziehungen (3.46) und (3.47) ergeben sich aus

Die Identität (3.48) folgt aus (3.46) und (3.47).

q.e.d.

Eine Matrix vom Typ (3.45) für ein mit nennen wir Householder-Matrix und eine lineare Abbildung

mit einer Householder-Matrix bezeichnen wir als Householder-Transformation.

Householder-Matrizen kann man dazu verwenden, einen Block von Komponenten eines gegebenen Vektors (durch Multiplikation mit einer solchen Matrix von links) zu Null zu setzen. Will man insbesondere alle Komponenten von außer der -ten Komponente Null setzen, so muss man den Vektor zur Konstruktion von so wählen, wie er im folgenden Lemma angegeben wird. Dabei ist wieder mit die -te Spalte von gemeint.

Lemma 3.28

Gegeben sei mit . Weiter sei
(3.49)
mit
(3.50)
Dann hat man und für
(3.51)

Beweis.

Wegen ist der Nenner in (3.49) ungleich Null und damit in (3.49) wohldefiniert. Offenbar ist . Ferner gilt

und damit

Zusammen mit (3.49) gelangt man zu der Darstellung

Bemerkung 3.29

Zur Vermeidung von Stellenauslöschungen bei der Berechnung von (3.50) ist es offenbar sinnvoll, zu wählen, wobei die -te Komponente von bezeichnet.

Wir geben ein Beispiel.

Beispiel 3.30

Sei und . Dann errechnen wir und setzen wir somit sowie

Es ergibt sich

und demnach


Will man für ein die Komponenten von unverändert lassen und gleichzeitig erreichen, bekommt man dies, indem man von links mit der Transformationsmatrix

multipliziert. Dabei ist die -Einheitsmatrix und die -Householder-Matrix der Form

welche mit dem aus den letzten Komponenten von bestehenden Vektor und der ersten Spalte der Einheitsmatrix gebildet wird. Denn ist der aus den ersten Komponenten von bestehende Vektor, so hat man nach Lemma 3.28

Nun ist klar, wie man eine Matrix in die Form mit einer orthogonalen Matrix und eine Matrix der Gestalt (3.39) zerlegen kann. Ausgehend von werden sukzessive Matrizen der Form

(3.52)

bestimmt, so dass dann schließlich die gewünschte Gestalt hat. Die Matrizen in (3.52) werden dabei sukzessive durch Transformationen der Form

(3.53)

mit Householder-Matrizen

erzeugt, wobei mit

so zu wählen ist, dass mit einem

gilt. Im Fall erreicht man dies gemäß Lemma 3.28 mit

Im selteneren Fall kann man offenbar bzw. in (3.53) wählen. Nach Lemma 3.27 sind dann die Matrizen und damit die Matrizen orthogonal und symmetrisch, so dass man wegen

mit

wegen (3.47) die gewünschte Zerlegung erhält. Gemäß Lemma 3.26 ist tatsächlich eine orthogonale Matrix.

Man beachte, dass man für die Lösung des Gleichungssystems mit (sowie für die des Ausgleichsproblems in Abschnitt 4.3) gar nicht benötigt, sondern nur den Vektor . Wegen ist dabei

so dass man mit wie mit verfahren kann:

Man beachte, dass mit

gemäß (3.52) und (3.53)

gilt, also wie beim Gauß-Algorithmus nur die verbleibende Restmatrix in und analog der verbleibende Anteil der rechten Seite zu transformieren ist. Weiter sei gesagt, dass Householder-Transformationsmatrizen niemals explizit durch Matrixmultiplikation gebildet werden sollten. Denn eine Matrixmultiplikation mit und kostet Multiplikationen. Die benötigten Matrixmultiplikationen für berechne man daher wie folgt:

(3.54)

Zunächst ermittele man also den Vektor und dann "aufdatiere" man die Matrix . Für ein solches Vorgehen benötigt man nur Multiplikationen.

Bemerkung 3.31

Will man die Vektoren aufbewahren, weil man z. B. ein Gleichungssystem mit derselben Matrix und verschiedenen rechten Seiten zu lösen hat, so kann man für jedes das Diagonalelement zunächst gesondert speichern und anschließend den Vektor in der -ten Spalte der Matrix eintragen (s. Beispiel 3.32). Auf diese Weise spart man Speicherplatz, was bei sehr großen Matrizen relevant ist.

Beispiel 3.32

Man berechne eine QS-Zerlegung von und für

Wir setzen und und bekommen zunächst

Damit folgt

Für benötigt man nun die Produkte und , die man analog zu (3.54) berechnet. Es ist

und demnach

Demzufolge ergibt sich

Wollte man den Vektor aufbewahren, um damit zu einem späteren Zeitpunkt die Zerlegung von wieder erzeugen zu können, so legt man einen Arbeitsvektor an, setzt man und trägt man in die erste Spalte von ein, so dass sich ergibt:

In der Praxis kann man und auch wieder nennen, da man selbst nicht mehr benötigt.

Nun verfährt man analog mit der Restmatrix bzw. dem Restvektor

Man bekommt

Damit ergibt sich nun

Will man die wiederverwenden, so bilde man mit und dem oben definierten

Aus und könnte man in offensichtlicher Weise gewinnen.


Man kann sich überlegen, dass eine QS-Zerlegung von mittels Householder-Transformationen etwa

Multiplikationen benötigt, also

(3.55) für und für

und damit bei quadratischen Matrizen etwa doppelt so viele wesentliche Rechenoperationen wie der Gauß-Algorithmus. Neben dem Einsatz für die bereits besprochene stabile Lösung von linearen Gleichungssystemen werden wir im nächsten Abschnitt eine weitere wichtige Anwendung einer solchen QS-Zerlegung geben.

This article is issued from Wikiversity. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.