From 51e9d43716398dcf0fd1185e14d02cad4de7be87 Mon Sep 17 00:00:00 2001 From: Adrian Kummerlaender Date: Tue, 14 Feb 2017 18:17:23 +0100 Subject: Add Makefile --- content/lineare_algebra.tex | 706 ++++++++++++++++++++++++++++++++++++++++++++ 1 file changed, 706 insertions(+) create mode 100644 content/lineare_algebra.tex (limited to 'content/lineare_algebra.tex') diff --git a/content/lineare_algebra.tex b/content/lineare_algebra.tex new file mode 100644 index 0000000..a92a3a8 --- /dev/null +++ b/content/lineare_algebra.tex @@ -0,0 +1,706 @@ +\section*{Relationen} + +Sei $R := A \times B$ eine Relation. + +\subsection*{Linkstotal} + +$\forall a \in A \exists b \in B : (a,b) \in R$ + +\subsection*{Rechtstotal / Surjektiv} + +$\forall b \in B \exists a \in A : (a,b) \in R \text{ bzw. } f(a)=b$ + +\subsection*{Linkseindeutig / Injektiv} + +$\forall a_1, a_2 \in A \forall b \in B :$ \newline +\hspace*{5mm} $(a_1,b) \in R \land (a_2,b) \in R \implies a_1=a_2$ + +\subsection*{Rechtseindeutig} + +$\forall a \in A \forall b_1, b_2 \in B:$ \newline +\hspace*{5mm} $(a,b_1) \in R \land (a,b_2) \in R \implies b_1=b_2$ + +\subsection*{Eigenschaften von Relationen} + +\begin{description}[leftmargin=!,labelwidth=25mm] + \item[reflexiv] $\forall x \in M : (x, x) \in R$ + \item[symmetrisch] $\forall x, y \in M : xRy \Leftrightarrow yRx$ + \item[antisymmetrisch] $\forall x, y \in M : xRy \land yRx \Rightarrow x=y$ + \item[transitiv] $\forall x, y, z \in M : xRy \land yRz \Rightarrow xRz$ +\end{description} + +\subsection*{Äquivalenzrelationen} + +Eine Relation $R$ auf Menge $M$ ist Äquivalenzrelation, wenn sie reflexiv, symmetrisch und transitiv ist. + +\section*{Gruppen} + +$\star : M \times M \rightarrow M$ ist Verknüpfung auf Menge $M$ abhängig der Argument-Reihenfolge. Das Tupel $(M, \star)$ ist Gruppe, wenn: + +\begin{enumerate}[label=(\alph*)] + \item $\star$ ist assoziativ + \item $\exists e \in M \forall x \in M : x \star e = e \star x = x$ + \item $\forall x \in M \exists y \in M : x \star y = y \star x = e$ +\end{enumerate} + +Ist $\star$ kommutativ, dann $(M, \star)$ abelsche Gruppe. + +\subsection*{Assoziativität} + +$\forall m_1, m_2, m_3 \in M : (m_1 \star m_2) \star m_3 = m_1 \star (m_2 \star m_3)$ + +\subsection*{Kommutativität} + +$\forall m_1, m_2 \in M : m_1 \star m_2 = m_2 \star m_1$ + +\subsection*{Untergruppen} + +$(M, \star)$ ist Gruppe. $(H, \circ)$ ist Untergruppe, wenn: + +\begin{enumerate}[label=(\alph*)] + \item $H \subseteq M$ + \item $(H, \circ)$ ist Gruppe + \item $\forall h_1, h_2 \in H : h_1 \circ h_2 = h_1 \star h_2$ +\end{enumerate} + +\subsubsection*{Untergruppenkriterium} + +$H \subseteq G$ ist Untergruppe von $G$ wenn: + +$H \neq \emptyset \land \forall h_1, h_2 \in H : h_1 \star h_2^{-1} \in H$ + +\subsection*{Gruppenhomomorphismen} + +Seien $(G, \star)$ und $(H, \circ)$ Gruppen. $f: G \rightarrow H$ ist Gruppenhomomorphismus wenn: + +$\forall g_1, g_2 \in G: f(g_1 \star g_2) = f(g_1) \circ f(g_2)$ + +\subsubsection*{Eigenschaften von Homomorphismen} + +\begin{enumerate}[label=(\alph*)] + \item $f(e_G) = e_H$ + \item $\forall g \in G : f(g^{-1}) = f(g)^{-1}$ + \item $f(G)$ ist Untergruppe von $H$ + \item $f \in Hom(G, H)$ ist genau dann injektiv, wenn $Kern(f) = \{e_G\}$ +\end{enumerate} + +\subsection*{Weitere Homomorphismen} + +\begin{enumerate}[label=(\alph*)] + \item $f : G \rightarrow G$ ist Endomorphismus + \item Bijektives $f: G \rightarrow H$ ist Isomorphismus + \item Bijektives $f \in End(V)$ ist Automorphismus +\end{enumerate} + +\section*{Ringe} + +$(R, +, *)$ ist Ring, wenn: + +\begin{enumerate}[label=(\alph*)] + \item $(R, +)$ ist abelsche Gruppe + \item $*$ ist assoziativ + \item $\forall x \in R : 1_R * x = x * 1_R = x$ + \item $x*(y+z) = (x*y)+(x*z)$ + \item $(y+z)*x = (y*x)+(z*x)$ +\end{enumerate} + +Ist $*$ kommutativ, $(R, +, *)$ ein kommutativer Ring. + +\subsection*{Teilringe} + +Unter $+$ und $*$ geschlossene Teilmenge $T \subseteq R$ ist Teilring von $R$. + +\subsection*{Ringhomomorphismen} + +$\phi : R \rightarrow S$ ist Ringhomomorphismus, wenn: + +\begin{enumerate}[label=(\alph*)] + \item $\forall x, y \in R : \phi(x +_R y) = \phi(x) +_S \phi(y)$ + \item $\forall x, y \in R : \phi(x *_R y) = \phi(x) *_S \phi(y)$ + \item $\phi(1_R) = 1_S$ +\end{enumerate} + +\section*{Körper} + +Ein Körper ist kommutativer Ring $K$ mit $0_K \neq 1_K$ und für den jedes $x \neq 0_K$ invertierbar ist. + +\section*{Matrizen} + +\subsection*{Invertierbare Matrizen} + +Für einen kommutativen Ring $R$ ist die "general linear Group": + +$GL_p(R) := \{ A \in R^{p \times p} | \exists B \in R^{p \times p} : AB = BA = I_p \}$ + +$A \in GL_p(R)$ sind invert. / reguläre Matrizen. + +\subsection*{Elementarmatrizen} + +$$R^{2 \times 3} \ni E_{2,3} = \begin{pmatrix} + 0 & 0 & 0 & 0 \\ + 0 & 0 & 1 & 0 +\end{pmatrix}$$ + +\subsection*{Äquivalenz von Matrizen} + +$\exists S \in GL_q(K), T \in GL_p(K) : B = T A S$ ($A, B \in K^{p \times q}$) + +\subsection*{Ähnlichkeit von Matrizen} + +$A, \tilde A \in K^{d \times d}$ ähnlich $\Leftrightarrow \exists S \in GL_d(K) : \tilde A = S^{-1}AS$ + +Ähnliche Matrizen haben die gleiche Determinante, Spur und Rang. + +\subsection*{Determinante} + +\begin{enumerate}[label=(\alph*)] + \item $det(A) \neq 0 \Leftrightarrow A \text{ ist invertierbar}$ + \item $det(A*B) = det(A) * det(B)$ + \item $det(A)^{-1} = det(A)^{-1}$ falls $A \in GL_n(K)$ + \item $det(A) = det(A^T)$ +\end{enumerate} + +\section*{Vektorräume} + +Ein $K$-Vektorraum ist kommutative Gruppe $(V, +)$ mit skalarer Multiplikation $* : K \times V \rightarrow V, (a, v) \mapsto a * v$ sowie: + +\begin{enumerate}[label=(\alph*)] + \item $\forall v \in V : 1_K * v = v$ + \item $\forall a, b \in K \forall v \in V : a*(b*v)=(a*b)*v$ + \item $\forall a, b \in K \forall u, v \in V : a*(u+v)=a*u+a*v$ + \item $\forall a, b \in K \forall u, v \in V : (a+b)*v=a*v+b*v$ +\end{enumerate} + +\subsection*{Untervektorräume} + +$K$-Untervektorraum $U$ von $V$ ist Teilmenge $U \subseteq V$ die bzgl. Addition Untergruppe von $V$ ist und für die gilt: $\forall a \in K, u \in U : a*u \in U$ (d.h. skalare Multiplikation geschlossen) + +\subsubsection*{Untervektorraumkriterium} + +Seien $K$ Körper, $V$ $K$-Vektorraum und $U \subseteq V$. Dann ist äquivalent: + +\begin{enumerate}[label=(\alph*)] + \item $U$ ist Untervektorraum von $V$ + \item $U \neq \emptyset$, $\forall u_1, u_2 \in U : u_1 + u_2 \in U$ und $\forall a \in K, u \in U : a*u \in U$ +\end{enumerate} + +\subsubsection*{$\phi$-invariante Unterräume} + +$U \subset V$ ist $\phi$-invariant, wenn $\phi(U) \subset U$. + +\subsubsection*{Summe} + +$U_1 + U_2 = \{u_1+u_2 | u_1 \in U_1, u_2 \in U_2 \}$ ist Summe von $U_1$ und $U_2$, kleinster UVR der $U_1 \cup U_2$ enthält. + +$dim(U_1 + U_2) = dim(U_1) + dim(U_2) - dim(U_1 \cap U_2)$ + +\subsubsection*{Direkte Summe} + +$U_1 + U_2$ ist direkte Summe, wenn $U_1 \cap U_2 = {0}$. + +d.h. gdw. der Schnitt eines UVR mit der Summe aller anderen UVR nur den Nullvektor enthält. + +$dim(U_1 \oplus U_2)=dim(U_1)+dim(U_2)$ + +\subsection*{Homomorphismen} + +Seien $V, W$ zwei $K$-Vektorräume. $\phi : V \rightarrow W$ ist Vektorraumhomomorphismus respektive $K$-lineare Abbildung, wenn: + +\begin{enumerate}[label=(\alph*)] + \item $\forall u, v \in V : \phi(u+v) = \phi(u)+\phi(v)$ + \item $\forall a \in K, v \in V : \phi(a*v) = a*\phi(v)$ +\end{enumerate} + +$Rang(\phi) := dim(Bild(\phi))$ mit $\phi \in Hom(V, W)$ + +\subsection*{Basen} + +Teilmenge $B \subseteq V$ ist Basis von $V$, wenn sich $\forall v \in V$ auf genau eine Art als Linearkombination von $B$ schreiben lässt. Jede Basis von $K^p$ hat genau $p$ Elemente. + +\subsubsection*{Lineare Unabhängigkeit} + +$\sum_{i=1}^{k} \lambda_i * v_i = 0 \Rightarrow \forall i \in \{1, \cdots, k\} : \lambda_i = 0$ + +\subsubsection*{Dimension} + +Ist Mächtigkeit der Basis, $dim(V) := |B|$ + +$U$ Untervektorraum $V$, dann: $dim(U) \leq dim(V)$ + +$dim(V) = dim(Kern(\phi)) + dim(Bild(\phi))$ + +\subsubsection*{Abbildungsmatrizen} + +$D_C(\phi(v)) = D_{CB}(\phi) * D_B(v)$ + +\subsubsection*{Basiswechselformel} + +Seien $V, W$ $K$-Vektorräume; $\phi \in Hom(V, W)$; $B, \tilde B$ Basen von $V$; $C, \tilde C$ Basen von W. Dann gilt: + +$D_{\tilde C \tilde B}(\phi) = D_{\tilde C C}(I_W) * D_{CB}(\phi) * D_{B\tilde B}(I_V)$ + +\subsection*{Dualräume} + +Sei $V$ ein $K$-Vektorraum. Die Menge aller linearen Abbildungen $V \rightarrow K$ ist der Dualraum: $V^* := \{f: V \rightarrow K | f \text{ ist linear}\}$. + +$f \in V^*$ werden als Linearformen bezeichnet. + +\subsubsection*{Duale Basis} + +Sei $B = \{b_1, \cdots, b_n\}$ Basis von $V$, dann ist $B^* = \{b_1^*, \cdots, b_n^*\}$ Basis des Dualraums $V^*$, also die zu $B$ von $V$ duale Basis. + +Die für $b_i$ eindeutige Abb. $b_i^* : V \rightarrow \K$ erfüllt $b_i^*(b_i) = 1$ und $b_i^*(b_j) = 0$ für $j\neq i$. + +\subsection*{Faktor- / Quotientenräume} + +$v_1 \thicksim v_2 \Leftrightarrow v_1 - v_2 \in U$ für $v_1, v_2 \in V$ definiert Äquivalenzrelation auf $K$-Vektorraum $V$. + +$v_1$ und $v_2$ sind Elemente einer Äquivalenzklasse gdw. sie sich um ein $u \in U$ unterscheiden. + +$V/U := \{[v] | v \in V\}$ mit $[v] := v+U := \{v+u|u \in U\}$ + +$dim(V/U) = dim(V) - dim(U)$ + +\section*{Eigenwerte} + +$A*v = \lambda * v$ wobei $\lambda \in Spec(A)$ und $v \in Eig_\lambda(A)$ + +\subsection*{Eigenräume} + +$Eig_\lambda(A) := \{v \in K^n : A*v = \lambda * v\} = Kern(A-\lambda I_n)$ + +\subsection*{Charakteristisches Polynom} + +$CP_A(x) = det(x*I_n - A)$ + +\subsection*{Minimalpolynom} + +$MP_\phi(x)$ ist Teiler kleinsten Grades von $CP_\phi(x)$ welcher jeden Linearfaktor beinhaltet und für den noch $MP_\phi(\phi) = 0$ gilt. + +\subsection*{Vielfachheit} + +$\mu_g(\phi, \lambda) := dim(Eig_\lambda(\phi))$ ist die geometrische Vielfachheit von $\lambda$. + +$\mu_a(\phi, \lambda)$ ist algebraische Vielfachheit von $\lambda$, also die Vielfachheit des Linearfaktors $(x-\lambda)$ von $CP_\phi$. + +\subsection*{Diagonalisierbarkeit} + +$\phi \in End(V)$ ist diagonalisierbar, wenn eines aus: + +\begin{enumerate}[label=(\alph*)] + \item $\exists$ Basis $B$ von $V$ aus Eigenvektoren von $\phi$ + \item $MP_\phi(X)$ zerfällt vollst. in Linearfaktoren + \item $CP_\phi(X)$ zerfällt vollst. in Linearfaktoren und $\forall \lambda \in Spec(\phi) : \mu_g(\phi,\lambda) = \mu_a(\phi, \lambda)$ +\end{enumerate} + +\subsubsection*{Diagonalisierungsverfahren} + +Eigenwerte und Eigenräume von $\phi$ bestimmen. Eigenwerte in $D_{CC}(\phi) = diag(\lambda_1, \hdots, \lambda_n)$ eintragen. $D_{CC}(\phi)$ ist Abbildungsmatrix von $\phi$ bzgl. Basis $C$ aus Eigenvektoren. $D_{BC}(Id)$ besteht aus Eigenvektoren in Spalten, $D_{CB}(Id) = D_{BC}(Id)^{-1}$. + +Insgesamt: $D_{CC}(\phi) = D_{BC}(Id)^{-1} D_{BB}(\phi) D_{BC}(Id)$. + +\section*{Haupträume} + +$H(\phi, \lambda) = Kern((\phi - \lambda * I_n)^e)$ mit $e := \mu_a(\phi, \lambda)$. + +Weiterhin gilt $dim(H(\phi, \lambda))=e$. + +\section*{Bilinearformen} + +\subsection*{Paarung, Bilinearform} + +$P : V \times W \rightarrow K$ ist Paarung von $V$ und $W$, wenn: + +\begin{enumerate}[label=(\alph*)] + \item $P(av_1 + v_2, w_1) = aP(v_1, w_1) + P(v_2, w_1)$ + \item $P(v_1, bw_1 + w_2) = bP(v_1, w_1) + P(v_1, w_2)$ +\end{enumerate} + +für $\forall a, b \in K$; $v_1, v_2 \in V$; $w_1, w_2 \in W$. Diese Eigenschaft wird als Bilinearität von $P$ bezeichnet. + +Falls $V=W$ heißt $P$ Bilinearform auf $V$. + +\subsubsection*{Ausartung} + +Paarung $P$ heißt nicht ausgeartet, wenn: + +\hspace*{2mm} +$\forall v \in V, v \neq 0 \exists w \in W : P(v, w) \neq 0$ + +$\land$ $\forall w \in W, w \neq 0 \exists v \in V : P(v, w) \neq 0$ + +\subsection*{Orthogonalbasis} + +Basis $B := \{b_1, ..., b_n\}$ ist Orthogonalbasis von $V$ bzgl. $P$, wenn: $\forall 1 \leq i \neq j \leq n : P(b_i, b_j) = 0$ + +\subsection*{Orthonormalbasis} + +Orthogonalbasis $B$ ist Orthonormalbasis von $V$ bzgl. $P$, wenn: $\forall 1 \leq i \leq n : P(b_i, b_i) = 1$ + +\section*{Jordansche Normalform $\tilde A = T^{-1} A T$} + +\subsection*{Darstellungsmatrix $\tilde A$ bzgl. Jordanbasis} + +\begin{enumerate}[leftmargin=4mm] + \item Eigenwerte aus char. Polynom bestimmen + \item Länge des Blocks zu Eigenwert ist $\mu_a(\lambda)$ + \item Anzahl Kästchen pro Block ist $\mu_g(\lambda)$ + \item Kleinstes $p$ mit $Kern((A-\lambda I)^p) = Kern((A-\lambda I)^{p+1})$ ist Länge des größten Kästchens zu $\lambda$ + \item Kästchen der Größe nach sortieren, Eigenwerte auf Hauptdiagonale + \item Anzahl der Jordankästchen mit Größe $s$ ergibt sich aus $2a_s - a_{s-1} - a_{s+1}$ mit $a_s = dim(Kern((A-\lambda I)^s))$ +\end{enumerate} + +\subsection*{Bestimmung Basiswechselmatrix $T$} + +Reichen die Eigenvektoren nicht aus, können Hauptvektoren hinzugezogen werden. Dazu wähle Hauptvektor $v_1$ $p$-ter Stufe wobei $p$ Länge des größten Kästchens zu $\lambda$ ist. $v_1$ kann direkt verwendet werden, weitere Vektoren ergeben sich als $v_{i+1} = (A-\lambda I)*v_i$. + +\section*{Skalarprodukte} + +\subsection*{Standardskalarprodukt auf $\R^n$} + +$\langle \cdot, \cdot \rangle : \R^n \times \R^n \rightarrow \R, \langle v, w \rangle := v^T * w$ + +\subsection*{Positive Definitheit} + +Eine symmetrische Bilinearform $\langle \cdot, \cdot \rangle : V \times V \rightarrow \R$ ist positiv definit, wenn: + +$\forall v \in V: v \neq 0 \Rightarrow \langle v, v \rangle > 0$ + +\subsection*{Skalarprodukt auf $V$} + +Ein Skalarprodukt auf $V$ ist symmetrische, positiv definite Bilinearform. Ein reeller Vektorraum mit Skalarprodukt ist euklidischer Vektorraum. + +\begin{description}[leftmargin=!,labelwidth=10mm] + \item[Norm] $||v|| := \sqrt{\langle v, v \rangle}$ + \item[Metrik] $d(v, w) := ||v - w||$ +\end{description} + +\subsection*{Komplexes Skalarprodukt} + +$\langle \cdot, \cdot \rangle : V \times V \rightarrow \mathbb{C}$ ist komplexes SKP, wenn: + +\begin{enumerate}[label=(\alph*)] + \item $\forall v_1, v_2, w \in V, a \in \mathbb{C} : \text{(linear)} \\ \hspace*{4mm} \langle av_1 + v_2, w \rangle = a \langle v_1, w \rangle + \langle v_2, w \rangle$ + \item $\forall v_1, v_2, w \in V, a \in \mathbb{C} : \text{(semilinear)} \\ \hspace*{4mm} \langle w, av_1 + v_2 \rangle = \overline a \langle w, v_1 \rangle + \langle w, v_2 \rangle$ + \item $\forall v, w \in V : \langle v, w \rangle = \overline{\langle w, v \rangle} \text{ (hermitesch)}$ + \item $\forall v \in V \setminus \{0\} : \langle v, v \rangle > 0$ +\end{enumerate} + +Wobei (a) und (b) Sesquilinearität, (c) Hermitizität und (d) Positivität. Ein komplexer Vektorraum mit komplexem SKP ist unitärer Vektorraum. + +\subsubsection*{Standardskalarprodukt auf $\mathbb{C}^n$} + +$\mathbb{C}^n \times \mathbb{C}^n \ni (v, w) \mapsto \langle v, w \rangle := v^T * \overline w = \sum_{i=1}^n v_i * \overline{w_i}$ + +\subsection*{Fundamentalmatrix} + +Seien $B$ und $C$ Basen von $V$ und $\langle \cdot, \cdot \rangle$ SKP. + +\vspace*{-3mm} +$$D_{BC}(\langle \cdot, \cdot \rangle) = \begin{pmatrix} + \langle b_1, c_1 \rangle & \hdots & \langle b_1, c_n \rangle \\ + \vdots & \ddots & \vdots \\ + \langle b_n, c_1 \rangle & \hdots & \langle b_n, c_n \rangle +\end{pmatrix}$$ + +\subsubsection*{Hurwitz-Kriterium} + +Eine symmetrische bzw. hermitesche Matrix $A$ ist positiv definit gdw. die Determinanten aller führenden Hauptminoren positiv sind. Führende Hauptminoren sind in der oberen linken Ecke beginnende quadr. Teilmatr. von $A$ inkl. $A$ selbst. + +\subsection*{Ungleichung von Cauchy-Schwarz} + +$\langle v, w \rangle ^2 \leq \langle v, v \rangle * \langle w, w \rangle$ (in $\R$) + +$|\langle v, w \rangle |^2 \leq \langle v, v \rangle * \langle w, w \rangle$ (in $\mathbb{C}$) + +\subsection*{Satz des Pythagoras} + +$||v+w||^2 = \langle v, v \rangle + 2\langle v, w \rangle + \langle w, w \rangle$ + +\subsubsection*{Orthogonalität} + +$v \perp w \Leftrightarrow ||v||^2 + ||w||^2 = ||v+w||^2$ + +\subsection*{Orthogonalisierung mit Gram-Schmidt} + +Sei $V$ euklidischer Vektorraum und $\{v_1, ..., v_k\} \subset V$ linear unabhängige Teilmenge mit $k$ Elementen. + +\vspace*{-4mm} +$$w_1 := v_1, w_l := v_l - \sum_{i=1}^{l-1} \frac{\langle v_l, w_i \rangle}{\langle w_i, w_i\rangle}*w_i \text{ (für } l = 2, ..., k)$$ + +Dann ist $S := \{w_1, ..., w_k\}$ Orthogonalsystem in $V$. + +$\tilde S := \{\frac{1}{||w_1||}*w_1, ..., \frac{1}{||w_k||}*w_k$ ist Orthonormalsystem. + +Im unitären Standardraum $\mathbb{C}^n$ ist Basis $B = \{b_1, ..., b_n\}$ ONB gdw. für Matrix $A$ mit Basisvektoren als Spalten $A^T*\overline A = I_n$ gilt. + +\subsubsection*{Fourierformel} + +Sei $B$ ONB von $V$ und $\langle \cdot, \cdot \rangle$ Paarung, dann: + +$v \in V \Rightarrow v = \sum_{b\in B} \langle v, b \rangle \cdot b$ + +Insbesondere ist $v$ bzgl. ONB $B$ dann: + +$D_B(v) = (\langle v, b_i\rangle)_{1\leq i \leq n}$ + +\subsubsection*{Orthogonalräume} + +Sei $V$ euklidischer Vektorraum und $M \subseteq V$. + +\vspace*{-2mm} +\begin{equation*} + \begin{aligned} + M^{\perp} :&= \{v \in V | \forall m \in M : m \perp v \} \\ + &= \{v \in V | \forall m \in M : \langle v, m \rangle = 0\} + \end{aligned} +\end{equation*} + +$M^{\perp}$ ist Untervektorraum von $V$. Auch gilt: + +\begin{enumerate}[label=(\alph*)] + \item $N \subseteq M \Rightarrow M^{\perp} \subseteq N^{\perp}$ + \item $M^{\perp} = \langle M \rangle ^{\perp}$ +\end{enumerate} + +\subsubsection*{Orthogonales Komplement} + +Sei $U$ Untervektorraum von euklidischem Raum $V$, dann $U^\perp$ orthogonales Komplement zu $U$. + +Entsprechend gilt: $V = U \oplus U^\perp$ + +\subsubsection*{Orthogonale Projektionen} + +\begin{description}[leftmargin=!,labelwidth=20mm] + \item[Definition] $\Pi_U : V \rightarrow U, u + u^\perp \mapsto u$ + \item[Bestimmung] $\Pi_U(a) = \sum_{i=1}^n \langle a,u_i \rangle u_i$ + \item[Abstand] $d(a, U) = ||u^\perp|| = ||a - \Pi_U(a)||$ +\end{description} + +\subsubsection*{Orthogonale Matrizen} + +$A$ heißt orthogonal, wenn $A^TA=I$ gilt. + +$A$ ist orthogonale Matrix $\Rightarrow det(A)=\pm 1$ + +$\forall \lambda \in Spec(A) : \lambda=\pm 1$ + +Orthogonale Matrizen sind normal. + +\subsubsection*{Unitäre Matrizen} + +$A$ heißt unitär, wenn $\overline{A^T}A = I$ gilt. + +$A$ ist unitäre Matrix $\Rightarrow |det(A)|=1$ + +$\forall \lambda \in Spec(A) : |\lambda| = 1$ + +Unitäre Matrizen sind normal. + +\subsection*{Iwasawa- / QR-Zerlegung} + +Zerlegung von $A \in GL_n(\K)$ in das Produkt aus einer orthogonalen bzw. unitären Matrix und einer oberen Dreiecksmatrix. $A = Q \cdot R$. + +\vspace*{-5mm} +$$A = \begin{pmatrix} +\vdots & \vdots & \vdots \\ +q_1 & \hspace{-3mm}\hdots\hspace{-3mm} & q_n \\ +\vdots & \vdots & \vdots +\end{pmatrix} +\begin{pmatrix} +||\tilde q_1|| & \langle q_1, a_2 \rangle & \hdots & \langle q_1, a_n \rangle \\ +0 & \ddots & \ddots & \vdots \\ +\vdots & \ddots & \ddots & \langle q_{n-1}, a_n \rangle \\ +0 & \hdots & 0 & ||\tilde q_n|| +\end{pmatrix}$$ + +\vspace*{-2mm} +\begin{enumerate}[leftmargin=4mm] + \item Spalten von $A$ orthonormalisieren + \item $Q$ sind die orthonormalisierten Spalten von $A$ + \item Beträge der orthogonalen aber nicht normalisierten Spalten von $A$ bilden Hauptdiagonale von $R$ + \item Skalarprodukte von Spalten $Q$ mit Spalten $A$ bilden obere Dreieckswerte +\end{enumerate} + +\section*{Isometrien} + +Für metrische Räume $(X, d)$ und $(Y, e)$ ist $\phi : X \rightarrow Y$ eine Isometrie oder abstandserhaltende Abbildung, wenn: + +$\forall x_1, x_2 \in X : d(x_1, x_2) = d(\phi(x_1), \phi(x_2))$ + +$Iso(X, d)$ ist die Menge aller invertierbaren Isometrien von $X$ nach $X$. + +\subsection*{Lineare Isometrien} + +Es seien $V, W$ euklidische oder unitäre Vektorräume. Dann ist Isometrie $\phi : V \rightarrow W$, die gleichzeitig lineare Abbildung ist, eine lineare Isometrie. + +\subsection*{Eigenwerte von Isometrien} + +Seien $\K \in \{\R, \mathbb{C}\}$ und $V$ ein $K$-Vektorraum mit Skalarprodukt, dann: + +\begin{enumerate}[label=(\alph*)] + \item $\phi$ ist lineare Isometrie von $V$, dann $\forall \lambda \in Spec(\phi): |\lambda|=1$ + \item $\alpha \in \K$ mit $|\alpha|=1 \land V \neq \{0\}$, dann gibt es Isometrie von $V$ mit Eigenwert $\alpha$ +\end{enumerate} + +\subsection*{Isometrien und Orthonormalbasen} + +Sei $V$ endl. dim. VRaum mit SKP, $\phi \in End(V)$ und $B$ ONB, dann: + +\vspace*{-5mm} +\begin{align*} + \phi \text{ ist Isometrie } &\Leftrightarrow \phi(B) \text{ ist ONB von } V \\ + &\Leftrightarrow D_{BB}(\phi) \text{ orthogonal / unitär} +\end{align*} + +\subsection*{Isometrienormalform} + +Sei $A \in U(n)$, dann gibt es $S \in U(n)$, sodass $S^{-1} A S$ Diagonalmatrix. + +Sei $A \in O(n)$, $d_+ := dim(Eig(A,1))$, $d_- := dim(Eig(A, -1))$ und $l = \frac{1}{2}(n - d_+ - d_-)$, dann existiert $S \in O(n)$, sodass $S^{-1} A S$ die folgende Blockgestalt hat: + +$$\begin{pmatrix} +I_{d_+} & 0 & \hdots & \hdots & 0 \\ +0 & -I_{d_i} & \ddots & \ddots & \vdots \\ +\vdots & \ddots & D_{\psi_1} & \ddots & \vdots \\ +\vdots & \ddots & \ddots & \ddots & 0 \\ +0 & \hdots & \hdots & 0 & D_{\psi_l} +\end{pmatrix}$$ + +Wobei $D_{\psi_i} = \begin{pmatrix} cos(\psi_i) & -sin(\psi_i) \\ sin(\psi_i) & cos(\psi_i) \end{pmatrix}$ Drehkästchen. + +\subsubsection*{Bestimmung Isometrienormalform} + +\begin{enumerate}[leftmargin=4mm] + \item Reelle und komplexe Eigenwerte bestimmen + \item Hauptdiagonale mit reellen Eigenwerten entsprechend $\mu_a$ befüllen + \item Drehkästchen abhg. der komplexen Eigenwerte bestimmen wobei $cos(\psi)$ dem reellen und $sin(\psi)$ dem komplexen Anteil enstspricht + \item $S$ wird aus Orthonormalbasen der Eigenräume zusammengesetzt +\end{enumerate} + +\section*{Selbstadjungierte Abbildungen} + +Sei $V$ Vektorraum mit SKP über $\R$ oder $\mathbb{C}$ und $\phi \in End(V)$. Dann ist $\phi$ selbstadjungiert, wenn für $\forall v, w \in V$ gilt: $\langle \phi(v), w \rangle = \langle v, \phi(w) \rangle$. + +$\phi \text{ ist selbstadjungiert} \Leftrightarrow D_{BB}(\phi)=\overline{D_{BB}(\phi)^T}$ + +Orthogonale Projektion $\pi$ ist selbstadjungiert. + +\subsection*{Hermitesche Matrizen} + +$A^* := \overline{A^T}$, $A = A^* \Leftrightarrow A \text{ ist hermitesch}$ + +\subsection*{Normale Matrizen} + +Sei $A \in \mathbb{C}^{n\times n}$, dann: $A^* \cdot A = A \cdot A^*$ + +Sei $B \in \R^{n\times n}$, dann: $B^T \cdot B = B \cdot B^T$ + +Normale Matrizen sind unitär diagonalisierbar. + +\subsection*{Symmetrische reelle Matrizen} + +Eine symmetrische Matrix $A \in \R^{n\times n}$ besitzt ausschließlich reelle Eigenwerte. + +Es existiert eine orthogonale Matrix $S \in O(n)$ so, dass $D_A = S^TAS$ eine Diagonalmatrix ist. + +\subsection*{Spektralsatz} + +Sei $V$ Vektorraum über $\R$ oder $\mathbb{C}$ mit SKP und $\phi \in End(V)$. Dann ist äquivalent: + +\begin{enumerate}[label=(\alph*)] + \item $\phi$ ist selbstadjungiert + \item Es gibt eine Orthonormalbasis aus Eigenvektoren von $\phi$ und $Spec(\phi) \subset \R$ +\end{enumerate} + +\subsubsection*{Positivität} + +Eine symmetrische Matrix $A \in \R^{n \times n}$ ist positiv definit gdw. $\forall \lambda \in Spec(A) : \lambda \geq 0$ + +\section*{Affine Räume} + +Sei $V$ ein $K$-Vektorraum, $A \neq \emptyset$ und $\tau : V \times A \rightarrow A$. Dann ist $(A, V, \tau)$ ein affiner Raum mit Translationsvektorraum $V$ und Addition $\tau$, wenn: + +\begin{enumerate}[label=(\alph*)] + \item $\forall P \in A : \tau(0, P) = P$ + \item $\forall P \in A \forall v_1, v_2 \in V : \\ \hspace*{5mm} \tau(v_1, \tau(v_2, P)) = \tau((v_1 + v_2), P)$ + \item $\forall P, Q \in A \exists ! v \in V : \tau(v, P) = Q$ +\end{enumerate} + +Hinweis: $A$ kann aber muss kein Vektorraum sein. + +\subsection*{Affine Teilräume} + +$A := v + W$ ist affiner Teilraum von $V$ mit $W \leq V$ Vektorräume und $v \in V$. Dies entspricht dem nichtleeren Lösungsraum $\mathcal{L}(A,b)$ eines LGS. + +\subsubsection*{Lot, Lotfußpunkte} + +Seien $A=x_0+\langle x_1,...,x_r \rangle$, $B=y_0+\langle y_1,...,y_s\rangle$ affine UR, das Lot ist die Strecke zwischen den Lotfußpunkten. + +Sei $C=(x_1,...x_r,y_1,...y_r)$, dann ergibt die Lösung $z=(-\lambda_1,...,-\lambda_r,\mu_1,...,\mu_s)^T$ von $C^TCz=C^T(x_0-y_0)$ die Lotfußpunkte $P=x_0+\sum_{i=1}^r \lambda_i x_i$ und $Q=y_0+\sum_{i=1}^s \mu_1 y_i$. Weiterhin ist $d(A, B)=d(P,Q)$. + +\subsubsection*{Affine Geraden} + +Seien $a, b \in V$, dann ist die affine Gerade durch $a$ und $b$: $\overline{a, b} := \{\lambda a + (1 - \lambda)b | \lambda \in K\} = a + K*(b-a)$ + +Für $K = \R$ und $a, b \in V$ wobei $V$ $\R$-Vektorraum: + +$[a, b] := \{\lambda a + (1 - \lambda)b|0 \leq \lambda \leq 1\}$ (Strecke $\overrightarrow{ab}$) + +\subsection*{Affine Abbildungen, Affinitäten} + +Seien $A$, $B$ affine Räume mit Translationsvektorräumen $V$ und $W$ über $\K$. Abbildung $\phi : A \rightarrow B$ induziert für gewähltes $a \in A$ eine Abbildung $\varphi : V \rightarrow W$ mit $\phi(v+a) = \varphi(v) + \phi(a)$. + +$\phi$ heißt affiner Homomorphismus falls $\varphi$ ein Vektorraumhomomorphismus ist. Invertierbares $\phi$ heißt Affinität. + +\subsubsection*{Affiner Standardraum $\mathbb{A}^n(\K)$} + +Alle affinen Selbstabbildungen des affinen Standardraums haben die Gestalt $\phi : A \rightarrow A$ mit $\phi(a) := M \cdot a + t$ für bel. $M \in \K^{n\times n}$ und $t \in \K^n$. + +\subsubsection*{Euklidischer Raum} + +Ist $A$ affiner Raum mit $\R$-Vektorraum $V$ als euklidischen Translationsvektorraum, dann ist $A$ ein euklidischer Raum. + +\subsection*{Quadriken} + +Eine Quadrik $Q \subseteq \K^n$ ist $Q := \{ v \in \K^n | F(v) = 0 \}$ wobei $F \in \K[X_1, \cdots, X_n]$ quadratisches Polynom. + +\subsubsection*{Matrizenform} + +Das eine Quadrik $Q$ definierende quadratische Polynom lässt sich wie folgt darstellen: + +$F(x) = x^TAx + b^Tx + c$ mit $A \in \K^{n\times n}$, $b \in \K^n$ + +Für $char(\K)\neq 2$ ist $A$ symmetrisch. + +\subsubsection*{Affine Normalform} + +Ziel der Bestimmung einer möglichst einfachen affinen Normalform $\tilde Q$ von $Q$ sowie einer Affinität $\varphi$ welche $Q$ in diese Normalform überführt. + +\begin{enumerate}[leftmargin=4mm] + \item $F(x)$ als $F(x) = x^TAx + 2b^Tx + \gamma$ schreiben + \item $A$ diagonalisieren mit $\tilde A = C^TAC$ + \item Bestimme Mittelpunkt $d$ in $A \cdot d=-b$ + \item Bestimme konstanten Term $F(d)$ + \item $\varphi(x)=Cx+d$ ist gesuchte Affinität + \item $\tilde F(x) = (F \circ \varphi)(x) = x^T\tilde Ax+F(d)$ durch konstanten Term teilen um $\tilde Q$ zu erhalten. +\end{enumerate} + +Somit wird $F(x)=x^TAx+2b^Tx+\gamma$ mittels $\varphi(x)=Cx+d$ in $(F \circ \varphi)(x)=x^T\tilde Ax+2\tilde b^Tx + \tilde\gamma$ überführt. + +Dabei gilt $\tilde A = C^TAC$, $\tilde b = C^T(Ad+b)$ und $\tilde\gamma = F(d)$. + +\subsubsection*{Euklidische Normalform} + +Ähnlich affiner Normalform, Transformation nur mit Isometrie $\varphi(x)=Cx+d$ wobei $C \in O(n)$ also Orthogonalbasis aus Eigenvektoren von $A$. + +\begin{enumerate}[leftmargin=4mm] + \item $F(x)$ als $F(x) = x^TAx + 2b^Tx + \gamma$ schreiben + \item $A$ diagonalisieren mit $\tilde A = C^TAC$ + \begin{enumerate}[leftmargin=4mm,label=(\roman*)] + \item Eigenwerte, -vektoren von $A$ bestimmen + \item Eigenvektoren orthonormalisieren + \item Orthonormalisieren benötigt hier nur Normalisieren da die Orthogonalität zwischen Eigenvektoren verschiedener Eigenwerte bei Selbstadjungiertheit von $A$ gegeben ist + \end{enumerate} + \item Alles weitere analog zu affiner Normalform +\end{enumerate} -- cgit v1.2.3