aboutsummaryrefslogtreecommitdiff
path: root/content/lineare_algebra.tex
diff options
context:
space:
mode:
authorAdrian Kummerlaender2017-02-14 18:17:23 +0100
committerAdrian Kummerlaender2017-02-14 18:17:23 +0100
commit51e9d43716398dcf0fd1185e14d02cad4de7be87 (patch)
tree6b161e3088ae4e204b0f8749d48e846427cff33d /content/lineare_algebra.tex
parenta620a21a772224f877388cfcc52e8540b1f70b8f (diff)
downloadmath_reference_sheets-51e9d43716398dcf0fd1185e14d02cad4de7be87.tar
math_reference_sheets-51e9d43716398dcf0fd1185e14d02cad4de7be87.tar.gz
math_reference_sheets-51e9d43716398dcf0fd1185e14d02cad4de7be87.tar.bz2
math_reference_sheets-51e9d43716398dcf0fd1185e14d02cad4de7be87.tar.lz
math_reference_sheets-51e9d43716398dcf0fd1185e14d02cad4de7be87.tar.xz
math_reference_sheets-51e9d43716398dcf0fd1185e14d02cad4de7be87.tar.zst
math_reference_sheets-51e9d43716398dcf0fd1185e14d02cad4de7be87.zip
Add Makefile
Diffstat (limited to 'content/lineare_algebra.tex')
-rw-r--r--content/lineare_algebra.tex706
1 files changed, 706 insertions, 0 deletions
diff --git a/content/lineare_algebra.tex b/content/lineare_algebra.tex
new file mode 100644
index 0000000..a92a3a8
--- /dev/null
+++ b/content/lineare_algebra.tex
@@ -0,0 +1,706 @@
+\section*{Relationen}
+
+Sei $R := A \times B$ eine Relation.
+
+\subsection*{Linkstotal}
+
+$\forall a \in A \exists b \in B : (a,b) \in R$
+
+\subsection*{Rechtstotal / Surjektiv}
+
+$\forall b \in B \exists a \in A : (a,b) \in R \text{ bzw. } f(a)=b$
+
+\subsection*{Linkseindeutig / Injektiv}
+
+$\forall a_1, a_2 \in A \forall b \in B :$ \newline
+\hspace*{5mm} $(a_1,b) \in R \land (a_2,b) \in R \implies a_1=a_2$
+
+\subsection*{Rechtseindeutig}
+
+$\forall a \in A \forall b_1, b_2 \in B:$ \newline
+\hspace*{5mm} $(a,b_1) \in R \land (a,b_2) \in R \implies b_1=b_2$
+
+\subsection*{Eigenschaften von Relationen}
+
+\begin{description}[leftmargin=!,labelwidth=25mm]
+ \item[reflexiv] $\forall x \in M : (x, x) \in R$
+ \item[symmetrisch] $\forall x, y \in M : xRy \Leftrightarrow yRx$
+ \item[antisymmetrisch] $\forall x, y \in M : xRy \land yRx \Rightarrow x=y$
+ \item[transitiv] $\forall x, y, z \in M : xRy \land yRz \Rightarrow xRz$
+\end{description}
+
+\subsection*{Äquivalenzrelationen}
+
+Eine Relation $R$ auf Menge $M$ ist Äquivalenzrelation, wenn sie reflexiv, symmetrisch und transitiv ist.
+
+\section*{Gruppen}
+
+$\star : M \times M \rightarrow M$ ist Verknüpfung auf Menge $M$ abhängig der Argument-Reihenfolge. Das Tupel $(M, \star)$ ist Gruppe, wenn:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $\star$ ist assoziativ
+ \item $\exists e \in M \forall x \in M : x \star e = e \star x = x$
+ \item $\forall x \in M \exists y \in M : x \star y = y \star x = e$
+\end{enumerate}
+
+Ist $\star$ kommutativ, dann $(M, \star)$ abelsche Gruppe.
+
+\subsection*{Assoziativität}
+
+$\forall m_1, m_2, m_3 \in M : (m_1 \star m_2) \star m_3 = m_1 \star (m_2 \star m_3)$
+
+\subsection*{Kommutativität}
+
+$\forall m_1, m_2 \in M : m_1 \star m_2 = m_2 \star m_1$
+
+\subsection*{Untergruppen}
+
+$(M, \star)$ ist Gruppe. $(H, \circ)$ ist Untergruppe, wenn:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $H \subseteq M$
+ \item $(H, \circ)$ ist Gruppe
+ \item $\forall h_1, h_2 \in H : h_1 \circ h_2 = h_1 \star h_2$
+\end{enumerate}
+
+\subsubsection*{Untergruppenkriterium}
+
+$H \subseteq G$ ist Untergruppe von $G$ wenn:
+
+$H \neq \emptyset \land \forall h_1, h_2 \in H : h_1 \star h_2^{-1} \in H$
+
+\subsection*{Gruppenhomomorphismen}
+
+Seien $(G, \star)$ und $(H, \circ)$ Gruppen. $f: G \rightarrow H$ ist Gruppenhomomorphismus wenn:
+
+$\forall g_1, g_2 \in G: f(g_1 \star g_2) = f(g_1) \circ f(g_2)$
+
+\subsubsection*{Eigenschaften von Homomorphismen}
+
+\begin{enumerate}[label=(\alph*)]
+ \item $f(e_G) = e_H$
+ \item $\forall g \in G : f(g^{-1}) = f(g)^{-1}$
+ \item $f(G)$ ist Untergruppe von $H$
+ \item $f \in Hom(G, H)$ ist genau dann injektiv, wenn $Kern(f) = \{e_G\}$
+\end{enumerate}
+
+\subsection*{Weitere Homomorphismen}
+
+\begin{enumerate}[label=(\alph*)]
+ \item $f : G \rightarrow G$ ist Endomorphismus
+ \item Bijektives $f: G \rightarrow H$ ist Isomorphismus
+ \item Bijektives $f \in End(V)$ ist Automorphismus
+\end{enumerate}
+
+\section*{Ringe}
+
+$(R, +, *)$ ist Ring, wenn:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $(R, +)$ ist abelsche Gruppe
+ \item $*$ ist assoziativ
+ \item $\forall x \in R : 1_R * x = x * 1_R = x$
+ \item $x*(y+z) = (x*y)+(x*z)$
+ \item $(y+z)*x = (y*x)+(z*x)$
+\end{enumerate}
+
+Ist $*$ kommutativ, $(R, +, *)$ ein kommutativer Ring.
+
+\subsection*{Teilringe}
+
+Unter $+$ und $*$ geschlossene Teilmenge $T \subseteq R$ ist Teilring von $R$.
+
+\subsection*{Ringhomomorphismen}
+
+$\phi : R \rightarrow S$ ist Ringhomomorphismus, wenn:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $\forall x, y \in R : \phi(x +_R y) = \phi(x) +_S \phi(y)$
+ \item $\forall x, y \in R : \phi(x *_R y) = \phi(x) *_S \phi(y)$
+ \item $\phi(1_R) = 1_S$
+\end{enumerate}
+
+\section*{Körper}
+
+Ein Körper ist kommutativer Ring $K$ mit $0_K \neq 1_K$ und für den jedes $x \neq 0_K$ invertierbar ist.
+
+\section*{Matrizen}
+
+\subsection*{Invertierbare Matrizen}
+
+Für einen kommutativen Ring $R$ ist die "general linear Group":
+
+$GL_p(R) := \{ A \in R^{p \times p} | \exists B \in R^{p \times p} : AB = BA = I_p \}$
+
+$A \in GL_p(R)$ sind invert. / reguläre Matrizen.
+
+\subsection*{Elementarmatrizen}
+
+$$R^{2 \times 3} \ni E_{2,3} = \begin{pmatrix}
+ 0 & 0 & 0 & 0 \\
+ 0 & 0 & 1 & 0
+\end{pmatrix}$$
+
+\subsection*{Äquivalenz von Matrizen}
+
+$\exists S \in GL_q(K), T \in GL_p(K) : B = T A S$ ($A, B \in K^{p \times q}$)
+
+\subsection*{Ähnlichkeit von Matrizen}
+
+$A, \tilde A \in K^{d \times d}$ ähnlich $\Leftrightarrow \exists S \in GL_d(K) : \tilde A = S^{-1}AS$
+
+Ähnliche Matrizen haben die gleiche Determinante, Spur und Rang.
+
+\subsection*{Determinante}
+
+\begin{enumerate}[label=(\alph*)]
+ \item $det(A) \neq 0 \Leftrightarrow A \text{ ist invertierbar}$
+ \item $det(A*B) = det(A) * det(B)$
+ \item $det(A)^{-1} = det(A)^{-1}$ falls $A \in GL_n(K)$
+ \item $det(A) = det(A^T)$
+\end{enumerate}
+
+\section*{Vektorräume}
+
+Ein $K$-Vektorraum ist kommutative Gruppe $(V, +)$ mit skalarer Multiplikation $* : K \times V \rightarrow V, (a, v) \mapsto a * v$ sowie:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $\forall v \in V : 1_K * v = v$
+ \item $\forall a, b \in K \forall v \in V : a*(b*v)=(a*b)*v$
+ \item $\forall a, b \in K \forall u, v \in V : a*(u+v)=a*u+a*v$
+ \item $\forall a, b \in K \forall u, v \in V : (a+b)*v=a*v+b*v$
+\end{enumerate}
+
+\subsection*{Untervektorräume}
+
+$K$-Untervektorraum $U$ von $V$ ist Teilmenge $U \subseteq V$ die bzgl. Addition Untergruppe von $V$ ist und für die gilt: $\forall a \in K, u \in U : a*u \in U$ (d.h. skalare Multiplikation geschlossen)
+
+\subsubsection*{Untervektorraumkriterium}
+
+Seien $K$ Körper, $V$ $K$-Vektorraum und $U \subseteq V$. Dann ist äquivalent:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $U$ ist Untervektorraum von $V$
+ \item $U \neq \emptyset$, $\forall u_1, u_2 \in U : u_1 + u_2 \in U$ und $\forall a \in K, u \in U : a*u \in U$
+\end{enumerate}
+
+\subsubsection*{$\phi$-invariante Unterräume}
+
+$U \subset V$ ist $\phi$-invariant, wenn $\phi(U) \subset U$.
+
+\subsubsection*{Summe}
+
+$U_1 + U_2 = \{u_1+u_2 | u_1 \in U_1, u_2 \in U_2 \}$ ist Summe von $U_1$ und $U_2$, kleinster UVR der $U_1 \cup U_2$ enthält.
+
+$dim(U_1 + U_2) = dim(U_1) + dim(U_2) - dim(U_1 \cap U_2)$
+
+\subsubsection*{Direkte Summe}
+
+$U_1 + U_2$ ist direkte Summe, wenn $U_1 \cap U_2 = {0}$.
+
+d.h. gdw. der Schnitt eines UVR mit der Summe aller anderen UVR nur den Nullvektor enthält.
+
+$dim(U_1 \oplus U_2)=dim(U_1)+dim(U_2)$
+
+\subsection*{Homomorphismen}
+
+Seien $V, W$ zwei $K$-Vektorräume. $\phi : V \rightarrow W$ ist Vektorraumhomomorphismus respektive $K$-lineare Abbildung, wenn:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $\forall u, v \in V : \phi(u+v) = \phi(u)+\phi(v)$
+ \item $\forall a \in K, v \in V : \phi(a*v) = a*\phi(v)$
+\end{enumerate}
+
+$Rang(\phi) := dim(Bild(\phi))$ mit $\phi \in Hom(V, W)$
+
+\subsection*{Basen}
+
+Teilmenge $B \subseteq V$ ist Basis von $V$, wenn sich $\forall v \in V$ auf genau eine Art als Linearkombination von $B$ schreiben lässt. Jede Basis von $K^p$ hat genau $p$ Elemente.
+
+\subsubsection*{Lineare Unabhängigkeit}
+
+$\sum_{i=1}^{k} \lambda_i * v_i = 0 \Rightarrow \forall i \in \{1, \cdots, k\} : \lambda_i = 0$
+
+\subsubsection*{Dimension}
+
+Ist Mächtigkeit der Basis, $dim(V) := |B|$
+
+$U$ Untervektorraum $V$, dann: $dim(U) \leq dim(V)$
+
+$dim(V) = dim(Kern(\phi)) + dim(Bild(\phi))$
+
+\subsubsection*{Abbildungsmatrizen}
+
+$D_C(\phi(v)) = D_{CB}(\phi) * D_B(v)$
+
+\subsubsection*{Basiswechselformel}
+
+Seien $V, W$ $K$-Vektorräume; $\phi \in Hom(V, W)$; $B, \tilde B$ Basen von $V$; $C, \tilde C$ Basen von W. Dann gilt:
+
+$D_{\tilde C \tilde B}(\phi) = D_{\tilde C C}(I_W) * D_{CB}(\phi) * D_{B\tilde B}(I_V)$
+
+\subsection*{Dualräume}
+
+Sei $V$ ein $K$-Vektorraum. Die Menge aller linearen Abbildungen $V \rightarrow K$ ist der Dualraum: $V^* := \{f: V \rightarrow K | f \text{ ist linear}\}$.
+
+$f \in V^*$ werden als Linearformen bezeichnet.
+
+\subsubsection*{Duale Basis}
+
+Sei $B = \{b_1, \cdots, b_n\}$ Basis von $V$, dann ist $B^* = \{b_1^*, \cdots, b_n^*\}$ Basis des Dualraums $V^*$, also die zu $B$ von $V$ duale Basis.
+
+Die für $b_i$ eindeutige Abb. $b_i^* : V \rightarrow \K$ erfüllt $b_i^*(b_i) = 1$ und $b_i^*(b_j) = 0$ für $j\neq i$.
+
+\subsection*{Faktor- / Quotientenräume}
+
+$v_1 \thicksim v_2 \Leftrightarrow v_1 - v_2 \in U$ für $v_1, v_2 \in V$ definiert Äquivalenzrelation auf $K$-Vektorraum $V$.
+
+$v_1$ und $v_2$ sind Elemente einer Äquivalenzklasse gdw. sie sich um ein $u \in U$ unterscheiden.
+
+$V/U := \{[v] | v \in V\}$ mit $[v] := v+U := \{v+u|u \in U\}$
+
+$dim(V/U) = dim(V) - dim(U)$
+
+\section*{Eigenwerte}
+
+$A*v = \lambda * v$ wobei $\lambda \in Spec(A)$ und $v \in Eig_\lambda(A)$
+
+\subsection*{Eigenräume}
+
+$Eig_\lambda(A) := \{v \in K^n : A*v = \lambda * v\} = Kern(A-\lambda I_n)$
+
+\subsection*{Charakteristisches Polynom}
+
+$CP_A(x) = det(x*I_n - A)$
+
+\subsection*{Minimalpolynom}
+
+$MP_\phi(x)$ ist Teiler kleinsten Grades von $CP_\phi(x)$ welcher jeden Linearfaktor beinhaltet und für den noch $MP_\phi(\phi) = 0$ gilt.
+
+\subsection*{Vielfachheit}
+
+$\mu_g(\phi, \lambda) := dim(Eig_\lambda(\phi))$ ist die geometrische Vielfachheit von $\lambda$.
+
+$\mu_a(\phi, \lambda)$ ist algebraische Vielfachheit von $\lambda$, also die Vielfachheit des Linearfaktors $(x-\lambda)$ von $CP_\phi$.
+
+\subsection*{Diagonalisierbarkeit}
+
+$\phi \in End(V)$ ist diagonalisierbar, wenn eines aus:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $\exists$ Basis $B$ von $V$ aus Eigenvektoren von $\phi$
+ \item $MP_\phi(X)$ zerfällt vollst. in Linearfaktoren
+ \item $CP_\phi(X)$ zerfällt vollst. in Linearfaktoren und $\forall \lambda \in Spec(\phi) : \mu_g(\phi,\lambda) = \mu_a(\phi, \lambda)$
+\end{enumerate}
+
+\subsubsection*{Diagonalisierungsverfahren}
+
+Eigenwerte und Eigenräume von $\phi$ bestimmen. Eigenwerte in $D_{CC}(\phi) = diag(\lambda_1, \hdots, \lambda_n)$ eintragen. $D_{CC}(\phi)$ ist Abbildungsmatrix von $\phi$ bzgl. Basis $C$ aus Eigenvektoren. $D_{BC}(Id)$ besteht aus Eigenvektoren in Spalten, $D_{CB}(Id) = D_{BC}(Id)^{-1}$.
+
+Insgesamt: $D_{CC}(\phi) = D_{BC}(Id)^{-1} D_{BB}(\phi) D_{BC}(Id)$.
+
+\section*{Haupträume}
+
+$H(\phi, \lambda) = Kern((\phi - \lambda * I_n)^e)$ mit $e := \mu_a(\phi, \lambda)$.
+
+Weiterhin gilt $dim(H(\phi, \lambda))=e$.
+
+\section*{Bilinearformen}
+
+\subsection*{Paarung, Bilinearform}
+
+$P : V \times W \rightarrow K$ ist Paarung von $V$ und $W$, wenn:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $P(av_1 + v_2, w_1) = aP(v_1, w_1) + P(v_2, w_1)$
+ \item $P(v_1, bw_1 + w_2) = bP(v_1, w_1) + P(v_1, w_2)$
+\end{enumerate}
+
+für $\forall a, b \in K$; $v_1, v_2 \in V$; $w_1, w_2 \in W$. Diese Eigenschaft wird als Bilinearität von $P$ bezeichnet.
+
+Falls $V=W$ heißt $P$ Bilinearform auf $V$.
+
+\subsubsection*{Ausartung}
+
+Paarung $P$ heißt nicht ausgeartet, wenn:
+
+\hspace*{2mm}
+$\forall v \in V, v \neq 0 \exists w \in W : P(v, w) \neq 0$
+
+$\land$ $\forall w \in W, w \neq 0 \exists v \in V : P(v, w) \neq 0$
+
+\subsection*{Orthogonalbasis}
+
+Basis $B := \{b_1, ..., b_n\}$ ist Orthogonalbasis von $V$ bzgl. $P$, wenn: $\forall 1 \leq i \neq j \leq n : P(b_i, b_j) = 0$
+
+\subsection*{Orthonormalbasis}
+
+Orthogonalbasis $B$ ist Orthonormalbasis von $V$ bzgl. $P$, wenn: $\forall 1 \leq i \leq n : P(b_i, b_i) = 1$
+
+\section*{Jordansche Normalform $\tilde A = T^{-1} A T$}
+
+\subsection*{Darstellungsmatrix $\tilde A$ bzgl. Jordanbasis}
+
+\begin{enumerate}[leftmargin=4mm]
+ \item Eigenwerte aus char. Polynom bestimmen
+ \item Länge des Blocks zu Eigenwert ist $\mu_a(\lambda)$
+ \item Anzahl Kästchen pro Block ist $\mu_g(\lambda)$
+ \item Kleinstes $p$ mit $Kern((A-\lambda I)^p) = Kern((A-\lambda I)^{p+1})$ ist Länge des größten Kästchens zu $\lambda$
+ \item Kästchen der Größe nach sortieren, Eigenwerte auf Hauptdiagonale
+ \item Anzahl der Jordankästchen mit Größe $s$ ergibt sich aus $2a_s - a_{s-1} - a_{s+1}$ mit $a_s = dim(Kern((A-\lambda I)^s))$
+\end{enumerate}
+
+\subsection*{Bestimmung Basiswechselmatrix $T$}
+
+Reichen die Eigenvektoren nicht aus, können Hauptvektoren hinzugezogen werden. Dazu wähle Hauptvektor $v_1$ $p$-ter Stufe wobei $p$ Länge des größten Kästchens zu $\lambda$ ist. $v_1$ kann direkt verwendet werden, weitere Vektoren ergeben sich als $v_{i+1} = (A-\lambda I)*v_i$.
+
+\section*{Skalarprodukte}
+
+\subsection*{Standardskalarprodukt auf $\R^n$}
+
+$\langle \cdot, \cdot \rangle : \R^n \times \R^n \rightarrow \R, \langle v, w \rangle := v^T * w$
+
+\subsection*{Positive Definitheit}
+
+Eine symmetrische Bilinearform $\langle \cdot, \cdot \rangle : V \times V \rightarrow \R$ ist positiv definit, wenn:
+
+$\forall v \in V: v \neq 0 \Rightarrow \langle v, v \rangle > 0$
+
+\subsection*{Skalarprodukt auf $V$}
+
+Ein Skalarprodukt auf $V$ ist symmetrische, positiv definite Bilinearform. Ein reeller Vektorraum mit Skalarprodukt ist euklidischer Vektorraum.
+
+\begin{description}[leftmargin=!,labelwidth=10mm]
+ \item[Norm] $||v|| := \sqrt{\langle v, v \rangle}$
+ \item[Metrik] $d(v, w) := ||v - w||$
+\end{description}
+
+\subsection*{Komplexes Skalarprodukt}
+
+$\langle \cdot, \cdot \rangle : V \times V \rightarrow \mathbb{C}$ ist komplexes SKP, wenn:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $\forall v_1, v_2, w \in V, a \in \mathbb{C} : \text{(linear)} \\ \hspace*{4mm} \langle av_1 + v_2, w \rangle = a \langle v_1, w \rangle + \langle v_2, w \rangle$
+ \item $\forall v_1, v_2, w \in V, a \in \mathbb{C} : \text{(semilinear)} \\ \hspace*{4mm} \langle w, av_1 + v_2 \rangle = \overline a \langle w, v_1 \rangle + \langle w, v_2 \rangle$
+ \item $\forall v, w \in V : \langle v, w \rangle = \overline{\langle w, v \rangle} \text{ (hermitesch)}$
+ \item $\forall v \in V \setminus \{0\} : \langle v, v \rangle > 0$
+\end{enumerate}
+
+Wobei (a) und (b) Sesquilinearität, (c) Hermitizität und (d) Positivität. Ein komplexer Vektorraum mit komplexem SKP ist unitärer Vektorraum.
+
+\subsubsection*{Standardskalarprodukt auf $\mathbb{C}^n$}
+
+$\mathbb{C}^n \times \mathbb{C}^n \ni (v, w) \mapsto \langle v, w \rangle := v^T * \overline w = \sum_{i=1}^n v_i * \overline{w_i}$
+
+\subsection*{Fundamentalmatrix}
+
+Seien $B$ und $C$ Basen von $V$ und $\langle \cdot, \cdot \rangle$ SKP.
+
+\vspace*{-3mm}
+$$D_{BC}(\langle \cdot, \cdot \rangle) = \begin{pmatrix}
+ \langle b_1, c_1 \rangle & \hdots & \langle b_1, c_n \rangle \\
+ \vdots & \ddots & \vdots \\
+ \langle b_n, c_1 \rangle & \hdots & \langle b_n, c_n \rangle
+\end{pmatrix}$$
+
+\subsubsection*{Hurwitz-Kriterium}
+
+Eine symmetrische bzw. hermitesche Matrix $A$ ist positiv definit gdw. die Determinanten aller führenden Hauptminoren positiv sind. Führende Hauptminoren sind in der oberen linken Ecke beginnende quadr. Teilmatr. von $A$ inkl. $A$ selbst.
+
+\subsection*{Ungleichung von Cauchy-Schwarz}
+
+$\langle v, w \rangle ^2 \leq \langle v, v \rangle * \langle w, w \rangle$ (in $\R$)
+
+$|\langle v, w \rangle |^2 \leq \langle v, v \rangle * \langle w, w \rangle$ (in $\mathbb{C}$)
+
+\subsection*{Satz des Pythagoras}
+
+$||v+w||^2 = \langle v, v \rangle + 2\langle v, w \rangle + \langle w, w \rangle$
+
+\subsubsection*{Orthogonalität}
+
+$v \perp w \Leftrightarrow ||v||^2 + ||w||^2 = ||v+w||^2$
+
+\subsection*{Orthogonalisierung mit Gram-Schmidt}
+
+Sei $V$ euklidischer Vektorraum und $\{v_1, ..., v_k\} \subset V$ linear unabhängige Teilmenge mit $k$ Elementen.
+
+\vspace*{-4mm}
+$$w_1 := v_1, w_l := v_l - \sum_{i=1}^{l-1} \frac{\langle v_l, w_i \rangle}{\langle w_i, w_i\rangle}*w_i \text{ (für } l = 2, ..., k)$$
+
+Dann ist $S := \{w_1, ..., w_k\}$ Orthogonalsystem in $V$.
+
+$\tilde S := \{\frac{1}{||w_1||}*w_1, ..., \frac{1}{||w_k||}*w_k$ ist Orthonormalsystem.
+
+Im unitären Standardraum $\mathbb{C}^n$ ist Basis $B = \{b_1, ..., b_n\}$ ONB gdw. für Matrix $A$ mit Basisvektoren als Spalten $A^T*\overline A = I_n$ gilt.
+
+\subsubsection*{Fourierformel}
+
+Sei $B$ ONB von $V$ und $\langle \cdot, \cdot \rangle$ Paarung, dann:
+
+$v \in V \Rightarrow v = \sum_{b\in B} \langle v, b \rangle \cdot b$
+
+Insbesondere ist $v$ bzgl. ONB $B$ dann:
+
+$D_B(v) = (\langle v, b_i\rangle)_{1\leq i \leq n}$
+
+\subsubsection*{Orthogonalräume}
+
+Sei $V$ euklidischer Vektorraum und $M \subseteq V$.
+
+\vspace*{-2mm}
+\begin{equation*}
+ \begin{aligned}
+ M^{\perp} :&= \{v \in V | \forall m \in M : m \perp v \} \\
+ &= \{v \in V | \forall m \in M : \langle v, m \rangle = 0\}
+ \end{aligned}
+\end{equation*}
+
+$M^{\perp}$ ist Untervektorraum von $V$. Auch gilt:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $N \subseteq M \Rightarrow M^{\perp} \subseteq N^{\perp}$
+ \item $M^{\perp} = \langle M \rangle ^{\perp}$
+\end{enumerate}
+
+\subsubsection*{Orthogonales Komplement}
+
+Sei $U$ Untervektorraum von euklidischem Raum $V$, dann $U^\perp$ orthogonales Komplement zu $U$.
+
+Entsprechend gilt: $V = U \oplus U^\perp$
+
+\subsubsection*{Orthogonale Projektionen}
+
+\begin{description}[leftmargin=!,labelwidth=20mm]
+ \item[Definition] $\Pi_U : V \rightarrow U, u + u^\perp \mapsto u$
+ \item[Bestimmung] $\Pi_U(a) = \sum_{i=1}^n \langle a,u_i \rangle u_i$
+ \item[Abstand] $d(a, U) = ||u^\perp|| = ||a - \Pi_U(a)||$
+\end{description}
+
+\subsubsection*{Orthogonale Matrizen}
+
+$A$ heißt orthogonal, wenn $A^TA=I$ gilt.
+
+$A$ ist orthogonale Matrix $\Rightarrow det(A)=\pm 1$
+
+$\forall \lambda \in Spec(A) : \lambda=\pm 1$
+
+Orthogonale Matrizen sind normal.
+
+\subsubsection*{Unitäre Matrizen}
+
+$A$ heißt unitär, wenn $\overline{A^T}A = I$ gilt.
+
+$A$ ist unitäre Matrix $\Rightarrow |det(A)|=1$
+
+$\forall \lambda \in Spec(A) : |\lambda| = 1$
+
+Unitäre Matrizen sind normal.
+
+\subsection*{Iwasawa- / QR-Zerlegung}
+
+Zerlegung von $A \in GL_n(\K)$ in das Produkt aus einer orthogonalen bzw. unitären Matrix und einer oberen Dreiecksmatrix. $A = Q \cdot R$.
+
+\vspace*{-5mm}
+$$A = \begin{pmatrix}
+\vdots & \vdots & \vdots \\
+q_1 & \hspace{-3mm}\hdots\hspace{-3mm} & q_n \\
+\vdots & \vdots & \vdots
+\end{pmatrix}
+\begin{pmatrix}
+||\tilde q_1|| & \langle q_1, a_2 \rangle & \hdots & \langle q_1, a_n \rangle \\
+0 & \ddots & \ddots & \vdots \\
+\vdots & \ddots & \ddots & \langle q_{n-1}, a_n \rangle \\
+0 & \hdots & 0 & ||\tilde q_n||
+\end{pmatrix}$$
+
+\vspace*{-2mm}
+\begin{enumerate}[leftmargin=4mm]
+ \item Spalten von $A$ orthonormalisieren
+ \item $Q$ sind die orthonormalisierten Spalten von $A$
+ \item Beträge der orthogonalen aber nicht normalisierten Spalten von $A$ bilden Hauptdiagonale von $R$
+ \item Skalarprodukte von Spalten $Q$ mit Spalten $A$ bilden obere Dreieckswerte
+\end{enumerate}
+
+\section*{Isometrien}
+
+Für metrische Räume $(X, d)$ und $(Y, e)$ ist $\phi : X \rightarrow Y$ eine Isometrie oder abstandserhaltende Abbildung, wenn:
+
+$\forall x_1, x_2 \in X : d(x_1, x_2) = d(\phi(x_1), \phi(x_2))$
+
+$Iso(X, d)$ ist die Menge aller invertierbaren Isometrien von $X$ nach $X$.
+
+\subsection*{Lineare Isometrien}
+
+Es seien $V, W$ euklidische oder unitäre Vektorräume. Dann ist Isometrie $\phi : V \rightarrow W$, die gleichzeitig lineare Abbildung ist, eine lineare Isometrie.
+
+\subsection*{Eigenwerte von Isometrien}
+
+Seien $\K \in \{\R, \mathbb{C}\}$ und $V$ ein $K$-Vektorraum mit Skalarprodukt, dann:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $\phi$ ist lineare Isometrie von $V$, dann $\forall \lambda \in Spec(\phi): |\lambda|=1$
+ \item $\alpha \in \K$ mit $|\alpha|=1 \land V \neq \{0\}$, dann gibt es Isometrie von $V$ mit Eigenwert $\alpha$
+\end{enumerate}
+
+\subsection*{Isometrien und Orthonormalbasen}
+
+Sei $V$ endl. dim. VRaum mit SKP, $\phi \in End(V)$ und $B$ ONB, dann:
+
+\vspace*{-5mm}
+\begin{align*}
+ \phi \text{ ist Isometrie } &\Leftrightarrow \phi(B) \text{ ist ONB von } V \\
+ &\Leftrightarrow D_{BB}(\phi) \text{ orthogonal / unitär}
+\end{align*}
+
+\subsection*{Isometrienormalform}
+
+Sei $A \in U(n)$, dann gibt es $S \in U(n)$, sodass $S^{-1} A S$ Diagonalmatrix.
+
+Sei $A \in O(n)$, $d_+ := dim(Eig(A,1))$, $d_- := dim(Eig(A, -1))$ und $l = \frac{1}{2}(n - d_+ - d_-)$, dann existiert $S \in O(n)$, sodass $S^{-1} A S$ die folgende Blockgestalt hat:
+
+$$\begin{pmatrix}
+I_{d_+} & 0 & \hdots & \hdots & 0 \\
+0 & -I_{d_i} & \ddots & \ddots & \vdots \\
+\vdots & \ddots & D_{\psi_1} & \ddots & \vdots \\
+\vdots & \ddots & \ddots & \ddots & 0 \\
+0 & \hdots & \hdots & 0 & D_{\psi_l}
+\end{pmatrix}$$
+
+Wobei $D_{\psi_i} = \begin{pmatrix} cos(\psi_i) & -sin(\psi_i) \\ sin(\psi_i) & cos(\psi_i) \end{pmatrix}$ Drehkästchen.
+
+\subsubsection*{Bestimmung Isometrienormalform}
+
+\begin{enumerate}[leftmargin=4mm]
+ \item Reelle und komplexe Eigenwerte bestimmen
+ \item Hauptdiagonale mit reellen Eigenwerten entsprechend $\mu_a$ befüllen
+ \item Drehkästchen abhg. der komplexen Eigenwerte bestimmen wobei $cos(\psi)$ dem reellen und $sin(\psi)$ dem komplexen Anteil enstspricht
+ \item $S$ wird aus Orthonormalbasen der Eigenräume zusammengesetzt
+\end{enumerate}
+
+\section*{Selbstadjungierte Abbildungen}
+
+Sei $V$ Vektorraum mit SKP über $\R$ oder $\mathbb{C}$ und $\phi \in End(V)$. Dann ist $\phi$ selbstadjungiert, wenn für $\forall v, w \in V$ gilt: $\langle \phi(v), w \rangle = \langle v, \phi(w) \rangle$.
+
+$\phi \text{ ist selbstadjungiert} \Leftrightarrow D_{BB}(\phi)=\overline{D_{BB}(\phi)^T}$
+
+Orthogonale Projektion $\pi$ ist selbstadjungiert.
+
+\subsection*{Hermitesche Matrizen}
+
+$A^* := \overline{A^T}$, $A = A^* \Leftrightarrow A \text{ ist hermitesch}$
+
+\subsection*{Normale Matrizen}
+
+Sei $A \in \mathbb{C}^{n\times n}$, dann: $A^* \cdot A = A \cdot A^*$
+
+Sei $B \in \R^{n\times n}$, dann: $B^T \cdot B = B \cdot B^T$
+
+Normale Matrizen sind unitär diagonalisierbar.
+
+\subsection*{Symmetrische reelle Matrizen}
+
+Eine symmetrische Matrix $A \in \R^{n\times n}$ besitzt ausschließlich reelle Eigenwerte.
+
+Es existiert eine orthogonale Matrix $S \in O(n)$ so, dass $D_A = S^TAS$ eine Diagonalmatrix ist.
+
+\subsection*{Spektralsatz}
+
+Sei $V$ Vektorraum über $\R$ oder $\mathbb{C}$ mit SKP und $\phi \in End(V)$. Dann ist äquivalent:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $\phi$ ist selbstadjungiert
+ \item Es gibt eine Orthonormalbasis aus Eigenvektoren von $\phi$ und $Spec(\phi) \subset \R$
+\end{enumerate}
+
+\subsubsection*{Positivität}
+
+Eine symmetrische Matrix $A \in \R^{n \times n}$ ist positiv definit gdw. $\forall \lambda \in Spec(A) : \lambda \geq 0$
+
+\section*{Affine Räume}
+
+Sei $V$ ein $K$-Vektorraum, $A \neq \emptyset$ und $\tau : V \times A \rightarrow A$. Dann ist $(A, V, \tau)$ ein affiner Raum mit Translationsvektorraum $V$ und Addition $\tau$, wenn:
+
+\begin{enumerate}[label=(\alph*)]
+ \item $\forall P \in A : \tau(0, P) = P$
+ \item $\forall P \in A \forall v_1, v_2 \in V : \\ \hspace*{5mm} \tau(v_1, \tau(v_2, P)) = \tau((v_1 + v_2), P)$
+ \item $\forall P, Q \in A \exists ! v \in V : \tau(v, P) = Q$
+\end{enumerate}
+
+Hinweis: $A$ kann aber muss kein Vektorraum sein.
+
+\subsection*{Affine Teilräume}
+
+$A := v + W$ ist affiner Teilraum von $V$ mit $W \leq V$ Vektorräume und $v \in V$. Dies entspricht dem nichtleeren Lösungsraum $\mathcal{L}(A,b)$ eines LGS.
+
+\subsubsection*{Lot, Lotfußpunkte}
+
+Seien $A=x_0+\langle x_1,...,x_r \rangle$, $B=y_0+\langle y_1,...,y_s\rangle$ affine UR, das Lot ist die Strecke zwischen den Lotfußpunkten.
+
+Sei $C=(x_1,...x_r,y_1,...y_r)$, dann ergibt die Lösung $z=(-\lambda_1,...,-\lambda_r,\mu_1,...,\mu_s)^T$ von $C^TCz=C^T(x_0-y_0)$ die Lotfußpunkte $P=x_0+\sum_{i=1}^r \lambda_i x_i$ und $Q=y_0+\sum_{i=1}^s \mu_1 y_i$. Weiterhin ist $d(A, B)=d(P,Q)$.
+
+\subsubsection*{Affine Geraden}
+
+Seien $a, b \in V$, dann ist die affine Gerade durch $a$ und $b$: $\overline{a, b} := \{\lambda a + (1 - \lambda)b | \lambda \in K\} = a + K*(b-a)$
+
+Für $K = \R$ und $a, b \in V$ wobei $V$ $\R$-Vektorraum:
+
+$[a, b] := \{\lambda a + (1 - \lambda)b|0 \leq \lambda \leq 1\}$ (Strecke $\overrightarrow{ab}$)
+
+\subsection*{Affine Abbildungen, Affinitäten}
+
+Seien $A$, $B$ affine Räume mit Translationsvektorräumen $V$ und $W$ über $\K$. Abbildung $\phi : A \rightarrow B$ induziert für gewähltes $a \in A$ eine Abbildung $\varphi : V \rightarrow W$ mit $\phi(v+a) = \varphi(v) + \phi(a)$.
+
+$\phi$ heißt affiner Homomorphismus falls $\varphi$ ein Vektorraumhomomorphismus ist. Invertierbares $\phi$ heißt Affinität.
+
+\subsubsection*{Affiner Standardraum $\mathbb{A}^n(\K)$}
+
+Alle affinen Selbstabbildungen des affinen Standardraums haben die Gestalt $\phi : A \rightarrow A$ mit $\phi(a) := M \cdot a + t$ für bel. $M \in \K^{n\times n}$ und $t \in \K^n$.
+
+\subsubsection*{Euklidischer Raum}
+
+Ist $A$ affiner Raum mit $\R$-Vektorraum $V$ als euklidischen Translationsvektorraum, dann ist $A$ ein euklidischer Raum.
+
+\subsection*{Quadriken}
+
+Eine Quadrik $Q \subseteq \K^n$ ist $Q := \{ v \in \K^n | F(v) = 0 \}$ wobei $F \in \K[X_1, \cdots, X_n]$ quadratisches Polynom.
+
+\subsubsection*{Matrizenform}
+
+Das eine Quadrik $Q$ definierende quadratische Polynom lässt sich wie folgt darstellen:
+
+$F(x) = x^TAx + b^Tx + c$ mit $A \in \K^{n\times n}$, $b \in \K^n$
+
+Für $char(\K)\neq 2$ ist $A$ symmetrisch.
+
+\subsubsection*{Affine Normalform}
+
+Ziel der Bestimmung einer möglichst einfachen affinen Normalform $\tilde Q$ von $Q$ sowie einer Affinität $\varphi$ welche $Q$ in diese Normalform überführt.
+
+\begin{enumerate}[leftmargin=4mm]
+ \item $F(x)$ als $F(x) = x^TAx + 2b^Tx + \gamma$ schreiben
+ \item $A$ diagonalisieren mit $\tilde A = C^TAC$
+ \item Bestimme Mittelpunkt $d$ in $A \cdot d=-b$
+ \item Bestimme konstanten Term $F(d)$
+ \item $\varphi(x)=Cx+d$ ist gesuchte Affinität
+ \item $\tilde F(x) = (F \circ \varphi)(x) = x^T\tilde Ax+F(d)$ durch konstanten Term teilen um $\tilde Q$ zu erhalten.
+\end{enumerate}
+
+Somit wird $F(x)=x^TAx+2b^Tx+\gamma$ mittels $\varphi(x)=Cx+d$ in $(F \circ \varphi)(x)=x^T\tilde Ax+2\tilde b^Tx + \tilde\gamma$ überführt.
+
+Dabei gilt $\tilde A = C^TAC$, $\tilde b = C^T(Ad+b)$ und $\tilde\gamma = F(d)$.
+
+\subsubsection*{Euklidische Normalform}
+
+Ähnlich affiner Normalform, Transformation nur mit Isometrie $\varphi(x)=Cx+d$ wobei $C \in O(n)$ also Orthogonalbasis aus Eigenvektoren von $A$.
+
+\begin{enumerate}[leftmargin=4mm]
+ \item $F(x)$ als $F(x) = x^TAx + 2b^Tx + \gamma$ schreiben
+ \item $A$ diagonalisieren mit $\tilde A = C^TAC$
+ \begin{enumerate}[leftmargin=4mm,label=(\roman*)]
+ \item Eigenwerte, -vektoren von $A$ bestimmen
+ \item Eigenvektoren orthonormalisieren
+ \item Orthonormalisieren benötigt hier nur Normalisieren da die Orthogonalität zwischen Eigenvektoren verschiedener Eigenwerte bei Selbstadjungiertheit von $A$ gegeben ist
+ \end{enumerate}
+ \item Alles weitere analog zu affiner Normalform
+\end{enumerate}