User Tools

Site Tools


1sem:linalg:lineare_algebra_vo

Vektorraum (VR)

V…lin Vektorraum über Skalarkörper K:

  • $\vec{u}$,$\vec{v}$$\in$V
  • s,t$\in$K (st)$\vec{v}$=s(t$\vec{v}$)
  • s($\vec{u}$+$\vec{v}$)

Unterraumkriterium

Teilmenge U eines lin. VR \textbf{nur dann} Unterraum von V \textbf{wenn}:

  • 1. $\vec{v_1}$,$\vec{v_2}$$\in$U $\rightarrow$ $\vec{v_1}$+$\vec{v_2}$$\in$U
  • 2. $\vec{v}$$\in$U und s$\in$K $\rightarrow$ s$\vec{v}$$\in$U

Linearkombination

$\vec{v_1}$,$\vec{v_2}$,…,$\vec{v_k}$$\in$V ; $s_1$,$s_2$,\ldots,$s_k$$\in$K $\rightarrow$ $\vec{v}$=$s_1$$\vec{v_1}$+$s_2$$\vec{v_2}$+…+$s_k$$\vec{v_k}$$\in$V $\rightarrow$ Linearkombinationen von $\vec{v_1}$,$\vec{v_2}$,…,$\vec{v_k}$

Lineare Hülle

$\cal L$($\vec{v_1}$…$\vec{v_k}$):

$\vec{v_1}$,…,$\vec{v_k}$$\in$V $\rightarrow$ \{$\vec{v}$ : $\vec{v}$=$\sum_{i=1}^k$$s_i$$v_i$, $s_i$$\in$K, i=1…k\} … Unterraum von V z.B.: $\cal L$$( (1,0,0)^T$,$(0,1,0)^T$,$(0,0,1)^T$)=$\Re^3$

Direkte Summe von Unterräumen

Vektorraum V heißt Direkte Summe wenn für jedes $\vec{v}$$\in$V **eindeutig bestimmte** Elemente $\vec{u}$$\in$U und $\vec{w}$$\in$W exisiteren, sodass gilt:$\vec{v}$=$\vec{u}$+$\vec{w}$ (Symbolisch: V=U$\oplus$W)

Kriterium für Direkte Summe

V…Vektorraum, U,W…Unterräume: V=U$\oplus$W $\leftrightarrow$ V=U+W und U\raisebox{0.5mm}{$_\cap$}W=\{O\}\\[0.3cm]

Lineare [Un]anhängigkeit

V…Vektorraum über K. Vektoren $\vec{v_1}$,…,$\vec{v_k}$ sind linear abhängig (l.a.) wenn es Skalare $s_1$,…,$s_k$$\in$K, ($s_1$,\ldots,$s_k$)$\not=$(0,…,0), so dass gilt:

$s_1$$\vec{v_1}$+$s_2$$\vec{v_2}$+…+$s_k$$\vec{v_k}$ = 0 ; (andernfalls heißen sie linear unabhängig (l.u.))

Kriterium für lin. Abh.

Die von $\vec{0}$ verschiedenen Vektoren $\vec{v_1}$,…,$\vec{v_k}$ sind genau dann l.a., wenn minderstens einer dieser Vektoren als Linearkombination der anderen dargestellt werden kann

Dimension eines Vektorraums

Dimension = Anzahl l.u. Vektoren

Dimensionssatz f. Unterräume

U,W…endlichdimensionale Unterräume eines VR. V $\rightarrow$ dim(U+W)=dimU+dimW-dim(U\raisebox{0.5mm}{$_\cap$W)}

Basis eines VR

V…VR über K. Menge B=\{$\vec{b_1}$,…,$\vec{b_n}$\} l.u. Vektoren $b_1$,…,$b_n$$\in$V heißt Basis, wenn jeder Vektor $\vec{v}$$\in$V eindeutig als Linearkombination von $\vec{b_1}$,…,$\vec{b_n}$ dargestellt werden kann.

Gleichheit v. Matrizen

Matrix A$\in$$K^{mxn}$, A=($a_{ij}$) und Matrix B$\in$$K^{pxq}$, B=($b_{kl}$) sind gleich wenn gilt: m=p, n=q und $a_{ij}$ = $b_{kl}$; i=1,…,m ; j=1,…,n

Diagonalmatrix

Alle Elemente außer der Diagonale sind 0:

$$\begin{matrix} 3 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & 8 \end{matrix}$$

Kommutierende Matrizen

$$AB=BA$$

[schief]symmetrische Matrizen

======symmetrisch====== $A^T$ = A $$\begin{matrix} 1 & -1 & 2 \\ -1 & 7 & 0 \\ 2 & 0 & 0 \end{matrix}$$

schiefsymmetrisch

$A^T$ = -A

$$A = \begin{matrix} 0 & -1 & 2 \\ 1 & 0 & 7 \\ -2 & -7 & 0 \end{matrix}$$

$$A^T = \begin{matrix} 0 & 1 & -2 \\ -1 & 0 & -7 \\ 2 & 7 & 0 \end{matrix}$$

Spalten/Zeilenrang

Maximalanzahl l.u. Spaltenvektoren : $\vec{s_i}$… Spaltenrang der Matrix A Maximalanzahl l.u. Zeilenvektoren : $\vec{z_i}$… Zeilenrang der Matrix A

Rang einer Matrix

Spaltenrang(=Zeilenrang) von A bezeichnet man als Rang von A

Kriterium f. Lösbarkeit v.** A$\vec{x}$=$\vec{b}$

ein lin. inhomogenes Gleichungssystem A$\vec{x}$=$\vec{b}$ ist genau dann lösbar wenn Rang(A$\mid$b)=Rang(A)

Kern einer Matrix

Menge aller Vektoren $\vec{x}$$\in$$K^n$, für die A$\vec{x}$=0 gilt heißt Kern der Matrix A $\rightarrow$ Kern(A)

Kern ist Unterraum

r=Rang(A) $\rightarrow$ Kern(A)…Unterraum v. $K^n$ mit dim Kern(A)=n-r $\Rightarrow$ dim Kern(A)+Rang(A)=n

Allg. Lösung eines inhom. Systems

A…mxn-Matrix und A$\vec{x}$=$\vec{b}$ ein inhom. Gleichungssystems $\rightarrow$ Allg. Lösung = $\vec{z}$+Kern(A) ; $\vec{z}$…beliebige Lösung (Partikulärlösung von A$\vec{x}$=$\vec{b}$)

Reguläre Matrix, Inverse

Eine nxn-Matrix heißt \textbf{invertierbar(regulär)}, wenn es eine nxn-Matrix B mit der Eigenschaft AB=In gibt. B…zu A inverse Matrix oder Inverse von A($\equiv$$A^{-1}$).

Eine nicht invertierbare Matrix heißt singulär

Invertierbarkeit

Eine nxn-Matrix A ist genau dann invertierbar wenn Rang(A)=n $\Rightarrow$voller Rang, bzw. det(A)$\neq$0

Kern, Bild

lin. Abb. $\varphi$:V$\rightarrow$W:

  • Kern := \{$\vec{x}$$\in$V : $\varphi$($\vec{x}$)=$\vec{0}$\} $\subseteq$ V
  • Bild := \{$\varphi$($\vec{x}$) : x$\in$V\} $\subseteq$ W

Kern u. Bild sind Unterräume

lin. Abb. $\varphi$:V$\rightarrow$W ist Kern($\varphi$) ein Unterraum von V und Bild($\varphi$) ein Unterraum von W

Ähnlichkeit von Matrizen

2 nxn-Matrizen A,B über K heißen \textbf{ähnlich}, wenn es eine invertierbare nxn-Matrix T über K gibt , sodass B = TA$T^{-1}$

Injektivität

lin. Abb. $\varphi$:V$\rightarrow$W gilt: Kern($\varphi$)=\{$\vec{0}$\}$\Longleftrightarrow$$\varphi$ ist injektiv. d.h. für $\vec{x_1}$$\not=$$\vec{x_2}$ gilt $\varphi$($\vec{x_1}$)$\not=$$\varphi$($\vec{x_2}$)

Äquivalenz von Matrizen

A äquivalent zu B $\Longleftrightarrow$ Rang(A) = Rang(B)

Eigenschaften der Determinante

  • 1. Schiefsymmetrie: Werden 2 Spaltenvektoren vertauscht, ändert Det. ihr Vorzeichen
  • 2. Multilinearität: Als Funktion jedes der Spaltenvektoren ist die Det. linear det(…,s$\vec{a}$+t$\vec{b}$,…) = sdet(…,$\vec{a}$,…)+tdet(…,$\vec{b}$,…) ; $\vec{a}$,$\vec{b}$$\in$$K^n$,s,t$\in$K
  • 3. Normierungsvorschrift: det $I_n$ = det($e_1$,…,$e_n$)=1
  • 4.(det $A^T$ = det A)

Norm: V...$\Re$ VR

V$\rightarrow$$\Re$ ; $\vec{x}$$\rightarrow$$\mid$$\mid$x$\mid$$\mid$ mit Eigenschaften:

  • 1. $\mid$$\mid$s$\vec{x}$$\mid$$\mid$ = $\mid$s$\mid$ $\mid$$\mid$x$\mid$$\mid$
  • 2. $\mid$$\mid$$\vec{x}$+$\vec{y}$$\mid$$\mid$ $\le$ $\mid$$\mid$$\vec{x}$$\mid$$\mid$+$\mid$$\mid$$\vec{y}$$\mid$$\mid$
  • 3. $\mid$$\mid$$\vec{x}$$\mid$$\mid$$\ge$0, $\mid$$\mid$$\vec{x}$$\mid$$\mid$ = 0 $\Longleftrightarrow$ $\vec{x}$ = $\vec{0}$ ; ~~~ $\forall$$\vec{x}$,$\vec{y}$$\in$V, s$\in$$\Re$ heißt \textbf{Norm auf V}

Det einer Inversen

det $A^{-1}$=$\frac{1}{det A}$

Invarianz der Det

Seien A und B ähnliche Matrizen, dann gilt: detA=detB

Kanonische Inner Produkt

2 Vektoren: $\vec{x}$=($x_1$,…,$x_n$$)^T$, $\vec{y}$=($y_1$,\ldots,$y_n$$)^T$$\in$$\Re$

$\vec{x}$\raisebox{0.5mm}.$\vec{y}$ := $\sum_{i=1}^n$$x_i$$y_i$ … kanonische Innere Prod. (KIP) im $\Re$

Eigenschaften des KIP

  • 1.($\vec{x}$+$\vec{y}$)\raisebox{0.5mm}.$\vec{z}$ = x\raisebox{0.5mm}.$\vec{z}$+y\raisebox{0.5mm}.$\vec{z}$ ; (s$\vec{x}$)\raisebox{0.5mm}.$\vec{y}$ = s\raisebox{0.5mm}.($\vec{x}$\raisebox{0.5mm}.$\vec{y}$)
  • 2. $\vec{x}$\raisebox{0.5mm}.$\vec{y}$ = $\vec{y}$\raisebox{0.5mm}.$\vec{x}$
  • 3. $\vec{x}$\raisebox{0.5mm}.$\vec{x}$ $\ge$0 , $\vec{x}$\raisebox{0.5mm}.$\vec{x}$=0 $\Longleftrightarrow$$\vec{x}$=$\vec{0}$ \><$\vec{x}$,$\vec{y}$> $\equiv$ $\vec{x}$\raisebox{0.5mm}.$\vec{y}$~

Euklidische Norm eines Vektors

$\mid$$\mid$x$\mid$$\mid$$_2$ := $\sqrt{\vec{x},\vec{x}}$~~~(Länge = $\sqrt{x_1^2+x_2^2+x_3^2}$ = $\sqrt{\vec{x}\raisebox{0.5mm}.\vec{x}}$)

Eigenschaften der Norm

  • 1. $\mid$$\mid$x$\mid$$\mid$$_2$ $\geq$ 0
  • 2. $\mid$$\mid$s$\vec{x}$$\mid$$\mid$$_2$ = $\mid$s$\mid$ $\mid$$\mid$$\vec{x}$$_2$$\mid$$\mid$
  • 3. $\mid$$\mid$x$\mid$$\mid$$_2$ = 0 $\Longleftrightarrow$ $\vec{x}$=$\vec{0}$
  • 4. $\mid$$\mid$$\vec{x}$+$\vec{y}$$\mid$$\mid$$_2$ $\leq$ $\mid$$\mid$$\vec{x}$$\mid$$\mid$$_2$ + $\mid$$\mid$$\vec{y}$$\mid$$\mid$$_2$\\[0.3cm]

Ungleichung Cauchy-Schwarz

In eukl. VR. gilt $\forall$ $\vec{x}$,$\vec{y}$$\in$V: $\mid$<$\vec{x}$,$\vec{y}$>$\mid$ $\leq$ $\mid$$\mid$$\vec{x}$$\mid$$\mid$$_2$ $\mid$$\mid$$\vec{y}$$\mid$$\mid$$_2$

$\Delta$-Ungleichung 1

$\mid$$\mid$$\vec{x}$+$\vec{y}$$\mid$$\mid$$_2$ $\leq$ $\mid$$\mid$x$\mid$$\mid$$_2$+$\mid$$\mid$y$\mid$$\mid$$_2$

$\Delta$-Ungleichung 2

$\mid$ $\mid$$\mid$$\vec{u}$-$\mid$$\mid$$\vec{v}$$\mid$$\mid$ $\mid$ $\leq$ $\mid$$\mid$$\vec{u}$-$\vec{v}$$\mid$$\mid$

Winkel zwischen 2 Vektoren

V…eukl. VR.; $\vec{x}$,$\vec{y}$$\in$V, $\vec{x}$,$\vec{y}$$\not=$0

Winkel zwischen $\vec{x}$ und $\vec{y}$ : cos $\alpha$ = $\frac{<\vec{x},\vec{y}>}{\mid\mid x \mid\mid_2 \raisebox{0.5mm}. \mid\mid y \mid\mid_2}$

Satz von Pythagoras in eukl. VR.

$\forall$ $\vec{x}$,$\vec{y}$$\in$V mit $\vec{x}$$\perp$$\vec{y}$ : $\mid$$\mid$$\vec{x}$+$\vec{y}$$\mid$$\mid$$_2^2$ = $\mid$$\mid$x$\mid$$\mid$$_2^2$ + $\mid$$\mid$y$\mid$$\mid$$_2^2$

Orthogonale Vektoren

Zwei Vektoren $\vec{x}$,$\vec{y}$ in einem eukl. VR. sind zueinander senkrecht(orthogonal) wenn <$\vec{x}$,$\vec{y}$>=0 $\rightarrow$ $\vec{x}$$\bot$$\vec{y}$

Ortho[gonal/normal]basis

  • V ein eukl. VR. der Dimension n und B=\{$\vec{b_1}$,…,$\vec{b_n}$\} eine Basis von V
  • B ist OGB von V, falls <$\vec{b_i}$,$\vec{b_j}$>=0 , i$\not=$j
  • B ist \textbf{ONB} von V, falls <$\vec{b_i}$,$\vec{b_j}$>=$\delta$$_{ij}$ (Länge 1)
  • z.B. Kanonische Basis [$\vec{e_1}$,…,$\vec{e_n}$] ist wegen $e_i$.$e_j$=$\delta$$_{ij}$ eine ONB des $\Re$$^n$ mit KIP

Fourierkoeffizienten

Sei B=\{$\vec{b_1}$,…,$\vec{b_n}$\} eine ONB eines eukl. VR. Sei [$\vec{x}$]$_B$=($x_1$,…,$x_n$)$^T$ der Koordinatenvektor des Vektors $\vec{x}$$\in$V bez. der Basis B. Dann heißen die $x_i$, i=1,…,n die \textbf{Fourierkoeffizienten} von x bez. der Basis B.

Existenz einer ONB

  • Jeder endlich-dimensionale eukl. VR. V$\not=$\{$\vec{0}$\} besitzt eine ONB.
  • Diese kann mittels 'Gram-Schmidt' berechnet werden

Orthogonalraum

V eukl. VR. und M$\subseteq$V $\rightarrow$ Menge M$^\bot$:=\{$\vec{x}$$\in$V : $\vec{x}$$\bot$$\vec{z}$ $\forall$ $\vec{z}$$\in$M\}Orthogonalraum zu M $\rightarrow$ Orthogonalraum M$^\bot$ ist Unterraum von V

Bestapproximation mittels

lin. Teilraum U$\subseteq$V und Vektor $\vec{v}$$\in$V. Sei $\vec{u}$ die Orthogonalprojektion von $\vec{v}$ auf U.

Orthogonalprojektion

Dann ist $\vec{u}$ der eindeutig bestimmte Vektor in U, der den kleinsten Abstand von $\vec{v}$ hat.

$\mid$$\mid$$\vec{v}$ - $\vec{u}$$\mid$$\mid$$_2$ = min$\mid$$\mid$$\vec{v}$ - $\vec{x}$$\mid$$\mid$$_2$ = $\mid$$\mid$$\vec{w}$$\mid$$\mid$$_2$~~~;~~~$\mid$$\mid$$\vec{w}$$\mid$$\mid$$_2$ = $\sqrt{\mid\mid\vec{v}\mid\mid_2^2-\mid\mid\vec{u}\mid\mid_2^2}$

Hauptminorenkriterium

  • 1. Reelle sym. nxn-Matrix ist \textbf{pos. definit}, wenn Det aller führenden Hauptminoren pos. sind d.h. det M$_k$>0 , k=1,…,n
  • 2. Reelle sym. nxn-Matrix ist \textbf{neg. definit}, wenn Det aller führenden Hauptminoren alternierendes Vorzeichen haben beginnend mit '-1' $\rightarrow$ sgn(det M$_k$)=(-1)$^k$ , k=1,…,n

Orthogonalmatrix

reelle nxn-Matrix heißt orthogonal, wenn gilt: A$^T$A=AA$^T$=I$_n$ bzw A$^T$=$A^{-1}$

$$\begin{matrix} \frac{1}{\sqrt{2}} & -\frac{1}{\sqrt{2}} \\ \frac{1}{\sqrt{2}} & \frac{1}{\sqrt{2}} \end{matrix}$$

ist orthogonal ($\rightarrow$ Det einer orthogonalen Matrix ist $\pm$1)

Eigenwert (EW)

A…$\Re$/$\cal C$-nxn-Matrix; Zahl $\lambda$$\in$$\cal C$ heißt \textbf{Eigenwert} der Matrix A, falls

Eigenvektor (EV)

es einen Vektor $\vec{v}$$\in$$\cal C$$^n$, $\vec{v}$$\not=$$\vec{0}$ gibt der die Gleichung A$\vec{v}$=$\lambda$$\vec{v}$ erfüllt. Jeder Vektor $\vec{v}$ heißt Eigenwert (immer l.u.) der Matrix A zum Eigenwert $\lambda$

Charakteristisches Polynom

Polynom p($\lambda$):=det(A-$\lambda$I) heißt Charakteristisches Polynom der Matrix A. einer Matrix: \> Eigenwerte sind die Nullstellen dieses Polynoms.

Eigenraum

Für einen Eigenwert $\lambda$ der Matrix A heißt der Unterraum E($\lambda$):=Kern(A-$\lambda$I) der Eigenraum zum Eigenwert $\lambda$

Darstellung von Det und

Matrix A habe EW $\lambda$$_1$,\ldots,$\lambda$$_n$. Mehrfache Nullstellen so oft angeschrieben

Spur mittels EW

wie ihre algebraische Vielfachheit. detA=$\lambda$$_1$\raisebox{0.5mm}.$\lambda$$_2$,…,$\lambda$$_n$ spur(A)=$\lambda$$_1$+$\lambda$$_2$+\ldots+$\lambda$$_n$

Algebraische/geom. Vielfachheit*

Algebraische Vielfachheit (n)

Die Vielfachheit der Nullstellen eines EW

geometrische Vielfachheit (g)

Dimension von E($\lambda$$_i$)=max. Anzahl l.u. EV zum EW $\lambda$$_i$ Anzahl EV = n-Rang(A-I$\lambda$) ; geom. Vielfachheit = Anzahl Jordanblöcke

Diagonalisierbare Matrix

nxn-Matrix A ist diagonalähnlich/diagonalisierbar, wenn A=XDX$^{-1}$ D und X existieren $\rightarrow$ diagonalisierbar wenn n=g

Eigenbasis

Basis die aus lauter EV der Matrix A besteht = Eigenbasis von A

Hauptvektor (HV)

(A-$\lambda$$_x$I)$\vec{h}$=$\vec{v}$ ; $\vec{h}$=HV, $\vec{v}$=EV

Gram-Schmidt

$\vec{v_1}$,$\vec{v_2}$,$\vec{v_3}$ ; $\vec{w_1}$=$\vec{v_1}$ ; $\vec{w_2}$=-$\frac{<\vec{v_2}\raisebox{0.5mm}.\vec{w_1}>}{\vec{w_1}\raisebox{0.5mm}.\vec{w_1}}$$\vec{w_1}$+$\vec{v_2}$ ; $\vec{w_3}$=-$\frac{<\vec{v_3}\raisebox{0.5mm}.\vec{w_1}>}{\vec{w_1}\raisebox{0.5mm}.\vec{w_1}}$$\vec{w_1}$$\frac{<\vec{v_3}\raisebox{0.5mm}.\vec{w_2}>}{\vec{w_2}\raisebox{0.5mm}.\vec{w_2}}$$\vec{w_2}$+$\vec{v_3}$

Bestapprox.

$\vec{v}$ ; ONB: $\vec{b_1}$,$\vec{b_2}$,$\vec{b_3}$ : $\vec{u}$=<$\vec{v}$,$\vec{b_1}$>+<$\vec{v}$,$\vec{b_1}$>$\vec{b_2}$+<$\vec{v}$,$\vec{b_3}$>$\vec{b_3}$

Fehler

$\mid$$\mid$$\vec{u}$ - f$\mid$$\mid$=$\sqrt{\mid\mid f\mid\mid^2-\mid\mid u\mid\mid^2}$

1sem/linalg/lineare_algebra_vo.txt · Last modified: 2014/05/08 20:00 by claus