next up previous contents index
Next: Strukturen linearer Abbildungen Up: Vektroräume Previous: Summen in Vektorräumen   Contents   Index

Subsections

Lineare Abbildungen

Lineare Abbildung, Bild, Kern

Seien $ V$ und $ W$ Vektorräume über demselben Körper $ K$.

Eine Abbildung $ f:V\rightarrow W$ heißt linear (über $ K$), falls gilt:

$\displaystyle \forall\lambda,\mu\in K,u,v\in V:f\left(\lambda u+\mu v\right)=\lambda f\left(u\right)+\mu f\left(v\right)$

Sei $ f:V\rightarrow W$ lineare Abbildung. Die Menge $ \textrm{im}f=\left\{ f\left(v\right)\vert v\in V\right\} \subseteq W$ heißt Bild von $ f$.

Die Menge $ \textrm{ker}f=\left\{ v\in V\vert f\left(v\right)=0\right\} \subseteq V$ heißt Kern von $ f$.

Projektion

Eine Abbildung, für die gilt $ f\circ f=f$, nennt man eine Projektion.


Dimensionsformel

Für das Folgende erweitern wir die Addition in $ \mathbb{N}$ auf die Menge $ \mathbb{N}\cup\left\{ \infty\right\} $ wie folgt: $ \forall n\in\mathbb{N}:n+\infty=\infty+n=\infty$.

Sei $ f:V\rightarrow W$ eine lineare Abbildung.

Es gilt

$\displaystyle \dim\textrm{ker}f+\dim\textrm{im}f=\dim V$

Injektiv, Surjektiv, Bijektiv

Sei $ f:V\rightarrow V$ linear und $ \textrm{dim}V<\infty$. Dann sind Injektivität, Surjektivität und Bijektivität äquivalent.

Rang

Sei $ f:V\rightarrow W$ linear.

$\displaystyle \textrm{rank}_{K}f=\dim_{k}f\left(V\right)=\dim_{k}\textrm{im}f$

heißt Rang von $ f.$

Lineare Abbildungen und Basen

Sei $ \left(v_{1},\ldots,v_{n}\right)$ Basis von $ V$ und $ f:V\rightarrow W$ lineare Abbildung. Es gilt:

  1. $ \textrm{lin}\left(f\left(v_{1}\right),\ldots,f\left(v_{n}\right)\right)=\textrm{im}f$
  2. $ \textrm{rank}f=$ maximale Länge einer linear unabhängigen Teilfamilie von $ \left(f\left(v_{1}\right),\ldots,f\left(v_{n}\right)\right)$
  3. $ f$ surjektiv $ \Leftrightarrow$ $ \textrm{rank}f=\dim W$
  4. $ f$ injektiv $ \Leftrightarrow$ $ \left(f\left(v_{1}\right),\ldots,f\left(v_{n}\right)\right)$ linear unabhängig
  5. $ f$ bijektiv $ \Leftrightarrow$ $ \left(f\left(v_{1}\right),\ldots,f\left(v_{n}\right)\right)$ Basis von $ W$


Hauptsatz über lineare Abbildungen

Seien $ V,W$ $ K$-Vektorräume, $ \left(v_{1},\ldots,v_{n}\right)$ Basis von $ V$ und $ w_{1},\ldots,w_{n}\in W$. Dann existiert genau eine lineare Abbildung $ f:V\rightarrow W$ mit $ \forall i:f\left(v_{i}\right)=w_{i}$

Isomorphismus

Eine bijektive $ K$-lineare Abbildung heißt $ K$-Vektorraum-Isomorphismus.

Zwei $ K$-Vektorräume $ V,W$ heißen isomorph, falls ein $ K$-Vektorraum-Isomorphismus $ f:V\rightarrow W$ existiert.

Sei $ V$ ein $ n$-dimensionaler $ K$-Vektorraum mit $ n<\infty$. Dann ist $ V$ isomorph zu $ K^{n}$.

Matrix

Sei $ X$ eine Menge und $ m,n\in\mathbb{N}\backslash\left\{ 0\right\} $. Eine $ \left(m\times n\right)$-Matrix $ M$ mit Koeffizienten in $ X$ ist eine Abbildung $ M:\left\{ 1,\ldots,m\right\} \times\left\{ 1,\ldots,n\right\} \rightarrow X$. Üblicherweise schreibt man so ein $ M$ als rechteckiges Schema.

$\displaystyle \left(\begin{array}{ccc}
M\left(1,1\right) & \ldots & M\left(1,n\...
...ts & \vdots\\
M\left(m,1\right) & \ldots & M\left(m,n\right)\end{array}\right)$


Abbildungsmatrix

Sei $ V,W$ Vektorräume über $ K$ und $ f:V\rightarrow W$ eine lineare Abbildung. Seien $ \mathcal{B}=\left(v_{1},\ldots,v_{n}\right)$ und $ \mathcal{C}=\left(w_{1},\ldots,W_{n}\right)$ Basen von $ V$ bzw. $ W$. Für jedes $ i\in\left\{ 1,\ldots,m\right\} $ existiert eindeutig bestimmte $ \mu_{i1},\ldots,\mu_{in}\in K$ mit $ f\left(v_{i}\right)=\mu_{i1}w_{1}+\ldots+\mu_{in}w_{n}$. Die Matrix $ M_{\mathcal{B},\mathcal{C}}\left(f\right):\left\{ 1,\ldots,m\right\} \times\left\{ 1,\ldots,n\right\} \rightarrow K:\left(i,j\right)\mapsto\mu_{ij}$ heißt Matrix von $ f$ bzgl. $ \mathcal{B}$ und $ \mathcal{C}$.


Besondere Matrizen


Diagonalmatrix

$\displaystyle \textrm{diag}\left(a_{1},\ldots,a_{n}\right)=\left(\begin{array}{ccc}
a_{1} & & 0\\
& \ddots\\
0 & & a_{n}\end{array}\right)$


Einheitsmatrix

$\displaystyle I_{n}=\left(\delta_{ij}\right)=\textrm{diag}\left(\underbrace{1,\...
...ight)=\left(\begin{array}{ccc}
1 & & 0\\
& \ddots\\
0 & & 1\end{array}\right)$


Elementarmatrizen


$\displaystyle E_{kl}$ $\displaystyle =$ $\displaystyle \left(e_{ij}\right)\in K^{m\times n}$  

$\displaystyle e_{ij}=\begin{cases}
1 & \textrm{falls }\left(i,j\right)=\left(k,l\right)\\
0 & \textrm{falls }\left(i,j\right)\neq\left(k,l\right)\end{cases}$

Permutationsmatrix
 

$\displaystyle {\scriptscriptstyle \left(\begin{array}{ccccc}
\ddots & & \ldots ...
...nd{array} & & \vdots\\
& 1 & & 0\\
0 & & \ldots & & \ddots\end{array}\right)}$

Stochastische Matrix

$\displaystyle \forall i:\sum_{j=1}^{n}a_{ij}=1$

Transposition
 

$\displaystyle A^{tr}$ $\displaystyle =$ $\displaystyle \left(\begin{array}{ccc}
a_{11} & \ldots & a_{1n}\\
\vdots & \ddots & \vdots\\
a_{m1} & \ldots & a_{mn}\end{array}\right)^{tr}$  
  $\displaystyle =$ $\displaystyle \left(\begin{array}{ccc}
a_{11} & \ldots & a_{m1}\\
\vdots & \ddots & \vdots\\
a_{1n} & \ldots & a_{nm}\end{array}\right)$  

Nilpotent
 
Eine Matrix $ A\in K^{n\times n}$ heißt nilpotent, falls ein $ k\in\mathbb{N}$ existiert mit

$\displaystyle A^{k}=0$


next up previous contents index
Next: Strukturen linearer Abbildungen Up: Vektroräume Previous: Summen in Vektorräumen   Contents   Index
Marco Möller 20:09:10 02.12.2005