Für n und k $\in$ $\mathbb{N}_0$, k $\leq$ n ist der Binomialkoeffizient $\binom{n}{k}$ definiert durch:
$$\binom{n}{k} := \frac{n!}{k!(n-k)!}$$
Für alle x, y $\in$ $\mathbb{R}$ und n $\in \mathbb{N}$ gilt:
$${(x+y)}^n=\sum\limits_{k=0}^n \binom{n}{k}x^{n-k}y^k$$
Eine Abbildung $f$ heißt injektiv, wenn für alle $a_1$, $a_2$ $\in$ A gilt: $a_1$ $\not=$ $a_2$ $\Rightarrow$ $f(a_1$) $\not=$ $f(a_2$), d.h. zu jedem b $\in$ B gibt es höchstens ein a $\in$ A mit b = $f$(a).
Eine Abbildung heißt surjektiv, wenn jedes Element von B als Bild eines Elemtentes von A auftritt d.h.: $\forall$ b $\in$ B $\exists$ a $\in$ A mit b = $f$(a). D.h. zu jedem b $\in$ B gibt es mindestens ein a $\in$ A mit b = $f$(a).
Eine Abbildung $f$, die sowohl injektiv als auch surjektiv ist, heißt bijektiv. Anders ausgedrückt: Zu jedem b $\in$ B gibt es genau ein a $\in$ A mit b = $f$(a)
Es seien $g: A \rightarrow B$ und $f:C \rightarrow D$ zwei Funktionen, und es gelte $W_g \subseteq C$. Dann ist durch
$$x \mapsto f(g(x))$$
eine Funktion $f$ o g: A $\rightarrow D$ definiert. Die Funktion $f$ o g heißt Komposition von $f$ und g.
Die Abbildung $f$ : A $\rightarrow$ B sei bijektiv. Dann nennt man die durch $f^{-1}$ : B $\rightarrow$ A, $~f^{-1}$(b) = a $\Leftrightarrow$ $f$(a) = b, definierte Funktion die inverse Abbildung (inverse Funktion, Umkehrfunktion) von $f$.
Zwei Mengen A und B heißen äquivalent (oder gleichmächtig), wenn es eine bijektive Abbildung von A auf B gibt (symbolisch A $\sim$ B).
Die rationalen Punkte liegen auf der Zahlengeraden überall dicht, d.h. beiebig nahe zu jedem Punkt auf der Zahlengerade gibt es einen rationalen Punkt.
Es sei $x_1$, $x_2$, $x_3$,…,$x_n$,…eine Folge rationaler Zahlen, d.h.: $x_n$ $\in$ $\mathbb{Q}$, n $\in \mathbb{N}$. Wir sagen, die Folge konvergiert für n $\rightarrow$ $\infty$ in $\mathbb{Q}$ gegen 0, wenn für jedes $\varepsilon$ $\in$ $\mathbb{Q}$ mit $\varepsilon$ > 0 eine Zahl N existert mit $\mid$$x_n$$\mid$ < $\varepsilon$ für alle n $\geq$ N ($x_n$ = $\frac{1}{n}$ konvergiert in $\mathbb{Q}$ gegen 0.)
Unter einer rationalen Intervallschachtelung S versteht man eine Folge
$[a_1,b_1],[a_2,b_2],\ldots,[a_n,b_n],\ldots$ von Intervallen mit $a_n,b_n \in \mathbb{Q}, n \in \mathbb{N}$ für die gilt:
d.h. jedes Intervall ist im vorhergehenden enthalten
Sei S eine rationale Intervallschachtelung. Dann gibt es einen und nur einen Punkt der Zahlengeraden, der in allen Invervallen $[a_n,b_n], n \in \mathbb{N}$ enthalten ist.
Das Supremum von A, abgekürzt sup A, ist die kleinste obere Schranke von A: Für A $\subseteq$ $\mathbb{R}$ gilt: Eine obere Schranke s von A ist genau dann das Supremum von A, wenn es zu jedem $\varepsilon$ > 0 ein x $\in$ A gibt, so dass x > s - $\varepsilon$ ist.
Das Infimum von A, abgekürzt inf A, ist die größte untere Schranke von A: Für A $\subseteq$ $\mathbb{R}$ gilt: Eine untere Schranke r von A ist genau dann das Infimum von A, wenn es zu jedem $\varepsilon$ > 0 ein x $\in$ A gibt, so dass x < r + $\varepsilon$ ist.
Sei A $\subseteq$ $\mathbb{R}$. Gilt s = sup A und s $\in$ A, so heißt s das Maximum von A, s = max A. Gilt r = inf A und r $\in$ A, so heißt r das Minimum von A, r = min A.
Es sei x $\in$ $\mathbb{R}$ und $\varepsilon$ > 0. Dann heißt das Intervall $$K(x,\varepsilon) := (x - \varepsilon, x + \varepsilon) = \{y \in \mathbb{R}:~\mid y - x\mid~<~\varepsilon \}$$ eine $\varepsilon$-Umgebung von x und die Menge $$K_r(x,\varepsilon) = \{y \in \mathbb{R}:~0~<~\mid y - x\mid~<~\varepsilon \}$$ eine reduzierte $\varepsilon$-Umgebung von x.
Es sei A $\subseteq$ $\mathbb{R}$. Ein Punkt x $\in$ $\mathbb{R}$ heißt:
Die Menge A $\subseteq$ $\mathbb{R}$ heißt offen, wenn A nur aus inneren Punkten besteht. Die Menge A $\subseteq$ $\mathbb{R}$ heißt abgeschlossen, wenn A alle Randpunkte enthält.
Bolzano-Weierstraß:
Jede beschränkte unendliche Teilmenge von $\mathbb{R}$ hat mindestens einen Häufungspunkt.
Eine Folge $\{$$a_n$$\}$ heißt konvergent mit dem Grenzwert a, wenn es zu jedem $\varepsilon$ > 0 ein Index N($\varepsilon$) exisitert, so dass $\forall$ n $\in \mathbb{N}$ mit n $\geq$ N($\varepsilon$) gilt: $$\mid a_n - a \mid < \varepsilon$$ In diesem Fall schreibt man $$\lim\limits_{n \rightarrow \infty} a_n = a$$ Eine nicht konvergente Folge heißt divergent.
Ist eine Folge $\{$$a_n$$\}$ konvergent, so ist ihr Grenzwert eindeutig bestimmt ($\exists$! 1 Grenzwert).
Jede konvergente Folge ist beschränkt, d.h. $\exists$ A > 0 mit $\mid$$a_n$$\mid$ $\leq$ A $\forall$ n $\in \mathbb{N}$.
Eine Folge $\{$$a_n$$\}$ ist eine Cauchyfolge, wenn es zu jedem $\varepsilon$ > 0 ein N = N($\varepsilon$) gibt, so dass für alle m, n $\in \mathbb{N}$ mit m, n $\geq$ N($\varepsilon$) gilt $\mid$$a_m$ - $a_n$$\mid$ < $\varepsilon$ ; (Jede Cauchyfolge ist beschränkt)
Eine Folge $\{$$a_n$$\}$ reller Zahlen ist genau dann konvergent, wenn sie eine Cauchyfolge ist.
Eine Folge $\{$$a_n$$\}$ heißt
Jede monoton wachsende und nach oben beschränkte Folge $\{a_n\}$ ist konvergent, mit
$$\lim\limits_{n \rightarrow \infty} a_n = sup \{a_n\}$$
Jede monoton fallende und nach unten beschränkte Folge $\{b_n\}$ ist konvergent, mit
$$\lim\limits_{n \rightarrow \infty} b_n = \inf \{b_n\}$$
Sind die Folgen $\{$$a_n$$\}$, $\{$$c_n$$\}$ konvergent gegen denselben Grenzwert a und gilt für eine Folge $\{$$b_n$$\}$ : $a_n$ $\leq$ $b_n$ $\leq$ $c_n$ $\forall$ n $\in \mathbb{N}$, n $\geq $ N , so ist auch $\{$$b_n$$\}$ konvergent mit $\lim\limits_{n\rightarrow\infty}$$b_n$ = a.
Die Reihe $\sum\limits_{k=1}^\infty$$a_k$ ist genau dann konvergent, wenn es zu jedem $\varepsilon$ > 0 ein N($\varepsilon$) gibt, so dass für alle m, n $\geq$ N($\varepsilon$) gilt: $$\mid s_n - s_m \mid < \varepsilon,$$ also $\mid$$a_{m+1}$+$\ldots$+$a_n$$\mid$ < $\varepsilon$.
Ist die Reihe $\sum\limits_{k=1}^\infty$$a_k$ konvergent, so gilt $\lim\limits_{n\rightarrow\infty}$$a_n$ = 0
Eine Reihe der Bauart $\sum\limits_{k=0}^\infty(-1)^k$$a_k$, mit $a_k$ > 0 für k = 0,1,2,$\ldots$ heißt alternierende Reihe
Falls die Folge {$a_k$} monton gegen 0 strebt, so ist die alternierende Reihe $\sum\limits_{k=0}^\infty(-1)^k$$a_k$ konvergent. (Nullfolge und Monotonie zu zeigen!)
Für den Reihenrest $R_n = s - s_n$ einer alternierenden Reihe gilt: $$\mid R_n\mid < a_{n+1}, sgn~R_n = (-1)^{n+1}$$
Eine Reihe $\sum\limits_{k=1}^\infty$$a_k$ heißt absolut konvergent , wenn die Reihe $\sum\limits_{k=1}^\infty$$\mid$$a_k$$\mid$ konvergiert.
Es sei $\sum\limits_{k=1}^\infty$$a_k$ eine Reihe mit positiven Gliedern, also $a_k$ > 0. Falls M $\in \mathbb{N}$ existiert, so dass für alle k $\geq$ M gilt $$\mid c_k\mid\leq a_k,$$ dann heißt $\sum\limits_{k=1}^\infty$$a_k$ Majorante der Reihe $\sum\limits_{k=1}^\infty$$c_k$.
Eine Reihe, die eine konvergente Majorante besitzt, ist absolut konvergent.
Es sei $\sum\limits_{k=1}^\infty$$b_k$ eine Reihe mit positiven Gliedern, also $b_k$ > 0. Falls M $\in \mathbb{N}$ exisitert, so dass für alle k $\geq$ M gilt $$\mid c_k\mid \geq b_k,$$ dann heißt $\sum\limits_{k=1}^\infty$$b_k$ Minorante der Reihe $\sum\limits_{k=1}^\infty$$c_k$.
Eine Reihe, die eine divergente Minorante besitzt, ist nicht absolut konvergent.
Gilt für die Reihe $\sum\limits_{k=1}^\infty$$a_k$ ab einem gewissen Index N, also für alle k $\geq$ N
Existiert $\lim\limits_{k\rightarrow\infty}$$\mid$$\frac{a_{k+1}}{a_k}$$\mid$ = r, so gilt:
Gilt für eine Reihe $\sum\limits_{k=1}^\infty$$a_k$ ab einem gewissen Index, also für k $\geq$ N
Exisitert $\lim\limits_{k\rightarrow\infty}$$\sqrt[k]{\mid a_k \mid}$ = r, so gilt:
Eine konvergente Reihe heißt unbedingt konvergent, wenn durch eine beliebige Umordnung sowohl ihre Konvergenz als auch die Summe erhalten bleiben. Andernfalls heißt die Reihe bedingt konvergent.
Eine Reihe ist genau dann unbedingt konvergent, wenn sie absolut konvergent ist.
Die Cauchy'sche Produktreihe zweier Reihen $\sum\limits_{k=0}^\infty$$a_k$ und $\sum\limits_{k=0}^\infty$$b_k$ ist die Reihe:
$$\sum\limits_{k=0}^\infty c_k = \sum\limits_{k=0}^\infty\sum\limits_{l=0}^ka_{k-l}b_l$$
Die Reihen $\sum\limits_{k=0}^\infty$$a_k$ = a und $\sum\limits_{k=0}^\infty$$b_k$ = b seien absolut konvergent. Dann konvergiert ihre Cauchy'sche Produktreihe $\sum\limits_{k=0}^\infty$$c_k$ absolut mit der Summe c = a b.
Sei $f$ : A $\rightarrow$ $\mathbb{R}$ eine reelle Funktion. $f$ heißt
$f$ : $\mathbb{R}$ $\rightarrow$ $\mathbb{R}$ heißt periodisch mit der Periode p > 0, wenn p die kleinste reelle Zahl ist, so dass, $f (x + p)$ = $f(x)$ $\forall$ $x$ $\in$ $\mathbb{R}$
$f : (-a, a) \rightarrow \mathbb{R}$, a > 0, heißt gerade, wenn $f(x) = f(-x), x \in (-a, a)$, und ungerade, wenn $f(x) = -f(-x), x \in (-a, a)$. (analog für $[-a, a])$.
Der Graph einer geraden Funktion ist symmetrisch zur y-Achse (Cosinus, od. $x^²$), der einer ungeraden Funktion symmetrisch zum Ursprung (Sinus, oder $x^³$).
Sei A $\subseteq$ $\mathbb{R}$ offen. Eine Funktion $f$ : A $\rightarrow$ $\mathbb{R}$ heißt stetig an der Stelle c $\in$ A, wenn für jede konvergente Folge {$x_n$} in A mit $\lim\limits_{n \rightarrow \infty}$ $x_n$ = c gilt:
$$\lim\limits_{n \rightarrow \infty} f( x_n ) = f(c)$$
Sei A $\subseteq$ $\mathbb{R}$ offen. Eine Funktion $f$ : A $\rightarrow$ $\mathbb{R}$ heit stetig an der Stelle c $\in$ A, wenn es zu jeder reellen Zahl $\varepsilon$ > 0 eine reelle Zahl $\delta$ = $\delta$($\varepsilon$) > 0 gibt, so dass für alle x mit $\mid c - x\mid < \delta$ gilt: $$\mid f(c) - f(x) \mid < \varepsilon$$
$f$ : (a, b) $\rightarrow$ $\mathbb{R}$ heißt stetig auf (a, b), wenn $f$ stetig an jeder Stelle x $\in$ (a, b) ist. Wir schreiben dafür $f$ $\in$ C(a, b).
Die Funktion $f(x)$ ist genau dann stetig an der Stelle $c$, wenn $f(c-)$ und $f(c+)$ existieren und $f(c-) = f(c+) = f(c)$ gilt.
Falls für eine Funktion $f$ die einseitigen Grenzwerte $f(c-), f(c+)$ existieren und $f(c-) = f(c+)$ $\not=$ $f(c)$ gilt, so spricht man von einer hebbaren Unstetigkeit.
Falls für eine Funktion $f$ die einseitigen Grenzwerte $f(c-), f(c+)$ existieren und $f(c-)$ $\not=$ $f(c+)$ gilt, so spricht man von einer Sprungstelle mit Sprunghöhe $\mid$$f(c+) - f(c-)$$\mid$.
$f(x)$ = sgn$^2$ x. Die Unstetigkeit kann durch Definition $f(0)$ := 1 behoben werden. $f(x)$ = sgn x ist der Punkt $x$ = 0 eine Sprungstelle mit Sprunghöhe 2.
Die Funktion $f(x)$ hat an der Stelle c einen Pol der Ordnung $\alpha$, wenn $f$ geschrieben werden kann als $f(x)$ = $\frac{g(x)}{(x-c)^\alpha}$, $\alpha$ > 0, wobei $g$ an der stelle $c$ stetig ist und $g(c)$ $\not=$ 0.
Auf einem abgeschlossenen Intervall nimmt eine stetige Funktion stets ihr Minimum und Maximum an.
Eine auf einem abgeschlossenen Intervall $I$ = [a, b] stetige Funktion $f$ : $I$ $\rightarrow$ $ \mathbb{R}$ nimmt jeden Zwischenwert (mindestens) einmal an, d.h.:
$\forall$ $\eta$ $\in$ [$\underset{\text{x$\in$I}}{min}$ $f$(x), $\underset{\text{x$\in$I}}{max}$ $f$(x)] $\exists$ c $\in$ I mit $f(c)$ = $\eta$
Eine Funktion $f$(x) heißt gleichmäßig stetig auf dem Intervall $I \subseteq$ $\mathbb{R}$, wenn zu jedem $\varepsilon$ > 0 ein $\delta$ existiert, so dass $\mid$$x_1$ $-$ $x_2$$\mid$ < $\delta$ folgt $\mid$$f$($x_1$) $-$ $f$($x_2$)$\mid$ < $\varepsilon$
Eine Funktion $f$(x) heißt Lipschitz-stetig auf dem Intervall $I$, wenn es eine Konstante L $\geq$ gibt, so dass
$$|f(x_1) - f(x_2)| \leq L~|x_1 - x_2|~\forall x_1, x_2 \in I.$$
Die betreffende Konstante L heißt Lipschitzkonstante von $f$ auf $I$.
Lipschitz-Stetigkeit impliziert Stetigkeit.
$f$(x) heißt auf dem Intervall $I$
Jedes Polynom vom Grad $\geq$ 1 hat mindestens eine (reelle oder komplexe) Nullstelle.
Seien p(x) und q(x) zwei Polynome vom Grad $\leq$ n. Falls die beiden Polynome an n + 1 paarweise verschiedenen Stellen den gleichen Wert haben, so sind die Polynome identisch, d.h. p(x) = q(x) für alle x $\in \mathbb{R}$.
Eine Funktion R(x) = $\frac{p(x)}{q(x)}$, wobei p(x) und q(x) Polynome sind, heißt rationale Funktion. Der Definitionsbereich von R(x) ist die Menge D = $\mathbb{R}~\backslash~ \{x_1,\ldots,x_r\}$, wobei die $x_i, ~i=1\ldots$r, die Nullstellen des Nennerpolynoms q(x) sind.
Sei $f : (a, b) \rightarrow \mathbb{R}$ und x $\in (a, b)$. Wenn $\lim\limits_{h\rightarrow 0}\frac{f(x~+~h)~-~f(x)}{h}$ existiert, dann heißt $f$ differenzierbar an der Stelle x. Man schreibt
$$f'(x)=\lim\limits_{h\rightarrow0} \frac{f(x~+~h)~-~f(x)}{h}$$
und bezeichnet $f'(x)$ als die 1. Ableitung von $f$ an der Stelle x.
Hier gilt die wichtige Kettenregel:
Unter den Voraussetzungen
ist auch die Funktion $f\circ g$ an der Stelle differenzierbar und es gilt $$(f \circ g)'(x)=f'(g(x))g'(x).$$
Sei $f(x)$ in $(a,b)$ differenzierbar und streng monoton, weiters sei $f'(x) \not= 0,x \in (a,b)$. Dann existiert die Umkehrfunktion $f^{-1}$ und ist differenzierbar. Es gilt
$$(f^{-1}(y))' = \frac{1}{f'(f^{-1}(y))}$$
$f: I = (a,b) \rightarrow \mathbb{R}$ heißt differenzierbar auf $I$, falls $f'(x)$ an der Stelle $x \in I$ existiert. Ist $f'(x)$ stetig auf $I$, so heißt $f(x)$ stetig differenzierbar auf $I$, was man mit $f \in C^1(a,b)$ notiert.
$f(x)$ heißt stetig differenzierbar auf $[a,b]$, wenn $f$ auf $[a,b]$ stetig ist, auf $(a,b)$ differenzierbar und die einseitigen Grenzwerte $f'(a+),f'(b-)$ existieren. Man schreibt dafür $f \in C^1[a,b]$.
$f(x)$ sei stetig auf $[a,b]$ und differenzierbar auf $(a,b)$. Dann gibt es mindestens einen Punkt $\xi \in (a,b)$, so dass gilt
$$f'(\xi) = \frac{f(b) - f(a)}{b - a}$$
Es seien $f, g$ stetig auf $[a,b]$ und differenzierbar auf $(a,b)$. Dann $\exists\xi \in (a,b)$, so dass
$$f'(\xi)(g(b) - g(a)) = g'(\xi)(f(b) - f(a))$$
Der Spezialfall $g(x) = x$ liefert den 1. Mittelwertsatz.
Sei $f$ stetig auf $[a,b]$ und differenzierbar auf $(a,b)$. Dann gilt:
Die Funktionen $f,g : [a,b] \rightarrow \mathbb{R}$ seien stetig und auf $(a,b)$ differenzierbar.
Es sei $f(a) = g(a) = 0$,~~~~$g'(x) \not= 0,~~~~x \in (a,b)$, und es existiere
$$\lim\limits_{x \rightarrow a+} \frac{f'(x)}{g'(x)} = \alpha~~~~(\alpha = \pm\infty~zugelassen!)$$
Dann ist auch
$$\lim\limits_{x \rightarrow a+} \frac{f'(x)}{g(x)} = \alpha$$
Eine analoge Version des Satzes gilt natürlich auch für den linksseitigen Grenzwert: $\lim\limits_{x \rightarrow b-} \frac{f(x)}{g(x)}$
Ist $\lim\limits_{x \rightarrow a+} f(x) = \lim\limits_{x \rightarrow a+} g(x) = +\infty$ und $\lim\limits_{x \rightarrow a+} \frac{f'(x)}{g'(x)} = \alpha$, mit $\alpha = \overset{-}{\mathbb{R}}$, dann gilt
$$\lim\limits_{x \rightarrow a+} \frac{f(x)}{g(x)} = \alpha$$
(ein analoges Resultat gilt auch für $\lim\limits_{x \rightarrow a-} und \lim\limits_{x \rightarrow \pm \infty})$
Eine Funktion heißt konvex auf einem Intervall $I$, wenn für je zwei verschiedene Punkte $x_1, x_2 \in I$ und für alle $\lambda \in (0,1)$ stets gilt:
$$f((1 - \lambda)x_1 + \lambda x_2) \leq (1 - \lambda)f(x_1) + \lambda(x_2)$$
Gilt dagegen die umgekehrte Ungleichung, so heißt $f$ konkav. Stehen in der obigen Beziehung die Zeichen < bzw. >, so heißt $f$ streng konvex bzw. streng konkav
Ist die Funktion $f$ auf dem Intervall $I$ stetig und im Inneren desselben zweimal differenzierbar, so ist sie
Es sei $f: [a,b] \rightarrow \mathbb{R}$ eine $(n + 1)$-mal stetig differenzierbare Funktion. Dann gilt für alle $x_0 \in [a,b]$ und $x \in [a,b]$ die Taylor'sche Formel:
$$f(x) = f(x_0)+\frac{f'(x_0)}{1!}(x-x_0)+\frac{f''(x_0)}{2!}(x-x_0)^2+\ldots+\frac{f^{(n)}(x_0)}{n!}(x-x_0)^n+R_{n+1}(x)$$
mit dem Restglied der Ordnung n + 1
$$R_{n+1}(x) = \frac{f^{(n+1)}(x_0 + \vartheta(x - x_0))}{(n + 1)!}(x - x_0)^{n+1},~~~~\vartheta \in [0,1]$$
Bleibt der Quotient $\frac{f(x)}{\varphi(x)}$ für alle $x \in D$, die hinreichend nahe bei $x_0$ liegen, beschränkt so schreibt man symbolisch: $"f(x) = O(\varphi(x))$ für x $\rightarrow x_0"$.
In Worten: $f$ ist an der Stelle $x_0$ höchstens von derselben Größenordnung wie $\varphi$. Oder: $f(x)$ ist ein “groß $O$” von $\varphi(x)$ für $x \rightarrow x_0.$
Gilt die stärkere Bedingung $\lim\limits_{x \rightarrow x_0}\frac{f(x)}{\varphi(x)}$ = 0, so schreibt man symbolisch $"f(x) = o(\varphi(x))$ für $x \rightarrow x_0"$: $f(x)$ ist ein “klein o” von $\varphi(x)$ für $x \rightarrow x_0.$
Bleibt der Quotient $\frac{f(x)}{\varphi(x)}$ für alle $x \in D$, die hinreichend groß sind, beschränkt, so schreibt man: $"f(x) = O(\varphi(x))$ für $x \rightarrow +\infty"$.
Gilt die stärkere Bedingung $\lim\limits_{x \rightarrow +\infty} \frac{f(x)}{\varphi(x)}$ = 0, so schreibt man $"f(x) = o(\varphi(x))$ für $x \rightarrow +\infty"$.
Sei $f'(x_0), f^{(k)}(x_0) = 0$ für $2 \leq k \leq n$, jedoch $f^{(n+1)}(x_0) \not= 0$.
$$x_{(n+1)} := x_n - \frac{f(x_n)}{f'(x_n)},~~~n = 0,1,2,\ldots$$
$f$ sei auf $[a,b]$ beschränkt. $f$ heißt Riemann-integrierbar auf $[a,b]$, falls sup $\cal U = \inf \cal O$. Diese Zahl heißt dann $"$(Riemann-)Integral von $f$ über $[a,b]"$,
$$\int_a^bf(x)dx := sup~\cal U = \inf \cal O$$
$f(x)$ sei integrierbar auf $[a,b]$. Dann gilt $$\int_a^bf(x)dx = \lim\limits_{n \rightarrow \infty}U(f;T_n) = \lim\limits_{n \rightarrow \infty} O (f; T_n) = \lim\limits_{n \rightarrow \infty}R(f; T_n, Z_n)$$
für jede ausgezeichnete Zerlegungsfolge $\{T_n\}$ und für jede beliebige Wahl von Zwischenstellen $\{Z_n\}$
Ist $f(x)$ stetig auf $[a,b]$, so gibt es ein $\xi \in [a,b]$, so dass
$$\int_a^bf(x)dx = f(\xi)(b - a)$$
$f(x)$ sei stetig auf $[a,b]$ und $g : [a,b] \rightarrow \mathbb{R}$ sei integrierbar, $g(x) \geq 0, x \in [a,b]$, $\int\limits_a^bg(x)dx > 0$. Dann existiert $\xi \in [a,b]$, so dass
$$\int_a^bf(x)g(x)dx = f(\xi)\int_a^bg(x)dx$$
Sei $f : [a,b] \rightarrow \mathbb{R}$ stetig. Für alle $x \in [a,b]$ ist die Funktion $F(x) = \int\limits_a^b f(u)du$ stetig differenzierbar und es gilt
$$F'(x) = \frac{d}{dx}\int_a^xf(s)ds = f(x)$$
Es sei $f: I \rightarrow \mathbb{R}$ stetig und F sei eine Stammfunktion von $f$. Dann gilt für $a,b \in I$
$$\int_a^bf(x)dx = F(b) - F(a) =: F(x)\overset{b}{\underset{a}{\mid}}$$
$$\int u(x)v'(x)dx = u(x)v(x) - \int u'(x)v(x)dx + C$$
$f : [a,\infty] \rightarrow \mathbb{R}$ heißt lokal integrierbar auf $[a, \infty)$, wenn $\int\limits_a^xf(t)dt$ existiert für alle $x \in [a,\infty)$
$f$ sei lokal integrierbar auf $[a,\infty]$. Existiert $\lim\limits_{x \rightarrow \infty}\int\limits_a^xf(t)dt$, so heißt $f$ über $[a,\infty)$ uneigentlich integrierbar. Den Grenzwert bezeichnet man mit $\int\limits_a^\infty f(t)dt$ und nennt ihn das uneigentliche Integral von $f$ über $[a,\infty)$. Existiert der Grenzwert nicht, so sagt man das uneigentliche Integral divergiert. (Analoge Definition für $(-\infty,b])$.
$f : [a,\infty) \rightarrow$ sei lokal integrierbar. $f$ ist genau dann über $[a,\infty)$ integrierbar, wenn zu jedem $\varepsilon > 0$ eine Zahl $A = A(\varepsilon)$ existiert, so dass
$$\mid\int\limits_\alpha^\beta f(t) dt \mid < \varepsilon~für~\alpha, \beta > A$$
Gibt es ein $c \in \mathbb{R}$, so dass die uneigentliche Integrale
$$\int_{-\infty}^c f(t)dt~und~\int_c^\infty f(t)dt$$
konvergieren dann konvergiert auch $\int\limits_{-\infty}^\infty f(t)dt$, und man setzt
$$\int_{-\infty}^\infty f(t)dt = \int_{-\infty}^c f(t)dt + \int_c^\infty f(t)dt,$$
andernfalls divergiert $\int\limits_{-\infty}^\infty f(t)dt$
$f: (a,b] \rightarrow \mathbb{R}$ heißt lokal integrierbar über $(a,b]$, wenn $\int\limits_x^b f(t)dt$ existiert für alle $x \in (a,b]$.
$f$ sei lokal integrierbar über $(a,b]$ und unbschränkt in a. Existiert $\lim\limits_{x \rightarrow a+} \int\limits_x^b f(t)dt$, so heißt $f$ über $(a,b]$ uneigentlich integrierbar. Den Grenzwert bezeichnet man mit $\int\limits_a^b f(t)dt$ und nennt ihn das uneigentliche Integral von $f$ über $(a,b]$.