commit 56f19c9c280be3d2666292e1bf1badf0f0ba256b
parent 058b94688ac145b2e3e529f8fbdb400fbd0d6040
Author: orangerot <orangerot@orangerot.dev>
Date: Fri, 20 Feb 2026 16:03:08 +0100
fix(numerik): spelling mistakes
Diffstat:
| M | numerik/summary.typ | | | 182 | ++++++++++++++++++++++++++++++++++++++++---------------------------------------- |
1 file changed, 91 insertions(+), 91 deletions(-)
diff --git a/numerik/summary.typ b/numerik/summary.typ
@@ -7,9 +7,9 @@
$
"FL" = {
- +- sum_(l=1)^(L_m) a_l B^(-l) B^e : e = e_"min" + sum_(l=0)^(L_e - 1) c_l B^l,
+ +- sum_(l=1)^(L_m) a_l B^(-l) B^e : e = e_"min" + sum_(l=0)^(L_e - 1) c_l B^l,
a_l, c_l in {0, ..., B-1}, a_1 != 0
-} union {0}
+} union {0}
$
#columns()[
@@ -22,7 +22,7 @@ $
#colbreak()
-Relative Maschinengenauigkeit
+Relative Maschinengenauigkeit
$
abs(x - "fl"(x)) / abs(x) <= (B^(1- L_m)) / 2 =: "eps" \
@@ -32,19 +32,19 @@ $
]
Stabilität eines Algorithmus: Fehlerverstärkung des Verfahrens ist "moderat"
-groß (im vergleich zum unvermeidbaren Fehler).
+groß (im Vergleich zum unvermeidbaren Fehler).
#columns(gutter: 0.1cm)[
== Cholesky-Zerlegung
-Ist eine $A in bb(R)^(N times N)$ symmetrisch und positix definit, existirt eine
+Ist eine $A in bb(R)^(N times N)$ symmetrisch und positiv definit, existiert eine
Cholesky-Zerlegung $A = L L^T$
1. Berechne Cholesky-Zerlegung $A = L L^T$
2. Löse $L y = b$ durch Vorwärtssubstitution
3. Löste $L^T x = y$ durch Rückwärtssubstitution
-$l_(n n) > 0$ macht die Zerlegugn eindeutig.
+$l_(n n) > 0$ macht die Zerlegung eindeutig.
$
Q(lambda m) = lambda Q m = - lambda w " für alle " lambda in bb(R) \
@@ -54,15 +54,15 @@ $
#colbreak()
== LR-Zerlegung
-Ist jeder Hauptminor von $A in bb(R)^(N times N)$ regulär, existire eine
+Ist jeder Hauptminor von $A in bb(R)^(N times N)$ regulär, existiere eine
LR-Zerlegen $A = L R$. Ist $A in bb(R)^(N times N)$ regulär existiert eine LR-Zerlegung mit
-Spaltenpivotwahl $P A = L R$.
+Spaltenpivotwahl $P A = L R$.
1. Berechne Zerlegung $P A = L R$ durch Gauß-Elimination
2. Löse $L y = P b$ durch Vorwärtssubstitution in $1/2 N^2$ Ops
3. Löse $R x = y$ durch Rückwärtssubstitution $x_n = [y_n - sum_(j=n+1)^N r_(n j) x_j] / r_(n n)$ in $O(1/2 N^2)$ Ops
-$l_(n n) = 1$ liefiert Eindeutigkeid der Zerlegung.
+$l_(n n) = 1$ liefert Eindeutigkeit der Zerlegung.
]
#pagebreak()
@@ -84,11 +84,11 @@ norm(A^(-1)) &= sup_(x != 0) norm(A^(-1) x)/ norm(x) =^(A^(-1)x = 1) sup_(z !=
$
#table(columns: 4, align: center + horizon,
-[Spaltensummennorm],
+[Spaltensummennorm],
$ norm(A)_1 = max_(m=1,...,N) sum_(n=1)^N abs(a_"nm") $,
-$ norm(x)_1 = sum_(n=1)^N abs(x_n) $,
+$ norm(x)_1 = sum_(n=1)^N abs(x_n) $,
[1-Norm],
-[Zeilensummennorm],
+[Zeilensummennorm],
$ norm(A)_oo = max_(n=1,...,N) sum_(m=1)^N abs(a_"nm") $,
$ norm(x)_oo = max_(n=1,...,N) abs(x_n) $, [Maximumsnorm],
[Spektralnorm], $ norm(A)_2 = sqrt("größter EW von " A^T A) $, $ norm(x)_2 = sqrt(sum_(n=1)^N x_n^2) $, [euklidische Norm]
@@ -145,13 +145,13 @@ norm(Q)^2$
Geg. $A in bb(R)^(M times N), M >= N, "voller Rang" (=N)$\
Ges. orthogonales $Q in bb(R)^(M times N)$ und $R = mat(dash(R);0) in bb(R)^(M
-times N)$, rechte obere Dreiecksmatrix $dash(R) in bb(R)^(N times N)$
+times N)$, rechte obere Dreiecksmatrix $dash(R) in bb(R)^(N times N)$
#rect()[
=== Householder-Transformation
Householdermatrix Q ist symmetrisch, orthogonal und eine Spiegelung eines
-Vektors v auf ein Vielfaches des Vektors u $(=e^1)$ mit Spiegelachse $perp w$ (Householdervektor).
+Vektors v auf ein Vielfaches des Vektors u $(=e^1)$ mit Spiegelachse $perp w$ (Householdervektor).
$
Q = I_N 2 w w^T => Q v = sigma e^1 = -"sign"(v_1) norm(v)_2 e^1 = v - 2 w^T v w
@@ -162,20 +162,20 @@ Q wird eigl. nie ausgerechnet, sondern nur w gespeichert und QA wird berechnet
aus $(Q a^1, Q a^2, ...)$ Spaltenvektoren von A. (2M(N-1)) Ops
$
-"(Householdervektor) " w = (v - u)/norm(v - u)_2 = (v - sigma e^1)/norm(v - sigma e^1)_2
+"(Householdervektor) " w = (v - u)/norm(v - u)_2 = (v - sigma e^1)/norm(v - sigma e^1)_2
#h(1cm) sigma = -"sign"(v_1)norm(v)_2 = cases(-&norm(v)_2 ", falls " v_1 > 0,
&norm(v)_2 ", falls " v_1 <= 0)
$
]
-Berechne Householder-Transformation des ersten Spaltenvektors $a^1$ von $A^((n))$
+Berechne Householder-Transformation des ersten Spaltenvektors $a^1$ von $A^((n))$
$
-w = (a^1 - sigma e^1) / norm(a^1 - sigma e^1)
-#h(1cm) ,
+w = (a^1 - sigma e^1) / norm(a^1 - sigma e^1)
+#h(1cm) ,
Q a^1 = r^1 = sigma e^1 = -"sign"(a^1) norm(a^1)_2 e^1
-#h(1cm) ,
-Q^((n)) A^((n))
+#h(1cm) ,
+Q^((n)) A^((n))
= mat(
r_(11), r_(12)^T;
, A^((n+1))
@@ -187,20 +187,20 @@ sigma, r_(12)^T;
$
Durch die Householder-Transformation bekommen wir die Matrix für die nächste
-Iteration.
+Iteration.
Householdervektor $tilde(w)^((n+1))$ ist eine Dimension kleiner. Um diesen an
das vorherige Ergebnis zu multiplizieren $w^((n+1)) = vec(0, tilde(w)^((n+1)))$
sodass $Q^((n+1)) = mat(1, 0; 0, tilde(Q)^((n+1)))$ (alternativ: es wird auf
$e^n$-Vektor gespiegelt)
-Insgesamt: in $M N^2-1/3 N^3$ Ops #h(2cm) $Q_N ... Q_2 Q_1 A =: R
+Insgesamt: in $M N^2-1/3 N^3$ Ops #h(2cm) $Q_N ... Q_2 Q_1 A =: R
#h(1cm)
Q_1 ... Q_N =: Q$
#grid(columns: 2*(1fr,), align: left,
[
-=== Lineares Ausgleichsproblem $norm(A x - b)_2 = min!$
+=== Lineares Ausgleichsproblem $norm(A x - b)_2 = min!$
Berechne $A = Q R$ \
Berechne $Q^T b = vec(c, d)$ \
Löse $dash(R) x = c$ (Rückwärtssubstitution)
@@ -222,7 +222,7 @@ $
1. setze $A_0 = A$ und $k = 0$
2. zerlege $A_k = Q_k R_k$
-3. berchne $A_(k+1) = R_k Q_k$, erhöhe k um 1 und gehe zu 2 #h(2cm)
+3. berechne $A_(k+1) = R_k Q_k$, erhöhe k um 1 und gehe zu 2 #h(2cm)
$O(N^3)$ Ops pro Iteration
$k -> oo: A_k -> R = mat(lambda_1, *, *, *; , lambda_2, *, *; ,, dots.down, *;
@@ -277,8 +277,8 @@ $
<=>&& x^* approx & x^0 - f'(x^0)^(-1) f(x^0) \
=>&& x^(k+1) = & x^k - f'(x^k)^(-1) f(x^k) \
& ""#place()[Berechnung der inversen Jacobi-Matrix vermeiden] \
-<=>&& x^(k+1) = & -f'(x^k)^(-1) f(x^k) \
-<=>&& f'(x^k) underbrace((x^(k+1) - x^k), =d^k) = & - f(x^k) \
+<=>&& x^(k+1) = & -f'(x^k)^(-1) f(x^k) \
+<=>&& f'(x^k) underbrace((x^(k+1) - x^k), =d^k) = & - f(x^k) \
$
1. Wähle Startwert $x^0 in D$ und Toleranz $epsilon$. Setze $k=0$
@@ -288,9 +288,9 @@ $
Sonst erhöhe k um 1 und gehe zu 2.
Bem.: Man wählt nicht $norm(f(x^k)) < epsilon$ als STOP-Kriterium, weil das
-Problem $A f(x) = 0$ (A regulär) dann eine andere Lösung hätte.
+Problem $A f(x) = 0$ (A regulär) dann eine andere Lösung hätte.
$A f(x) = 0$ ändert Iterierten nicht, deshalb ist $norm(d^k) < epsilon$ besser,
-weil so bei $A f(x) = 0$ und $f(x) = 0$ die Lösung und Iterierten gleich bleiben.
+weil so bei $A f(x) = 0$ und $f(x) = 0$ die Lösung und Iterierten gleich bleiben.
==== lokale quadratische Konvergenz
@@ -301,7 +301,7 @@ in kappa$ ebenfalls in $kappa$ und es gilt $lim_(k->oo) x^k = x^*$.
Weiter existiert eine Konstante $c > 0$ mit $norm(x^* - x^k) <= c norm(x^* -
x^(k-1))^2$ für $k in bb(N)$
-==== Homotopie-Verfahren: guten Startwerd suchen
+==== Homotopie-Verfahren: guten Startwert suchen
$g: bb(R)^N -> bb(R)^N$ eine (einfache) Funktion mit bekannter Nullstelle
$x^0$. Definiere $f_s (x) = (1-s) g(x) + s f (x)$, wählen $0 < s_1 < s_2 < ...
< s_M = 1$ und lösen $f_(s_n) (x) = 0$ mit Newton mit Startvektor $x^(m-1)$ mit
@@ -319,20 +319,20 @@ $(A_k)_(n m) = 1/h (f_n (x^k + h ^m) - f_n (x^k))$
==== Vereinfachtes Newton-Verfahren
pro Iteration $f'$ auswerten und LR-Zerlegen ist teuer. Stattdessen $A approx
-f'(x^0)$ alse einmal $f'$ auswerten und LR-Zerlegen. $F(x) = x - A^(-1) f (x)$
-Nurnoch lineare Konvergenz.
+f'(x^0)$ als einmal $f'$ auswerten und LR-Zerlegen. $F(x) = x - A^(-1) f (x)$
+Nur noch lineare Konvergenz.
==== Globale Minimierung
Wir suchen $x^* in bb(R)^N$ mit $f(x^*) <= f(x)$ für alle $x in bb(R)^N$. dh
-insbesodere grad $f(x^*) = 0_N$. Wir berechnen Nullstelle von $gradient f(x) =
+insbesondere gerade $f(x^*) = 0_N$. Wir berechnen Nullstelle von $gradient f(x) =
("grad" f(x))^T$ mit Newton $x^(k+1) = x^k - H_f (x^k)^(-1) gradient f(x^k)$.
-$H_f$ Hessematrix.
+$H_f$ Hessematrix.
-==== Nichlineare ausgleichrrechnung $norm(f(x))_2 = min!$
+==== Nichtlineare Ausgleichsrechnung $norm(f(x))_2 = min!$
Wähle Startwert $x^0 in bb(R)^N$ für $k=0,1,...$\
-1. löse lineares Ausglechsproblem $norm(f'(x^k) d^k + f(x^k))_2 = min$
+1. löse lineares Ausgleichsproblem $norm(f'(x^k) d^k + f(x^k))_2 = min$
2. setze $x^(k+1) = x^k + d^k$
#pagebreak()
@@ -347,37 +347,37 @@ mit $p(x_n) = f_n "für alle " n=0,...,N$
Problem: Suche zu N+1 Stützstellen $(x_0, f_0), ..., (x_0, f_0)$ ein Polynom p
-vom Grad $<= N (p in bb(P)_N)$, welches das Interpolationsproblem (s.o.) lösst:
-$p(x_n) = f_n " für alle " n = 0,...,N$,
+vom Grad $<= N (p in bb(P)_N)$, welches das Interpolationsproblem (s.o.) löst:
+$p(x_n) = f_n " für alle " n = 0,...,N$,
-==== Eindeutigkeit des Interolationspolynoms zu einem Interpolationsproblem:
+==== Eindeutigkeit des Interpolationspolynoms zu einem Interpolationsproblem:
Nehmen wir an es gäbe zwei Polynome $p,q in bb(P)_N$ vom Grad $<= N$ welche das
gleiche Interpolationsproblem lösen. $p(x_n) = q(x_n) = f_n "für " n = 0,...,N$.
-Dann wäre $p-q in bb(P)_N$ ein Polynom vom Grad $<= N$, welcehs $N+1$
-Nullstellen an den Stützstellen $x_n$ hat: $p(x_n) - q(x_n) = f_n - f_n = 0 "für alle " n=0,...,N$.
+Dann wäre $p-q in bb(P)_N$ ein Polynom vom Grad $<= N$, welches $N+1$
+Nullstellen an den Stützstellen $x_n$ hat: $p(x_n) - q(x_n) = f_n - f_n = 0 "für alle " n=0,...,N$.
Nach dem Fundamentalsatz der Algebra kann ein Polynom vom Grad $=N$ nur maximal
-N Nullstellen haben außer es ist das konstante 0-Polynom $f=0$.
+N Nullstellen haben außer es ist das konstante 0-Polynom $f=0$.
Damit das Polynom $p-q$ vom Grad $<= N $ also $N+1$ Nullstellen haben kann, muss
nach dem Fundamentalsatz der Algebra $p - q = 0 <=> p = q$ das konstante
-0-Polynom sein, was bedeutet, das p und q identisch sein müssen.
+0-Polynom sein, was bedeutet, das p und q identisch sein müssen.
==== Lagrange-Basis
-Das n-te Lagrnge-Polynom $L_n$ zu den Stztzstellen $x_0, ..., x_N$ ist definiert
+Das n-te Lagrange-Polynom $L_n$ zu den Stützstellen $x_0, ..., x_N$ ist definiert
als:
$
-p(x) = sum_(n=0)^N f_n L_n (x) #h(1cm)
+p(x) = sum_(n=0)^N f_n L_n (x) #h(1cm)
, L_n (x) = product_(m=0,m != n)^N (x-x_m)/(x_n-x_m) = sigma_(n m) = cases(1 ", falls "
-x_m = x_n, 0 ", falls " x_m != x_n)
+x_m = x_n, 0 ", falls " x_m != x_n)
$
-Lagrnge-Polynome $L_n$ bilden aufgrund von Skalarprodukt $angle.l p,q angle.r =
-sum_(n=0)^N p(x_n) q(x_n)$ eine orthonormalbasis und linearkombination
+Lagrange-Polynome $L_n$ bilden aufgrund von Skalarprodukt $angle.l p,q angle.r =
+sum_(n=0)^N p(x_n) q(x_n)$ eine Orthonormalbasis und Linearkombination
($bb(P)_N$).
===== Kondition
@@ -391,14 +391,14 @@ tilde(p)(x) = sum_(n=0)^N tilde(f_n) L_n (x) \
$
$
&abs(p(x) - tilde(p)(x)) = abs(sum_(n=0)^N (f_n - tilde(f_n)) L_n (x))
-<= sum_(n=0)^N abs(f_n - tilde(f_n)) abs(L_n (x))
-<= max_(n=0,...,N) abs(f_n - tilde(f_n)) sum_(n=0)^N abs(L_n (x)) \
+<= sum_(n=0)^N abs(f_n - tilde(f_n)) abs(L_n (x))
+<= max_(n=0,...,N) abs(f_n - tilde(f_n)) sum_(n=0)^N abs(L_n (x)) \
<=> &max_(x in [a,b]) abs(p(x) - tilde(p)(x)) <= underbrace( max_(x in [a,b]) sum_(n=0)^N
abs(L_n (x)), =: Lambda_N >= 1) max_(n=0,...,N) abs(f_n - tilde(f_n))
$
-Lebesgue-Konstante $Lambda_N$ ist invariant under Affinen Transformationen daher
-nur von relativer Lage der Stützstellen $x_n$ zueinander abhängig.
+Lebesgue-Konstante $Lambda_N$ ist invariant unter Affinen Transformationen daher
+nur von relativer Lage der Stützstellen $x_n$ zueinander abhängig.
#let annotate(..args) = {
box(place(bottom + center, dy: -10pt, stack(math.script(..args), line(angle: 90deg, length: 10pt))))
@@ -438,7 +438,7 @@ $
#grid(columns: 2,align: left+horizon, gutter: .5cm,
[ *Interpolationsfehler* ],
$
-f(x) - p(x) = w_(N+1)(x) (f^(N+1)(xi))/(N+1)! #h(1cm),
+f(x) - p(x) = w_(N+1)(x) (f^(N+1)(xi))/(N+1)! #h(1cm),
xi = xi(x) in (a,b) "Zwischenstelle" \
$
)
@@ -464,7 +464,7 @@ $(N+1)^2$ Multiplikationen
Tschebyscheff-Polynom vom Grad N ist auf $[-1,1]$ gegeben durch
#grid(
-columns: 2, align: center + horizon,
+columns: 2, align: center + horizon,
$
T_0(x) &= 1 \
T_1(x) &= x \
@@ -482,7 +482,7 @@ Tschebyscheff-Stützstellen minimal mit $2^(-N)$
mit FFT lässt sich Koeffizient $c_m$ in $O(N log N)$ Multiplikationen berechnen,
-wenn $N+1 = 2^k$ eine 2-er Potenz ist.
+wenn $N+1 = 2^k$ eine 2-er Potenz ist.
*Clenshaw-Algorithmus* zur Auswertung $p(x)$ mit N+2 Multiplikationen und 2N Additionen
$
@@ -507,25 +507,25 @@ table.header([Zusammenfassung], [Bestimmung], [Auswertung]),
[Clenshaw-Algorithmus mit $2N$ Ops],
)
-nur in Newton-Darstellung können zusätzliche Stützstellen hinzugefüngt werden,
-wobei nicht alle Koeffizienten nei berechnet werden müssen.
+nur in Newton-Darstellung können zusätzliche Stützstellen hinzugefügt werden,
+wobei nicht alle Koeffizienten neu berechnet werden müssen.
=== Spline-Interpolation
-Problem: Suche zeimal stetig differenzierbare Funktion $s in C^2([a,b], bb(R))$
-mit mit $s(x_n) = y_n$ für $n=0,...,N$, soduss folgendes Integral minimal ist:
+Problem: Suche zweimal stetig differenzierbare Funktion $s in C^2([a,b], bb(R))$
+mit mit $s(x_n) = y_n$ für $n=0,...,N$, sodass folgendes Integral minimal ist:
$
integral_a^b abs(s''(x))^2 d x <= integral_a^b abs(s''(x) + epsilon h''(x))^2 d x
\
-<=> integral_a^b s''(x)h''(x) d x
-= sum_(n=1)^N integral_(x_(n-1))^(x_n) s''(x)h''(x) d x
+<=> integral_a^b s''(x)h''(x) d x
+= sum_(n=1)^N integral_(x_(n-1))^(x_n) s''(x)h''(x) d x
= s''(b)h'(b) - s''(a)h'(a) =^! 0
$
für alle $epsilon in bb(R)$ und $C^2$-Funktionen $h: [a,b] -> bb(R)$ mit $h(x_n)
= 0$ für alle $n=0,...,N$
-Aus dieser Gleichung ergeben sich derei Lösungen und damit drei Typen von Splines:
+Aus dieser Gleichung ergeben sich drei Lösungen und damit drei Typen von Splines:
#align(center, table(stroke: none, columns: 2, align: left+bottom,
$s'(a) = v_0 " und " s'(b) = v_N$, [eingespannt / hermitisch],
@@ -533,7 +533,7 @@ $ s''(a) = 0 = s''(b)$, [natürlich],
$s'(a) = s'(b) " und " s''(a) = s''(b)$, [periodisch (sinnvoll für $overbrace(s(a) = s(b), y_0 = y_N)$)]
))
-not-a-knot-Bedingung falls Ableidung an Randpunkten unbekannt: $s'''_1(x_1) =
+not-a-knot-Bedingung falls Ableitung an Randpunkten unbekannt: $s'''_1(x_1) =
s'''_2(x_1)$ und $s'''_(N-1) = s'''_N (x_(N-1))$
#pagebreak()
@@ -547,7 +547,7 @@ zu den Stützpunkten $(x_0, y_0), ..., (x_N, y_N)$ mit der Eigenschaft $a = x_0
2. $s(x_n) = y_n$ für alle $n=0,...,N$
$
-s|_([x_(n-1),x_n]) = s_n (x) =
+s|_([x_(n-1),x_n]) = s_n (x) =
underbracket(y_(n-1) + (x - x_(n-1)) overbrace(y_(n-1,n), = (y_(n-1) - y_n)/(x_(n-1) - x_n)), "interpolierender Anteil") +
underbracket((x-x_(n-1))(x-x_n)[alpha_n (x - x_(n-1)) + beta_n (x-x_n)],
"glättender Anteil")
@@ -555,10 +555,10 @@ $
Daraus erbeben sich 2N Unbekannte $alpha_n, beta_n$. Diese erhält man durch die
2N - 2 Glattheitsbedingungen + 2 Randbedingungen (s.o.). Also erhält man
-$alpha_n, beta_n$ aus LGS mit dim 2N.
+$alpha_n, beta_n$ aus LGS mit dim 2N.
$
-cases(reverse: #true,
+cases(reverse: #true,
s'_n (x_n) = s'_(n+1)(x_n),
s''_n (x_n) = s''_(n+1)(x_n)
) " für " n=1,...,N-1 => 2N-2 " Bedingungen"
@@ -576,7 +576,7 @@ $
Dies sind 2N Gleichungen für die N+1 Unbekannten $gamma_0, ..., gamma_N$. Durch
den Ansatz sind N-1 Glattheitsbedingungen an die zweite Ableitung automatisch
-erfüllt.
+erfüllt.
Mit den Gitterweiten $h_n := x_n - x_(n-1)$ erhalten wir
$#h(1cm) alpha_n = 1/(6 h_n) (gamma_(n-1) + 2 gamma_n) #h(1cm)
@@ -593,7 +593,7 @@ mit Einschränkung auf eingespannte kubische Splines $s'_1(x_0) = 0_0, s'_N (x_N
= v_N$ erhalten wir außerdem
$
-h_1/6 ( 2 gamma_0 + gamma_1) = y_(0,1) - v_0 =: d_0
+h_1/6 ( 2 gamma_0 + gamma_1) = y_(0,1) - v_0 =: d_0
#h(2cm)
h_N / 6 (gamma_(N-1) + 2 gamma_N) = v_N - y_(N-1,N) =: d_N
\
@@ -606,7 +606,7 @@ h_1, 2(h_1 + h_2), h_2;
,,,h_N, 2h_N;
), #[
strikt diagonaldominante symmetrische Tridiagonalmatrix (spd, regulär) \
-$=>$ mit Cholesky in $O(N)$ Ops lösbar.
+$=>$ mit Cholesky in $O(N)$ Ops lösbar.
])
vec(gamma_0, gamma_1, dots.v, gamma_(N-1), gamma_N)
=
@@ -619,17 +619,17 @@ $tilde(s)(x)$ der Spline zu gestörten Daten $(x_n, tilde(y)_n)$, Lagrange-Splin
$l_n (x_m) = cases(1 ", falls " n=m, 0 ", falls" n != m), #h(1cm) l'_n (a) = 0, l'_n (b) =0$
$
-abs(s(x) - tilde(s)(x)) <= sum_(n=0)^N abs(y_n - tilde(y)_n) norm(l_n (x))
-<= sum_(n=0)^N abs(l_n (x)) max_(m=0,...,N) abs(y_m - tilde(y)_m)
+abs(s(x) - tilde(s)(x)) <= sum_(n=0)^N abs(y_n - tilde(y)_n) norm(l_n (x))
+<= sum_(n=0)^N abs(l_n (x)) max_(m=0,...,N) abs(y_m - tilde(y)_m)
<= Lambda_N max_(n=0,...,N) abs(x_m - tilde(y)_m)
$
$
-"mit " Lambda_N := max_(x in [a,b]) sum_(n=0)^N abs(l_n (x)) " also "
-max_(x in [a,b]) abs(s(x) - tilde(s)(x)) <= Lambda_N max_(m=0,...,N) abs(y_m - tilde(y)_n)
+"mit " Lambda_N := max_(x in [a,b]) sum_(n=0)^N abs(l_n (x)) " also "
+max_(x in [a,b]) abs(s(x) - tilde(s)(x)) <= Lambda_N max_(m=0,...,N) abs(y_m - tilde(y)_n)
$
-Bei äquidisanten Unterteilung gilt $Lambda_N <= 2$ für alle $N in bb(N)$
+Bei äquidistanten Unterteilung gilt $Lambda_N <= 2$ für alle $N in bb(N)$
#pagebreak()
@@ -637,16 +637,16 @@ Bei äquidisanten Unterteilung gilt $Lambda_N <= 2$ für alle $N in bb(N)$
== Numerische Integration
Problem: Berechne für eine gegebene Funktion $f: [a,b] -> bb(R)$ das
-Riemann-Integral.
+Riemann-Integral.
=== Eigenschaften von Integralen
-#table(columns: 2*(auto, 1fr,), stroke: none,
+#table(columns: 2*(auto, 1fr,), stroke: none,
[Additiv:],[ $ integral_a^b f(x) d
x = integral_a^c f(x) d x + integral_c^b f(x) d x$],
[Linear:],[ $I(lambda f + mu g) = lambda I(f) + mu I(g)$],
)
-Monoton: falls $f >= g$ auf $[a,b]$ dann $integral_a^b f(x) d x >= integral_a^b g(x) d x$
+Monoton: falls $f >= g$ auf $[a,b]$ dann $integral_a^b f(x) d x >= integral_a^b g(x) d x$
\ $abs(I(f)) <= I(abs(f)) <=> cond_1(f) = I(abs(f)) / abs(I(f)) >= 1$
Norm: $norm(f)_1 = I(abs(f))$
@@ -654,23 +654,23 @@ Norm: $norm(f)_1 = I(abs(f))$
=== Quadraturformeln
$
-integral_a^b f(x) d x
-approx integral_a^b p(x) d x
-= integral_a^b sum_(n=0)^N f(x_n) L_n (x)
+integral_a^b f(x) d x
+approx integral_a^b p(x) d x
+= integral_a^b sum_(n=0)^N f(x_n) L_n (x)
= sum_(n=0)^N overbrace(integral_a^b L_n (x) d x, =(b-a)b_(n+1))
-f underbrace((x_n), #box()#place(horizon+center, $script(=a + c_(n+1)(b-a))$))
+f underbrace((x_n), #box()#place(horizon+center, $script(=a + c_(n+1)(b-a))$))
= (b-a) sum_(k=1)^s b_k f( a + c_k (b-a))
$
#table(columns: 3,
-[Rechteckregel],
+[Rechteckregel],
$s = 1, b_1 = 1, c_1 = 0, p = 1$,
$I(f) approx (b - a) f(a)$,
-[Mittelpunktregel],
-$s = 1, b_1 = 1, c_1 = 1/2, && p = 2$,
+[Mittelpunktregel],
+$s = 1, b_1 = 1, c_1 = 1/2, && p = 2$,
$I(f) approx (b-a) f((a+b)/2)$,
[Trapezregel],
-$s = 2, b_1 = b_2 = 1/2, c_1 = 0, c_1 = 1, p = 2$,
+$s = 2, b_1 = b_2 = 1/2, c_1 = 0, c_1 = 1, p = 2$,
$I(f) approx (b-a) (f(a) + f(b))/2$,
[Simpsonregel],
$s = 3, b_1 = b_3 = 1/6, b_2 = 4/6, c_1 = 0, c_2 = 1/2, c_3 = 1, p = 4$,
@@ -680,9 +680,9 @@ $I(f) approx (b-a) 1/6 (f(a) + 4 f((a+b)/2) + f(b))$,
Eine QF $(b_k, c_k)_(k=1,...,s)$ besitzt die Ordnung p, falls sie für alle
Polynome vom Grad $<= p - 1$ das Integral exakt berechnet, wobei p maximal ist.
-#TODO[BEWEIS ZU ORDNUNGBEDINGUNGEN!!!!!]\
+#TODO[BEWEIS ZU ORDNUNGSBEDINGUNGEN!!!!!]\
-*Ordnungsbedingungen*: Eine QF besitzt genau dann die Ordnung p, falls
+*Ordnungsbedingungen*: Eine QF besitzt genau dann die Ordnung p, falls
$
1 / q = sum_(k=1)^s b_k c_k^(q-1) "für alle " q = 1, ..., p " aber nicht mehr für " q = p + 1 " gilt"
@@ -690,9 +690,9 @@ $
Für eine QF mit vorgegebenen Knoten $c_1 < ... c_s$ können die Gewichte genau
dann mit $b_k = integral_0^1 underbrace(L_k (x), #place(center, $L_k (x) = product_(j=1,j != k)^s
-(x-c_j)/(c_k - c_j)$)) d x$ eindeutig bestimmt werden wenn $p >= s$.
+(x-c_j)/(c_k - c_j)$)) d x$ eindeutig bestimmt werden wenn $p >= s$.
-*Symmetrische QF*:
+*Symmetrische QF*:
$
b_k = b_(s+1-k) #h(1.5cm) ,c_k = 1 - c_(s+1-k) "also symmetrisch um "1/2" verteilt"
@@ -712,11 +712,11 @@ Bew.: $angle.l M,M angle.r = integral_0^1 M(x)^2 d x > 0, deg(M) = s$
*Gauß-QF*: Ordnung 2s gegeben durch $c_k = 1/2(1+gamma_k)$ mit
$gamma_1,...,gamma_s$ die Nullstellen des Legendre-Polynoms vom Grad s.
Die Gewichte $b_k$ einer Gauß-QF sind positiv. Gauß-QF sind symmetrisch, weil
-Legendre-Nullstellen $gamma_1, ..., gamma_s$ symmetrisch zum Punkt 0 im Interval
-$(-1, 1)$ und so Knoten symmetrisch zu Punkt $1/2$ im Interval $(0,1)$.
+Legendre-Nullstellen $gamma_1, ..., gamma_s$ symmetrisch zum Punkt 0 im Intervall
+$(-1, 1)$ und so Knoten symmetrisch zu Punkt $1/2$ im Intervall $(0,1)$.
*Summierte QF*: Um Fehler zu verkleinern zerlege $[a,b]$ in Teilintervalle
-$[x_(n-1), x_n], n=1,...,N$ mit Intervallängen $x_n - x_(n-1) = h_n$
+$[x_(n-1), x_n], n=1,...,N$ mit Intervalllängen $x_n - x_(n-1) = h_n$
$
integral_a^b f(x) d x approx sum_(n=1)^N h_n sum_(k=1)^s b_k (x_(n-1) + c_k h_n)