kit-books

books of obscure KIT shit
git clone git://source.orangerot.dev/university/kit-books.git
Log | Files | Refs | LICENSE

summary.typ (23798B)


      1 #set page("a4", margin: 1cm, numbering: "1/1", header: rect(width: 100%, stroke:
      2 (bottom: 1pt), [Numerik Zusammenfassung #h(1fr) Gero Beckmann]))
      3 
      4 #let TODO(..rest, content) = text(stroke: red, ..rest, [TODO: #content])
      5 
      6 == Gleitpunktzahlen
      7 
      8 $
      9 "FL" = {
     10   +- sum_(l=1)^(L_m) a_l B^(-l) B^e : e = e_"min" + sum_(l=0)^(L_e - 1) c_l B^l, 
     11   a_l, c_l in {0, ..., B-1}, a_1 != 0
     12 } union {0} 
     13 $
     14 
     15 #columns()[
     16 $
     17 & e_"max" = e_"min" + B^(L_e) - 1 \
     18 & max "FL" = - min "FL" = B^(e_max) ( 1 - B^(-L_m)) \
     19 & min "FL"_+ = B^(e_min - 1) \
     20 & B^(-1) <= abs(m) < 1
     21 $
     22 
     23 #colbreak()
     24 
     25 Relative Maschinengenauigkeit 
     26 
     27 $
     28 abs(x - "fl"(x)) / abs(x) <= (B^(1- L_m)) / 2 =: "eps" \
     29 "fl"(x) = x ( 1 + epsilon) " mit " abs(epsilon) <= "eps" \
     30 x hat(compose) y := "fl"(x compose y) = (x compose y)(1 + epsilon) " mit " abs(epsilon) <= "eps"
     31 $
     32 ]
     33 
     34 Stabilität eines Algorithmus: Fehlerverstärkung des Verfahrens ist "moderat"
     35 groß (im vergleich zum unvermeidbaren Fehler). 
     36 
     37 #columns(gutter: 0.1cm)[
     38 == Cholesky-Zerlegung
     39 
     40 Ist eine $A in bb(R)^(N times N)$ symmetrisch und positix definit, existirt eine
     41 Cholesky-Zerlegung $A = L L^T$
     42 
     43 1. Berechne Cholesky-Zerlegung $A = L L^T$
     44 2. Löse $L y = b$ durch Vorwärtssubstitution
     45 3. Löste $L^T x = y$ durch Rückwärtssubstitution
     46 
     47 $l_(n n) > 0$ macht die Zerlegugn eindeutig. 
     48 
     49 $
     50 Q(lambda m) = lambda Q m = - lambda w " für alle " lambda in bb(R) \
     51 Q y = y " für alle " y in bb(R)^N " mit " w^T y = 0 \
     52 "Spiegelebene " E = {y in bb(R)^M: w^T y = 0}
     53 $
     54 #colbreak()
     55 == LR-Zerlegung
     56 
     57 Ist jeder Hauptminor von $A in bb(R)^(N times N)$ regulär, existire eine
     58 LR-Zerlegen $A = L R$.  Ist $A in bb(R)^(N times N)$ regulär existiert eine LR-Zerlegung mit
     59 Spaltenpivotwahl $P A = L R$. 
     60 
     61 1. Berechne Zerlegung $P A = L R$ durch Gauß-Elimination
     62 2. Löse $L y = P b$ durch Vorwärtssubstitution in $1/2 N^2$ Ops
     63 3. Löse $R x = y$ durch Rückwärtssubstitution $x_n = [y_n - sum_(j=n+1)^N r_(n j) x_j] / r_(n n)$ in $O(1/2 N^2)$ Ops
     64 
     65 $l_(n n) = 1$ liefiert Eindeutigkeid der Zerlegung. 
     66 ]
     67 
     68 #pagebreak()
     69 
     70 == Kondition und Normen
     71 
     72 Problem: Wie wirken sich Störungen der Eingabegrößen (hier A und b) auf die
     73 Lösung unabhängig vom gewählten Algorithmus aus?
     74 
     75 === Zugehörige Matrixnorm
     76 
     77 $
     78 norm(A) &:= sup_(x != 0) norm(A x)/norm(x) = sup_(x !=0) norm(A x/norm(x)) =
     79 sup_(norm(x)=1) norm(A x) = max_(norm(x) = 1) norm(A x) \
     80 
     81 norm(A^(-1)) &= sup_(x != 0) norm(A^(-1) x)/ norm(x) =^(A^(-1)x = 1) sup_(z !=
     82 0) norm(z)/norm(A z) = max_(norm(z) = 1) 1/norm(A z) = 1 / (min_(norm(z) = 1)
     83    norm(A z))
     84 $
     85 
     86    #table(columns: 4, align: center + horizon,
     87 [Spaltensummennorm], 
     88 $ norm(A)_1 = max_(m=1,...,N) sum_(n=1)^N abs(a_"nm") $,
     89 $ norm(x)_1 = sum_(n=1)^N abs(x_n) $, 
     90 [1-Norm],
     91 [Zeilensummennorm], 
     92 $ norm(A)_oo = max_(n=1,...,N) sum_(m=1)^N abs(a_"nm") $,
     93 $ norm(x)_oo = max_(n=1,...,N) abs(x_n) $, [Maximumsnorm],
     94 [Spektralnorm], $ norm(A)_2 = sqrt("größter EW von " A^T A) $, $ norm(x)_2 = sqrt(sum_(n=1)^N x_n^2) $, [euklidische Norm]
     95  )
     96 
     97  Eigenschaften: positive Definitheit $norm(x) >= 0$, Dreiecksungleichung $norm(x
     98  + y ) <= norm(x) + norm(y)$, Homogenität $norm(lambda x) = abs(lambda) norm(x)$
     99 
    100 $norm(A x) <= norm(A) norm(x)$, $norm(I_N) = 1$, Submiltiplikativität $norm(A B)
    101 <= norm(A) norm(B)$, $norm(x) = sqrt(angle.l x"," x angle.r)$
    102 
    103 === Störungen
    104 
    105 #let cond = "cond";
    106 
    107 $
    108 x - tilde(x) &= A^(-1) b - A^(-1) tilde(b) = A^(-1)(b - tilde(b)) \
    109 <=> norm(x - tilde(x)) &= norm(A^(-1) (b - tilde(b))) <= norm(A^(-1)) norm(b - tilde(b))
    110 && "(absolute Abweichung)" \
    111 <=> norm(x - tilde(x)) / norm(x) &= norm(A^(-1) ( b - tilde(b))) / norm(x) <=
    112 (norm(b) norm(A^(-1))) / norm(x) norm(b - tilde(b)) / norm(b) && "(relative Abweichung)" \
    113 <=> norm(x - tilde(x)) / norm(x) &<=^(norm(b) = norm(A x) <= norm(A) norm(x))
    114 underbrace(norm(A) norm(A^(-1)), =: cond(A)) norm(b - tilde(b)) / norm(b) $
    115 
    116 === Konditionszahl einer Matrix
    117 
    118 $
    119 #rect($cond(A) := norm(A) norm(A^(-1))$) >=^"Submiltiplikativit" norm(A A^(-1))
    120 = norm(I_N) = 1
    121 $
    122 
    123 $
    124 cond_2(A) = (max{abs(lambda) : lambda "EW von " A})/(max{abs(lambda) : lambda
    125 "EW von " A}), cond(A) = (max_(norm(y) = 1) norm(A y))/(min_(norm(z) = 1) norm(
    126   A z)), cond(A) = cond(alpha A), alpha in bb(R) "\\" {0}
    127 $
    128 
    129 Seien relative Abweichung beschränkt
    130 $
    131 norm(A - tilde(A)) / norm(A) <= epsilon_A, "       " && norm(b- tilde(b)) / norm(b) <= epsilon_b
    132 $
    133 Dann gilt im Fall $epsilon_A cond(A) < 1$ die Abschätzung
    134 $
    135 norm(x - tilde(x))/norm(x) <= cond(A) / (1 - epsilon_A cond(A)) (epsilon_A + epsilon_b)
    136 $
    137 
    138 $cond(alpha I_N) = 1$, für orthogonale Matrizen Q: $ norm(Q x)_2^2 = x^T Q^T T
    139 x = x^T x = norm(x)_2^2, norm(Q)_2 = 1 => cond_2(Q) = 10 = norm(Q) norm(Q^(-1)) =
    140 norm(Q)^2$
    141 
    142 #pagebreak()
    143 
    144 == QR-Zerlegung
    145 
    146 Geg. $A in bb(R)^(M times N), M >= N, "voller Rang" (=N)$\
    147 Ges. orthogonales $Q in bb(R)^(M times N)$ und $R = mat(dash(R);0) in bb(R)^(M
    148 times N)$, rechte obere Dreiecksmatrix $dash(R) in bb(R)^(N times N)$ 
    149 
    150 #rect()[
    151 === Householder-Transformation
    152 
    153 Householdermatrix Q ist symmetrisch, orthogonal und eine Spiegelung eines
    154 Vektors v auf ein Vielfaches des Vektors u $(=e^1)$ mit Spiegelachse $perp w$ (Householdervektor). 
    155 
    156 $
    157 Q = I_N 2 w w^T => Q v = sigma e^1 = -"sign"(v_1) norm(v)_2 e^1 = v - 2 w^T v w
    158 #h(1cm) (2M " Ops")
    159 $
    160 
    161 Q wird eigl. nie ausgerechnet, sondern nur w gespeichert und QA wird berechnet
    162 aus $(Q a^1, Q a^2, ...)$ Spaltenvektoren von A. (2M(N-1)) Ops
    163 
    164 $
    165 "(Householdervektor) " w = (v - u)/norm(v - u)_2 = (v - sigma e^1)/norm(v - sigma e^1)_2 
    166 #h(1cm) sigma = -"sign"(v_1)norm(v)_2 = cases(-&norm(v)_2 ", falls " v_1 > 0,
    167 &norm(v)_2 ", falls " v_1 <= 0)
    168 $
    169 ]
    170 
    171 Berechne Householder-Transformation des ersten Spaltenvektors $a^1$ von $A^((n))$ 
    172 
    173 $
    174 w = (a^1 - sigma e^1) / norm(a^1 - sigma e^1) 
    175 #h(1cm) , 
    176 Q a^1 = r^1 = sigma e^1 = -"sign"(a^1) norm(a^1)_2 e^1
    177 #h(1cm) , 
    178 Q^((n)) A^((n)) 
    179 = mat(
    180 r_(11), r_(12)^T;
    181 , A^((n+1))
    182 )
    183 = mat(
    184 sigma, r_(12)^T;
    185 0, A^((n+1))
    186 )
    187 $
    188 
    189 Durch die Householder-Transformation bekommen wir die Matrix für die nächste
    190 Iteration. 
    191 
    192 Householdervektor $tilde(w)^((n+1))$ ist eine Dimension kleiner. Um diesen an
    193 das vorherige Ergebnis zu multiplizieren $w^((n+1)) = vec(0, tilde(w)^((n+1)))$
    194 sodass $Q^((n+1)) = mat(1, 0; 0, tilde(Q)^((n+1)))$ (alternativ: es wird auf
    195 $e^n$-Vektor gespiegelt)
    196 
    197 Insgesamt: in $M N^2-1/3 N^3$ Ops #h(2cm) $Q_N ... Q_2 Q_1 A =: R 
    198 #h(1cm)
    199 Q_1 ... Q_N =: Q$
    200 
    201 #grid(columns: 2*(1fr,), align: left,
    202 [
    203 === Lineares Ausgleichsproblem $norm(A x - b)_2 = min!$ 
    204 Berechne $A = Q R$ \
    205 Berechne $Q^T b = vec(c, d)$ \
    206 Löse $dash(R) x = c$ (Rückwärtssubstitution)
    207 ],
    208 [
    209 === Lösen von LGS $A x = b$ (falls $M=N$)
    210 $
    211 A x &= b \
    212 <=> Q R x &= b \
    213 <=> R x &= Q^T b \
    214 <=> R x &= c " (Rückwärtssubstitution)"
    215 
    216 $
    217 ],
    218 )
    219 
    220 #v(-1cm)
    221 === QR-Algorithmus (Eigenwertberechnung)
    222 
    223 1. setze $A_0 = A$ und $k = 0$
    224 2. zerlege $A_k = Q_k R_k$
    225 3. berchne $A_(k+1) = R_k Q_k$, erhöhe k um 1 und gehe zu 2 #h(2cm) 
    226    $O(N^3)$ Ops pro Iteration
    227 
    228 $k -> oo: A_k -> R = mat(lambda_1, *, *, *; , lambda_2, *, *; ,, dots.down, *;
    229 0,,,lambda_N), Q_k -> I_N$ #h(2cm) Konvergenz: $abs(lambda_N)/abs(lambda_(N-1))$
    230 
    231 Benutze *Hessenbergform* für weniger Ops pro Iteration $O(N^2)$. Kann durch N-2
    232 Householder-Transformation berechnet werden $Q^T A Q = H$
    233 
    234 Householder-Transformation $tilde(Q)_2 = I_(N-1) - 2 tilde(w)^2 (tilde(w)^2)^T
    235 in bb(R)^((N-1) times (N-1))$ mit $tilde(Q)_2 vec(a_(21), a_(31), dots.v, a_(N
    236 1)) = vec(*, 0, dots.v. 0) in bb(R)^(N-1), Q_2 = I_N - 2 w w^T =
    237   mat(1,;,tilde(Q)_2), w^2 = vec(0, tilde(w)^2)$
    238 
    239 #v(-.5cm)
    240 $
    241 A^((1)) = Q_2 A Q_2 \
    242 Q_(N-1) A^((N-3)) Q_(N-1) = Q_(N-1) ... Q_2 A Q_2 ... Q_(N-1) = Q^T A Q = H
    243 #h(1cm)
    244 , Q = Q_2 ... Q_(N-1)
    245 $
    246 
    247 Wenn wir eine Hessenbergmatrix QR-Zerlegung $H=Q R$, dann ist die Matrix
    248 $dash(H) = R Q$ ebenfalls Hessenbergmatrix, wegen $dash(H) = R Q = Q^T Q R Q =
    249 Q^T H Q$
    250 
    251 *QR-Algorithmus mit Shift* $mu_k = h_(NN)^((k))$ für schnellere Konvergenz
    252 $abs(tilde(h)_(n+1,n)^((k))) = O(abs((lambda_(n+1) - mu)/(lambda_n - mu)))$
    253 
    254 1. setze $H_0 = H, k = 0$ und wähle Toleranz $epsilon$
    255 2. zerlege $H_k - h_(N N)^((k')) I_N = Q_k R_K$
    256 3. berechne $H_(k+1) = R_k Q_k + h_(N N)^((k)) I_N$
    257 4. ist $abs(h_(N,N-1r^((k+1)))) <= epsilon (abs(h_(N N)^((k+1)) +
    258    abs(h_(N-1,N-1)^((k+1))))$ so akzeptiere $h_(N N)^((k+1))$ als EW. Sonst
    259    erhöhe k um 1 und gehe zu 2.
    260 
    261 
    262 #pagebreak()
    263 
    264 == Newton-Verfahren
    265 
    266 Problem: Für eine vorgegebene (nichtlineare) Funktion $f: D subset bb(R)^N ->
    267 bb(R)^N$ finde $x^* in D$ mit $f(x^*) = 0_N in bb(R)^N$
    268 
    269 Sei $x^0$ in der Nähe der Lösung $x^*$. Eine Taylor-Entwicklung liefert
    270 #v(-.8cm)
    271 $
    272    && 0 = f(x^*)                        = & f(x^0) + f'(x^0)(x^* - x^0) + overbrace(O(norm(x^0 - x^*)^2),"vernachlässigen" approx 0) \
    273 ~> &&0 =                                & f(x^0) + f'(x^0)(x^*-x^0) \
    274    &&" "=                               & f(x^0) + f'(x^0)x^* - f'(x^0)x^0 \
    275 <=>&& f'(x^0)x^0 - f(x^0)=              & f'(x^0) x^* \
    276 <=>&& f'(x^0)^(-1) (f'(x^0) x^0 - f(x^0)) = & x^* \
    277 <=>&& x^* approx                        & x^0 - f'(x^0)^(-1) f(x^0) \
    278  =>&& x^(k+1)                           = & x^k - f'(x^k)^(-1) f(x^k) \
    279    & ""#place()[Berechnung der inversen Jacobi-Matrix vermeiden] \
    280 <=>&& x^(k+1)                           = & -f'(x^k)^(-1) f(x^k) \           
    281 <=>&& f'(x^k) underbrace((x^(k+1) - x^k), =d^k) = & - f(x^k) \                      
    282 $
    283 
    284 1. Wähle Startwert $x^0 in D$ und Toleranz $epsilon$. Setze $k=0$
    285 2. Löse $f'(x^k)d^k = -f(x^k)$ (LGS durch LR-Zerlegung) \
    286    $x^(k+1) = x^k + d^k$
    287 3. Falls ($norm(d^k) < epsilon$): STOP \
    288    Sonst erhöhe k um 1 und gehe zu 2.
    289 
    290 Bem.: Man wählt nicht $norm(f(x^k)) < epsilon$ als STOP-Kriterium, weil das
    291 Problem $A f(x) = 0$ (A regulär) dann eine andere Lösung hätte. 
    292 $A f(x) = 0$ ändert Iterierten nicht, deshalb ist $norm(d^k) < epsilon$ besser,
    293 weil so bei $A f(x) = 0$ und $f(x) = 0$ die Lösung und Iterierten gleich bleiben. 
    294 
    295 ==== lokale quadratische Konvergenz
    296 
    297 Es gibt eine Kugel $kappa := kappa_p (x^*) = { x in bb(R)^N: norm(x-x^*) <= p }
    298 subset D$ sodass $x^*$ die einzige Nullstelle von f in $kappa$0ist. Zudem liegen
    299 die Folgeglieder $x^(k+1) = x^k - f'(x^;)^(-1) f(x^k)$ für jeden Startwert $x^0
    300 in kappa$ ebenfalls in $kappa$ und es gilt $lim_(k->oo) x^k = x^*$.
    301  Weiter existiert eine Konstante $c > 0$ mit $norm(x^* - x^k) <= c norm(x^* -
    302  x^(k-1))^2$ für $k in bb(N)$
    303 
    304 ==== Homotopie-Verfahren: guten Startwerd suchen
    305 $g: bb(R)^N -> bb(R)^N$ eine (einfache) Funktion mit bekannter Nullstelle
    306 $x^0$. Definiere $f_s (x) = (1-s) g(x) + s f (x)$, wählen $0 < s_1 < s_2 < ...
    307 < s_M = 1$ und lösen $f_(s_n) (x) = 0$ mit Newton mit Startvektor $x^(m-1)$ mit
    308 $f_(s_(m-1)) (x^(m-1) = 0$ für $m=1,...,M$
    309 
    310 ==== Dämpfungsstrategie: Verbesserung der Konvergenz
    311 
    312 Bestimme $t_k in (0,1]$ sodass für $x^(k+1) = x^k - t_k f'(x^k)^(-1) f(x^k)$ das
    313 Residuum kleiner wird $norm(f(x^(k+1))) < norm(f(x^k))$
    314 
    315 ==== Differenzenqoutient
    316 Wenn $f'(x^k)$ aufwendig zu berechnen, wähle $A_k approx f'(x^k)$ durch
    317 $(A_k)_(n m) = 1/h (f_n (x^k + h ^m) - f_n (x^k))$
    318 
    319 ==== Vereinfachtes Newton-Verfahren
    320 
    321 pro Iteration $f'$ auswerten und LR-Zerlegen ist teuer. Stattdessen $A approx
    322 f'(x^0)$ alse einmal $f'$ auswerten und LR-Zerlegen. $F(x) = x - A^(-1) f (x)$
    323 Nurnoch lineare Konvergenz. 
    324 
    325 ==== Globale Minimierung
    326 
    327 Wir suchen $x^* in bb(R)^N$ mit $f(x^*) <= f(x)$ für alle $x in bb(R)^N$. dh
    328 insbesodere grad $f(x^*) = 0_N$. Wir berechnen Nullstelle von $gradient f(x) =
    329 ("grad" f(x))^T$ mit Newton $x^(k+1) = x^k - H_f (x^k)^(-1) gradient f(x^k)$.
    330 $H_f$ Hessematrix. 
    331 
    332 ==== Nichlineare ausgleichrrechnung $norm(f(x))_2 = min!$
    333 
    334 Wähle Startwert $x^0 in bb(R)^N$ für $k=0,1,...$\
    335 1. löse lineares Ausglechsproblem $norm(f'(x^k) d^k + f(x^k))_2 = min$
    336 2. setze $x^(k+1) = x^k + d^k$
    337 
    338 #pagebreak()
    339 
    340 == Interpolation
    341 
    342 Problem: Suche zu den Stützstellen $(x_0,f_0), ..., (x_N, f_N)$ eine Funktion p
    343 mit $p(x_n) = f_n "für alle " n=0,...,N$
    344 
    345 === Polynom-Interpolation
    346 
    347 
    348 
    349 Problem: Suche zu N+1 Stützstellen $(x_0, f_0), ..., (x_0, f_0)$ ein Polynom p
    350 vom Grad $<= N (p in bb(P)_N)$, welches das Interpolationsproblem (s.o.) lösst:
    351 $p(x_n) = f_n " für alle " n = 0,...,N$, 
    352 
    353 ==== Eindeutigkeit des Interolationspolynoms zu einem Interpolationsproblem: 
    354 
    355 Nehmen wir an es gäbe zwei Polynome $p,q in bb(P)_N$ vom Grad $<= N$ welche das
    356 gleiche Interpolationsproblem lösen. $p(x_n) = q(x_n) = f_n "für " n = 0,...,N$.
    357 Dann wäre $p-q in bb(P)_N$ ein Polynom vom Grad $<= N$, welcehs $N+1$
    358 Nullstellen an den Stützstellen $x_n$ hat: $p(x_n) - q(x_n) = f_n - f_n = 0 "für alle " n=0,...,N$. 
    359 
    360 Nach dem Fundamentalsatz der Algebra kann ein Polynom vom Grad $=N$ nur maximal
    361 N Nullstellen haben außer es ist das konstante 0-Polynom $f=0$. 
    362 
    363 Damit das Polynom $p-q$ vom Grad $<= N $ also $N+1$ Nullstellen haben kann, muss
    364 nach dem Fundamentalsatz der Algebra $p - q = 0 <=> p = q$ das konstante
    365 0-Polynom sein, was bedeutet, das p und q identisch sein müssen. 
    366 
    367 ==== Lagrange-Basis
    368 
    369 Das n-te Lagrnge-Polynom $L_n$ zu den Stztzstellen $x_0, ..., x_N$ ist definiert
    370 als:
    371 
    372 $
    373 p(x) = sum_(n=0)^N f_n L_n (x) #h(1cm) 
    374 , L_n (x) = product_(m=0,m != n)^N (x-x_m)/(x_n-x_m) = sigma_(n m) = cases(1 ", falls "
    375 x_m = x_n, 0 ", falls " x_m != x_n) 
    376 
    377 $
    378 
    379 Lagrnge-Polynome $L_n$ bilden aufgrund von Skalarprodukt $angle.l p,q angle.r =
    380 sum_(n=0)^N p(x_n) q(x_n)$ eine orthonormalbasis und linearkombination
    381 ($bb(P)_N$).
    382 
    383 ===== Kondition
    384 
    385 Frage: Wie wirken sich Störungen der Eingabegrößen (Stützwerte $f_n$) auf die
    386 Lösung der Interpolation aus?
    387 
    388 $
    389 p(x) = sum_(n=0)^N f_n L_n (x) #h(2cm)
    390 tilde(p)(x) = sum_(n=0)^N tilde(f_n) L_n (x) \
    391 $
    392 $
    393 &abs(p(x) - tilde(p)(x)) = abs(sum_(n=0)^N (f_n - tilde(f_n)) L_n (x))
    394 <= sum_(n=0)^N abs(f_n - tilde(f_n)) abs(L_n (x)) 
    395 <= max_(n=0,...,N) abs(f_n - tilde(f_n)) sum_(n=0)^N abs(L_n (x)) \ 
    396 <=> &max_(x in [a,b]) abs(p(x) - tilde(p)(x)) <= underbrace( max_(x in [a,b]) sum_(n=0)^N
    397 abs(L_n (x)), =: Lambda_N >= 1) max_(n=0,...,N) abs(f_n - tilde(f_n))
    398 $
    399 
    400 Lebesgue-Konstante $Lambda_N$ ist invariant under Affinen Transformationen daher
    401 nur von relativer Lage der Stützstellen $x_n$ zueinander abhängig. 
    402 
    403 #let annotate(..args) = {
    404   box(place(bottom + center, dy: -10pt, stack(math.script(..args), line(angle: 90deg, length: 10pt))))
    405   sym.wj
    406   h(0pt, weak: true)
    407 }
    408 
    409 $
    410 #[==== Newton-Darstellung] #h(2cm)
    411 p(x) &= a_0 + a_1 w_1(x) + ... + #annotate([Leitkoeffizient])a_N w_N (x) #h(1cm)
    412 && w_n (x) = product_(m=0)^(n-1) (x - x_m)
    413 \
    414 "Aus Darstellung folgt "
    415 p(x) &= p_(0,N-1)(x) + a_N w_N (x) && p_(n,n)(x) = f_n = f_(n,n) \
    416 &= p_(0,N)(x) = f_(0,0) + f_(0,1) w_1(x) + ... + f_(0,N) w_N (x) #h(1cm) &&"mit " a_n = f_(0,n)
    417 $
    418 
    419 #grid(columns: 2, align: center + horizon,
    420 $
    421 #[*Lemma von Aitken*] #h(1cm)
    422 p_(n,k)(x) &= ((x_n - x) p_(n+1,k)(x) - (x_k-x)p_(n,k-1))/(x_n - x_k) \
    423 => "Für Koeffizienten" f_(n,k) &= (f_(,k-1) - f_(n+1,k)) / (x_n - x_k),
    424 #h(.5cm) "(Dividierte Differenzen)"
    425 $,
    426 $
    427 #h(.5cm) mat(delim: #none,
    428 f_(n,k-1);
    429 ,arrow.br;
    430 f_(n+1,k), arrow.r, f_(n,k);
    431 )
    432 mat(delim: #none,
    433 "2(N-1) Additionen";
    434 "N-1 Divisionen"
    435 )
    436 $
    437 )
    438 #grid(columns: 2,align: left+horizon, gutter: .5cm,
    439 [ *Interpolationsfehler* ],
    440 $
    441 f(x) - p(x) = w_(N+1)(x) (f^(N+1)(xi))/(N+1)! #h(1cm), 
    442 xi = xi(x) in (a,b) "Zwischenstelle" \
    443 $
    444 )
    445 #v(-.3cm)
    446 #grid(columns: 2,align: left+horizon, gutter: .5cm,
    447 [*Maximaler Interpolationsfehler/Approximationsgüte*],
    448 $
    449 max_(x in [a,b]) abs(f(x) - p(x)) <= max_(x in [a,b]) abs(w_(N+1)(x)) max_(x in [a,b]) abs(f^(N+1)(x))/(N+1)!
    450 $
    451 )
    452 
    453 ==== Tschebyscheff-Interpolation
    454 
    455 Tschebyscheff-Interpolationsformel
    456 
    457 $
    458 p(x) = 1/2 c_0 + c_1 T_1(x) + ... + c_N T_N (x)
    459 $
    460 
    461 mit Koeffizienten $c_m = 2/(N+1) sum_(n=0)^N f_n cos(m (2n +1)/(2N + 2) pi)$ mit
    462 $(N+1)^2$ Multiplikationen
    463 
    464 Tschebyscheff-Polynom vom Grad N ist auf $[-1,1]$ gegeben durch
    465 
    466 #grid(
    467 columns: 2, align: center + horizon, 
    468 $
    469 T_0(x) &= 1 \
    470 T_1(x) &= x \
    471 T_(N+1)(x) &= 2 dot T_N (x) - T_(N-1)(x) $,
    472 $
    473 "oder "
    474 T_N (x) = cos(N arccos(x))
    475 $
    476 )
    477 
    478 *Tschebyscheff-Stützstellen*: $x_n = cos((2n+1)/(2N + 2) pi) $ für alle $n=0,...,N$
    479 
    480 *Min-Max-Eigenschaft*: $max_(x in [-1,1]) abs(w_(N+1)(x))$ wird genau für
    481 Tschebyscheff-Stützstellen minimal mit $2^(-N)$
    482 
    483 
    484 mit FFT lässt sich Koeffizient $c_m$ in $O(N log N)$ Multiplikationen berechnen,
    485 wenn $N+1 = 2^k$ eine 2-er Potenz ist. 
    486 
    487 *Clenshaw-Algorithmus* zur Auswertung $p(x)$ mit N+2 Multiplikationen und 2N Additionen
    488 $
    489 d_(N+2) &= d_(N+1) = 0 \
    490 d_n &= c_n + 2x dot d_(n+1) - d_(n+2) " für " n=N,N-1,...,0 \
    491 "Dann gilt "& p(x) = 1/2 (d_0 - d_2)
    492 $
    493 
    494 #table(columns: 3,
    495 table.header([Zusammenfassung], [Bestimmung], [Auswertung]),
    496 [Monom],
    497 [LGS mit $1/3 N^3$ Ops],
    498 [Horner-Schema mit N Ops],
    499 [Lagrange],
    500 [direkt gegeben],
    501 [zu aufwendig],
    502 [Newton],
    503 [Dividierte Differenzen mit $N^2$ Ops],
    504 [Horner-Schema mit $2N$ Ops],
    505 [Tschebyscheff],
    506 [FFT mit $O(N log N)$ Ops],
    507 [Clenshaw-Algorithmus mit $2N$ Ops],
    508 )
    509 
    510 nur in Newton-Darstellung können zusätzliche Stützstellen hinzugefüngt werden,
    511 wobei nicht alle Koeffizienten nei berechnet werden müssen. 
    512 
    513 === Spline-Interpolation
    514 
    515 Problem: Suche zeimal stetig differenzierbare Funktion $s in C^2([a,b], bb(R))$
    516 mit mit $s(x_n) = y_n$ für $n=0,...,N$, soduss folgendes Integral minimal ist: 
    517 
    518 $
    519 integral_a^b abs(s''(x))^2 d x <= integral_a^b abs(s''(x) + epsilon h''(x))^2 d x
    520 \
    521 <=> integral_a^b s''(x)h''(x) d x 
    522 = sum_(n=1)^N integral_(x_(n-1))^(x_n) s''(x)h''(x) d x 
    523 = s''(b)h'(b) - s''(a)h'(a) =^! 0
    524 $
    525 für alle $epsilon in bb(R)$ und $C^2$-Funktionen $h: [a,b] -> bb(R)$ mit $h(x_n)
    526 = 0$ für alle $n=0,...,N$
    527 
    528 Aus dieser Gleichung ergeben sich derei Lösungen und damit drei Typen von Splines:
    529 
    530 #align(center, table(stroke: none, columns: 2, align: left+bottom,
    531 $s'(a) = v_0 " und " s'(b) = v_N$, [eingespannt / hermitisch],
    532 $ s''(a) = 0 = s''(b)$, [natürlich],
    533 $s'(a) = s'(b) " und " s''(a) = s''(b)$, [periodisch (sinnvoll für $overbrace(s(a) = s(b), y_0 = y_N)$)]
    534 ))
    535 
    536 not-a-knot-Bedingung falls Ableidung an Randpunkten unbekannt: $s'''_1(x_1) =
    537 s'''_2(x_1)$ und $s'''_(N-1) = s'''_N (x_(N-1))$
    538 
    539 #pagebreak()
    540 ==== kubischer interpolierender Spline
    541 
    542 Eine $C^2$-Funktion $s: [a,b] -> bb(R)$ heißt kubischer interpolierender Spline
    543 zu den Stützpunkten $(x_0, y_0), ..., (x_N, y_N)$ mit der Eigenschaft $a = x_0 <
    544 ... < x_N = b$, falls
    545 
    546 1. $s|_([x_(n-1),x_n]) in bb(P)_3$ für alle $n=1,...,N$
    547 2. $s(x_n) = y_n$ für alle $n=0,...,N$
    548 
    549 $
    550 s|_([x_(n-1),x_n]) = s_n (x) = 
    551 underbracket(y_(n-1) + (x - x_(n-1)) overbrace(y_(n-1,n), = (y_(n-1) - y_n)/(x_(n-1) - x_n)), "interpolierender Anteil") +
    552 underbracket((x-x_(n-1))(x-x_n)[alpha_n (x - x_(n-1)) + beta_n (x-x_n)],
    553 "glättender Anteil")
    554 $
    555 
    556 Daraus erbeben sich 2N Unbekannte $alpha_n, beta_n$. Diese erhält man durch die
    557 2N - 2 Glattheitsbedingungen + 2 Randbedingungen (s.o.). Also erhält man
    558 $alpha_n, beta_n$ aus LGS mit dim 2N. 
    559 
    560 $
    561 cases(reverse: #true, 
    562 s'_n (x_n) = s'_(n+1)(x_n),
    563 s''_n (x_n) = s''_(n+1)(x_n)
    564 ) " für " n=1,...,N-1 => 2N-2 " Bedingungen"
    565 $
    566 
    567 Die Berechnung der Unbekannten können wir vereinfachen, indem wir die $alpha_n,
    568 beta_n$ durch N+1 Unbekannte Momente $gamma_n$ darstellen:
    569 
    570 $
    571 cases(reverse: #true,
    572 s''_n (x_(n-1)) &= gamma_(n-1),
    573 s''_n (x_n) &= gamma_n
    574 ) " damit " s''_n (x_n) = s''_(n+1) (x_n) = gamma_n
    575 $
    576 
    577 Dies sind 2N Gleichungen für die N+1 Unbekannten $gamma_0, ..., gamma_N$. Durch
    578 den Ansatz sind N-1 Glattheitsbedingungen an die zweite Ableitung automatisch
    579 erfüllt. 
    580 
    581 Mit den Gitterweiten $h_n := x_n - x_(n-1)$ erhalten wir
    582 $#h(1cm) alpha_n = 1/(6 h_n) (gamma_(n-1) + 2 gamma_n) #h(1cm)
    583 beta_n = -1/(6 h_n) (2 gamma_(n-1) + gamma_n)$
    584 
    585 Eingesetzt in $s'$ in der Glattheitsbedingung $s'_n (x_n) = s'_(n+1) (x_n)$ folgt
    586 
    587 $
    588 h_n / 6 (gamma_(n-1) + 2 gamma_n) + h_(n+1) / 6 ( 2 gamma_n + gamma_(n+1)) =
    589 gamma_(n,n+1) - gamma_(n-1,n) =: d
    590 $
    591 
    592 mit Einschränkung auf eingespannte kubische Splines $s'_1(x_0) = 0_0, s'_N (x_N)
    593 = v_N$ erhalten wir außerdem
    594 
    595 $
    596 h_1/6 ( 2 gamma_0 + gamma_1) = y_(0,1) - v_0 =: d_0 
    597 #h(2cm)
    598 h_N / 6 (gamma_(N-1) + 2 gamma_N) = v_N - y_(N-1,N) =: d_N
    599 \
    600 "Insgesamt ein LGS: "
    601 1/6 underbrace( mat(
    602 2 h_1, h_1;
    603 h_1, 2(h_1 + h_2), h_2;
    604 ,dots.down, dots.down, dots.down;
    605 ,,h_(N-1), 2(h_(N-1) + h_N), h_N;
    606 ,,,h_N, 2h_N;
    607 ), #[
    608 strikt diagonaldominante symmetrische Tridiagonalmatrix (spd, regulär) \
    609 $=>$ mit Cholesky in $O(N)$ Ops lösbar. 
    610 ])
    611 vec(gamma_0, gamma_1, dots.v, gamma_(N-1), gamma_N)
    612 =
    613 vec(d_0, d_1, dots.v, d_(N-1), d_N)
    614 $
    615 
    616 ===== Kondition
    617 
    618 $tilde(s)(x)$ der Spline zu gestörten Daten $(x_n, tilde(y)_n)$, Lagrange-Spline
    619 $l_n (x_m) = cases(1 ", falls " n=m, 0 ", falls" n != m), #h(1cm) l'_n (a) = 0, l'_n (b) =0$
    620 
    621 $
    622 abs(s(x) - tilde(s)(x)) <= sum_(n=0)^N abs(y_n - tilde(y)_n) norm(l_n (x)) 
    623 <= sum_(n=0)^N abs(l_n (x)) max_(m=0,...,N) abs(y_m - tilde(y)_m) 
    624 <= Lambda_N max_(n=0,...,N) abs(x_m - tilde(y)_m)
    625 $
    626 
    627 $
    628 "mit " Lambda_N := max_(x in [a,b]) sum_(n=0)^N abs(l_n (x)) " also " 
    629 max_(x in [a,b]) abs(s(x) - tilde(s)(x)) <= Lambda_N max_(m=0,...,N) abs(y_m - tilde(y)_n) 
    630 $
    631 
    632 Bei äquidisanten Unterteilung gilt $Lambda_N <= 2$ für alle $N in bb(N)$
    633 
    634 #pagebreak()
    635 
    636 
    637 == Numerische Integration
    638 
    639 Problem: Berechne für eine gegebene Funktion $f: [a,b] -> bb(R)$ das
    640 Riemann-Integral. 
    641 
    642 === Eigenschaften von Integralen
    643 
    644 #table(columns: 2*(auto, 1fr,), stroke: none, 
    645 [Additiv:],[ $ integral_a^b f(x) d
    646 x = integral_a^c f(x) d x + integral_c^b f(x) d x$],
    647 [Linear:],[ $I(lambda f + mu g) = lambda I(f) + mu I(g)$],
    648 )
    649 Monoton: falls $f >= g$ auf $[a,b]$ dann $integral_a^b f(x) d x >= integral_a^b g(x) d x$ 
    650   \ $abs(I(f)) <= I(abs(f)) <=> cond_1(f) = I(abs(f)) / abs(I(f)) >= 1$
    651 
    652 Norm: $norm(f)_1 = I(abs(f))$
    653 
    654 === Quadraturformeln
    655 
    656 $
    657 integral_a^b f(x) d x 
    658 approx integral_a^b p(x) d x 
    659 = integral_a^b sum_(n=0)^N f(x_n) L_n (x) 
    660 = sum_(n=0)^N overbrace(integral_a^b L_n (x) d x, =(b-a)b_(n+1))
    661 f underbrace((x_n), #box()#place(horizon+center, $script(=a + c_(n+1)(b-a))$)) 
    662 = (b-a) sum_(k=1)^s b_k f( a + c_k (b-a))
    663 $
    664 
    665 #table(columns: 3,
    666 [Rechteckregel], 
    667 $s = 1, b_1 = 1, c_1 = 0, p = 1$,
    668 $I(f) approx (b - a) f(a)$,
    669 [Mittelpunktregel], 
    670 $s = 1, b_1 = 1, c_1 = 1/2, && p = 2$, 
    671 $I(f) approx (b-a) f((a+b)/2)$,
    672 [Trapezregel],
    673 $s = 2, b_1 = b_2 = 1/2, c_1 = 0, c_1 = 1, p = 2$, 
    674 $I(f) approx (b-a) (f(a) + f(b))/2$,
    675 [Simpsonregel],
    676 $s = 3, b_1 = b_3 = 1/6, b_2 = 4/6, c_1 = 0, c_2 = 1/2, c_3 = 1, p = 4$,
    677 $I(f) approx (b-a) 1/6 (f(a) + 4 f((a+b)/2) + f(b))$,
    678 )
    679 
    680 Eine QF $(b_k, c_k)_(k=1,...,s)$ besitzt die Ordnung p, falls sie für alle
    681 Polynome vom Grad $<= p - 1$ das Integral exakt berechnet, wobei p maximal ist.
    682 
    683 #TODO[BEWEIS ZU ORDNUNGBEDINGUNGEN!!!!!]\
    684 
    685 *Ordnungsbedingungen*: Eine QF besitzt genau dann die Ordnung p, falls 
    686 
    687 $
    688 1 / q = sum_(k=1)^s b_k c_k^(q-1) "für alle " q = 1, ..., p " aber nicht mehr für " q = p + 1 " gilt"
    689 $
    690 
    691 Für eine QF mit vorgegebenen Knoten $c_1 < ... c_s$ können die Gewichte genau
    692 dann mit $b_k = integral_0^1 underbrace(L_k (x), #place(center, $L_k (x) = product_(j=1,j != k)^s
    693 (x-c_j)/(c_k - c_j)$)) d x$ eindeutig bestimmt werden wenn $p >= s$. 
    694 
    695 *Symmetrische QF*: 
    696 
    697 $
    698 b_k = b_(s+1-k) #h(1.5cm) ,c_k = 1 - c_(s+1-k) "also symmetrisch um "1/2" verteilt"
    699 $
    700 
    701 Die Ordnung p einer symmetrischen QF ist gerade. #TODO[Beweis]
    702 
    703 Für symmetrische Knoten $c_k$ und $p >= s$ sind die eindeutigen Gewichte $b_k$
    704 ebenfalls symmetrisch.
    705 
    706 === QF mit erhöhter Ordnung
    707 
    708 Die maximale Ordnung einer QF ist 2s (insb. bei Gauß-QF)
    709 
    710 Bew.: $angle.l M,M angle.r = integral_0^1 M(x)^2 d x > 0, deg(M) = s$
    711 
    712 *Gauß-QF*: Ordnung 2s gegeben durch $c_k = 1/2(1+gamma_k)$ mit
    713 $gamma_1,...,gamma_s$ die Nullstellen des Legendre-Polynoms vom Grad s.
    714 Die Gewichte $b_k$ einer Gauß-QF sind positiv. Gauß-QF sind symmetrisch, weil
    715 Legendre-Nullstellen $gamma_1, ..., gamma_s$ symmetrisch zum Punkt 0 im Interval
    716 $(-1, 1)$ und so Knoten symmetrisch zu Punkt $1/2$ im Interval $(0,1)$. 
    717 
    718 *Summierte QF*: Um Fehler zu verkleinern zerlege $[a,b]$ in Teilintervalle
    719 $[x_(n-1), x_n], n=1,...,N$ mit Intervallängen $x_n - x_(n-1) = h_n$
    720 
    721 $
    722 integral_a^b f(x) d x approx  sum_(n=1)^N h_n sum_(k=1)^s b_k (x_(n-1) + c_k h_n)
    723 $