tgi-cheatsheet/sheet.tex
2024-03-10 15:43:29 +01:00

430 lines
13 KiB
TeX

\documentclass[11pt, a4paper, twoside]{article}
\usepackage[
a4paper,
headsep=5mm,
footskip=0mm,
top=12mm,
left=10mm,
right=10mm,
bottom=10mm
]{geometry}
\usepackage{amsmath}
\usepackage{amsfonts}
\usepackage{multicol}
\usepackage[noend]{algorithm2e}
\usepackage[utf8]{inputenc}
\usepackage{fancyhdr}
\usepackage{hyperref}
\hypersetup{
colorlinks=true,
linkcolor=blue,
filecolor=magenta,
urlcolor=cyan,
pdftitle={Overleaf Example},
pdfpagemode=FullScreen,
}
\setlength{\algomargin}{0pt}
\begin{document}
\pagestyle{fancy}
\fancyhead{}
\fancyhead[L]{Theoretische Grundlagen der Informatik}
\fancyhead[R]{Gero Beckmann - \url{https://github.com/Geronymos/}}
\fancyfoot{}
\fancyfoot[R]{\thepage}
\section{Laufzeit}
\hspace*{-.5cm}
\begin{tabular}{ l l l l }
Notations & Asymptotischer Vergleich & Formale Definition & Grenzen \\
$f(n) \in \omega(g(n))$&
$f(n)$ wächst schneller als $g(n)$ &
$\forall c \exists n_0 \forall n > n_0 f(n) > c \cdot g(n)$ &
$$$\lim\sup\limits_{n \rightarrow \infty}\frac{f}{g} = \infty$$$ \\
$f(n) \in \Omega(g(n))$ &
$f(n)$ wächst min. so schnell wie $g(n)$ &
$\exists c \exists n_0 \forall n > n_0 c \cdot f(n) \leq g(n)$ &
$$$0 < \liminf\limits_{n \rightarrow \infty}\frac{f}{g} \leq \infty$$$ \\
\( f(n) \in \Theta(g(n)) \) &
$f(n)$ und $g(n)$ wachsen gleich schnell &
$f(n) \in \mathcal{O}(g(n)) \wedge f(n) \in \Omega(g(n))$ &
$$$0 < \lim\limits_{n \rightarrow \infty}\frac{f}{g} < \infty$$$ \\
\( f(n) \in \mathcal{O}(g(n)) \) &
$f(n)$ wächst max. so schnell wie $g(n)$ &
$\exists c \exists n_0 \forall n > n_0 f(n) \leq c \cdot g(n)$ &
$$$0 \leq \limsup\limits_{n \rightarrow \infty}\frac{f}{g} < \infty$$$ \\
\( f(n) \in o(g(n)) \) &
$f(n)$ wächst langsamer als $g(n)$ &
$\forall c \exists n_0 \forall n > n_0 c \cdot f(n) < g(n)$ &
$$$\lim\limits_{n \rightarrow \infty} \frac{f}{g} = \infty$$$ \\
\end{tabular}
\subsection{Vergleich}
\begin{tabular}{|c|c|c|c|c|c|c|c|c|c|c|c|c|c|c|c|}
$1$ & $\log^*n$ & $\log n$ & $\log^2n$ & $\sqrt[3]{n}$ &
$\sqrt{n}$ & $n$ & $n^2$ & $n^3$ & $n^{\log n}$ &
$2^{\sqrt{n}}$ & $2^n$ & $3^n$ & $4^n$ & $n!$ & $2^{n^2}$
\end{tabular}
\begin{multicols}{3}
\subsubsection*{Transitivität}
$f_1(n) \in \mathcal{O}(f_2(n)) \wedge f_2(n) \in\mathcal{O}(f_3(n))$ \\
$\Rightarrow f_1(n) \in \mathcal{O}(f_3(n))$
\subsubsection*{Summen}
$f_1(n) \in \mathcal{O}f_3(n)) \wedge f_2(n) \in \mathcal{O}(f_3(n))$ \\
$\Rightarrow f_1(n) + f_2(n) \in \mathcal{O}(f_3(n))$
\subsubsection*{Produkte}
$f_1(n) \in \mathcal{O}(g_1(n)) \wedge f_2(n) \in \mathcal{O}(g_2(n))$ \\
$\Rightarrow f_1(n) \cdot f_2(n) \in \mathcal{O}(g_1(n) \cdot g_2(n))$
\columnbreak
\subsection{Master-Theorem}
Sei $T(n) = a \cdot T(\frac{n}{b}) + f(n)$ mit $f(n) \in \Theta(n^c)$ und i
$T(1) \in \Theta(1)$. Dann gilt
$
T(n) \in \begin{cases}
\Theta(n^c) &\text{wenn } a < b^c, \\
\Theta(n^c \log n) &\text{wenn } a = b^c, \\
\Theta(n^{\log_b(a)}) &\text{wenn } a > b^c.
\end{cases}
$
\subsubsection{Monome}
\begin{itemize}
\item $a \leq b \Rightarrow n^a \in \mathcal{O}(n^b)$
\item $n^a \in \Theta(n^b) \Leftrightarrow a = b$
\item $\sum_{v \in V}deg(v) = \Theta(m)$
\item $\forall n \in \mathbb{N}: \sum^n_{k=0}k = \frac{n(n+1)}{2}$
\item $
\sum^b_{i=a}c^i \in \begin{cases}
\Theta(c^a) &\text{wenn } c < 1, \\
\Theta(c^b) &\text{wenn } c > 1, \\
\Theta(b-a) &\text{wenn } c = 1.
\end{cases}
$
\item $\log(ab) = \log(a) + \log(b)$
\item $\log(\frac{a}{b}) = \log(a) - \log(b)$
\item $a^{\log_a(b)} = b$
\item $a^x = e^{ln(a) \cdot x}$
\item $\log(a^b) = b \cdot \log(a)$
\item $\log_b(n) = \frac{\log_a(n)}{\log_a(b)}$
\end{itemize}
%\subsubsection{Konstante Faktoren}
%
%$a \cdot f(n) \in \Theta(f(n))$
\end{multicols}
\begin{minipage}{0.7\textwidth}
\section{Sortieren}
\begin{tabular}[t]{c || c | c | c | c}
Algorithmus & best case & average & worst & Stabilität \\
\hline
Insertion-Sort &
$\mathcal{O}(n)$ & $\mathcal{O}(n^2)$ & $\mathcal{O}(n^2)$ & stabil\\
Bubble-Sort &
$\mathcal{O}(n)$ & $\mathcal{O}(n^2)$ & $\mathcal{O}(n^2)$ & stabil\\
Merge-Sort &
$\mathcal{O}(n\log n)$ & $\mathcal{O}(n\log n)$ & $\mathcal{O}(n\log n)$ & stabil\\
Quick-Sort &
$\mathcal{O}(n \log n)$ & $\mathcal{O}(n\log n)$ & $\mathcal{O}(n\log n)$ & i.A. nicht stabil\\
Heap-Sort &
$\mathcal{O}(n\log n)$ & $\mathcal{O}(n\log n)$ & $\mathcal{O}(n\log n)$ & nicht stabil\\
\hline
Bucket-Sort &
$\Theta(n+m)$ & $\Theta(n+m)$ & $\Theta(n+m)$ &
stabil $e \in [0, m)$\\
Radix-Sort &
$\Theta(c \cdot n)$ & $\Theta(c\cdot n)$ & $\Theta(c\cdot n)$ &
stabil $e \in [0, n^c)$\\
\end{tabular}
\end{minipage}
\hfill
\begin{minipage}{0.3\textwidth}
\subsection{Heaps}
\begin{tabular}[t]{c || c}
Bin.-Heap & Laufzeit \\
\hline
push(x) & $\mathcal{O}(\log n)$ \\
popMin() & $\mathcal{O}(\log n)$ \\
decPrio(x, x') & $\mathcal{O}(\log n)$ \\
build([$\mathbb{N}$; n]) & $\mathcal{O}(n)$
\end{tabular}
\begin{itemize}
\item linkes Kind: $2v + 1$
\item rechts Kind: $2v + 2$
\item Elternknoten: $ \lfloor \frac{v - 1}{2} \rfloor $
\end{itemize}
\end{minipage}
\begin{multicols}{2}
\section{Datenstrukturen}
\subsection{Listen}
\begin{tabular}{c || c | c | c || c}
Operation & DLL & SLL & Array & Erklärung(*) \\
\hline
first & 1 & 1 & 1 & \\
last & 1 & 1 & 1 & \\
insert & 1 & 1* & n & nur insertAfter \\
remove & 1 & 1* & n & nur removeAfter \\
pushBack & 1 & 1 & 1* & amortisiert \\
pushFront & 1 & 1 & n & \\
popBack & 1 & n & 1* & amortisiert \\
popFront & 1 & 1 & n & \\
concat & 1 & 1 & n & \\
splice & 1 & 1 & n \\
findNext & n & n & n
\end{tabular}
\subsection{Hash-Tabelle}
$\mathcal{H}$ heißt \textbf{universell}, wenn für ein zufälliges gewähltes
$h \in \mathcal{H}$ gilt: $U \rightarrow \{0, ..., m-1\}$ \\
$\forall k, l \in U, k \neq l: Pr[h(k) = h(l)] = \frac{1}{m}$ \\
$h_{a,b}(k) = ((a\cdot k + b) \mod p) \mod m$
\subsection{Graphen}
\begin{tabular}{c || c}
Algorithmus & Laufzeit \\
\hline
BFS/DFS & $\Theta(n+m)$\\
topoSort & $\Theta(n)$\\
Kruskal & $\Theta(m \log n)$\\
Prim & $\Theta((n+m)\log n)$ \\
Dijksta & $\Theta((n + m) \log n)$\\
Bellmann-Ford & $\Theta(nm)$\\
Floyd-Warshall & $\Theta(n^3)$ \\
\end{tabular}
\end{multicols}
\newpage
\begin{multicols}{2}
\subsubsection{DFS}
\begin{tabular}{c || c | c}
Kante & DFS & FIN \\
\hline
Vorkante & klein $\rightarrow$ groß & groß $\rightarrow$ klein \\
Rückkante & groß $\rightarrow$ klein & klein $\rightarrow$ groß \\
Querkante & groß $\rightarrow$ klein & groß $\rightarrow$ klein \\
Baumkante & klein $\rightarrow$ groß & groß $\rightarrow$ klein \\
\end{tabular}
\subsection{Bäume}
\subsubsection{Heap}
Priorität eines Knotens $\geq (\leq)$ Priorität der Kinder.
\textbf{BubbleUp}, \textbf{SinkDown}. \textbf{Build} mit \textbf{sinkDown}
beginnend mit letztem Knoten der vorletzten Ebene weiter nach oben.
\textbf{decPrio} entweder updaten, Eigenschaft wiederherstellen; löschen,
mit neuer Prio einfügen oder Lazy Evaluation.
\subsubsection{(ab)-Baum}
Balanciert. \textbf{find}, \textbf{insert}, \textbf{remove} in
$\Theta(log n)$. Zu wenig Kinder: \textbf{rebalance} / \textbf{fuse}.
Zu viele Kinder: \textbf{split}.
Linker Teilbaum $\leq$ Schlüssel k $<$ rechter Teilbaum
Unendlich-Trick, für Invarianten.
\subsection{Union-Find}
Rang: höhe des Baums, damit ist die Höhe h mind. $2^h$ Knoten, h $\in
\mathcal{O}(\log n)$.
Union hängt niedrigen Baum an höherrängigen Baum. Pfadkompression hängt alle
Knoten bei einem \textbf{find} an die Wurzel.
\columnbreak
\section{Amortisierte Analyse}
\subsection{Aggregation}
Summiere die Kosten für alle Operationen. Teile Gesamtkkosten durch Anzahl
Operationen.
\subsection{Charging}
Verteile Kosten-Tokens von teuren zu günstigen Operationen (Charging). Zeige:
jede Operation hat am Ende nur wenige Tokens.
\subsection{Konto}
Günstige Operationen bezahlen mehr als sie tatsächlich kosten (ins Konto
einzahlen). Teure Operationen bezahlen tatsächliche Kosten zum Teil mit
Guthaben aus dem Konto. \textbf{Beachte: Konto darf nie negativ sein!}
\subsection{Potential (Umgekehrte Kontomethode)}
Definiere Kontostand abhängig vom Zustand der Datenstruktur
(Potentialfunktion)
amortisierten Kosten = tatsächliche Kosten
$+ \Phi(S_\text{nach}) -\Phi(S_\text{vor})$
\end{multicols}
\section{Pseudocode}
\scriptsize
\begin{minipage}{.25\linewidth}
\begin{algorithm}[H]
DFS(Graph G, Node v) \\
mark v \\
dfs[v] := dfsCounter++ \\
low[v] := dfs[v] \\
\For{u $\in$ N(v)}{
\eIf{not marked u}{
dist[u] := dist[v] + 1 \\
par[u] := v \\
DFS(G, u) \\
low[v] := min(low[v], low[u]) \\
}{low[v] := min(low[v], dfs[u])}
}
fin[v] := fin++ \\
\end{algorithm}
\end{minipage}
\begin{minipage}{.25\linewidth}
\begin{algorithm}[H]
topoSort(Graph G) \\
fin := [$\infty$; n] \\
curr := 0 \\
\For{Node v in V}{
\If{v is colored}{DFS(G,v)}
}
return V sorted by decreasing fin \\
\end{algorithm}
\end{minipage}
\begin{minipage}{.25\linewidth}
\begin{algorithm}[H]
Kruskal(Graph G) \\
U := Union-Find(G.v) \\
PriorityQueue Q := empty \\
\For{Edge e in E}{Q.push(e, len(e))}
\While{Q $\neq \emptyset$}{
e := Q.popMin() \\
\If{U.find(v) $\neq$ U.find(u)}{
L.add(e) \\
U.union(v, u) \\
}
}
\end{algorithm}
\end{minipage}
\begin{minipage}{.25\linewidth}
\begin{algorithm}[H]
Prim(Graph G) \\
Priority Queue Q := empty \\
p := [0; n] \\
\For{Node v in V}{
Q.push(v, $\infty$) \\
}
\While{Q $\neq \emptyset$}{
u := Q.popMin() \\
\For{Node v in N(u)}{
\If{v $\in$ Q $\wedge$ (len(u, v) $<$ Q.prio(v))}{
p[v] = u \\
Q.decPrio(v, len(u, v) \\
}
}
}
\end{algorithm}
\end{minipage}
\begin{minipage}{.25\linewidth}
\begin{algorithm}[H]
BFS(Graph G, Start s, Goal z) \\
Queue Q := empty queue \\
Q.push(s) \\
s.layer = 0 \\
\While{Q $\neq \emptyset$}{
u := Q.pop() \\
\For{Node v in N(u)}{
\If{v.layer = $-\infty$}{
Q.push(v) \\
v.layer = u.layer + 1
}
\If{v = z}{
return z.layer
}
}
}
\end{algorithm}
\end{minipage}
\begin{minipage}{.25\linewidth}
\begin{algorithm}[H]
Dijkstra(Graph G, Node s) \\
d := [$\infty$; n] \\
d[s] := 0 \\
PriorityQueue Q := empty priority queue \\
\For{Node v in V}{
Q.push(v, d[v])
}
\While{Q $\neq \emptyset$}{
u := Q.popMin() \\
\For{Node v in N(u)}{
\If{d[v] $>$ d[u] + len(u, v)}{
d[v] := d[u] + len(u, v) \\
Q.decPrio(v, d[v]) \\
}
}
}
\end{algorithm}
\end{minipage}
\begin{minipage}{.25\linewidth}
\begin{algorithm}[H]
BellManFord(Graph G, Node s) \\
d := [$\infty$, n] \\
d[s] := 0 \\
\For{n-1 iterations}{
\For{(u, v) $\in$ E}{
\If{d[v] $>$ d[u] + len(u, v)}{
d[v] := d[u] + len(u, v)
}
}
}
\For{(u, v) $\in$ E}{
\If{d[v] $>$ d[u] + len(u, v)}{
return negative cycle
}
}
return d
\end{algorithm}
\end{minipage}
\begin{minipage}{.25\linewidth}
\begin{algorithm}[H]
FloydWarshall(Graph G) \\
D := [$\infty$, n $\times$ n] \\
\For{(u, v) $\in$ E}{D[u][v] := len(u, v)}
\For{v $\in$ V}{D[v][v] := 0}
\For{i $\in 1,...,n$}{
\For{(u,v) $\in V \times V$}{
D[u][v] := min(D[u][v], D[u][$v_i$] + D[$v_i$][v]) \\
}
}
return D
\end{algorithm}
\end{minipage}
\end{document}