Functions
Domain, Range, Komposisi, dan Sifat-sifat Penting
Setiap model statistik dan ML pada dasarnya adalah fungsi: input data → output prediksi. Memahami sifat fungsi — apakah dia convex? monotone? invertible? — langsung menentukan apakah optimization problem kita punya unique solution atau tidak.
Contoh: Loss function yang convex → guaranteed global minimum. Likelihood function yang concave → MLE punya unique solution. Fungsi link di GLM → memilih yang tepat bergantung pada sifat domain/range.
1 Definisi Formal
Fungsi \(f: X \to Y\) adalah aturan yang memetakan setiap elemen \(x \in X\) ke tepat satu elemen \(f(x) \in Y\).
- Domain: himpunan input \(X\)
- Codomain: himpunan output yang mungkin \(Y\)
- Range (image): \(\{f(x) : x \in X\} \subseteq Y\) (subset aktual yang tercapai)
2 Sifat-sifat Penting
2.1 Injective (One-to-One)
\(f\) injective jika \(f(x_1) = f(x_2) \Rightarrow x_1 = x_2\). Berbeda input → berbeda output.
2.2 Surjective (Onto)
\(f: X \to Y\) surjective jika \(\forall y \in Y, \exists x \in X: f(x) = y\). Setiap elemen codomain tercapai.
2.3 Bijective
Injective DAN surjective. Syarat untuk fungsi punya invers.
2.4 Monotone Functions
- Strictly increasing: \(x_1 < x_2 \Rightarrow f(x_1) < f(x_2)\)
- Strictly decreasing: \(x_1 < x_2 \Rightarrow f(x_1) > f(x_2)\)
Fungsi monotone strict selalu bijective pada domain-nya → punya invers.
3 Inverse Functions
Jika \(f: X \to Y\) bijective, maka \(f^{-1}: Y \to X\) didefinisikan oleh: \[f^{-1}(y) = x \iff f(x) = y\]
Properti: \(f^{-1}(f(x)) = x\) dan \(f(f^{-1}(y)) = y\)
Problem: Cari invers dari \(f(x) = \frac{2x + 3}{x - 1}\) (untuk \(x \neq 1\)).
Solution: 1. Set \(y = \frac{2x + 3}{x - 1}\) 2. Solve for \(x\): \(y(x-1) = 2x + 3\) 3. \(yx - y = 2x + 3\) 4. \(yx - 2x = y + 3\) 5. \(x(y - 2) = y + 3\) 6. \(x = \frac{y + 3}{y - 2}\)
Jadi \(f^{-1}(y) = \frac{y + 3}{y - 2}\) (untuk \(y \neq 2\)).
4 Komposisi Fungsi
\((f \circ g)(x) = f(g(x))\)
Penting: \(f \circ g \neq g \circ f\) pada umumnya (komposisi tidak komutatif).
Neural networks adalah komposisi fungsi berlapis: \[\hat{y} = f_L \circ f_{L-1} \circ \cdots \circ f_1 (x)\]
Chain rule untuk turunan komposisi ini adalah backpropagation. Memahami komposisi fungsi adalah kunci memahami bagaimana gradients mengalir mundur melalui layers.
5 Convexity & Concavity
\(f\) adalah convex jika untuk semua \(x, y\) dan \(t \in [0,1]\): \[f(tx + (1-t)y) \leq tf(x) + (1-t)f(y)\]
Secara geometris: garis lurus antara dua titik di grafik \(f\) berada DI ATAS grafik.
\(f\) adalah strictly convex jika inequality di atas strict untuk \(t \in (0,1)\) dan \(x \neq y\).
Kriteria dengan turunan: - \(f\) convex \(\iff\) \(f''(x) \geq 0\) untuk semua \(x\) (di \(\mathbb{R}^1\)) - \(f\) strictly convex \(\iff\) \(f''(x) > 0\)
Convex objective function → setiap local minimum adalah global minimum → gradient descent converges to optimal solution.
Dalam deep learning, loss landscape bukan convex (itulah mengapa optimization lebih sulit). Tapi di linear regression (OLS), loss function \(\|y - X\beta\|^2\) adalah strictly convex → unique global minimum.
6 Key Takeaways
6.1 Poin Utama
- Fungsi: aturan yang memetakan input ke tepat satu output
- Injective: berbeda input → berbeda output (perlu untuk invers)
- Bijective = injective + surjective = ada invers
- Monotone strict functions selalu punya invers
- Convex function: setiap local minimum = global minimum (krusial untuk optimization)
- Neural networks = komposisi fungsi berlapis → chain rule = backpropagation
Sebelumnya: ← Algebra Essentials | Selanjutnya: Inequalities →