Appendix D: Glossary & Terminology
Daftar Istilah Pembelajaran Mesin (Machine Learning Terminology)
Appendix D: Glossary & Terminology
Glossary ini menyediakan definisi komprehensif istilah-istilah penting dalam Pembelajaran Mesin yang digunakan di seluruh buku. Setiap istilah mencakup:
- Terjemahan Indonesia (jika berlaku)
- Definisi singkat (1-3 kalimat)
- Konteks penggunaan dan contoh
- Istilah terkait (lihat: …)
Gunakan indeks abjad di bawah untuk navigasi cepat.
A
Activation Function (Fungsi Aktivasi)
Istilah Indonesia: Fungsi Aktivasi
Fungsi matematis yang diterapkan pada output neuron untuk memperkenalkan nonlinearitas ke dalam neural network. Tanpa activation functions, deep neural networks hanya akan melakukan transformasi linear.
Contoh umum:
- ReLU (Rectified Linear Unit): f(x) = max(0, x) — paling populer di hidden layers
- Sigmoid: f(x) = 1/(1 + e^(-x)) — output range [0,1], sering untuk binary classification
- Tanh: f(x) = (e^x - e(-x))/(ex + e^(-x)) — output range [-1,1]
- Softmax: Untuk multi-class classification output
Lihat juga: Neuron, Neural Network, Backpropagation
Algorithm (Algoritma)
Istilah Indonesia: Algoritma
Prosedur step-by-step yang diikuti oleh model machine learning untuk belajar dari data. Algoritma mendefinisikan bagaimana weights diupdate dan loss function diminimalkan.
Contoh: Algoritma Linear Regression, Decision Tree, K-Means Clustering
Lihat juga: Gradient Descent, Model, Loss Function
Anomaly Detection (Deteksi Anomali)
Istilah Indonesia: Deteksi Anomali
Teknik machine learning untuk mengidentifikasi data points yang menyimpang signifikan dari pola normal dalam dataset. Berguna untuk fraud detection, network security, dan quality control.
Metode: Isolation Forest, Local Outlier Factor (LOF), Autoencoders
Lihat juga: Unsupervised Learning, Outlier
Attention Mechanism (Mekanisme Perhatian)
Istilah Indonesia: Mekanisme Perhatian
Teknik dalam neural networks yang memungkinkan model untuk fokus pada bagian spesifik dari input yang paling relevan untuk prediksi. Komponen kunci dalam Transformer architecture.
Contoh: Multi-head attention dalam BERT, GPT models
Lihat juga: Transformer, Self-Attention, Sequence-to-Sequence
B
Backpropagation (Propagasi Balik)
Istilah Indonesia: Propagasi Balik
Algoritma untuk menghitung gradients (turunan) dari loss function terhadap setiap weight dalam neural network, memungkinkan efficient training. Menggunakan chain rule dari calculus.
Proses: Forward pass → Calculate loss → Backward pass → Update weights
Lihat juga: Gradient Descent, Loss Function, Neural Network
Batch (Kelompok Data)
Istilah Indonesia: Batch / Kelompok
Subset dari training data yang diproses bersama-sama dalam satu iterasi training. Batch processing mempercepat training dengan memanfaatkan parallelisasi komputasi.
Istilah terkait:
- Batch Size: Jumlah samples dalam satu batch (misal: 32, 64, 128)
- Epoch: Satu pass lengkap melalui seluruh training dataset
Lihat juga: Stochastic Gradient Descent, Learning Rate, Epoch
Bias (Bias / Bias Input)
Istilah Indonesia: Bias
Parameter dalam model yang ditambahkan ke weighted sum dari inputs untuk memungkinkan model mempelajari offset. Setiap neuron biasanya memiliki bias term tersendiri.
Contoh: Dalam linear regression: y = mx + b, ‘b’ adalah bias
Catatan: Jangan bercampur dengan “bias” dalam konteks fairness (seperti gender bias atau racial bias)
Lihat juga: Weight, Neuron, Linear Regression
Bias-Variance Tradeoff (Tradeoff Bias-Varians)
Istilah Indonesia: Pertukaran Bias-Varians
Dilema fundamental dalam machine learning antara model yang terlalu sederhana (high bias, underfitting) vs terlalu kompleks (high variance, overfitting). Tujuannya menemukan sweet spot optimal.
Visualisasi: Target dengan darts - High Bias: Dart jauh dari target, berkumpul di satu spot - High Variance: Dart tersebar random di sekitar target - Ideal: Dart mengenai bullseye
Strategi: Cross-validation, regularization, ensemble methods
Lihat juga: Overfitting, Underfitting, Model Complexity
C
Classification (Klasifikasi)
Istilah Indonesia: Klasifikasi
Supervised learning task untuk memprediksi kategori/label dari input. Output adalah kategori diskrit, bukan nilai kontinu.
Tipe:
- Binary Classification: 2 kelas (misal: spam vs not spam)
- Multi-class Classification: >2 kelas (misal: klasifikasi bunga iris: setosa, versicolor, virginica)
- Multi-label Classification: Sample bisa termasuk multiple labels
Algoritma populer: Logistic Regression, Decision Trees, Random Forest, SVM, Neural Networks
Lihat juga: Supervised Learning, Regression, Softmax
Cluster (Klaster)
Istilah Indonesia: Klaster / Kelompok
Grup dari data points yang serupa dikelompokkan bersama dalam unsupervised learning. Tujuan clustering adalah menemukan struktur natural dalam data tanpa label.
Algoritma populer: K-Means, Hierarchical Clustering, DBSCAN, Gaussian Mixture Models
Lihat juga: Unsupervised Learning, K-Means, Clustering
Clustering (Pengelompokan)
Istilah Indonesia: Pengelompokan / Clustering
Unsupervised learning task untuk mengelompokkan data points yang mirip tanpa menggunakan label. Berguna untuk exploratory data analysis dan pattern discovery.
Aplikasi: Customer segmentation, gene sequencing, document organization
Lihat juga: Unsupervised Learning, Cluster, K-Means
CNN (Convolutional Neural Network)
Istilah Indonesia: Jaringan Neural Konvolusi
Jenis neural network khusus dirancang untuk memproses data dengan struktur grid-like, terutama image. Menggunakan convolutional layers untuk extract spatial features secara efisien.
Komponen utama: Convolutional Layer, Pooling Layer, Fully Connected Layer
Populer architectures: AlexNet, VGG, ResNet, Inception, EfficientNet
Aplikasi: Image classification, object detection, semantic segmentation
Lihat juga: Deep Learning, Filter, Pooling, Transfer Learning
Confusion Matrix (Matriks Kebingungan)
Istilah Indonesia: Matriks Kebingungan
Tabel yang menunjukkan prediksi model vs actual labels untuk classification tasks. Membantu mengidentifikasi jenis error yang dilakukan model.
Komponen:
- True Positive (TP): Correctly predicted positive
- True Negative (TN): Correctly predicted negative
- False Positive (FP): Incorrectly predicted positive (Type I error)
- False Negative (FN): Incorrectly predicted negative (Type II error)
Metrik diturunkan: Precision, Recall, F1-Score, Accuracy
Lihat juga: Precision, Recall, F1-Score, Classification Metrics
Convolution (Konvolusi)
Istilah Indonesia: Konvolusi
Operasi matematis dalam CNN di mana filter (kernel) digeser di atas image untuk mengekstrak features lokal. Setiap posisi filter menghasilkan satu nilai output.
Proses: Filter geser → element-wise multiplication → sum = output value
Hyperparameter: Filter size, stride, padding
Lihat juga: CNN, Filter, Kernel, Pooling
Cross-Entropy Loss (Loss Cross-Entropy)
Istilah Indonesia: Loss Cross-Entropy
Loss function populer untuk classification tasks yang mengukur perbedaan antara predicted probability distribution dan true distribution.
Formula: L = -Σ y_i * log(ŷ_i)
Keuntungan: Penalti yang besar ketika model sangat confident tapi salah
Lihat juga: Loss Function, Classification, Softmax
Cross-Validation (Validasi Silang)
Istilah Indonesia: Validasi Silang
Teknik untuk mengevaluasi model performance yang robust dengan membagi dataset menjadi k-fold dan melatih k model berbeda. Setiap fold digunakan sekali sebagai validation set.
Jenis populer:
- k-Fold CV: Typical k=5 atau k=10
- Stratified k-Fold: Preserves class distribution
- Time Series CV: Untuk data temporal
Keuntungan: Menggunakan data lebih efisien, mengurangi variance dalam performance estimate
Lihat juga: Train-Test Split, Overfitting, Model Evaluation
D
Dataset (Data)
Istilah Indonesia: Dataset / Kumpulan Data
Koleksi terstruktur dari data points (samples) dengan features dan (untuk supervised learning) labels. Dataset dibagi menjadi training, validation, dan test sets.
Karakteristik penting:
- Size: Jumlah samples
- Features: Jumlah dan tipe input variables
- Balance: Distribusi class labels (untuk classification)
- Quality: Presence of missing values, outliers, noise
Lihat juga: Data Preprocessing, Feature, Label, Training Data
Decision Tree (Pohon Keputusan)
Istilah Indonesia: Pohon Keputusan
Model yang membuat keputusan berjenjang menggunakan series of if-then rules. Setiap node internal adalah decision based on feature value, leaf nodes adalah predictions.
Keuntungan: Interpretable, no scaling needed, handles non-linear relationships
Kelemahan: Prone to overfitting, unstable dengan perubahan kecil data
Populer untuk: Classification dan Regression
Lihat juga: Ensemble Learning, Random Forest, Gradient Boosting
Deep Learning (Pembelajaran Dalam)
Istilah Indonesia: Pembelajaran Dalam
Subset dari machine learning menggunakan neural networks dengan multiple layers (deep architectures) untuk belajar hierarchical representations dari data.
Karakteristik:
- Multiple hidden layers (vs single layer shallow networks)
- Automatic feature extraction (vs manual feature engineering)
- Representation learning
Saat digunakan: Image, audio, text data; complex patterns; large datasets
Lihat juga: Neural Network, MLP, CNN, RNN, Transformer
Dense Layer (Layer Padat)
Istilah Indonesia: Layer Padat / Fully Connected Layer
Layer dalam neural network di mana setiap neuron terhubung ke semua neurons di layer sebelumnya. Juga disebut fully connected layer.
Karakteristik: Setiap connection memiliki weight yang dapat dipelajari
Penggunaan: Biasanya sebagai output layer; classifier head di CNN/RNN
Lihat juga: Neural Network Layer, Fully Connected, Neuron
Dropout (Dropout)
Istilah Indonesia: Dropout
Regularization technique yang secara random “mematikan” (setting to zero) fraction dari neurons selama training. Mencegah co-adaptation dan overfitting.
Cara kerja: Setiap training iteration, randomly drop neurons dengan probability p (typical: 0.5)
Efek: Menciptakan “ensemble” dari thinned networks, hasil model lebih robust
Lihat juga: Regularization, Overfitting, L2 Regularization
E
Embedding (Embedding)
Istilah Indonesia: Embedding / Penyematan
Representasi learned dari discrete entities (words, items) sebagai vectors dalam continuous vector space. Entities yang mirip memiliki embeddings yang close.
Aplikasi:
- Word embeddings: Word2Vec, GloVe, FastText
- Sentence embeddings: Untuk semantic search, similarity
- Token embeddings: Input ke Transformers
Keuntungan: Menangkap semantic meaning, reduce dimensionality, enables similarity computation
Lihat juga: Feature Representation, Vector, Semantic Similarity
Ensemble Learning (Pembelajaran Ensemble)
Istilah Indonesia: Pembelajaran Ensemble
Teknik menggabungkan multiple models untuk membuat predictions lebih akurat daripada individual models. Ide: wisdom of crowds.
Strategi populer:
- Bagging (Bootstrap Aggregating): e.g., Random Forest
- Boosting: e.g., Gradient Boosting, XGBoost, AdaBoost
- Stacking: Melatih meta-learner pada prediksi base learners
- Voting: Majority vote atau weighted average
Keuntungan: Improved accuracy, robustness, reduced variance
Lihat juga: Random Forest, Gradient Boosting, Overfitting
Epoch (Epoch)
Istilah Indonesia: Epoch / Iterasi Lengkap
Satu pass lengkap melalui seluruh training dataset selama neural network training. Jika dataset dibagi menjadi batches, satu epoch = satu iteration per batch.
Hubungan:
- Epoch ← Batches
- Training menggunakan multiple epochs untuk convergence
Typical: 50–1000 epochs tergantung complexity dan dataset size
Lihat juga: Batch, Training, Learning Rate Schedule
F
Feature (Fitur)
Istilah Indonesia: Fitur / Ciri / Atribut
Input variable tunggal untuk model machine learning. Dataset terdiri dari multiple features yang bersama-sama digunakan untuk memprediksi target.
Tipe:
- Numerical: Continuous (price) atau discrete (count)
- Categorical: Discrete categories (color: red, blue, green)
- Temporal: Time-based features
Kualitas: Relevant, independent, numeric (setelah preprocessing)
Lihat juga: Feature Engineering, Feature Selection, Target
Feature Engineering (Rekayasa Fitur)
Istilah Indonesia: Rekayasa Fitur / Pemilihan dan Pembuatan Fitur
Proses mentransformasi dan membuat features baru dari raw data untuk meningkatkan model performance. Sering dianggap sebagai aspek terpenting dari machine learning.
Teknik umum:
- Scaling: Normalisasi ke range [0,1] atau standardisasi
- Encoding: Konversi categorical → numerical (one-hot, ordinal)
- Binning: Konversi continuous → categorical ranges
- Interaction features: Kombinasi dari existing features
- Polynomial features: Powers dan products dari features
- Domain-specific transformations: e.g., log transformation untuk right-skewed data
Lihat juga: Feature Selection, Data Preprocessing, Domain Knowledge
Feature Extraction (Ekstraksi Fitur)
Istilah Indonesia: Ekstraksi Fitur
Proses mengidentifikasi dan mengekstrak features paling relevan dari raw data. Dalam deep learning, dilakukan otomatis oleh hidden layers.
Metode:
- PCA (Principal Component Analysis): Unsupervised dimensionality reduction
- CNN convolutional layers: Automatic feature extraction dari images
- Autoencoders: Learned feature representations
Lihat juga: Feature Engineering, Dimensionality Reduction, PCA
Feature Selection (Pemilihan Fitur)
Istilah Indonesia: Pemilihan Fitur
Proses memilih subset dari features yang paling penting untuk model. Menghilangkan irrelevant/redundant features meningkatkan performance dan interpretability.
Metode:
- Statistical tests: Correlation, mutual information
- Model-based: Feature importance dari tree models
- Sequential selection: Forward/backward elimination
Keuntungan: Reduced training time, less overfitting, better interpretability
Lihat juga: Feature Engineering, Dimensionality Reduction, Curse of Dimensionality
Filter (Filter / Kernel)
Istilah Indonesia: Filter / Kernel
Small matrix dalam CNN yang dikonvolusi dengan input image untuk mengekstrak features. Setiap filter belajar medeteksi patterns spesifik.
Karakteristik:
- Size: Typical 3x3, 5x5
- Number: Ditambah per layer (e.g., 32 filters → 64 filters)
- Learned: Weights diupdate selama training
Interpretasi: Early layers: edges, textures; Deep layers: semantic features
Lihat juga: Convolution, CNN, Kernel
Fine-tuning (Fine-tuning)
Istilah Indonesia: Penyesuaian Halus / Fine-tuning
Teknik transfer learning di mana pre-trained model dilatih lebih lanjut (fine-tuned) pada task-specific dataset. Menggunakan weights pre-trained sebagai inisialisasi.
Strategi:
- Full fine-tuning: Update semua weights
- Partial fine-tuning: Freeze early layers, update later layers
- PEFT: Parameter-Efficient Fine-Tuning (LoRA, QLoRA)
Keuntungan: Lebih cepat convergence, butuh sedikit data, lower compute cost
Contoh: Fine-tune BERT untuk sentiment analysis
Lihat juga: Transfer Learning, Pre-training, LoRA
F1-Score
Istilah Indonesia: Skor F1 / F1-Score
Harmonic mean dari precision dan recall, memberikan balanced metric untuk classification tasks terutama dengan imbalanced classes.
Formula: F1 = 2 × (Precision × Recall) / (Precision + Recall)
Range: 0 to 1 (1 = perfect)
Kapan digunakan: Ketika precision dan recall equally important
Lihat juga: Precision, Recall, Classification Metrics
Forward Pass (Lintasan Maju)
Istilah Indonesia: Lintasan Maju
Proses komputasi dalam neural network dari input layer menuju output layer. Setiap neuron menerima input, apply weights dan bias, apply activation function.
Output: Final prediction + intermediate activations (diperlukan untuk backpropagation)
Lihat juga: Backpropagation, Neural Network, Inference
G
Generalization (Generalisasi)
Istilah Indonesia: Generalisasi
Kemampuan model untuk melakukan well pada data baru yang tidak dilihat sebelumnya (test data), bukan hanya pada training data. Adalah tujuan utama machine learning.
Tantangan: Balancing antara fitting training data dan generalizing ke unseen data
Metrik: Test set performance, cross-validation scores
Lihat juga: Overfitting, Underfitting, Train-Test Split
Gradient (Gradien)
Istilah Indonesia: Gradien
Vektor dari partial derivatives (turunan) dari loss function terhadap setiap parameter. Menunjukkan direction dan magnitude dari steepest ascent.
Penggunaan: Digunakan dalam gradient descent untuk update weights dalam direction yang mengurangi loss
Perhitungan: Menggunakan backpropagation dalam neural networks
Lihat juga: Gradient Descent, Backpropagation, Optimization
Gradient Descent (Turunan Gradien)
Istilah Indonesia: Turunan Gradien / Gradient Descent
Optimization algorithm untuk menemukan minimum dari loss function dengan iteratively bergerak dalam direction negative gradient. Fundamental algorithm untuk training neural networks.
Varian:
- Batch GD: Menggunakan seluruh dataset
- Stochastic GD (SGD): Menggunakan satu sample per iteration
- Mini-batch GD: Menggunakan batch dari samples
- Adam, RMSprop, Adagrad: Adaptive learning rate methods
Hyperparameter: Learning rate (step size)
Lihat juga: Learning Rate, Optimization, Adam, Backpropagation
Gradient Boosting (Gradient Boosting)
Istilah Indonesia: Gradient Boosting
Ensemble method yang secara sequential membangun weak learners (biasanya decision trees) untuk fit residuals dari previous predictions. Powerful untuk both regression dan classification.
Populer implementations: XGBoost, LightGBM, CatBoost, Scikit-learn GradientBoostingClassifier
Keuntungan: Excellent performance, handles non-linear relationships, feature importance
Trade-off: Computational cost, hyperparameter tuning complexity
Lihat juga: Ensemble Learning, Boosting, Decision Tree
H
Hyperparameter (Hiperparameter)
Istilah Indonesia: Hiperparameter
Parameter model yang set sebelum training, bukan diupdate oleh learning algorithm. Pilihan hyperparameter signifikan mempengaruhi model performance.
Contoh:
- Learning rate, batch size, number of epochs
- Number of hidden layers, units per layer
- Regularization strength (λ)
- Kernel size dalam CNN
Tuning: Grid search, random search, Bayesian optimization
Lihat juga: Parameter, Learning Rate, Regularization
I
Inference (Inferensi)
Istilah Indonesia: Inferensi
Proses menggunakan trained model untuk membuat predictions pada new data. Berbeda dengan training: hanya forward pass, tidak ada weight updates.
Karakteristik:
- Faster dibanding training (no backpropagation)
- Bisa dijalankan on edge devices, mobile, embedded systems
- Fokus: latency, throughput, memory efficiency
Konteks: Model deployment, real-time predictions, batch inference
Lihat juga: Training, Deployment, Model Serving
Interpretability (Interpretabilitas)
Istilah Indonesia: Interpretabilitas / Dapat Diinterpretasikan
Kemampuan untuk menjelaskan keputusan model dengan cara yang meaningful kepada humans. Penting untuk trust, debugging, dan regulatory compliance.
Teknik:
- LIME: Approximation lokal dengan interpretable model
- SHAP: Shapley values untuk feature importance
- Feature importance: Dari tree models
- Attention visualization: Dari attention mechanisms
Lihat juga: Explainability, Feature Importance, Model Transparency
J
Jitter (Jitter)
Istilah Indonesia: Jitter / Penambahan Noise
Teknik menambahkan small random noise ke data untuk mencegah overplotting dalam visualisasi dan regularization dalam training.
Penggunaan: Data augmentation, visualization clarity
Lihat juga: Data Augmentation, Regularization, Noise
K
K-Means Clustering
Istilah Indonesia: K-Means Clustering / Pengelompokan K-Means
Unsupervised algorithm yang mempartisi data menjadi k clusters dengan minimizing intra-cluster variance. Iteratively assign points to nearest centroid dan update centroids.
Proses: 1. Initialize k random centroids 2. Assign each point ke nearest centroid 3. Update centroid sebagai mean dari assigned points 4. Repeat steps 2-3 hingga convergence
Hyperparameter: k (number of clusters)
Limitasi: Assumes spherical clusters, sensitive ke initialization, biasanya untuk euclidean distance
Lihat juga: Clustering, Unsupervised Learning, Centroid
Kernel (Kernel)
Istilah Indonesia: Kernel / Kernel Methods
Dalam SVM: fungsi yang mengukur similarity antara data points dalam transformed feature space, memungkinkan non-linear classification tanpa explicit transformation.
Populer kernels: Linear, polynomial, RBF (Radial Basis Function), sigmoid
Keuntungan: Computational efficiency, flexibility
Lihat juga: SVM, Support Vector Machine, Feature Space
L
Label (Label / Kelas)
Istilah Indonesia: Label / Kelas / Target
Output yang benar untuk input dalam supervised learning. Model dilatih untuk memprediksi labels dari features.
Tipe:
- Discrete: Kategori untuk classification (misal: spam/not spam)
- Continuous: Nilai untuk regression (misal: house price)
Data terlabeli: Required untuk supervised learning, expensive to obtain
Lihat juga: Feature, Supervised Learning, Target
Layer (Layer)
Istilah Indonesia: Layer / Lapisan
Building blocks dari neural networks, menerima input dan output transformed representations. Terdiri dari multiple neurons dengan shared parameters.
Tipe populer:
- Dense/Fully Connected: Setiap neuron terkoneksi ke semua di layer prev
- Convolutional: Extract spatial patterns dari images
- Recurrent: Process sequential data dengan memory
- Embedding: Represent discrete items sebagai vectors
- Normalization: Batch Normalization, Layer Normalization
Lihat juga: Neural Network, Neuron, Activation Function
Learning Rate (Laju Pembelajaran)
Istilah Indonesia: Laju Pembelajaran / Learning Rate
Hyperparameter yang mengontrol step size dalam gradient descent. Terlalu tinggi → divergence; terlalu rendah → slow convergence.
Typical values: 0.001, 0.01, 0.1 untuk neural networks
Learning rate schedule: Decrease learning rate over time untuk fine-tuning convergence
Adaptif methods: Adam, RMSprop automatically adjust learning rate per parameter
Lihat juga: Gradient Descent, Optimization, Convergence
LLM (Large Language Model)
Istilah Indonesia: Model Bahasa Besar / LLM
Neural network dengan billions of parameters pre-trained pada massive text corpus untuk predict next token. Capable dari diverse language tasks.
Contoh: GPT-3/4, BERT, Claude, LLaMA, Gemini
Karakteristik:
- Massive scale (175B+ parameters untuk GPT-3)
- Pre-trained on diverse text
- Few-shot/zero-shot capability
- Emergent abilities dengan scale
Aplikasi: Text generation, Q&A, summarization, code generation, translation
Lihat juga: Transformer, Pre-training, Fine-tuning, Prompt Engineering
LSTM (Long Short-Term Memory)
Istilah Indonesia: LSTM / Memori Jangka Pendek-Panjang
Jenis RNN cell dengan gating mechanism untuk capture long-term dependencies dalam sequential data. Solusi ke vanishing gradient problem dari vanilla RNNs.
Komponen utama:
- Input gate: Kontrol apa yang masuk ke cell state
- Forget gate: Kontrol apa yang dibuang dari cell state
- Output gate: Kontrol apa yang diekskrak sebagai output
- Cell state: Long-term memory
Aplikasi: Time series, machine translation, speech recognition, language modeling
Lihat juga: RNN, Recurrent Neural Network, GRU, Sequence Modeling
LoRA (Low-Rank Adaptation)
Istilah Indonesia: LoRA / Adaptasi Rank-Rendah
Parameter-efficient fine-tuning technique yang instead of updating all weights, add trainable low-rank matrices. Drastically reduce compute dan memory requirements.
Prinsip: W_new = W_original + BA (di mana B dan A adalah low-rank, A=rank r << hidden dim)
Keuntungan:
- 10-100x fewer parameters dibanding full fine-tuning
- Dapat combine multiple LoRAs
- Minimal inference overhead
Implementasi: Hugging Face PEFT library
Lihat juga: Fine-tuning, Transfer Learning, QLoRA, PEFT
Loss Function (Fungsi Rugi)
Istilah Indonesia: Fungsi Rugi / Fungsi Kerugian
Fungsi yang mengukur perbedaan antara predicted output dan actual output. Diminimalkan selama training melalui optimization.
Contoh:
- Regression: Mean Squared Error (MSE), Mean Absolute Error (MAE)
- Classification: Cross-entropy, focal loss
- Custom: Domain-specific losses
Interpretasi: Lower loss = better predictions
Lihat juga: Optimization, Gradient Descent, Metric
M
Mean Squared Error (MSE)
Istilah Indonesia: Mean Squared Error / Rata-rata Kuadrat Kesalahan
Loss function untuk regression tasks yang menghitung average dari squared differences antara predictions dan actual values. Heavily penalizes large errors.
Formula: MSE = (1/n) × Σ(y_i - ŷ_i)²
Karakteristik: Differentiable, sensitive to outliers
Alternatif: MAE (tidak sensitive to outliers), RMSE (same scale as target)
Lihat juga: Loss Function, Regression, MAE
Machine Learning (Pembelajaran Mesin)
Istilah Indonesia: Pembelajaran Mesin / Machine Learning
Bidang studi yang memberikan komputer kemampuan untuk belajar dari data tanpa explicit programming untuk setiap kasus. Subset dari Artificial Intelligence.
Tiga tipe utama:
- Supervised Learning: Learn dari labeled data (classification, regression)
- Unsupervised Learning: Find patterns dalam unlabeled data (clustering, dimensionality reduction)
- Reinforcement Learning: Learn dari interactions dan rewards
Proses: Data → Algorithm → Model → Predictions
Lihat juga: Deep Learning, AI, Artificial Intelligence
MLP (Multilayer Perceptron)
Istilah Indonesia: MLP / Perceptron Berlapis / Jaringan Neural Dalam
Feedforward neural network dengan multiple layers of neurons, setiap layer fully connected ke next layer. Fundamental architecture dalam deep learning.
Struktur:
- Input layer: Feature inputs
- Hidden layers: Learn intermediate representations
- Output layer: Make predictions
Karakteristik: Universal function approximator (dapat approximate any continuous function)
Limitation: Fully connected → banyak parameters, tidak efficient untuk images
Lihat juga: Neural Network, Deep Learning, Dense Layer, Backpropagation
Model (Model)
Istilah Indonesia: Model
Fungsi matematis yang belajar dari data untuk membuat predictions. Model parameter-nya diupdate melalui training process untuk meminimalkan loss.
Komponen: Architecture (struktur) + Weights (parameters)
Tipe: Linear/Logistic regression, Tree, Forest, Neural Network, dll
Lifecycle: Training → Validation → Testing → Deployment → Monitoring
Lihat juga: Algorithm, Parameter, Training, Architecture
Model Complexity (Kompleksitas Model)
Istilah Indonesia: Kompleksitas Model
Measure dari flexibility dan representational capacity model. Lebih complex model dapat fit training data lebih well, tapi riskier untuk overfit.
Indikator:
- Number of parameters
- Number of layers/trees
- Interaction terms
- Polynomial degree
Trade-off: Accuracy vs Interpretability, Bias vs Variance
Lihat juga: Overfitting, Underfitting, Bias-Variance Tradeoff
Model Evaluation (Evaluasi Model)
Istilah Indonesia: Evaluasi Model
Proses mengukur performance model pada validation/test data menggunakan metrics yang relevan dengan task.
Metrics untuk Classification:
- Accuracy, Precision, Recall, F1-Score
- Confusion matrix, ROC-AUC
Metrics untuk Regression:
- MSE, MAE, R-squared, RMSE
Best practice: Always evaluate on separate test set
Lihat juga: Cross-validation, Confusion Matrix, Metric, Test Set
N
Neuron (Neuron)
Istilah Indonesia: Neuron
Fundamental unit dalam neural network yang menerima inputs, applies weights dan bias, applies activation function, menghasilkan output.
Formulasi: output = activation(w·x + b) - w: weights - x: inputs - b: bias
Banyak neurons → Non-linearity dan computational power
Lihat juga: Neural Network, Activation Function, Weight, Bias
Neural Network (Jaringan Neural)
Istilah Indonesia: Jaringan Neural / Neural Network
Computational model terinspirasi dari biological neural networks. Terdiri dari interconnected neurons organized dalam layers.
Komponen:
- Neurons/nodes
- Connections/weights
- Activation functions
- Loss function
Kemampuan: Function approximation, pattern recognition, representation learning
Variasi: MLP, CNN, RNN, Transformer, dll
Lihat juga: Deep Learning, MLP, Layer, Neuron
Normalization (Normalisasi)
Istilah Indonesia: Normalisasi
Preprocessing technique untuk scale features ke comparable range, typically [0,1] atau mean=0, std=1. Meningkatkan training stability dan convergence speed.
Tipe:
- Min-Max Scaling: (x - min) / (max - min) → [0,1]
- Standardization: (x - mean) / std → mean=0, std=1
- Batch Normalization: Normalize inputs ke each layer
Penting untuk: Distance-based algorithms (KNN, K-Means), gradient descent-based methods
Lihat juga: Standardization, Feature Scaling, Batch Normalization
Neuron Dropout (lihat Dropout)
O
Optimizer (Pengoptimal)
Istilah Indonesia: Pengoptimal / Algoritma Optimasi
Algorithm yang mengupdate model weights berdasarkan gradients untuk meminimalkan loss function. Pilihan optimizer mempengaruhi training speed dan convergence.
Populer optimizers:
- SGD: Simple, sometimes dengan momentum
- Adam: Adaptive learning rate, generally good default
- RMSprop: Adaptive, untuk RNNs
- Adagrad: Adaptive per feature
Karakteristik: Learning rate, momentum, decay schedules
Lihat juga: Gradient Descent, Learning Rate, Convergence
Overfitting (Overfitting / Pencocokan Berlebihan)
Istilah Indonesia: Overfitting / Pencocokan Berlebihan
Ketika model learns training data terlalu well, termasuk noise dan peculiarities, sehingga performs poorly pada test data. High training accuracy tapi low test accuracy.
Penyebab: Model terlalu complex, insufficient data, training terlalu lama
Solusi:
- Regularization (dropout, L2)
- Early stopping
- More training data
- Simpler model
- Cross-validation
Deteksi: Monitor training vs validation loss
Lihat juga: Underfitting, Generalization, Regularization
P
Parameter (Parameter)
Istilah Indonesia: Parameter
Internal variables dari model yang diupdate selama training untuk meminimalkan loss. Contoh: weights dan biases dalam neural networks.
Karakteristik:
- Learned dari data (vs hyperparameters yang manually set)
- Determine model behavior setelah training
- Number of parameters = model size
Lihat juga: Hyperparameter, Weight, Bias
Performance Metric (Metrik Performa)
Istilah Indonesia: Metrik Performa
Quantitative measure dari model performance pada validation/test data. Berbeda untuk classification vs regression.
Populer metrics:
- Classification: Accuracy, Precision, Recall, F1-Score, ROC-AUC
- Regression: MSE, MAE, R², RMSE
Interpretasi: Higher usually better, context-dependent
Lihat juga: Model Evaluation, Confusion Matrix, Loss Function
Pooling (Pooling)
Istilah Indonesia: Pooling / Pengelompokan
Operation dalam CNN yang reduces spatial dimensions dengan selecting representative values dari neighborhood. Reduces parameters dan computation.
Tipe:
- Max Pooling: Ambil nilai maksimal (most common)
- Average Pooling: Ambil rata-rata nilai
Hyperparameter: Pool size (2x2 common), stride
Efek: Translation invariance, noise robustness
Lihat juga: CNN, Convolution, Dimensionality Reduction
Pre-training (Pre-training)
Istilah Indonesia: Pre-training / Pre-latihan
Proses melatih model pada large, general dataset sebelum fine-tuning pada task spesifik. Menghasilkan model dengan general knowledge tentang domain.
Contoh:
- ImageNet pre-training untuk vision models
- Text pre-training untuk language models (GPT, BERT)
Keuntungan: Transfer learning, faster convergence, lower data requirements
Lihat juga: Transfer Learning, Fine-tuning, Pre-trained Model
Precision (Presisi)
Istilah Indonesia: Presisi
Dalam classification: proportion dari positive predictions yang correct. TP / (TP + FP). Answers: “Of the items we predicted positive, how many were actually positive?”
Range: 0 to 1 (1 = perfect, no false positives)
Trade-off: Precision vs Recall (can’t simultaneously maximize both)
Kapan fokus pada precision: When false positives costly (spam detection - don’t want legitimate emails marked spam)
Lihat juga: Recall, F1-Score, Confusion Matrix
Prompt Engineering (Prompt Engineering)
Istilah Indonesia: Prompt Engineering / Rekayasa Prompt
Teknik untuk merancang dan mengoptimalkan input text prompts ke LLMs untuk mendapatkan desired outputs. Seni dan science untuk communicate dengan AI models.
Teknik:
- Few-shot prompting: Provide examples dalam prompt
- Chain-of-thought: Minta model untuk explain reasoning
- Role prompting: “You are an expert in…”
- Instruction clarity: Precise, detailed instructions
Keuntungan: Improve LLM quality tanpa retraining, cost-effective
Lihat juga: LLM, Zero-shot, Few-shot, In-context Learning
Preprocessing (Preprocessing / Pra-pemrosesan)
Istilah Indonesia: Preprocessing / Pra-pemrosesan / Persiapan Data
Tahap pertama dari ML pipeline untuk clean dan transform raw data menjadi suitable format untuk modeling.
Operasi umum:
- Handle missing values (imputation, removal)
- Remove outliers
- Scale/normalize features
- Encode categorical variables
- Feature engineering
Pentingnya: “Garbage in, garbage out” - preprocessing quality langsung impacts model quality
Lihat juga: Data Preprocessing, Feature Engineering, Data Quality
Q
QLoRA (Quantized Low-Rank Adaptation)
Istilah Indonesia: QLoRA / LoRA Terkuantisasi
Penyempurnaan dari LoRA yang combines quantization dengan low-rank adaptation untuk further reduce memory requirements. Memungkinkan fine-tune large models pada consumer GPUs.
Teknik: Kuantisasi model weights ke 4-bit, LoRA adapters dalam full precision
Keuntungan:
- Fit LLMs pada single GPU dengan limited memory
- Masih achieves comparable performance to full fine-tuning
- Drastically lower cost
Trade-off: Slightly lower performance vs memory efficiency
Lihat juga: LoRA, Fine-tuning, Quantization, PEFT
R
RAG (Retrieval-Augmented Generation)
Istilah Indonesia: RAG / Generasi Bertingkat Retrieval
Teknik menggabungkan retrieval dari knowledge base dengan text generation dari LLM. Model retrieves relevant documents kemudian generates response berdasarkan retrieved context.
Proses: 1. Query ke knowledge base 2. Retrieve relevant documents 3. Augment prompt dengan retrieved documents 4. Generate response menggunakan LLM
Keuntungan:
- Leverage external knowledge tanpa retraining
- Reduce hallucinations
- Updateable knowledge tanpa model retraining
Aplikasi: Question answering, customer support, document-based Q&A
Lihat juga: Embedding, Vector Database, LLM, Fine-tuning
Recall (Recall / Pencarian Kembali)
Istilah Indonesia: Recall / Sensitivitas
Dalam classification: proportion dari actual positives yang correctly predicted. TP / (TP + FN). Answers: “Of the actual positive cases, how many did we identify?”
Range: 0 to 1 (1 = perfect, no false negatives)
Trade-off: Recall vs Precision
Kapan fokus pada recall: When false negatives costly (medical diagnosis - don’t want to miss disease)
Lihat juga: Precision, F1-Score, Sensitivity
Recurrent Neural Network (RNN)
Istilah Indonesia: Recurrent Neural Network / Jaringan Neural Berulang
Neural network dengan connections yang feedback dari output ke input, memungkinkan processing sequential data dengan memory. Previous outputs inform current predictions.
Karakteristik: Can model dependencies dalam sequences
Varian: Vanilla RNN, LSTM, GRU
Aplikasi: Time series, language modeling, machine translation, speech recognition
Limitasi: Vanilla RNNs: vanishing/exploding gradients, difficult untuk long-term dependencies
Lihat juga: LSTM, GRU, Sequential Data, Sequence Modeling
Regression (Regresi)
Istilah Indonesia: Regresi
Supervised learning task untuk memprediksi continuous numerical values (vs discrete categories dalam classification).
Tipe:
- Linear Regression: Prediksi linear relationship
- Polynomial Regression: Non-linear relationships
- Logistic Regression: Classification despite name (outputs probability)
Loss functions: MSE, MAE, Huber loss
Aplikasi: Price prediction, temperature forecasting, demand estimation
Lihat juga: Supervised Learning, Classification, Continuous Target
Regularization (Regularisasi)
Istilah Indonesia: Regularisasi
Teknik untuk mencegah overfitting dengan menambahkan penalty ke loss function ketika model parameters besar.
Tipe:
- L1 Regularization (Lasso): Penalty pada sum absolute weights → sparse solutions
- L2 Regularization (Ridge): Penalty pada sum squared weights
- Dropout: Randomly mute neurons
- Early Stopping: Stop training when validation loss increases
Efek: Constrains model complexity, improves generalization
Hyperparameter: Regularization strength (λ)
Lihat juga: Overfitting, L1/L2, Dropout
Reinforcement Learning (Pembelajaran Penguatan)
Istilah Indonesia: Pembelajaran Penguatan / Reinforcement Learning
Paradigma machine learning di mana agent learns untuk take actions dalam environment untuk maximize cumulative reward. Learn dari trial-and-error.
Komponen: Agent, Environment, State, Action, Reward, Policy
Algoritma: Q-Learning, Policy Gradient, Actor-Critic
Aplikasi: Game playing (AlphaGo), robotics, autonomous vehicles, resource allocation
Lihat juga: Supervised Learning, Unsupervised Learning, Agent, Policy
RNN (Recurrent Neural Network) - lihat Recurrent Neural Network
ROC-AUC (Receiver Operating Characteristic - Area Under Curve)
Istilah Indonesia: ROC-AUC / Kurva Karakteristik Operasi Penerima
Metrik classification yang mengukur model’s ability untuk distinguish antara classes di berbagai classification thresholds.
Interpretasi:
- AUC = 0.5: Random classifier
- AUC = 1.0: Perfect classifier
- AUC = 0.7-0.8: Good classifier
Keuntungan: Threshold-independent, handles class imbalance well
Lihat juga: Classification Metrics, Precision, Recall
S
Sampling (Sampling)
Istilah Indonesia: Sampling / Pengambilan Sampel
Teknik mengambil subset dari data untuk training atau evaluation. Penting untuk efficiency dan handling class imbalance.
Tipe:
- Random sampling: Equal probability untuk setiap sample
- Stratified sampling: Preserve class distribution
- Over-sampling: Replicate minority class samples
- Under-sampling: Remove majority class samples
Aplikasi: Handling imbalanced data, mini-batch training, bootstrap
Lihat juga: Class Imbalance, Batch, Bootstrap
Scaling (Scaling)
Istilah Indonesia: Scaling / Penskalaan
Transform feature values ke comparable range. Critical untuk algorithms yang sensitive terhadap feature magnitude (distance-based, gradient-based).
Tipe:
- Min-Max scaling: [0,1] range
- Standardization: mean=0, std=1
- Robust scaling: Using median dan IQR
Penting untuk: KNN, K-Means, SVM, neural networks
Tidak perlu untuk: Tree-based models (scale-invariant)
Lihat juga: Normalization, Feature Engineering, Preprocessing
Semantic Similarity (Similaritas Semantik)
Istilah Indonesia: Similaritas Semantik
Measure dari how semantically similar dua texts/documents/embeddings adalah. Menggunakan embeddings untuk capture meaning beyond word matching.
Metode:
- Cosine similarity: Most common, measures angle antara embedding vectors
- Euclidean distance: Geometric distance
- Dot product: After normalization = cosine similarity
Aplikasi: Document similarity, semantic search, paraphrase detection
Lihat juga: Embedding, Vector Similarity, Cosine Similarity
Sensitivity (Sensitivity) - lihat Recall
Self-Attention (Self-Attention)
Istilah Indonesia: Self-Attention / Perhatian-Diri
Mechanism dalam Transformer di mana setiap position dalam sequence dapat attend (focus) pada semua positions lainnya. Allows model untuk weigh importance dari different parts.
Formula: Attention(Q,K,V) = softmax(QK^T/√d_k)V
Keuntungan:
- Capture long-range dependencies efficiently
- Parallelizable (vs RNNs sequential)
- Interpretable (attention weights)
Implementasi: Multi-head attention (multiple representation subspaces)
Lihat juga: Attention Mechanism, Transformer, Multi-head Attention
Softmax (Softmax)
Istilah Indonesia: Softmax
Activation function untuk output layer dalam multi-class classification. Converts raw scores (logits) menjadi probability distribution over classes.
Formula: σ(x_i) = e^(x_i) / Σ_j e^(x_j)
Karakteristik:
- Output: Probability distribution (sum = 1)
- Differentiable
- Differentiable, suitable dengan cross-entropy loss
Lihat juga: Activation Function, Classification, Cross-entropy Loss
Stochastic Gradient Descent (SGD)
Istilah Indonesia: Stochastic Gradient Descent / Gradient Descent Stokastik
Optimization algorithm yang updates weights menggunakan gradients dari single samples atau small batches. Faster per iteration tapi noisier dibanding batch GD.
Varian: Mini-batch SGD (sweet spot antara single sample dan full batch)
Keuntungan: Computational efficiency, regularization effect dari noise
Disadvantage: Noisy gradients, require careful learning rate tuning
Lihat juga: Gradient Descent, Adam, Mini-batch
Supervised Learning (Pembelajaran Terselia)
Istilah Indonesia: Pembelajaran Terselia / Supervised Learning
Paradigma machine learning di mana model trained pada labeled data (input-output pairs). Tujuan: learn mapping dari inputs ke outputs.
Tipe:
- Classification: Predict discrete labels
- Regression: Predict continuous values
Contoh algoritma: Logistic Regression, Decision Trees, Neural Networks, SVM
Kebutuhan: Labeled training data (expensive)
Lihat juga: Unsupervised Learning, Classification, Regression
SVM (Support Vector Machine)
Istilah Indonesia: SVM / Mesin Vektor Dukungan
Supervised learning algorithm untuk classification yang finds optimal hyperplane to maximum margin between classes. Effective untuk high-dimensional data.
Karakteristik:
- Works well dengan non-linear kernels
- Memory-efficient (hanya support vectors)
- Scale well dengan feature dimension
Hyperparameter: C (regularization), kernel type, kernel parameters
Limitasi: Slow dengan large datasets, requires feature scaling
Lihat juga: Kernel, Classification, Hyperplane
T
Target (Target)
Istilah Indonesia: Target / Nilai Target
Output variable dalam supervised learning yang model tries untuk predict. Sama dengan label atau dependent variable.
Karakteristik:
- Discrete (classification): categories
- Continuous (regression): numerical values
Dalam model: y dalam y = f(x)
Lihat juga: Label, Feature, Supervised Learning
Test Set (Set Pengujian)
Istilah Indonesia: Test Set / Set Pengujian / Data Pengujian
Holdout dataset yang tidak digunakan dalam training atau validation, digunakan hanya untuk final evaluation dari model performance. Gives unbiased estimate.
Karakteristik:
- Diambil dari same distribution seperti training data
- Usually 10-20% dari total data
- Evaluated once, after model finalization
Penting: Never tune hyperparameters berdasarkan test set (akan leak information)
Lihat juga: Train Set, Validation Set, Cross-validation
Token (Token)
Istilah Indonesia: Token / Unit Teks
Smallest unit dalam text yang model processes. Bisa be word, subword, atau character. LLMs process tokens sequentially.
Tokenization: Converting text menjadi tokens (handled by tokenizer)
Token limit: Context window (e.g., GPT-3.5: 4K tokens, GPT-4: 8K-32K tokens)
Penting untuk: Understanding model input/output size, API costs
Lihat juga: Embedding, LLM, Sequence Modeling
Transfer Learning (Transfer Learning)
Istilah Indonesia: Transfer Learning / Pembelajaran Transfer
Teknik menggunakan model trained pada satu task untuk improve learning pada related task. Leverage knowledge dari source task untuk target task.
Proses: 1. Pre-train model pada large source dataset 2. Fine-tune pada smaller target dataset 3. Benefit dari transfer: faster training, better performance dengan less data
Aplikasi: Vision (ImageNet → custom dataset), NLP (BERT/GPT → downstream tasks)
Keuntungan: Reduce training time, reduce required training data, improve performance
Lihat juga: Pre-training, Fine-tuning, Domain Adaptation
Transformer (Transformer)
Istilah Indonesia: Transformer
Architecture berbasis self-attention untuk sequence-to-sequence tasks. Foundation dari modern NLP dan LLMs. Parallel processing, good untuk long-range dependencies.
Komponen utama:
- Encoder: Processes input sequence
- Decoder: Generates output sequence
- Multi-head attention: Self-attention + cross-attention
- Feed-forward networks: Non-linear transformations
Contoh models: BERT, GPT, T5, LLaMA
Keuntungan: Parallelizable, capture long-range dependencies, flexible untuk berbagai tasks
Lihat juga: Attention Mechanism, Self-Attention, BERT, GPT
U
Underfitting (Underfitting / Pencocokan Kurang)
Istilah Indonesia: Underfitting / Pencocokan Kurang
Ketika model terlalu simple untuk capture underlying patterns dalam data. Both training dan test accuracy rendah.
Penyebab: Model terlalu simple, insufficient training, high bias
Solusi:
- Lebih complex model (more layers, features)
- Train lebih lama
- Reduce regularization
- Feature engineering
Deteksi: Rendah training loss tidak meningkat, rendah pada both train dan test sets
Lihat juga: Overfitting, Bias-Variance Tradeoff, Model Complexity
Unsupervised Learning (Pembelajaran Tak Terselia)
Istilah Indonesia: Pembelajaran Tak Terselia / Unsupervised Learning
Paradigma machine learning tanpa labeled data. Model finds patterns, structures, atau representations dalam unlabeled data.
Tipe:
- Clustering: Group similar samples (K-Means, DBSCAN)
- Dimensionality reduction: Reduce feature space (PCA, Autoencoders)
- Anomaly detection: Find outliers
Keuntungan: No labeling cost, discover hidden structures
Tantangan: Harder untuk evaluate, ambiguous objectives
Lihat juga: Supervised Learning, Clustering, Dimensionality Reduction
V
Validation Set (Set Validasi)
Istilah Indonesia: Validation Set / Set Validasi / Data Validasi
Dataset terpisah digunakan selama training untuk tune hyperparameters dan monitor untuk prevent overfitting. Separate dari test set.
Penggunaan:
- Evaluate model performance selama training
- Tune hyperparameters (learning rate, regularization)
- Determine when untuk stop training
Karakteristik: Usually 10-20% dari training data
Berbeda dari test set: Hyperparameters bisa tuned berdasarkan validation set, but final evaluation pada test set
Lihat juga: Train Set, Test Set, Cross-validation
Vanishing Gradient (Gradient Hilang)
Istilah Indonesia: Vanishing Gradient / Gradient Hilang
Problem dalam training deep neural networks di mana gradients menjadi extremely small selama backpropagation, preventing weight updates. Hasil: network berhenti learning.
Penyebab: Chain rule dalam backpropagation menghasilkan very small values di deep layers
Solusi:
- Use activation functions yang tidak saturate (ReLU vs Sigmoid)
- Batch normalization
- Skip connections (ResNets)
- LSTM/GRU (untuk RNNs)
Kontras: Exploding gradient (opposite problem)
Lihat juga: Gradient, Backpropagation, LSTM
Vector Database (Basis Data Vektor)
Istilah Indonesia: Basis Data Vektor
Database dioptimalkan untuk storing dan querying high-dimensional vectors (embeddings). Fundamental untuk semantic search, RAG, similarity matching.
Fitur:
- Efficient nearest neighbor search
- HNSW, IVF, atau brute-force algorithms
- Metadata filtering
Contoh: Pinecone, Weaviate, Milvus, Faiss, Chroma
Aplikasi: Semantic search, recommendation systems, RAG knowledge stores
Lihat juga: Embedding, RAG, Semantic Similarity
W
Weight (Bobot)
Istilah Indonesia: Bobot / Weight
Learnable parameter dalam neural network yang scales inputs. Setiap connection antara neurons memiliki weight yang diupdate selama training.
Karakteristik:
- Menentukan importance dari setiap input
- Diupdate via backpropagation untuk minimize loss
- Initialized random, learned dari data
Inisialisasi: Xavier, He initialization (affect convergence speed)
Lihat juga: Bias, Parameter, Backpropagation, Gradient Descent
X-Y-Z
XGBoost (eXtreme Gradient Boosting)
Istilah Indonesia: XGBoost / Gradient Boosting Ekstrem
Popular open-source implementation dari gradient boosting dengan optimizations untuk speed dan performance. Considered state-of-the-art untuk tabular data.
Keuntungan:
- Excellent performance pada structured data
- Built-in regularization
- Handles missing values
- Fast training
- Feature importance
Aplikasi: Kaggle competitions, enterprise ML
Kontras: LightGBM (faster), CatBoost (categorical handling)
Lihat juga: Gradient Boosting, Ensemble Learning, Tabular Data
Zero-shot Learning (Zero-shot Learning)
Istilah Indonesia: Zero-shot Learning / Pembelajaran Zero-shot
Model’s ability untuk perform tasks atau classify samples dari classes yang belum pernah dilihat selama training. LLMs excel di zero-shot learning.
Contoh:
- GPT-3 melakukan task tanpa task-specific training examples
- CLIP classifying images dari unseen class descriptions
Berbeda dari: Few-shot learning (dengan beberapa examples)
Keuntungan: No need untuk task-specific training data
Lihat juga: Few-shot Learning, In-context Learning, LLM
Singkatan & Akronim (Abbreviations & Acronyms)
| Singkatan | Kepanjangan | Lihat |
|---|---|---|
| AI | Artificial Intelligence | Machine Learning |
| CNN | Convolutional Neural Network | CNN |
| CV | Cross-Validation | Cross-Validation |
| GANs | Generative Adversarial Networks | Advanced Topics (Ch. 13) |
| GD | Gradient Descent | Gradient Descent |
| GRU | Gated Recurrent Unit | RNN |
| LLM | Large Language Model | LLM |
| LSTM | Long Short-Term Memory | LSTM |
| MAE | Mean Absolute Error | Regression |
| MLP | Multilayer Perceptron | MLP |
| MSE | Mean Squared Error | Mean Squared Error |
| NLP | Natural Language Processing | Transformer |
| PEFT | Parameter-Efficient Fine-Tuning | LoRA |
| QLoRA | Quantized LoRA | QLoRA |
| RAG | Retrieval-Augmented Generation | RAG |
| ReLU | Rectified Linear Unit | Activation Function |
| RNN | Recurrent Neural Network | Recurrent Neural Network |
| ROC | Receiver Operating Characteristic | ROC-AUC |
| SGD | Stochastic Gradient Descent | Stochastic Gradient Descent |
| SVM | Support Vector Machine | SVM |
| TP/FP/TN/FN | True/False Positive/Negative | Confusion Matrix |
| XGBoost | eXtreme Gradient Boosting | XGBoost |
Glossary ini regularly updated seiring dengan evolusi ML field. Untuk definisi paling terkini dan informasi detail:
- Referensikan ke chapters spesifik dalam ebook
- Kunjungi documentation resmi untuk libraries dan frameworks (TensorFlow, PyTorch, Scikit-learn)
- Explore research papers dari arxiv.org untuk advanced topics
- Ikuti ML communities (Reddit r/MachineLearning, Twitter ML community, local meetups)
Last updated: Semester 6, Tahun Akademik 2025/2026
Dibuat untuk mendukung pembelajaran dalam pengajaran Pembelajaran Mesin di Politeknik Siber dan Sandi Negara.