Appendix D: Glossary & Terminology

Daftar Istilah Pembelajaran Mesin (Machine Learning Terminology)

Appendix D: Glossary & Terminology

Catatan Penggunaan

Glossary ini menyediakan definisi komprehensif istilah-istilah penting dalam Pembelajaran Mesin yang digunakan di seluruh buku. Setiap istilah mencakup:

  • Terjemahan Indonesia (jika berlaku)
  • Definisi singkat (1-3 kalimat)
  • Konteks penggunaan dan contoh
  • Istilah terkait (lihat: …)

Gunakan indeks abjad di bawah untuk navigasi cepat.


A

Activation Function (Fungsi Aktivasi)

Istilah Indonesia: Fungsi Aktivasi

Fungsi matematis yang diterapkan pada output neuron untuk memperkenalkan nonlinearitas ke dalam neural network. Tanpa activation functions, deep neural networks hanya akan melakukan transformasi linear.

Contoh umum:

  • ReLU (Rectified Linear Unit): f(x) = max(0, x) — paling populer di hidden layers
  • Sigmoid: f(x) = 1/(1 + e^(-x)) — output range [0,1], sering untuk binary classification
  • Tanh: f(x) = (e^x - e(-x))/(ex + e^(-x)) — output range [-1,1]
  • Softmax: Untuk multi-class classification output

Lihat juga: Neuron, Neural Network, Backpropagation

Algorithm (Algoritma)

Istilah Indonesia: Algoritma

Prosedur step-by-step yang diikuti oleh model machine learning untuk belajar dari data. Algoritma mendefinisikan bagaimana weights diupdate dan loss function diminimalkan.

Contoh: Algoritma Linear Regression, Decision Tree, K-Means Clustering

Lihat juga: Gradient Descent, Model, Loss Function

Anomaly Detection (Deteksi Anomali)

Istilah Indonesia: Deteksi Anomali

Teknik machine learning untuk mengidentifikasi data points yang menyimpang signifikan dari pola normal dalam dataset. Berguna untuk fraud detection, network security, dan quality control.

Metode: Isolation Forest, Local Outlier Factor (LOF), Autoencoders

Lihat juga: Unsupervised Learning, Outlier

Attention Mechanism (Mekanisme Perhatian)

Istilah Indonesia: Mekanisme Perhatian

Teknik dalam neural networks yang memungkinkan model untuk fokus pada bagian spesifik dari input yang paling relevan untuk prediksi. Komponen kunci dalam Transformer architecture.

Contoh: Multi-head attention dalam BERT, GPT models

Lihat juga: Transformer, Self-Attention, Sequence-to-Sequence


B

Backpropagation (Propagasi Balik)

Istilah Indonesia: Propagasi Balik

Algoritma untuk menghitung gradients (turunan) dari loss function terhadap setiap weight dalam neural network, memungkinkan efficient training. Menggunakan chain rule dari calculus.

Proses: Forward pass → Calculate loss → Backward pass → Update weights

Lihat juga: Gradient Descent, Loss Function, Neural Network

Batch (Kelompok Data)

Istilah Indonesia: Batch / Kelompok

Subset dari training data yang diproses bersama-sama dalam satu iterasi training. Batch processing mempercepat training dengan memanfaatkan parallelisasi komputasi.

Istilah terkait:

  • Batch Size: Jumlah samples dalam satu batch (misal: 32, 64, 128)
  • Epoch: Satu pass lengkap melalui seluruh training dataset

Lihat juga: Stochastic Gradient Descent, Learning Rate, Epoch

Bias (Bias / Bias Input)

Istilah Indonesia: Bias

Parameter dalam model yang ditambahkan ke weighted sum dari inputs untuk memungkinkan model mempelajari offset. Setiap neuron biasanya memiliki bias term tersendiri.

Contoh: Dalam linear regression: y = mx + b, ‘b’ adalah bias

Catatan: Jangan bercampur dengan “bias” dalam konteks fairness (seperti gender bias atau racial bias)

Lihat juga: Weight, Neuron, Linear Regression

Bias-Variance Tradeoff (Tradeoff Bias-Varians)

Istilah Indonesia: Pertukaran Bias-Varians

Dilema fundamental dalam machine learning antara model yang terlalu sederhana (high bias, underfitting) vs terlalu kompleks (high variance, overfitting). Tujuannya menemukan sweet spot optimal.

Visualisasi: Target dengan darts - High Bias: Dart jauh dari target, berkumpul di satu spot - High Variance: Dart tersebar random di sekitar target - Ideal: Dart mengenai bullseye

Strategi: Cross-validation, regularization, ensemble methods

Lihat juga: Overfitting, Underfitting, Model Complexity


C

Classification (Klasifikasi)

Istilah Indonesia: Klasifikasi

Supervised learning task untuk memprediksi kategori/label dari input. Output adalah kategori diskrit, bukan nilai kontinu.

Tipe:

  • Binary Classification: 2 kelas (misal: spam vs not spam)
  • Multi-class Classification: >2 kelas (misal: klasifikasi bunga iris: setosa, versicolor, virginica)
  • Multi-label Classification: Sample bisa termasuk multiple labels

Algoritma populer: Logistic Regression, Decision Trees, Random Forest, SVM, Neural Networks

Lihat juga: Supervised Learning, Regression, Softmax

Cluster (Klaster)

Istilah Indonesia: Klaster / Kelompok

Grup dari data points yang serupa dikelompokkan bersama dalam unsupervised learning. Tujuan clustering adalah menemukan struktur natural dalam data tanpa label.

Algoritma populer: K-Means, Hierarchical Clustering, DBSCAN, Gaussian Mixture Models

Lihat juga: Unsupervised Learning, K-Means, Clustering

Clustering (Pengelompokan)

Istilah Indonesia: Pengelompokan / Clustering

Unsupervised learning task untuk mengelompokkan data points yang mirip tanpa menggunakan label. Berguna untuk exploratory data analysis dan pattern discovery.

Aplikasi: Customer segmentation, gene sequencing, document organization

Lihat juga: Unsupervised Learning, Cluster, K-Means

CNN (Convolutional Neural Network)

Istilah Indonesia: Jaringan Neural Konvolusi

Jenis neural network khusus dirancang untuk memproses data dengan struktur grid-like, terutama image. Menggunakan convolutional layers untuk extract spatial features secara efisien.

Komponen utama: Convolutional Layer, Pooling Layer, Fully Connected Layer

Populer architectures: AlexNet, VGG, ResNet, Inception, EfficientNet

Aplikasi: Image classification, object detection, semantic segmentation

Lihat juga: Deep Learning, Filter, Pooling, Transfer Learning

Confusion Matrix (Matriks Kebingungan)

Istilah Indonesia: Matriks Kebingungan

Tabel yang menunjukkan prediksi model vs actual labels untuk classification tasks. Membantu mengidentifikasi jenis error yang dilakukan model.

Komponen:

  • True Positive (TP): Correctly predicted positive
  • True Negative (TN): Correctly predicted negative
  • False Positive (FP): Incorrectly predicted positive (Type I error)
  • False Negative (FN): Incorrectly predicted negative (Type II error)

Metrik diturunkan: Precision, Recall, F1-Score, Accuracy

Lihat juga: Precision, Recall, F1-Score, Classification Metrics

Convolution (Konvolusi)

Istilah Indonesia: Konvolusi

Operasi matematis dalam CNN di mana filter (kernel) digeser di atas image untuk mengekstrak features lokal. Setiap posisi filter menghasilkan satu nilai output.

Proses: Filter geser → element-wise multiplication → sum = output value

Hyperparameter: Filter size, stride, padding

Lihat juga: CNN, Filter, Kernel, Pooling

Cross-Entropy Loss (Loss Cross-Entropy)

Istilah Indonesia: Loss Cross-Entropy

Loss function populer untuk classification tasks yang mengukur perbedaan antara predicted probability distribution dan true distribution.

Formula: L = -Σ y_i * log(ŷ_i)

Keuntungan: Penalti yang besar ketika model sangat confident tapi salah

Lihat juga: Loss Function, Classification, Softmax

Cross-Validation (Validasi Silang)

Istilah Indonesia: Validasi Silang

Teknik untuk mengevaluasi model performance yang robust dengan membagi dataset menjadi k-fold dan melatih k model berbeda. Setiap fold digunakan sekali sebagai validation set.

Jenis populer:

  • k-Fold CV: Typical k=5 atau k=10
  • Stratified k-Fold: Preserves class distribution
  • Time Series CV: Untuk data temporal

Keuntungan: Menggunakan data lebih efisien, mengurangi variance dalam performance estimate

Lihat juga: Train-Test Split, Overfitting, Model Evaluation


D

Dataset (Data)

Istilah Indonesia: Dataset / Kumpulan Data

Koleksi terstruktur dari data points (samples) dengan features dan (untuk supervised learning) labels. Dataset dibagi menjadi training, validation, dan test sets.

Karakteristik penting:

  • Size: Jumlah samples
  • Features: Jumlah dan tipe input variables
  • Balance: Distribusi class labels (untuk classification)
  • Quality: Presence of missing values, outliers, noise

Lihat juga: Data Preprocessing, Feature, Label, Training Data

Decision Tree (Pohon Keputusan)

Istilah Indonesia: Pohon Keputusan

Model yang membuat keputusan berjenjang menggunakan series of if-then rules. Setiap node internal adalah decision based on feature value, leaf nodes adalah predictions.

Keuntungan: Interpretable, no scaling needed, handles non-linear relationships

Kelemahan: Prone to overfitting, unstable dengan perubahan kecil data

Populer untuk: Classification dan Regression

Lihat juga: Ensemble Learning, Random Forest, Gradient Boosting

Deep Learning (Pembelajaran Dalam)

Istilah Indonesia: Pembelajaran Dalam

Subset dari machine learning menggunakan neural networks dengan multiple layers (deep architectures) untuk belajar hierarchical representations dari data.

Karakteristik:

  • Multiple hidden layers (vs single layer shallow networks)
  • Automatic feature extraction (vs manual feature engineering)
  • Representation learning

Saat digunakan: Image, audio, text data; complex patterns; large datasets

Lihat juga: Neural Network, MLP, CNN, RNN, Transformer

Dense Layer (Layer Padat)

Istilah Indonesia: Layer Padat / Fully Connected Layer

Layer dalam neural network di mana setiap neuron terhubung ke semua neurons di layer sebelumnya. Juga disebut fully connected layer.

Karakteristik: Setiap connection memiliki weight yang dapat dipelajari

Penggunaan: Biasanya sebagai output layer; classifier head di CNN/RNN

Lihat juga: Neural Network Layer, Fully Connected, Neuron

Dropout (Dropout)

Istilah Indonesia: Dropout

Regularization technique yang secara random “mematikan” (setting to zero) fraction dari neurons selama training. Mencegah co-adaptation dan overfitting.

Cara kerja: Setiap training iteration, randomly drop neurons dengan probability p (typical: 0.5)

Efek: Menciptakan “ensemble” dari thinned networks, hasil model lebih robust

Lihat juga: Regularization, Overfitting, L2 Regularization


E

Embedding (Embedding)

Istilah Indonesia: Embedding / Penyematan

Representasi learned dari discrete entities (words, items) sebagai vectors dalam continuous vector space. Entities yang mirip memiliki embeddings yang close.

Aplikasi:

  • Word embeddings: Word2Vec, GloVe, FastText
  • Sentence embeddings: Untuk semantic search, similarity
  • Token embeddings: Input ke Transformers

Keuntungan: Menangkap semantic meaning, reduce dimensionality, enables similarity computation

Lihat juga: Feature Representation, Vector, Semantic Similarity

Ensemble Learning (Pembelajaran Ensemble)

Istilah Indonesia: Pembelajaran Ensemble

Teknik menggabungkan multiple models untuk membuat predictions lebih akurat daripada individual models. Ide: wisdom of crowds.

Strategi populer:

  • Bagging (Bootstrap Aggregating): e.g., Random Forest
  • Boosting: e.g., Gradient Boosting, XGBoost, AdaBoost
  • Stacking: Melatih meta-learner pada prediksi base learners
  • Voting: Majority vote atau weighted average

Keuntungan: Improved accuracy, robustness, reduced variance

Lihat juga: Random Forest, Gradient Boosting, Overfitting

Epoch (Epoch)

Istilah Indonesia: Epoch / Iterasi Lengkap

Satu pass lengkap melalui seluruh training dataset selama neural network training. Jika dataset dibagi menjadi batches, satu epoch = satu iteration per batch.

Hubungan:

  • Epoch ← Batches
  • Training menggunakan multiple epochs untuk convergence

Typical: 50–1000 epochs tergantung complexity dan dataset size

Lihat juga: Batch, Training, Learning Rate Schedule


F

Feature (Fitur)

Istilah Indonesia: Fitur / Ciri / Atribut

Input variable tunggal untuk model machine learning. Dataset terdiri dari multiple features yang bersama-sama digunakan untuk memprediksi target.

Tipe:

  • Numerical: Continuous (price) atau discrete (count)
  • Categorical: Discrete categories (color: red, blue, green)
  • Temporal: Time-based features

Kualitas: Relevant, independent, numeric (setelah preprocessing)

Lihat juga: Feature Engineering, Feature Selection, Target

Feature Engineering (Rekayasa Fitur)

Istilah Indonesia: Rekayasa Fitur / Pemilihan dan Pembuatan Fitur

Proses mentransformasi dan membuat features baru dari raw data untuk meningkatkan model performance. Sering dianggap sebagai aspek terpenting dari machine learning.

Teknik umum:

  • Scaling: Normalisasi ke range [0,1] atau standardisasi
  • Encoding: Konversi categorical → numerical (one-hot, ordinal)
  • Binning: Konversi continuous → categorical ranges
  • Interaction features: Kombinasi dari existing features
  • Polynomial features: Powers dan products dari features
  • Domain-specific transformations: e.g., log transformation untuk right-skewed data

Lihat juga: Feature Selection, Data Preprocessing, Domain Knowledge

Feature Extraction (Ekstraksi Fitur)

Istilah Indonesia: Ekstraksi Fitur

Proses mengidentifikasi dan mengekstrak features paling relevan dari raw data. Dalam deep learning, dilakukan otomatis oleh hidden layers.

Metode:

  • PCA (Principal Component Analysis): Unsupervised dimensionality reduction
  • CNN convolutional layers: Automatic feature extraction dari images
  • Autoencoders: Learned feature representations

Lihat juga: Feature Engineering, Dimensionality Reduction, PCA

Feature Selection (Pemilihan Fitur)

Istilah Indonesia: Pemilihan Fitur

Proses memilih subset dari features yang paling penting untuk model. Menghilangkan irrelevant/redundant features meningkatkan performance dan interpretability.

Metode:

  • Statistical tests: Correlation, mutual information
  • Model-based: Feature importance dari tree models
  • Sequential selection: Forward/backward elimination

Keuntungan: Reduced training time, less overfitting, better interpretability

Lihat juga: Feature Engineering, Dimensionality Reduction, Curse of Dimensionality

Filter (Filter / Kernel)

Istilah Indonesia: Filter / Kernel

Small matrix dalam CNN yang dikonvolusi dengan input image untuk mengekstrak features. Setiap filter belajar medeteksi patterns spesifik.

Karakteristik:

  • Size: Typical 3x3, 5x5
  • Number: Ditambah per layer (e.g., 32 filters → 64 filters)
  • Learned: Weights diupdate selama training

Interpretasi: Early layers: edges, textures; Deep layers: semantic features

Lihat juga: Convolution, CNN, Kernel

Fine-tuning (Fine-tuning)

Istilah Indonesia: Penyesuaian Halus / Fine-tuning

Teknik transfer learning di mana pre-trained model dilatih lebih lanjut (fine-tuned) pada task-specific dataset. Menggunakan weights pre-trained sebagai inisialisasi.

Strategi:

  • Full fine-tuning: Update semua weights
  • Partial fine-tuning: Freeze early layers, update later layers
  • PEFT: Parameter-Efficient Fine-Tuning (LoRA, QLoRA)

Keuntungan: Lebih cepat convergence, butuh sedikit data, lower compute cost

Contoh: Fine-tune BERT untuk sentiment analysis

Lihat juga: Transfer Learning, Pre-training, LoRA

F1-Score

Istilah Indonesia: Skor F1 / F1-Score

Harmonic mean dari precision dan recall, memberikan balanced metric untuk classification tasks terutama dengan imbalanced classes.

Formula: F1 = 2 × (Precision × Recall) / (Precision + Recall)

Range: 0 to 1 (1 = perfect)

Kapan digunakan: Ketika precision dan recall equally important

Lihat juga: Precision, Recall, Classification Metrics

Forward Pass (Lintasan Maju)

Istilah Indonesia: Lintasan Maju

Proses komputasi dalam neural network dari input layer menuju output layer. Setiap neuron menerima input, apply weights dan bias, apply activation function.

Output: Final prediction + intermediate activations (diperlukan untuk backpropagation)

Lihat juga: Backpropagation, Neural Network, Inference


G

Generalization (Generalisasi)

Istilah Indonesia: Generalisasi

Kemampuan model untuk melakukan well pada data baru yang tidak dilihat sebelumnya (test data), bukan hanya pada training data. Adalah tujuan utama machine learning.

Tantangan: Balancing antara fitting training data dan generalizing ke unseen data

Metrik: Test set performance, cross-validation scores

Lihat juga: Overfitting, Underfitting, Train-Test Split

Gradient (Gradien)

Istilah Indonesia: Gradien

Vektor dari partial derivatives (turunan) dari loss function terhadap setiap parameter. Menunjukkan direction dan magnitude dari steepest ascent.

Penggunaan: Digunakan dalam gradient descent untuk update weights dalam direction yang mengurangi loss

Perhitungan: Menggunakan backpropagation dalam neural networks

Lihat juga: Gradient Descent, Backpropagation, Optimization

Gradient Descent (Turunan Gradien)

Istilah Indonesia: Turunan Gradien / Gradient Descent

Optimization algorithm untuk menemukan minimum dari loss function dengan iteratively bergerak dalam direction negative gradient. Fundamental algorithm untuk training neural networks.

Varian:

  • Batch GD: Menggunakan seluruh dataset
  • Stochastic GD (SGD): Menggunakan satu sample per iteration
  • Mini-batch GD: Menggunakan batch dari samples
  • Adam, RMSprop, Adagrad: Adaptive learning rate methods

Hyperparameter: Learning rate (step size)

Lihat juga: Learning Rate, Optimization, Adam, Backpropagation

Gradient Boosting (Gradient Boosting)

Istilah Indonesia: Gradient Boosting

Ensemble method yang secara sequential membangun weak learners (biasanya decision trees) untuk fit residuals dari previous predictions. Powerful untuk both regression dan classification.

Populer implementations: XGBoost, LightGBM, CatBoost, Scikit-learn GradientBoostingClassifier

Keuntungan: Excellent performance, handles non-linear relationships, feature importance

Trade-off: Computational cost, hyperparameter tuning complexity

Lihat juga: Ensemble Learning, Boosting, Decision Tree


H

Hyperparameter (Hiperparameter)

Istilah Indonesia: Hiperparameter

Parameter model yang set sebelum training, bukan diupdate oleh learning algorithm. Pilihan hyperparameter signifikan mempengaruhi model performance.

Contoh:

  • Learning rate, batch size, number of epochs
  • Number of hidden layers, units per layer
  • Regularization strength (λ)
  • Kernel size dalam CNN

Tuning: Grid search, random search, Bayesian optimization

Lihat juga: Parameter, Learning Rate, Regularization

Hidden Layer (Layer Tersembunyi)

Istilah Indonesia: Layer Tersembunyi

Layers dalam neural network antara input dan output layers. Jumlah dan ukuran hidden layers menentukan model capacity dan complexity.

Karakteristik:

  • Tidak directly observe dari output
  • Belajar intermediate representations
  • Semakin banyak layers → lebih deep, non-linear

Deep networks: Multiple hidden layers (3+)

Lihat juga: Neural Network, Deep Learning, Architecture


I

Inference (Inferensi)

Istilah Indonesia: Inferensi

Proses menggunakan trained model untuk membuat predictions pada new data. Berbeda dengan training: hanya forward pass, tidak ada weight updates.

Karakteristik:

  • Faster dibanding training (no backpropagation)
  • Bisa dijalankan on edge devices, mobile, embedded systems
  • Fokus: latency, throughput, memory efficiency

Konteks: Model deployment, real-time predictions, batch inference

Lihat juga: Training, Deployment, Model Serving

Interpretability (Interpretabilitas)

Istilah Indonesia: Interpretabilitas / Dapat Diinterpretasikan

Kemampuan untuk menjelaskan keputusan model dengan cara yang meaningful kepada humans. Penting untuk trust, debugging, dan regulatory compliance.

Teknik:

  • LIME: Approximation lokal dengan interpretable model
  • SHAP: Shapley values untuk feature importance
  • Feature importance: Dari tree models
  • Attention visualization: Dari attention mechanisms

Lihat juga: Explainability, Feature Importance, Model Transparency


J

Jitter (Jitter)

Istilah Indonesia: Jitter / Penambahan Noise

Teknik menambahkan small random noise ke data untuk mencegah overplotting dalam visualisasi dan regularization dalam training.

Penggunaan: Data augmentation, visualization clarity

Lihat juga: Data Augmentation, Regularization, Noise


K

K-Means Clustering

Istilah Indonesia: K-Means Clustering / Pengelompokan K-Means

Unsupervised algorithm yang mempartisi data menjadi k clusters dengan minimizing intra-cluster variance. Iteratively assign points to nearest centroid dan update centroids.

Proses: 1. Initialize k random centroids 2. Assign each point ke nearest centroid 3. Update centroid sebagai mean dari assigned points 4. Repeat steps 2-3 hingga convergence

Hyperparameter: k (number of clusters)

Limitasi: Assumes spherical clusters, sensitive ke initialization, biasanya untuk euclidean distance

Lihat juga: Clustering, Unsupervised Learning, Centroid

Kernel (Kernel)

Istilah Indonesia: Kernel / Kernel Methods

Dalam SVM: fungsi yang mengukur similarity antara data points dalam transformed feature space, memungkinkan non-linear classification tanpa explicit transformation.

Populer kernels: Linear, polynomial, RBF (Radial Basis Function), sigmoid

Keuntungan: Computational efficiency, flexibility

Lihat juga: SVM, Support Vector Machine, Feature Space


L

Label (Label / Kelas)

Istilah Indonesia: Label / Kelas / Target

Output yang benar untuk input dalam supervised learning. Model dilatih untuk memprediksi labels dari features.

Tipe:

  • Discrete: Kategori untuk classification (misal: spam/not spam)
  • Continuous: Nilai untuk regression (misal: house price)

Data terlabeli: Required untuk supervised learning, expensive to obtain

Lihat juga: Feature, Supervised Learning, Target

Layer (Layer)

Istilah Indonesia: Layer / Lapisan

Building blocks dari neural networks, menerima input dan output transformed representations. Terdiri dari multiple neurons dengan shared parameters.

Tipe populer:

  • Dense/Fully Connected: Setiap neuron terkoneksi ke semua di layer prev
  • Convolutional: Extract spatial patterns dari images
  • Recurrent: Process sequential data dengan memory
  • Embedding: Represent discrete items sebagai vectors
  • Normalization: Batch Normalization, Layer Normalization

Lihat juga: Neural Network, Neuron, Activation Function

Learning Rate (Laju Pembelajaran)

Istilah Indonesia: Laju Pembelajaran / Learning Rate

Hyperparameter yang mengontrol step size dalam gradient descent. Terlalu tinggi → divergence; terlalu rendah → slow convergence.

Typical values: 0.001, 0.01, 0.1 untuk neural networks

Learning rate schedule: Decrease learning rate over time untuk fine-tuning convergence

Adaptif methods: Adam, RMSprop automatically adjust learning rate per parameter

Lihat juga: Gradient Descent, Optimization, Convergence

LLM (Large Language Model)

Istilah Indonesia: Model Bahasa Besar / LLM

Neural network dengan billions of parameters pre-trained pada massive text corpus untuk predict next token. Capable dari diverse language tasks.

Contoh: GPT-3/4, BERT, Claude, LLaMA, Gemini

Karakteristik:

  • Massive scale (175B+ parameters untuk GPT-3)
  • Pre-trained on diverse text
  • Few-shot/zero-shot capability
  • Emergent abilities dengan scale

Aplikasi: Text generation, Q&A, summarization, code generation, translation

Lihat juga: Transformer, Pre-training, Fine-tuning, Prompt Engineering

LSTM (Long Short-Term Memory)

Istilah Indonesia: LSTM / Memori Jangka Pendek-Panjang

Jenis RNN cell dengan gating mechanism untuk capture long-term dependencies dalam sequential data. Solusi ke vanishing gradient problem dari vanilla RNNs.

Komponen utama:

  • Input gate: Kontrol apa yang masuk ke cell state
  • Forget gate: Kontrol apa yang dibuang dari cell state
  • Output gate: Kontrol apa yang diekskrak sebagai output
  • Cell state: Long-term memory

Aplikasi: Time series, machine translation, speech recognition, language modeling

Lihat juga: RNN, Recurrent Neural Network, GRU, Sequence Modeling

LoRA (Low-Rank Adaptation)

Istilah Indonesia: LoRA / Adaptasi Rank-Rendah

Parameter-efficient fine-tuning technique yang instead of updating all weights, add trainable low-rank matrices. Drastically reduce compute dan memory requirements.

Prinsip: W_new = W_original + BA (di mana B dan A adalah low-rank, A=rank r << hidden dim)

Keuntungan:

  • 10-100x fewer parameters dibanding full fine-tuning
  • Dapat combine multiple LoRAs
  • Minimal inference overhead

Implementasi: Hugging Face PEFT library

Lihat juga: Fine-tuning, Transfer Learning, QLoRA, PEFT

Loss Function (Fungsi Rugi)

Istilah Indonesia: Fungsi Rugi / Fungsi Kerugian

Fungsi yang mengukur perbedaan antara predicted output dan actual output. Diminimalkan selama training melalui optimization.

Contoh:

  • Regression: Mean Squared Error (MSE), Mean Absolute Error (MAE)
  • Classification: Cross-entropy, focal loss
  • Custom: Domain-specific losses

Interpretasi: Lower loss = better predictions

Lihat juga: Optimization, Gradient Descent, Metric


M

Mean Squared Error (MSE)

Istilah Indonesia: Mean Squared Error / Rata-rata Kuadrat Kesalahan

Loss function untuk regression tasks yang menghitung average dari squared differences antara predictions dan actual values. Heavily penalizes large errors.

Formula: MSE = (1/n) × Σ(y_i - ŷ_i)²

Karakteristik: Differentiable, sensitive to outliers

Alternatif: MAE (tidak sensitive to outliers), RMSE (same scale as target)

Lihat juga: Loss Function, Regression, MAE

Machine Learning (Pembelajaran Mesin)

Istilah Indonesia: Pembelajaran Mesin / Machine Learning

Bidang studi yang memberikan komputer kemampuan untuk belajar dari data tanpa explicit programming untuk setiap kasus. Subset dari Artificial Intelligence.

Tiga tipe utama:

  • Supervised Learning: Learn dari labeled data (classification, regression)
  • Unsupervised Learning: Find patterns dalam unlabeled data (clustering, dimensionality reduction)
  • Reinforcement Learning: Learn dari interactions dan rewards

Proses: Data → Algorithm → Model → Predictions

Lihat juga: Deep Learning, AI, Artificial Intelligence

MLP (Multilayer Perceptron)

Istilah Indonesia: MLP / Perceptron Berlapis / Jaringan Neural Dalam

Feedforward neural network dengan multiple layers of neurons, setiap layer fully connected ke next layer. Fundamental architecture dalam deep learning.

Struktur:

  • Input layer: Feature inputs
  • Hidden layers: Learn intermediate representations
  • Output layer: Make predictions

Karakteristik: Universal function approximator (dapat approximate any continuous function)

Limitation: Fully connected → banyak parameters, tidak efficient untuk images

Lihat juga: Neural Network, Deep Learning, Dense Layer, Backpropagation

Model (Model)

Istilah Indonesia: Model

Fungsi matematis yang belajar dari data untuk membuat predictions. Model parameter-nya diupdate melalui training process untuk meminimalkan loss.

Komponen: Architecture (struktur) + Weights (parameters)

Tipe: Linear/Logistic regression, Tree, Forest, Neural Network, dll

Lifecycle: Training → Validation → Testing → Deployment → Monitoring

Lihat juga: Algorithm, Parameter, Training, Architecture

Model Complexity (Kompleksitas Model)

Istilah Indonesia: Kompleksitas Model

Measure dari flexibility dan representational capacity model. Lebih complex model dapat fit training data lebih well, tapi riskier untuk overfit.

Indikator:

  • Number of parameters
  • Number of layers/trees
  • Interaction terms
  • Polynomial degree

Trade-off: Accuracy vs Interpretability, Bias vs Variance

Lihat juga: Overfitting, Underfitting, Bias-Variance Tradeoff

Model Evaluation (Evaluasi Model)

Istilah Indonesia: Evaluasi Model

Proses mengukur performance model pada validation/test data menggunakan metrics yang relevan dengan task.

Metrics untuk Classification:

  • Accuracy, Precision, Recall, F1-Score
  • Confusion matrix, ROC-AUC

Metrics untuk Regression:

  • MSE, MAE, R-squared, RMSE

Best practice: Always evaluate on separate test set

Lihat juga: Cross-validation, Confusion Matrix, Metric, Test Set


N

Neuron (Neuron)

Istilah Indonesia: Neuron

Fundamental unit dalam neural network yang menerima inputs, applies weights dan bias, applies activation function, menghasilkan output.

Formulasi: output = activation(w·x + b) - w: weights - x: inputs - b: bias

Banyak neurons → Non-linearity dan computational power

Lihat juga: Neural Network, Activation Function, Weight, Bias

Neural Network (Jaringan Neural)

Istilah Indonesia: Jaringan Neural / Neural Network

Computational model terinspirasi dari biological neural networks. Terdiri dari interconnected neurons organized dalam layers.

Komponen:

  • Neurons/nodes
  • Connections/weights
  • Activation functions
  • Loss function

Kemampuan: Function approximation, pattern recognition, representation learning

Variasi: MLP, CNN, RNN, Transformer, dll

Lihat juga: Deep Learning, MLP, Layer, Neuron

Normalization (Normalisasi)

Istilah Indonesia: Normalisasi

Preprocessing technique untuk scale features ke comparable range, typically [0,1] atau mean=0, std=1. Meningkatkan training stability dan convergence speed.

Tipe:

  • Min-Max Scaling: (x - min) / (max - min) → [0,1]
  • Standardization: (x - mean) / std → mean=0, std=1
  • Batch Normalization: Normalize inputs ke each layer

Penting untuk: Distance-based algorithms (KNN, K-Means), gradient descent-based methods

Lihat juga: Standardization, Feature Scaling, Batch Normalization

Neuron Dropout (lihat Dropout)


O

Optimizer (Pengoptimal)

Istilah Indonesia: Pengoptimal / Algoritma Optimasi

Algorithm yang mengupdate model weights berdasarkan gradients untuk meminimalkan loss function. Pilihan optimizer mempengaruhi training speed dan convergence.

Populer optimizers:

  • SGD: Simple, sometimes dengan momentum
  • Adam: Adaptive learning rate, generally good default
  • RMSprop: Adaptive, untuk RNNs
  • Adagrad: Adaptive per feature

Karakteristik: Learning rate, momentum, decay schedules

Lihat juga: Gradient Descent, Learning Rate, Convergence

Overfitting (Overfitting / Pencocokan Berlebihan)

Istilah Indonesia: Overfitting / Pencocokan Berlebihan

Ketika model learns training data terlalu well, termasuk noise dan peculiarities, sehingga performs poorly pada test data. High training accuracy tapi low test accuracy.

Penyebab: Model terlalu complex, insufficient data, training terlalu lama

Solusi:

  • Regularization (dropout, L2)
  • Early stopping
  • More training data
  • Simpler model
  • Cross-validation

Deteksi: Monitor training vs validation loss

Lihat juga: Underfitting, Generalization, Regularization


P

Parameter (Parameter)

Istilah Indonesia: Parameter

Internal variables dari model yang diupdate selama training untuk meminimalkan loss. Contoh: weights dan biases dalam neural networks.

Karakteristik:

  • Learned dari data (vs hyperparameters yang manually set)
  • Determine model behavior setelah training
  • Number of parameters = model size

Lihat juga: Hyperparameter, Weight, Bias

Performance Metric (Metrik Performa)

Istilah Indonesia: Metrik Performa

Quantitative measure dari model performance pada validation/test data. Berbeda untuk classification vs regression.

Populer metrics:

  • Classification: Accuracy, Precision, Recall, F1-Score, ROC-AUC
  • Regression: MSE, MAE, R², RMSE

Interpretasi: Higher usually better, context-dependent

Lihat juga: Model Evaluation, Confusion Matrix, Loss Function

Pooling (Pooling)

Istilah Indonesia: Pooling / Pengelompokan

Operation dalam CNN yang reduces spatial dimensions dengan selecting representative values dari neighborhood. Reduces parameters dan computation.

Tipe:

  • Max Pooling: Ambil nilai maksimal (most common)
  • Average Pooling: Ambil rata-rata nilai

Hyperparameter: Pool size (2x2 common), stride

Efek: Translation invariance, noise robustness

Lihat juga: CNN, Convolution, Dimensionality Reduction

Pre-training (Pre-training)

Istilah Indonesia: Pre-training / Pre-latihan

Proses melatih model pada large, general dataset sebelum fine-tuning pada task spesifik. Menghasilkan model dengan general knowledge tentang domain.

Contoh:

  • ImageNet pre-training untuk vision models
  • Text pre-training untuk language models (GPT, BERT)

Keuntungan: Transfer learning, faster convergence, lower data requirements

Lihat juga: Transfer Learning, Fine-tuning, Pre-trained Model

Precision (Presisi)

Istilah Indonesia: Presisi

Dalam classification: proportion dari positive predictions yang correct. TP / (TP + FP). Answers: “Of the items we predicted positive, how many were actually positive?”

Range: 0 to 1 (1 = perfect, no false positives)

Trade-off: Precision vs Recall (can’t simultaneously maximize both)

Kapan fokus pada precision: When false positives costly (spam detection - don’t want legitimate emails marked spam)

Lihat juga: Recall, F1-Score, Confusion Matrix

Prompt Engineering (Prompt Engineering)

Istilah Indonesia: Prompt Engineering / Rekayasa Prompt

Teknik untuk merancang dan mengoptimalkan input text prompts ke LLMs untuk mendapatkan desired outputs. Seni dan science untuk communicate dengan AI models.

Teknik:

  • Few-shot prompting: Provide examples dalam prompt
  • Chain-of-thought: Minta model untuk explain reasoning
  • Role prompting: “You are an expert in…”
  • Instruction clarity: Precise, detailed instructions

Keuntungan: Improve LLM quality tanpa retraining, cost-effective

Lihat juga: LLM, Zero-shot, Few-shot, In-context Learning

Preprocessing (Preprocessing / Pra-pemrosesan)

Istilah Indonesia: Preprocessing / Pra-pemrosesan / Persiapan Data

Tahap pertama dari ML pipeline untuk clean dan transform raw data menjadi suitable format untuk modeling.

Operasi umum:

  • Handle missing values (imputation, removal)
  • Remove outliers
  • Scale/normalize features
  • Encode categorical variables
  • Feature engineering

Pentingnya: “Garbage in, garbage out” - preprocessing quality langsung impacts model quality

Lihat juga: Data Preprocessing, Feature Engineering, Data Quality


Q

QLoRA (Quantized Low-Rank Adaptation)

Istilah Indonesia: QLoRA / LoRA Terkuantisasi

Penyempurnaan dari LoRA yang combines quantization dengan low-rank adaptation untuk further reduce memory requirements. Memungkinkan fine-tune large models pada consumer GPUs.

Teknik: Kuantisasi model weights ke 4-bit, LoRA adapters dalam full precision

Keuntungan:

  • Fit LLMs pada single GPU dengan limited memory
  • Masih achieves comparable performance to full fine-tuning
  • Drastically lower cost

Trade-off: Slightly lower performance vs memory efficiency

Lihat juga: LoRA, Fine-tuning, Quantization, PEFT


R

RAG (Retrieval-Augmented Generation)

Istilah Indonesia: RAG / Generasi Bertingkat Retrieval

Teknik menggabungkan retrieval dari knowledge base dengan text generation dari LLM. Model retrieves relevant documents kemudian generates response berdasarkan retrieved context.

Proses: 1. Query ke knowledge base 2. Retrieve relevant documents 3. Augment prompt dengan retrieved documents 4. Generate response menggunakan LLM

Keuntungan:

  • Leverage external knowledge tanpa retraining
  • Reduce hallucinations
  • Updateable knowledge tanpa model retraining

Aplikasi: Question answering, customer support, document-based Q&A

Lihat juga: Embedding, Vector Database, LLM, Fine-tuning

Recall (Recall / Pencarian Kembali)

Istilah Indonesia: Recall / Sensitivitas

Dalam classification: proportion dari actual positives yang correctly predicted. TP / (TP + FN). Answers: “Of the actual positive cases, how many did we identify?”

Range: 0 to 1 (1 = perfect, no false negatives)

Trade-off: Recall vs Precision

Kapan fokus pada recall: When false negatives costly (medical diagnosis - don’t want to miss disease)

Lihat juga: Precision, F1-Score, Sensitivity

Recurrent Neural Network (RNN)

Istilah Indonesia: Recurrent Neural Network / Jaringan Neural Berulang

Neural network dengan connections yang feedback dari output ke input, memungkinkan processing sequential data dengan memory. Previous outputs inform current predictions.

Karakteristik: Can model dependencies dalam sequences

Varian: Vanilla RNN, LSTM, GRU

Aplikasi: Time series, language modeling, machine translation, speech recognition

Limitasi: Vanilla RNNs: vanishing/exploding gradients, difficult untuk long-term dependencies

Lihat juga: LSTM, GRU, Sequential Data, Sequence Modeling

Regression (Regresi)

Istilah Indonesia: Regresi

Supervised learning task untuk memprediksi continuous numerical values (vs discrete categories dalam classification).

Tipe:

  • Linear Regression: Prediksi linear relationship
  • Polynomial Regression: Non-linear relationships
  • Logistic Regression: Classification despite name (outputs probability)

Loss functions: MSE, MAE, Huber loss

Aplikasi: Price prediction, temperature forecasting, demand estimation

Lihat juga: Supervised Learning, Classification, Continuous Target

Regularization (Regularisasi)

Istilah Indonesia: Regularisasi

Teknik untuk mencegah overfitting dengan menambahkan penalty ke loss function ketika model parameters besar.

Tipe:

  • L1 Regularization (Lasso): Penalty pada sum absolute weights → sparse solutions
  • L2 Regularization (Ridge): Penalty pada sum squared weights
  • Dropout: Randomly mute neurons
  • Early Stopping: Stop training when validation loss increases

Efek: Constrains model complexity, improves generalization

Hyperparameter: Regularization strength (λ)

Lihat juga: Overfitting, L1/L2, Dropout

Reinforcement Learning (Pembelajaran Penguatan)

Istilah Indonesia: Pembelajaran Penguatan / Reinforcement Learning

Paradigma machine learning di mana agent learns untuk take actions dalam environment untuk maximize cumulative reward. Learn dari trial-and-error.

Komponen: Agent, Environment, State, Action, Reward, Policy

Algoritma: Q-Learning, Policy Gradient, Actor-Critic

Aplikasi: Game playing (AlphaGo), robotics, autonomous vehicles, resource allocation

Lihat juga: Supervised Learning, Unsupervised Learning, Agent, Policy

RNN (Recurrent Neural Network) - lihat Recurrent Neural Network

ROC-AUC (Receiver Operating Characteristic - Area Under Curve)

Istilah Indonesia: ROC-AUC / Kurva Karakteristik Operasi Penerima

Metrik classification yang mengukur model’s ability untuk distinguish antara classes di berbagai classification thresholds.

Interpretasi:

  • AUC = 0.5: Random classifier
  • AUC = 1.0: Perfect classifier
  • AUC = 0.7-0.8: Good classifier

Keuntungan: Threshold-independent, handles class imbalance well

Lihat juga: Classification Metrics, Precision, Recall


S

Sampling (Sampling)

Istilah Indonesia: Sampling / Pengambilan Sampel

Teknik mengambil subset dari data untuk training atau evaluation. Penting untuk efficiency dan handling class imbalance.

Tipe:

  • Random sampling: Equal probability untuk setiap sample
  • Stratified sampling: Preserve class distribution
  • Over-sampling: Replicate minority class samples
  • Under-sampling: Remove majority class samples

Aplikasi: Handling imbalanced data, mini-batch training, bootstrap

Lihat juga: Class Imbalance, Batch, Bootstrap

Scaling (Scaling)

Istilah Indonesia: Scaling / Penskalaan

Transform feature values ke comparable range. Critical untuk algorithms yang sensitive terhadap feature magnitude (distance-based, gradient-based).

Tipe:

  • Min-Max scaling: [0,1] range
  • Standardization: mean=0, std=1
  • Robust scaling: Using median dan IQR

Penting untuk: KNN, K-Means, SVM, neural networks

Tidak perlu untuk: Tree-based models (scale-invariant)

Lihat juga: Normalization, Feature Engineering, Preprocessing

Semantic Similarity (Similaritas Semantik)

Istilah Indonesia: Similaritas Semantik

Measure dari how semantically similar dua texts/documents/embeddings adalah. Menggunakan embeddings untuk capture meaning beyond word matching.

Metode:

  • Cosine similarity: Most common, measures angle antara embedding vectors
  • Euclidean distance: Geometric distance
  • Dot product: After normalization = cosine similarity

Aplikasi: Document similarity, semantic search, paraphrase detection

Lihat juga: Embedding, Vector Similarity, Cosine Similarity

Sensitivity (Sensitivity) - lihat Recall

Self-Attention (Self-Attention)

Istilah Indonesia: Self-Attention / Perhatian-Diri

Mechanism dalam Transformer di mana setiap position dalam sequence dapat attend (focus) pada semua positions lainnya. Allows model untuk weigh importance dari different parts.

Formula: Attention(Q,K,V) = softmax(QK^T/√d_k)V

Keuntungan:

  • Capture long-range dependencies efficiently
  • Parallelizable (vs RNNs sequential)
  • Interpretable (attention weights)

Implementasi: Multi-head attention (multiple representation subspaces)

Lihat juga: Attention Mechanism, Transformer, Multi-head Attention

Softmax (Softmax)

Istilah Indonesia: Softmax

Activation function untuk output layer dalam multi-class classification. Converts raw scores (logits) menjadi probability distribution over classes.

Formula: σ(x_i) = e^(x_i) / Σ_j e^(x_j)

Karakteristik:

  • Output: Probability distribution (sum = 1)
  • Differentiable
  • Differentiable, suitable dengan cross-entropy loss

Lihat juga: Activation Function, Classification, Cross-entropy Loss

Stochastic Gradient Descent (SGD)

Istilah Indonesia: Stochastic Gradient Descent / Gradient Descent Stokastik

Optimization algorithm yang updates weights menggunakan gradients dari single samples atau small batches. Faster per iteration tapi noisier dibanding batch GD.

Varian: Mini-batch SGD (sweet spot antara single sample dan full batch)

Keuntungan: Computational efficiency, regularization effect dari noise

Disadvantage: Noisy gradients, require careful learning rate tuning

Lihat juga: Gradient Descent, Adam, Mini-batch

Supervised Learning (Pembelajaran Terselia)

Istilah Indonesia: Pembelajaran Terselia / Supervised Learning

Paradigma machine learning di mana model trained pada labeled data (input-output pairs). Tujuan: learn mapping dari inputs ke outputs.

Tipe:

  • Classification: Predict discrete labels
  • Regression: Predict continuous values

Contoh algoritma: Logistic Regression, Decision Trees, Neural Networks, SVM

Kebutuhan: Labeled training data (expensive)

Lihat juga: Unsupervised Learning, Classification, Regression

SVM (Support Vector Machine)

Istilah Indonesia: SVM / Mesin Vektor Dukungan

Supervised learning algorithm untuk classification yang finds optimal hyperplane to maximum margin between classes. Effective untuk high-dimensional data.

Karakteristik:

  • Works well dengan non-linear kernels
  • Memory-efficient (hanya support vectors)
  • Scale well dengan feature dimension

Hyperparameter: C (regularization), kernel type, kernel parameters

Limitasi: Slow dengan large datasets, requires feature scaling

Lihat juga: Kernel, Classification, Hyperplane


T

Target (Target)

Istilah Indonesia: Target / Nilai Target

Output variable dalam supervised learning yang model tries untuk predict. Sama dengan label atau dependent variable.

Karakteristik:

  • Discrete (classification): categories
  • Continuous (regression): numerical values

Dalam model: y dalam y = f(x)

Lihat juga: Label, Feature, Supervised Learning

Test Set (Set Pengujian)

Istilah Indonesia: Test Set / Set Pengujian / Data Pengujian

Holdout dataset yang tidak digunakan dalam training atau validation, digunakan hanya untuk final evaluation dari model performance. Gives unbiased estimate.

Karakteristik:

  • Diambil dari same distribution seperti training data
  • Usually 10-20% dari total data
  • Evaluated once, after model finalization

Penting: Never tune hyperparameters berdasarkan test set (akan leak information)

Lihat juga: Train Set, Validation Set, Cross-validation

Token (Token)

Istilah Indonesia: Token / Unit Teks

Smallest unit dalam text yang model processes. Bisa be word, subword, atau character. LLMs process tokens sequentially.

Tokenization: Converting text menjadi tokens (handled by tokenizer)

Token limit: Context window (e.g., GPT-3.5: 4K tokens, GPT-4: 8K-32K tokens)

Penting untuk: Understanding model input/output size, API costs

Lihat juga: Embedding, LLM, Sequence Modeling

Transfer Learning (Transfer Learning)

Istilah Indonesia: Transfer Learning / Pembelajaran Transfer

Teknik menggunakan model trained pada satu task untuk improve learning pada related task. Leverage knowledge dari source task untuk target task.

Proses: 1. Pre-train model pada large source dataset 2. Fine-tune pada smaller target dataset 3. Benefit dari transfer: faster training, better performance dengan less data

Aplikasi: Vision (ImageNet → custom dataset), NLP (BERT/GPT → downstream tasks)

Keuntungan: Reduce training time, reduce required training data, improve performance

Lihat juga: Pre-training, Fine-tuning, Domain Adaptation

Transformer (Transformer)

Istilah Indonesia: Transformer

Architecture berbasis self-attention untuk sequence-to-sequence tasks. Foundation dari modern NLP dan LLMs. Parallel processing, good untuk long-range dependencies.

Komponen utama:

  • Encoder: Processes input sequence
  • Decoder: Generates output sequence
  • Multi-head attention: Self-attention + cross-attention
  • Feed-forward networks: Non-linear transformations

Contoh models: BERT, GPT, T5, LLaMA

Keuntungan: Parallelizable, capture long-range dependencies, flexible untuk berbagai tasks

Lihat juga: Attention Mechanism, Self-Attention, BERT, GPT


U

Underfitting (Underfitting / Pencocokan Kurang)

Istilah Indonesia: Underfitting / Pencocokan Kurang

Ketika model terlalu simple untuk capture underlying patterns dalam data. Both training dan test accuracy rendah.

Penyebab: Model terlalu simple, insufficient training, high bias

Solusi:

  • Lebih complex model (more layers, features)
  • Train lebih lama
  • Reduce regularization
  • Feature engineering

Deteksi: Rendah training loss tidak meningkat, rendah pada both train dan test sets

Lihat juga: Overfitting, Bias-Variance Tradeoff, Model Complexity

Unsupervised Learning (Pembelajaran Tak Terselia)

Istilah Indonesia: Pembelajaran Tak Terselia / Unsupervised Learning

Paradigma machine learning tanpa labeled data. Model finds patterns, structures, atau representations dalam unlabeled data.

Tipe:

  • Clustering: Group similar samples (K-Means, DBSCAN)
  • Dimensionality reduction: Reduce feature space (PCA, Autoencoders)
  • Anomaly detection: Find outliers

Keuntungan: No labeling cost, discover hidden structures

Tantangan: Harder untuk evaluate, ambiguous objectives

Lihat juga: Supervised Learning, Clustering, Dimensionality Reduction


V

Validation Set (Set Validasi)

Istilah Indonesia: Validation Set / Set Validasi / Data Validasi

Dataset terpisah digunakan selama training untuk tune hyperparameters dan monitor untuk prevent overfitting. Separate dari test set.

Penggunaan:

  • Evaluate model performance selama training
  • Tune hyperparameters (learning rate, regularization)
  • Determine when untuk stop training

Karakteristik: Usually 10-20% dari training data

Berbeda dari test set: Hyperparameters bisa tuned berdasarkan validation set, but final evaluation pada test set

Lihat juga: Train Set, Test Set, Cross-validation

Vanishing Gradient (Gradient Hilang)

Istilah Indonesia: Vanishing Gradient / Gradient Hilang

Problem dalam training deep neural networks di mana gradients menjadi extremely small selama backpropagation, preventing weight updates. Hasil: network berhenti learning.

Penyebab: Chain rule dalam backpropagation menghasilkan very small values di deep layers

Solusi:

  • Use activation functions yang tidak saturate (ReLU vs Sigmoid)
  • Batch normalization
  • Skip connections (ResNets)
  • LSTM/GRU (untuk RNNs)

Kontras: Exploding gradient (opposite problem)

Lihat juga: Gradient, Backpropagation, LSTM

Vector Database (Basis Data Vektor)

Istilah Indonesia: Basis Data Vektor

Database dioptimalkan untuk storing dan querying high-dimensional vectors (embeddings). Fundamental untuk semantic search, RAG, similarity matching.

Fitur:

  • Efficient nearest neighbor search
  • HNSW, IVF, atau brute-force algorithms
  • Metadata filtering

Contoh: Pinecone, Weaviate, Milvus, Faiss, Chroma

Aplikasi: Semantic search, recommendation systems, RAG knowledge stores

Lihat juga: Embedding, RAG, Semantic Similarity


W

Weight (Bobot)

Istilah Indonesia: Bobot / Weight

Learnable parameter dalam neural network yang scales inputs. Setiap connection antara neurons memiliki weight yang diupdate selama training.

Karakteristik:

  • Menentukan importance dari setiap input
  • Diupdate via backpropagation untuk minimize loss
  • Initialized random, learned dari data

Inisialisasi: Xavier, He initialization (affect convergence speed)

Lihat juga: Bias, Parameter, Backpropagation, Gradient Descent


X-Y-Z

XGBoost (eXtreme Gradient Boosting)

Istilah Indonesia: XGBoost / Gradient Boosting Ekstrem

Popular open-source implementation dari gradient boosting dengan optimizations untuk speed dan performance. Considered state-of-the-art untuk tabular data.

Keuntungan:

  • Excellent performance pada structured data
  • Built-in regularization
  • Handles missing values
  • Fast training
  • Feature importance

Aplikasi: Kaggle competitions, enterprise ML

Kontras: LightGBM (faster), CatBoost (categorical handling)

Lihat juga: Gradient Boosting, Ensemble Learning, Tabular Data

Zero-shot Learning (Zero-shot Learning)

Istilah Indonesia: Zero-shot Learning / Pembelajaran Zero-shot

Model’s ability untuk perform tasks atau classify samples dari classes yang belum pernah dilihat selama training. LLMs excel di zero-shot learning.

Contoh:

  • GPT-3 melakukan task tanpa task-specific training examples
  • CLIP classifying images dari unseen class descriptions

Berbeda dari: Few-shot learning (dengan beberapa examples)

Keuntungan: No need untuk task-specific training data

Lihat juga: Few-shot Learning, In-context Learning, LLM


Singkatan & Akronim (Abbreviations & Acronyms)

Singkatan Kepanjangan Lihat
AI Artificial Intelligence Machine Learning
CNN Convolutional Neural Network CNN
CV Cross-Validation Cross-Validation
GANs Generative Adversarial Networks Advanced Topics (Ch. 13)
GD Gradient Descent Gradient Descent
GRU Gated Recurrent Unit RNN
LLM Large Language Model LLM
LSTM Long Short-Term Memory LSTM
MAE Mean Absolute Error Regression
MLP Multilayer Perceptron MLP
MSE Mean Squared Error Mean Squared Error
NLP Natural Language Processing Transformer
PEFT Parameter-Efficient Fine-Tuning LoRA
QLoRA Quantized LoRA QLoRA
RAG Retrieval-Augmented Generation RAG
ReLU Rectified Linear Unit Activation Function
RNN Recurrent Neural Network Recurrent Neural Network
ROC Receiver Operating Characteristic ROC-AUC
SGD Stochastic Gradient Descent Stochastic Gradient Descent
SVM Support Vector Machine SVM
TP/FP/TN/FN True/False Positive/Negative Confusion Matrix
XGBoost eXtreme Gradient Boosting XGBoost

Catatan Tambahan

Glossary ini regularly updated seiring dengan evolusi ML field. Untuk definisi paling terkini dan informasi detail:

  • Referensikan ke chapters spesifik dalam ebook
  • Kunjungi documentation resmi untuk libraries dan frameworks (TensorFlow, PyTorch, Scikit-learn)
  • Explore research papers dari arxiv.org untuk advanced topics
  • Ikuti ML communities (Reddit r/MachineLearning, Twitter ML community, local meetups)

Last updated: Semester 6, Tahun Akademik 2025/2026

Dibuat untuk mendukung pembelajaran dalam pengajaran Pembelajaran Mesin di Politeknik Siber dan Sandi Negara.