LSTM vs GRU dalam Prediksi Covid-19: Analisis Matematis dan Karakteristik Epoch


πŸ“Œ Sumber Penelitian

Hastomo, W., Karno, A. S. B., Kalbuana, N., Meiriki, A., & Sutarno. (2021).
Characteristic Parameters of Epoch Deep Learning to Predict Covid-19 Data in Indonesia.
Journal of Physics: Conference Series, 1933, 012050.
DOI: 10.1088/1742-6596/1933/1/012050 artikel _ Characteristic Parame…



🌍 Mengapa Prediksi Covid-19 Membutuhkan Deep Learning?

Data Covid-19 bersifat time series:

  • Berurutan harian
  • Mengandung lonjakan (spike)
  • Tidak stasioner
  • Sangat dinamis

Model statistik klasik sering kesulitan menangani pola non-linear seperti ini.

Karena itu, penelitian ini menggunakan:

πŸ”΅ LSTM (Long Short-Term Memory)
🟒 GRU (Gated Recurrent Unit)

Namun yang menarik:

Fokus utama penelitian bukan hanya modelnya, tetapi berapa jumlah epoch yang optimal.



πŸ“Š Struktur Data dan Formulasi Matematis

Data yang diprediksi adalah jumlah kasus harian:yt=new_cases pada waktu ty_t = \text{new\_cases pada waktu } t

Model membentuk fungsi prediksi:y^t+1=f(yt,ytβˆ’1,...,ytβˆ’p)\hat{y}_{t+1} = f(y_t, y_{t-1}, …, y_{t-p})

Artinya:
Model menggunakan beberapa hari sebelumnya untuk memprediksi hari berikutnya.


πŸ”Ž Pembagian Data

  • Training: 69 observasi
  • Testing: 14 observasi
  • Total: 83 data per negara artikel _ Characteristic Parame…


🎯 Fungsi Evaluasi: RMSE

Akurasi model diukur menggunakan:RMSE=1nβˆ‘t=1n(ytβˆ’y^t)2RMSE = \sqrt{\frac{1}{n} \sum_{t=1}^{n} (y_t – \hat{y}_t)^2}

Semakin kecil RMSE β†’ semakin akurat prediksi.



πŸ”΅ Model 1: LSTM (Long Short-Term Memory)

LSTM bekerja menggunakan tiga gerbang utama:

Forget Gate

ft=Οƒ(Wfxt+Ufhtβˆ’1+bf)f_t = \sigma(W_f x_t + U_f h_{t-1} + b_f)

Input Gate

it=Οƒ(Wixt+Uihtβˆ’1+bi)i_t = \sigma(W_i x_t + U_i h_{t-1} + b_i)

Update Cell State

Ct=ftβŠ™Ctβˆ’1+itβŠ™C~tC_t = f_t \odot C_{t-1} + i_t \odot \tilde{C}_t

Struktur yang digunakan dalam penelitian:

  • 3 hidden layer
  • 50 node per layer
  • Dropout = 0.2 artikel _ Characteristic Parame…


🟒 Model 2: GRU (Gated Recurrent Unit)

GRU lebih sederhana dibanding LSTM.

Update Gate

zt=Οƒ(Wzxt+Uzhtβˆ’1+bz)z_t = \sigma(W_z x_t + U_z h_{t-1} + b_z)

Reset Gate

rt=Οƒ(Wrxt+Urhtβˆ’1+br)r_t = \sigma(W_r x_t + U_r h_{t-1} + b_r)

Hidden State

ht=(1βˆ’zt)βŠ™htβˆ’1+ztβŠ™h~th_t = (1 – z_t) \odot h_{t-1} + z_t \odot \tilde{h}_t

Struktur:

  • 4 hidden layer
  • 50 node per layer
  • Dropout = 0.2 artikel _ Characteristic Parame…


⏳ Peran Epoch dalam Optimasi

Epoch adalah jumlah pengulangan training terhadap seluruh dataset.

Secara matematis, parameter diperbarui dengan:ΞΈ(k+1)=ΞΈ(k)βˆ’Ξ·βˆ‡ΞΈL\theta^{(k+1)} = \theta^{(k)} – \eta \nabla_{\theta} L

Dimana:

  • Ξ·\eta = learning rate
  • LL = fungsi loss

Semakin besar epoch:

  • Waktu komputasi meningkat
  • Tidak selalu meningkatkan akurasi


πŸ“ˆ Hasil Penelitian: Epoch Optimal

NegaraLSTMGRU
Indonesia15400
Bangladesh20300
South Africa20340

artikel _ Characteristic Parame…

Insight Penting:

βœ… LSTM mencapai akurasi tinggi dengan epoch kecil
❌ GRU membutuhkan epoch jauh lebih besar

Untuk Indonesia:

  • LSTM epoch 15 β†’ RMSE β‰ˆ 68
  • GRU epoch 400 β†’ RMSE β‰ˆ 90


πŸ”Ž Analisis Matematis Mengapa LSTM Lebih Cepat Konvergen

Dataset relatif kecil:N=69N = 69

Pada data kecil:

  • Model kompleks mudah overfitting
  • Epoch besar meningkatkan risiko error generalisasi

LSTM memiliki kontrol memori lebih stabil:βˆ‚Ctβˆ‚Ctβˆ’1=ft\frac{\partial C_t}{\partial C_{t-1}} = f_t

Forget gate menjaga stabilitas gradien sehingga konvergensi lebih cepat.



🎯 Kesimpulan Metodologis

  1. Epoch adalah parameter kritis dalam Deep Learning.
  2. Dataset kecil tidak selalu cocok dengan epoch besar.
  3. LSTM lebih efisien untuk kasus ini.
  4. GRU membutuhkan tuning lebih lanjut.


πŸ’‘ Implikasi untuk Praktisi Machine Learning

Jika Anda bekerja dengan:

  • Dataset kecil
  • Time series non-linear
  • Data dengan lonjakan tinggi

Maka:

Jangan hanya fokus pada model.
Perhatikan karakteristik epoch dan konvergensinya.



πŸ“Œ Penutup

Penelitian ini menunjukkan bahwa dalam Deep Learning:

Akurasi bukan hanya soal arsitektur, tetapi juga soal strategi optimasi.

Pemilihan epoch yang tepat dapat menghemat waktu komputasi dan meningkatkan akurasi secara signifikan.