Metode Deep Learning untuk Prediksi Covid-19: Analisis Matematis LSTM dan GRU


📚 Sumber

Hastomo, W., Karno, A. S. B., Kalbuana, N., Meiriki, A., & Sutarno. (2021).
Characteristic Parameters of Epoch Deep Learning to Predict Covid-19 Data in Indonesia.
Journal of Physics: Conference Series, 1933, 012050.
DOI: 10.1088/1742-6596/1933/1/012050 artikel _ Characteristic Parame…


✍️ Uraian Metode

Penelitian ini menggunakan pendekatan Deep Learning berbasis Recurrent Neural Network (RNN) untuk memprediksi data harian kasus Covid-19 di Indonesia.

Fokus utama metode bukan hanya membandingkan model, tetapi menganalisis karakteristik parameter epoch terhadap tingkat kesalahan prediksi (RMSE).


1️⃣ Struktur Data: Time Series

Data yang digunakan adalah data deret waktu (time series):yt=jumlah kasus baru pada waktu ty_t = \text{jumlah kasus baru pada waktu } t

Tujuan model adalah membentuk fungsi prediksi:y^t+1=f(yt,yt1,...,ytp)\hat{y}_{t+1} = f(y_t, y_{t-1}, …, y_{t-p})

Artinya:

  • Model memanfaatkan beberapa hari sebelumnya (window)
  • Untuk memprediksi hari berikutnya

Dataset dibagi menjadi:

  • Training = 69 data
  • Testing = 14 data
  • Total per negara = 83 observasi artikel _ Characteristic Parame…

2️⃣ Fungsi Objektif: RMSE

Model dioptimasi menggunakan Root Mean Square Error (RMSE) sebagai ukuran akurasi.

Secara matematis:RMSE=1nt=1n(yty^t)2RMSE = \sqrt{\frac{1}{n} \sum_{t=1}^{n} (y_t – \hat{y}_t)^2}

Dimana:

  • yty_tyt​ = nilai aktual
  • y^t\hat{y}_ty^​t​ = nilai prediksi
  • nnn = jumlah data testing

Semakin kecil RMSE → semakin akurat model.


3️⃣ Model Pertama: LSTM (Long Short-Term Memory)

LSTM dirancang untuk mengatasi masalah vanishing gradient pada RNN klasik.

🔹 Forget Gate

ft=σ(Wfxt+Ufht1+bf)f_t = \sigma(W_f x_t + U_f h_{t-1} + b_f)

Menentukan informasi lama yang dibuang.


🔹 Input Gate

it=σ(Wixt+Uiht1+bi)i_t = \sigma(W_i x_t + U_i h_{t-1} + b_i)

Mengontrol informasi baru yang masuk.


🔹 Update Cell State

Ct=ftCt1+itC~tC_t = f_t \odot C_{t-1} + i_t \odot \tilde{C}_t

Cell state adalah memori jangka panjang model.


🔹 Output

ht=ottanh(Ct)h_t = o_t \odot \tanh(C_t)

Arsitektur yang digunakan:

  • 3 hidden layer
  • 50 node per layer
  • Dropout = 0.2 artikel _ Characteristic Parame…

4️⃣ Model Kedua: GRU (Gated Recurrent Unit)

GRU adalah versi lebih sederhana dari LSTM.

Memiliki dua gerbang:

🔹 Update Gate

zt=σ(Wzxt+Uzht1+bz)z_t = \sigma(W_z x_t + U_z h_{t-1} + b_z)


🔹 Reset Gate

rt=σ(Wrxt+Urht1+br)r_t = \sigma(W_r x_t + U_r h_{t-1} + b_r)


🔹 Hidden State Update

ht=(1zt)ht1+zth~th_t = (1 – z_t) \odot h_{t-1} + z_t \odot \tilde{h}_t

Arsitektur:

  • 4 hidden layer
  • 50 node per layer
  • Dropout = 0.2 artikel _ Characteristic Parame…

5️⃣ Konsep Epoch dalam Optimasi

Epoch adalah jumlah pengulangan training terhadap seluruh dataset.

Jika:E=jumlah epochE = jumlah\ epoch

Maka parameter model diperbarui menggunakan metode gradien:θ(k+1)=θ(k)ηθL\theta^{(k+1)} = \theta^{(k)} – \eta \nabla_{\theta} L

Dimana:

  • η\eta = learning rate
  • LL = fungsi loss (RMSE)

Semakin besar epoch:

  • Waktu komputasi meningkat
  • Belum tentu akurasi membaik

6️⃣ Pencarian Epoch Optimal

Penelitian ini melakukan iterasi berbagai nilai epoch:E=1,2,3,...,EmaxE = 1,2,3,…,E_{max}

Kemudian dihitung:RMSE(E)RMSE(E)

Dicari nilai optimal:E=argminERMSE(E)E^* = \arg\min_E RMSE(E)

Hasilnya:

NegaraEpoch LSTMEpoch GRU
Indonesia15400
Bangladesh20300
South Africa20340

artikel _ Characteristic Parame…


7️⃣ Analisis Mengapa LSTM Lebih Cepat Konvergen

Dataset relatif kecil:N=69N = 69

Pada data kecil:

  • Model mudah overfitting
  • Epoch besar berisiko meningkatkan error generalisasi

LSTM memiliki cell memory yang lebih stabil:CtCt1=ft\frac{\partial C_t}{\partial C_{t-1}} = f_t

Karena adanya kontrol forget gate, gradien lebih stabil sehingga konvergensi lebih cepat.

GRU, meskipun lebih sederhana, dalam kasus ini membutuhkan epoch lebih besar untuk mencapai RMSE minimum.


8️⃣ Ringkasan Metode Secara Formal

Model prediksi:y^t+1=fθ(yt,...,ytp)\hat{y}_{t+1} = f_{\theta}(y_t,…,y_{t-p})

Optimasi:θ=argminθRMSE\theta^* = \arg\min_{\theta} RMSE

Pencarian epoch optimal:E=argminERMSE(E)E^* = \arg\min_E RMSE(E)


🎯 Kesimpulan Metodologis

Metode penelitian ini menunjukkan bahwa:

  1. Penentuan epoch adalah parameter krusial.
  2. LSTM dapat mencapai konvergensi lebih cepat pada dataset kecil.
  3. GRU memerlukan epoch lebih besar untuk stabil.
  4. RMSE menjadi indikator utama evaluasi performa.