Você está na página 1de 7

Seminar Nasional Informatika 2014

ANALISIS ALGORITMA INISIALISASI NGUYEN-WIDROW PADA


PROSES PREDIKSI CURAH HUJAN KOTA MEDAN
MENGGUNAKAN METODE BACKPROPAGATION NEURAL
NETWORK
Yudhi Andrian1, M. Rhifky Wayahdi2
1
Dosen Teknik Informatika, STMIK Potensi Utama
2
Mahasiswa Sistem Informasi, STMIK Potensi Utama
1,2
STMIK Potensi Utama, Jl. K.L. Yos Sudarso Km 6,5 No. 3A Tanjung Mulia-Medan
1
yudhi.andrian@gmail.com, 2rhifky.wayahdi@yahoo.com

Abstrak

Jaringan saraf tiruan (Artificial Neural Network) sebagian besar telah cukup handal dalam pemecahan
masalah, salah satunya adalah prediksi curah hujan dengan metode backpropagation. Salah satu algoritma
inisialisasi bobot yang dapat meningkatkan waktu eksekusi adalah nguyen-widrow. Pada penelitian ini
penulis akan memprediksi curah hujan di Kota Medan dengan metode backpropagation neural network
dengan memadukan algoritma inisialisasi nguyen-widrow pada proses inisialisasi bobotnya. Dari hasil
penelitian diketahui bahwa : pada proses trainning JST, semakin kecil nilai target error maka nilai iterasinya
akan semakin besar dan keakurasiannya juga semakin tinggi, pada kasus prediksi curah hujan di Kota Medan
dengan metode backpropagation neural network, proses training dengan inisialisasi bobot nguyen-widrow
tidak lebih baik dari bobot random, dan tingat keakurasian terbesar pada proses pengujian prediksi curah
hujan di Kota Medan dengan metode backpropagation neural network adalah 43.1 %, dengan target error
0.007.

Kata kunci : Prediksi curah hujan, nguyen-widrow, backpropagation, neural network

1. Pendahuluan algoritma backpropagation yang mengikuti


Gradient Descent Method [5].
Dari aspek meteorologis, Indonesia Kharola, Manisha dan Dinesh Kumar (2014)
mempunyai kompleksitas dalam fenomena cuaca menggunakan metode backpropagation untuk
dan iklim. Atmosfer di atas Indonesia sangat memprediksi cuaca, dan menemukan bahwa
kompleks dan pembentukan awannya sangat unik. proses pelatihan dapat dilakukan dengan cepat.
Secara latitudinal dan longitudinal, Indonesia di Hasilnya lebih akurat untuk memprediksi cuaca di
bawah kekuasaan sirkulasi ekuatorial dan masa depan ketika jumlah iterasi meningkat [3].
monsunal yang berbeda karakteristiknya. Naik, Arti R. dan Prof. S.K.Pathan (2012)
Beberapa kenyataan ini menunjukkan curah hujan mengusulkan sebuah metode baru prakiraan cuaca
di Indonesia sangat labil, kompleks, dan memiliki menggunakan jaringan saraf tiruan feed-forward
variabilitas yang sangat besar. Sehingga meskipun dan datanya dapat dilatih dengan menggunakan
ketepatan prediksi sangat penting, namun saat ini algoritma Levenberg Marquardt untuk
sangat sulit diprediksi secara akurat dengan memprediksi cuaca masa depan. Di antara
metode peramalan tradisional. Bahkan dalam beberapa algoritma backpropagation,
bidang klimatologi, curah hujan di Indonesia backpropagation levenberg adalah yang tercepat
menjadi salah satu faktor yang paling sulit [5].
diramalkan secara akurat. Perubahan iklim akibat Mishra, Khushboo, et al. (2014) dalam
pemanasan global, mengakibatkan pergantian penelitiannya tentang kompresi citra mengatakan
musim di Indonesia menjadi tidak teratur [2]. bahwa dalam nguyen-widrow semua bobot dalam
Jaringan Saraf Tiruan (Artificial Neural jaringan disesuaikan dengan cara yang identik,
Network) sebagian besar telah cukup handal sehingga mencegah dan mengurangi kesalahan
selama beberapa tahun terakhir dalam pemecahan fungsi. Bobot biasanya diinisialisasi dengan nilai
masalah. Jaringan saraf tiruan menyediakan kecil yang acak. Hasil menunjukkan bahwa
metodologi yang sangat handal dalam pemecahan algoritma yang digunakan (nguyen-widrow) dapat
masalah non-linier. Jaringan saraf tiruan meningkatkan waktu eksekusi [4].
terinspirasi oleh otak manusia di mana neuron Metode backpropagation yang telah
saling interkoneksi secara non-linier. Neuron dijelaskan di atas dapat diterapkan dalam
saling terhubung satu sama lain melalui suatu memprediksi suatu keadaan yang akan datang.
jaringan. Jaringan ini yang dilatih menggunakan Sedangkan inisialisasi nguyen-widrow dapat
meningkatkan waktu eksekusi. Pada penelitian ini

57
Seminar Nasional Informatika 2014

penulis akan memprediksi curah hujan di Kota Arsitektur backpropagation merupakan


Medan dengan metode backpropagation neural salah satu arsitektur jaringan saraf tiruan yang
network dengan memadukan algoritma inisialisasi dapat digunakan untuk mempelajari dan
nguyen-widrow pada proses inisialisasi bobotnya. menganalisis pola data masa lalu lebih tepat
Penulis akan menggunakan data curah hujan sehingga diperoleh keluaran yang lebih akurat
tahun 1997 – 2012. Tujuannya adalah untuk (dengan kesalahan atau error minimum) [6].
mengetahui apakah algoritma inisialisasi nguyen- Langkah-langkah dalam membangun
widrow dapat mengurangi waktu pelatihan. algoritma backpropagation adalah sebagai berikut
[7]:
2. Algoritma Nguyen-Widrow a. Inisialisasi bobot (ambil nilai random yang
cukup kecil).
Nguyen-Widrow adalah sebuah algoritma b. Tahap perambatan maju (forward
yang digunakan untuk inisialisasi bobot pada propagation)
jaringan saraf tiruan untuk mengurangi waktu 1) Setiap unit input (X1, i=1,2,3,…,n)
pelatihan. Algoritma inisialisasi nguyen-widrow menerima sinyal xi dan meneruskan sinyal
adalah sebagai berikut [4]: tersebut ke semua unit pada lapisan
a. Set: tersembunyi.
n = jumlah unit input 2) Setiap unit tersembunyi (Z1, j=1,2,3,…,p)
p = jumlah unit tersembunyi menjumlahkan bobot sinyal input,
β = faktor skala = 0.7(p)1/n = 0.7 ditunjukkan dengan persamaan (1).
b. Untuk setiap unit tersembunyi (j=1,…,p),
(1)
lakukan tahap (c) – (f)
c. Untuk i=1,…,n (semua unit input), vij(old)=
bilangan acak antara -0.5 dan 0.5 Dan menerapkan fungsi aktivasi untuk
d. Hitung nilai ||vj(old)|| menghitung sinyal output-nya, ditunjukkan
e. Inisialisasi ulang bobot-bobot dari unit input dengan persamaan (2).
(2)
(i=1,…,n)
f. Bias yang dipakai sebagai inisialisasi: Fungsi aktivasi yang digunakan adalah
voj = bilangan acak antara –β dan β. fungsi sigmoid, kemudian mengirimkan
sinyal tersebut ke semua unit output.
3. Neural Network 3) Setiap unit output (Yk, k=1,2,3,…,m)
menjumlahkan bobot sinyal input,
Neural Network / Jaringan Saraf Tiruan ditunjukkan dengan persamaan (3).
(JST) adalah paradigma pengolahan informasi
yang terinspirasi oleh sistem saraf secara biologis, (3)
seperti proses informasi pada otak manusia.
Elemen kunci dari paradigma ini adalah struktur Dan menerapkan fungsi aktivasi untuk
dari sistem pengolahan informasi yang terdiri dari menghitung sinyal output-nya, ditunjukkan
sejumlah besar elemen pemrosesan yang saling dengan persamaan (4).
berhubungan (neuron), bekerja serentak untuk (4)
menyelesaikan masalah tertentu. c. Tahap perambatan balik (backpropagation)
Cara kerja JST seperti cara kerja manusia, 1) Setiap unit output (Yk, k=1,2,3,…,m)
yaitu belajar melalui contoh. Lapisan-lapisan menerima pola target yang sesuai dengan
penyusun JST dibagi menjadi 3, yaitu lapisan pola input pelatihan, kemudian hitung
input (input layer), lapisan tersembunyi (hidden error, ditunjukkan dengan persamaan (5).
layer), dan lapisan output (ouput layer) [7].
(5)
4. Metode Backpropagation f’ adalah turunan dari fungsi aktivasi.
Kemudian hitung korelasi bobot,
Salah satu algoritma JST adalah propagasi ditunjukkan dengan persamaan (6).
balik (backpropagation) yaitu JST multi layer (6)
yang mengubah bobot dengan cara mundur dari Dan menghitung koreksi bias, ditunjukkan
lapisan keluaran ke lapisan masukan. Tujuannya dengan persamaan (7).
untuk melatih jaringan agar mendapatkan (7)
keseimbangan kemampuan untuk mengenali pola Sekaligus mengirimkan δk ke unit-unit
yang digunakan selama pelatihan serta yang ada di lapisan paling kanan.
kemampuan jaringan untuk memberikan respon 2) Setiap unit tersembunyi (Zj, j=1,2,3,…,p)
yang benar terhadap pola masukan dengan pola menjumlahkan delta input-nya (dari unit-
yang dipakai selama pelatihan [1]. unit yang berada pada lapisan di

(8)
58
Seminar Nasional Informatika 2014

kanannya), ditunjukkan dengan persamaan banyaknya layar tersembunyi (hidden layer)


(8). yang digunakan, dan banyaknya keluaran
yang diinginkan. Data yang digunakan sebagai
masukan sebanyak 8 data (8 tahun) dan data
keluaran atau target adalah data pada tahun
Untuk menghitung informasi error, ke-9 (data input 1997 – 2004 dengan target
kalikan nilai ini dengan turunan dari fungsi 2005). Untuk mengetahui curah hujan pada
aktivasinya, ditunjukkan dengan tahun ke-10 maka data masukannya
persamaan (9). merupakan data pada tahun ke-2 sampai tahun
(9) ke-9 (data input 1998 – 2005 dengan target
2006), demikian seterusnya. Gambar 1
Kemudian hitung koreksi bobot,
menggambarkan desain jaringan saraf tiruan
ditunjukkan dengan persamaan (10).
backpropagation dengan input layer(xi)=8,
(10)
hidden layer(vi)=6, dan output layer(yi)=1.
Setelah itu, hitung juga koreksi bias,
ditunjukkan dengan persamaan (11). Input Layer Hidden Layer Output Layer
(11)
d. Tahap perubahan bobot dan bias x1
1) Setiap unit output (Yk, k=1,2,3,…,m)
dilakukan perubahan bobot dan bias
(j=0,1,2,…,p), ditunjukkan dengan x2 v1
persamaan (12).
(12)
Setiap unit tersembunyi (Zj, j=1,2,3,…,p) x3 v2
dilakukan perubahan bobot dan bias
(i=0,1,2,…,n), ditunjukkan dengan
persamaan (13). x4 v3
(13)
y1
2) Tes kondisi berhenti.
x5 v4
5. Metode Penelitian

Penelitian ini bertujuan untuk menganalisa x6 v5


inisialisasi algoritma nguyen-widrow pada proses
prediksi curah hujan di Kota Medan dengan
jaringan saraf tiruan metode backpropagation. x7 v6
Penulis ingin mengetahui apakah ada perbedaan
antara inisialisasi bobot menggunakan algoritma
nguyen-widrow dengan inisialisasi bobot secara x8
random. Apakah pengenalan pola/pelatihan
dengan algoritma nguyen-widrow dapat
mengurangi waktu pelatihan. Gambar 1. Desain backpropagation neural
Untuk mencapai tujuan tersebut, penulis network
akan melakukan perbandingan dengan
menggunakan data sekunder curah hujan bulanan c. Pengenalan pola (pelatihan)
Kota Medan tahun 1997 – 2012. Data bersumber Pengenalan pola dilakukan dengan cara
dari BMKG Stasiun Polonia, Kota Medan. penyesuaian nilai bobot (dalam penelitian ini
Prediksi curah hujan dengan nilai bobot ditentukan secara random dan
backpropagation neural network digunakan menggunakan algoritma nguyen-widrow).
langkah-langkah sebagai berikut: Penghentian penyesuaian bobot dalam
a. Memisahkan data yang akan digunakan pengenalan pola apabila kuadrat error
sebagai data pelatihan dan data uji. Data curah mencapai target error. Error dihitung setelah
hujan tahun 1997 – 2008 akan digunakan tahapan forward propagation. Apabila error
sebagai data pelatihan selama perancangan lebih besar dari target error maka pelatihan
JST sedangkan data tahun 2009 – 2012 akan dilanjutkan ke tahap backward
digunakan sebagi data pengujian. propagation sampai error mencapai atau lebih
b. Desain JST kecil target error.
Desain JST dilakukan untuk prediksi curah d. Pengujian dan prediksi
hujan bulanan dimulai dengan menentukan Pengujian dilakukan bertujuan untuk
banyaknya data masukan yang digunakan, mengetahui tingkat keakuratan sistem JST

59
Seminar Nasional Informatika 2014

191.1 306.7 191.7 196.3 200.5 174 251.4 99.4 62


yang telah dibuat dalam memprediksi data 121.9 121.3 139.2 312.1 206.8 210.8 109.1 261.6 276.8
curah hujan pada tahun tertentu. Sedangkan 342.6 417.6 156.3 282 204.3 145.7 148.3 153.4 195.7
451.1 395.7 382.5 561.5 475.3 290.5 385.6 256.5 294.8
prediksi bertujuan untuk memprediksi data 367.5 733 363.8 471.9 377.5 175.5 271.4 303.3 342.2
curah hujan yang akan datang. 108 467.6 164.3 125.4 141.2 206.4 148.4 374.1 412.5
173.6 342.5 102.2 187.7 166.4 311.4 346.6 218.4 245.7

6. Hasil dan Analisa


Sebelum diproses data dinormalisasi terlebih
dahulu. Normalisasi terhadap data dilakukan agar
Prediksi curah hujan menggunakan metode
keluaran jaringan sesuai dengan fungsi aktivasi
backpropagation neural network dilakukan
yang digunakan. Data-data tersebut dinormalisasi
dengan membagi data menjadi tiga bagian, yaitu
dalam interval [0, 1] karena dalam prediksi curah
: data untuk training/ pelatihan, data untuk
hujan, nilai curah hujan pasti bernilai positif atau
testing/ pengujian, dan data untuk prediksi. Data
0. Selain itu juga terkait fungsi aktivasi yang
yang digunakan adalah data curah hujan Kota
diberikan yaitu sigmoid biner.
Medan tahun 1997 – 2012 (dapat dilihat di
Fungsi sigmoid adalah fungsi asimtotik
Lampiran Tabel 1). Di mana data tahun 1997 –
(tidak pernah mencapai 0 ataupun 1) maka
2008 digunakan sebagai pelatihan, data tahun
transformasi data dilakukan pada interval yang
2009 – 2012 digunakan sebagai pengujian, dan
lebih kecil yaitu [0.1, 0.8], ditunjukkan dengan
tahun 2013 – 2017 data yang akan diprediksi.
persamaan (14).
Pembagian data untuk pelatihan dapat dilihat pada
Tabel 2. (14)

Tabel 2(a). Data input tahun 1997 – 2004 a adalah data minimum, b adalah data maksimum,
dengan target tahun 2005 x adalah data yang akan dinormalisasi, dan x’
1997 1998 1999 2000 2001 2002 2003 2004 2005
106.2 181 315 59 216.5 90.8 169.4 138.8 189.1
adalah data yang telah ditransformasi. Sehingga
96.6 50.2 268.8 86.7 15.1 78.5 85.7 200.8 43.9 dihasilkan data hasil normalisasi yang
134.4 29.4 196.9 182.2 158 96.5 162.6 237.9 62.5
109.8 35.3 322 115 164.8 73.4 285.3 88.5 168.2 ditunjukkan pada Tabel 3.
80.9 133.5 302.6 60.3 252.8 195.2 245.7 68 229.5
175.3 144.6 256.2 191.1 306.7 191.7 196.3 200.5 174
225.8 213 29.9 121.9 121.3 139.2 312.1 206.8 210.8 Tabel 3(a). Data hasil normalisasi tahun 1997
95.7 381 78.6 342.6 417.6 156.3 282 204.3 145.7 – 2004 dengan target tahun 2005
290.6 170.8 407.2 451.1 395.7 382.5 561.5 475.3 290.5
1997 1998 1999 2000 2001 2002 2003 2004 2005
391.1 340.3 204.1 367.5 733 363.8 471.9 377.5 175.5 0.208 0.29 0.438 0.156 0.33 0.191 0.278 0.244 0.299
265.4 275.8 126.4 108 467.6 164.3 125.4 141.2 206.4
0.197 0.146 0.387 0.186 0.107 0.177 0.185 0.312 0.139
182.4 394.2 456.3 173.6 342.5 102.2 187.7 166.4 311.4
0.239 0.123 0.308 0.292 0.265 0.197 0.27 0.353 0.16
0.212 0.129 0.446 0.218 0.273 0.172 0.406 0.188 0.276
0.18 0.238 0.425 0.157 0.37 0.306 0.362 0.166 0.344
Tabel 2(b). Data input tahun 1998 – 2005 0.284 0.25 0.373 0.302 0.429 0.302 0.307 0.312 0.283
dengan target tahun 2006 0.34 0.326 0.124 0.225 0.224 0.244 0.435 0.319 0.323
1998 1999 2000 2001 2002 2003 2004 2005 2006 0.196 0.511 0.177 0.469 0.552 0.263 0.402 0.316 0.251
181 315 59 216.5 90.8 169.4 138.8 189.1 103.9 0.411 0.279 0.54 0.589 0.527 0.513 0.711 0.615 0.411
50.2 268.8 86.7 15.1 78.5 85.7 200.8 43.9 130.5 0.522 0.466 0.316 0.496 0.9 0.492 0.12 0.507 0.284
29.4 196.9 182.2 158 96.5 162.6 237.9 62.5 121.2 0.384 0.395 0.23 0.21 0.607 0.272 0.229 0.246 0.318
35.3 322 115 164.8 73.4 285.3 88.5 168.2 222.5 0.292 0.526 0.594 0.282 0.469 0.203 0.298 0.274 0.434
133.5 302.6 60.3 252.8 195.2 245.7 68 229.5 300.5
144.6 256.2 191.1 306.7 191.7 196.3 200.5 174 251.4
213 29.9 121.9 121.3 139.2 312.1 206.8 210.8 109.1 Tabel 3(b). Data hasil normalisasi tahun 1998 –
381 78.6 342.6 417.6 156.3 282 204.3 145.7 148.3 2005 dengan target tahun 2006
170.8 407.2 451.1 395.7 382.5 561.5 475.3 290.5 385.6
1998 1999 2000 2001 2002 2003 2004 2005 2006
340.3 204.1 367.5 733 363.8 471.9 377.5 175.5 271.4 0.29 0.438 0.156 0.33 0.191 0.278 0.244 0.299 0.205
275.8 126.4 108 467.6 164.3 125.4 141.2 206.4 148.4 0.146 0.387 0.186 0.107 0.177 0.185 0.312 0.139 0.235
394.2 456.3 173.6 342.5 102.2 187.7 166.4 311.4 346.6
0.123 0.308 0.292 0.265 0.197 0.27 0.353 0.16 0.224
0.129 0.446 0.218 0.273 0.172 0.406 0.188 0.276 0.336
0.238 0.425 0.157 0.37 0.306 0.362 0.166 0.344 0.422
Tabel 2(c). Data input tahun 1999 – 2006 0.25 0.373 0.302 0.429 0.302 0.307 0.312 0.283 0.368
dengan target tahun 2007 0.326 0.124 0.225 0.224 0.244 0.435 0.319 0.323 0.211
1999 2000 2001 2002 2003 2004 2005 2006 2007 0.511 0.177 0.469 0.552 0.263 0.402 0.316 0.251 0.254
315 59 216.5 90.8 169.4 138.8 189.1 103.9 169.6 0.279 0.54 0.589 0.527 0.513 0.711 0.615 0.411 0.516
268.8 86.7 15.1 78.5 85.7 200.8 43.9 130.5 8.6 0.466 0.316 0.496 0.9 0.492 0.12 0.507 0.284 0.39
196.9 182.2 158 96.5 162.6 237.9 62.5 121.2 62.3 0.395 0.23 0.21 0.607 0.272 0.229 0.246 0.318 0.254
322 115 164.8 73.4 285.3 88.5 168.2 222.5 277.2 0.526 0.594 0.282 0.469 0.203 0.298 0.274 0.434 0.473
302.6 60.3 252.8 195.2 245.7 68 229.5 300.5 330.2
256.2 191.1 306.7 191.7 196.3 200.5 174 251.4 99.4
29.9 121.9 121.3 139.2 312.1 206.8 210.8 109.1 261.6 Tabel 3(c). Data hasil normalisasi tahun 1999
78.6 342.6 417.6 156.3 282 204.3 145.7 148.3 153.4 – 2006 dengan target tahun 2007
407.2 451.1 395.7 382.5 561.5 475.3 290.5 385.6 256.5
1999 2000 2001 2002 2003 2004 2005 2006 2007
204.1 367.5 733 363.8 471.9 377.5 175.5 271.4 303.3
0.438 0.156 0.33 0.191 0.278 0.244 0.299 0.205 0.278
126.4 108 467.6 164.3 125.4 141.2 206.4 148.4 374.1 0.387 0.186 0.107 0.177 0.185 0.312 0.139 0.235 0.1
456.3 173.6 342.5 102.2 187.7 166.4 311.4 346.6 218.4 0.308 0.292 0.265 0.197 0.27 0.353 0.16 0.224 0.159
Tabel 2(d). Data input tahun 2000 – 2007 0.446 0.218 0.273 0.172 0.406 0.188 0.276 0.336 0.397
0.425 0.157 0.37 0.306 0.362 0.166 0.344 0.422 0.455
dengan target tahun 2008 0.373 0.302 0.429 0.302 0.307 0.312 0.283 0.368 0.2
2000 2001 2002 2003 2004 2005 2006 2007 2008 0.124 0.225 0.224 0.244 0.435 0.319 0.323 0.211 0.379
59 216.5 90.8 169.4 138.8 189.1 103.9 169.6 126.7 0.177 0.469 0.552 0.263 0.402 0.316 0.251 0.254 0.26
86.7 15.1 78.5 85.7 200.8 43.9 130.5 8.6 16.2 0.54 0.589 0.527 0.513 0.711 0.615 0.411 0.516 0.374
182.2 158 96.5 162.6 237.9 62.5 121.2 62.3 126.8 0.316 0.496 0.9 0.492 0.12 0.507 0.284 0.39 0.425
115 164.8 73.4 285.3 88.5 168.2 222.5 277.2 146 0.23 0.21 0.607 0.272 0.229 0.246 0.318 0.254 0.504
60.3 252.8 195.2 245.7 68 229.5 300.5 330.2 172.5 0.594 0.282 0.469 0.203 0.298 0.274 0.434 0.473 0.332

60
Seminar Nasional Informatika 2014

Tabel 3(d). Data hasil normalisasi tahun 2000 – 0.378 0.3781 0.2884 0.3452 0.0352 0.305
0.4162 0.1741 0.2884 0.3452 0.0352 0.305
2007 dengan target tahun 2008 0.2054 0.1427 0.3421 0.2915 0.1733 0.1439
2000 2001 2002 2003 2004 2005 2006 2007 2008
0.3637 0.3945 0.3238 0.4437 0.5985 0.1168
0.156 0.33 0.191 0.278 0.244 0.299 0.205 0.278 0.23
0.186 0.107 0.177 0.185 0.312 0.139 0.235 0.1 0.108 0.3047 0.4689 0.1341 0.2402 0.0699 0.5146
0.292 0.265 0.197 0.27 0.353 0.16 0.224 0.159 0.231 0.2963 0.0076 0.3161 0.045 0.0677 0.4113
0.218 0.273 0.172 0.406 0.188 0.276 0.336 0.397 0.252 Bias input ke hidden
0.157 0.37 0.306 0.362 0.166 0.344 0.422 0.455 0.281 0.1422 0.0228 0.1479 0.191 0.1505 0.4743
0.302 0.429 0.302 0.307 0.312 0.283 0.368 0.2 0.159 Bobot hidden ke output
0.225 0.224 0.244 0.435 0.319 0.323 0.211 0.379 0.396
0.4899 0.2007 0.1391 0.0802 0.0814 0.3233
0.469 0.552 0.263 0.402 0.316 0.251 0.254 0.26 0.307
0.589 0.527 0.513 0.711 0.615 0.411 0.516 0.374 0.416 Bias hidden ke output 0.367
0.496 0.9 0.492 0.12 0.507 0.284 0.39 0.425 0.468
0.21 0.607 0.272 0.229 0.246 0.318 0.254 0.504 0.546
0.282 0.469 0.203 0.298 0.274 0.434 0.473 0.332 0.362 Proses training dengan menggunakan bobot
nguyen-widrow pada tabel 5 menghasilkan
Setelah proses normalisasi dilakukan, kuadrat error=0.01 pada iterasi ke-74. Penurunan
selanjutnya dilakukan proses inisialisasi bobot. kuadrat error dapat dilihat pada Gambar 3.
Proses inisialisasi bobot dikelompokkan menjadi
dua bagian, yaitu inisialisasi bobot random dan
inisialisasi bobot menggunakan algoritma nguyen-
widrow.
Langkah pertama akan dilakukan uji coba
dengan menggunakan bobot yang digenerate
secara random dengan hidden layer=6. Bobot
random yang telah digenerate dapat dilihat pada
Tabel 4.

Tabel 4. Generate bobot random Gambar 3. Penurunan kuadrat error iterasi


Bobot input ke hidden awal
0.3528 0.2667 0.2898 0.1448 0.151 0.3874 ke-74
0.007 0.3804 0.4072 0.3545 0.0227 0.207
0.4313 0.3952 0.1868 0.481 0.4357 0.0281
Pada pengujian awal ini didapatkan hasil
0.4748 0.182 0.2624 0.3836 0.0268 0.2962 bahwa jumlah iterasi pada proses tranning dengan
0.2344 0.1491 0.3113 0.3239 0.1319 0.1397
0.4149 0.4123 0.2946 0.493 0.4555 0.1134
menggunakan bobot random lebih cepat
0.3476 0.49 0.122 0.2669 0.0532 0.4997 dibandingkan dengan penggunaan bobot nguyen-
0.3381 0.0079 0.2876 0.05 0.0515 0.3394
Bias input ke hidden widrow. Selanjutnya dilakukan bebepara kali
0.1422 0.0228 0.1479 0.191 0.1505 0.4743 proses trainning dan pengujian/testing dengan
Bobot hidden ke output
0.4899 0.2007 0.1391 0.0802 0.0814 0.3233 menggunakan bobot random dan bobot nguyen-
Bias hidden ke output 0.367 widrow, dimana jumlah hidden layer tetap yaitu 6
dan nilai target error yang bervariasi. Hasil dari
Proses training dengan menggunakan bobot pengujian ini dapat dilihat pada tabel 6.
random pada tabel 4 menghasilkan kuadrat
error=0.01 pada iterasi ke-66. Penurunan kuadrat Tabel 6. Perbandingan hasil pengujian bobot
error dapat dilihat pada Gambar 2. random dengan bobot nguyen-widrow
Target Bobot random Bobot nguyen-widrow
error Iterasi Keakurasian Iterasi keakurasian
0.09 2 3.12 % 2 2.96 %
0.06 2 3.12 % 2 2.96 %
0.03 3 3.37 % 3 3.33 %
0.01 66 25 % 74 24.9 %
0.009 87 33.08 % 96 33.06 %
0.008 186 41.65 % 194 41.92 %
0.007 4691 42.75 % 5155 43.1 %
Rata-
719.57 21.73 % 789.43 21.75 %
rata

Dari hasil pengujian pada tabel 6 didapatkan


Gambar 2. Penurunan kuadrat error dari bahwa pada inisialisasi bobot random jumlah
training dengan menggunakan bobot random iterasi paling kecil ada pada target error 0.09 dan
Selanjutnya sebagai perbandingan dilakukan 0.06 dengan jumlah iterasi=2 dengan tingkat
uji coba dengan menggunakan bobot nguyen- keakurasian=3.12% dan jumlah iterasi paling
widrow dengan hidden layer=6. Bobot yang besar ada pada target error 0.007 dengan jumlah
dihasilkan dari algoritma inisialisasi nguyen- iterasi=4691 dengan tingkat
widrow ditunjukkan pada Tabel 5. keakurasian=42.75%. Sedangkan pada inisialisasi
bobot nguyen-widrow jumlah iterasi paling kecil
Tabel 5. Inisialisasi bobot nguyen-widrow sama seperti inisialisasi bobot random yaitu
Bobot input ke hidden awal iterasi ke-2 namun dengan tingkat
0.3092 0.2552 0.3185 0.1303 0.1984 0.399
0.0061 0.364 0.4475 0.319 0.0298 0.2132 keakurasian=2.96% dan jumlah iterasi paling

61
Seminar Nasional Informatika 2014

besar ada pada target error 0.007 dengan tingkat baik dari bobot random, hal ini dapat dilihat
keakurasian=43.1%. Ini berarti semakin kecil dari proses training dengan bobot nguyen-
nilai target error maka nilai iterasinya akan widrow lebih lama dibandingkan proses
semakin besar dan keakurasiannya juga semakin training dengan bobot random.
tinggi. c. Tingat keakurasian terbesar pada proses
Dari hasil pengujian pada tabel 6 juga dapat pengujian prediksi curah hujan di Kota Medan
dilihat bahwa proses training dengan bobot dengan metode backpropagation neural
nguyen-widrow lebih lama dibandingkan dengan network adalah 43.1 %, dengan target error
bobot random. Hal ini berarti bahwa pada kasus 0.007.
prediksi curah hujan di Kota Medan dengan
metode backpropagation neural network, proses Daftar Pustaka:
training dengan inisialisasi bobot nguyen-widrow
tidak lebih baik dari bobot random. [1] Ihwan, Andi, 2013, Metode Jaringan Saraf
Proses terakhir yaitu melakukan prediksi Tiruan Propagasi Balik untuk Estimasi Curah
curah hujan untuk beberapa tahun berikutnya Hujan Bulanan di Ketapang Kalimantan
dengan mengambil nilai bobot hasil inisialisasi Barat, Prosiding Semirata FMIPA
nguyen-widrow dengan keakurasian 43.1 %. Hasil Universitas Lampung.
prediksi dapat dilihat pada Tabel 7. [2] Indrabayu, et al., 2011, Prediksi Curah Hujan
di Wilayah Makasar Menggunakan Metode
Tabel 7. Hasil prediksi curah hujan 2013-2017 Wavelet-Neural Network, Jurnal Ilmiah
Tahun
2013 2014 2015 2016 2017
“Elektrikal Enjiniring” UNHAS, Vol. 09, No.
Bulan
02, Agustus.
1 116 136.4 147.5 165.6 150.3
2 107.9 89.6 101 108.8 102.4 [3] Kharola, Manisha and Dinesh Kumar, 2014,
3 149.9 134.4 173.8 203 178.1 Efficient Weather Prediction By Back-
4 214.2 196 160.5 153.6 137
5 314.2 285.6 232.2 238.2 174 Propagation Algorithm, IOSR Journal of
6 133.7 104.1 112.3 129.3 139.5 Computer Engineering (IOSR-JCE), Volume
7 189.3 230 198 175.6 169.9
8 150.1 154 197 252.2 255.7 16, Issue 3, Ver. IV, June.
9
10
258.1
293.5
229.9
268.8
245.5
250.1
210.4
219.9
162
218
[4] Mishra, Khushboo, et al, 2014, Image
11 248.5 298.7 233.3 175.7 199 Compression Using Multilayer Feed Forward
12 241 197.6 159 122 154.4
Rata-rata 201.367 193.758 184.183 179.525 170.025
Artificial Neural Network with Nguyen
Widrow Weight Initialization Method,
Dari tabel 7 hasil prediksi curah hujan tahun International Journal of Emerging
2013-2017, diperkirakan bahwa curah hujan rata- Technology and Advanced Engineering,
rata pertahun akan semakin turun dari tahun 2013 Volume 4, Issue 4, April.
sampai tahun 2017. Tahun 2013 rata-rata curah [5] Naik, Arti R. and S.K.Pathan, 2012, Weather
hujan adalah 201.367, sedangkan pada tahun 2017 Classification and Forecasting using Back
rata-rata curah hujan adalah 170.025. Propagation Feed-forward Neural Network,
International Journal of Scientific and
7. Kesimpulan Research Publications, Volume 2, Issue 12,
December.
Dari hasil penelitian dapat diambil beberapa [6] Oktaviani, Cici dan Afdal, 2013, Prediksi
kesimpulan antara lain: Curah Hujan Bulanan Menggunakan
a. Pada proses trainning JST, semakin kecil nilai Jaringan Syaraf Tiruan dengan Beberapa
target error maka nilai iterasinya akan Fungsi Pelatihan Backpropagation, Jurnal
semakin besar dan keakurasiannya juga Fisika Unand, Vol. 2, No. 4, Oktober.
semakin tinggi [7] Sutojo, T., et al, 2010, Kecerdasan Buatan,
b. Pada kasus prediksi curah hujan di Kota Yogyakarta: Andi Offset.
Medan dengan metode backpropagation
neural network, proses training dengan Lampiran:
inisialisasi bobot nguyen-widrow tidak lebih Data curah hujan Kota Medan tahun 1997 – 2012

62
Seminar Nasional Informatika 2014

Tabel 1. Data curah hujan Kota Medan tahun 1997 – 2012


Bln 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012
1 106.2 181 315 59 216.5 90.8 169.4 138.8 189.1 103.9 169.6 126.7 196 166.1 155.9 62
2 96.6 50.2 268.8 86.7 15.1 78.5 85.7 200.8 43.9 130.5 8.6 16.2 95.4 30.2 81.1 93
3 134.4 29.4 196.9 182.2 158 96.5 162.6 237.9 62.5 121.2 62.3 126.8 342.6 142.8 289.2 202
4 109.8 35.3 322 115 164.8 73.4 285.3 88.5 168.2 222.5 277.2 146 223.8 65.4 215.1 206
5 80.9 133.5 302.6 60.3 252.8 195.2 245.7 68 229.5 300.5 330.2 172.5 466.7 129 217.3 515
6 175.3 144.6 256.2 191.1 306.7 191.7 196.3 200.5 174 251.4 99.4 62 77.7 156.4 128 57
7 225.8 213 29.9 121.9 121.3 139.2 312.1 206.8 210.8 109.1 261.6 276.8 191.5 219.5 138.5 279
8 95.7 381 78.6 342.6 417.6 156.3 282 204.3 145.7 148.3 153.4 195.7 306 382.3 283.3 160
9 290.6 170.8 407.2 451.1 395.7 382.5 561.5 475.3 290.5 385.6 256.5 294.8 386 89.4 262.7 242
10 391.1 340.3 204.1 367.5 733 363.8 471.9 377.5 175.5 271.4 303.3 342.2 340.2 161.3 417.7 339
11 265.4 275.8 126.4 108 467.6 164.3 125.4 141.2 206.4 148.4 374.1 412.5 130.6 246.4 232.9 300
12 182.4 394.2 456.3 173.6 342.5 102.2 187.7 166.4 311.4 346.6 218.4 245.7 46.1 159.2 169.3 270

63

Você também pode gostar