Escolar Documentos
Profissional Documentos
Cultura Documentos
Abstrak
Jaringan saraf tiruan (Artificial Neural Network) sebagian besar telah cukup handal dalam pemecahan
masalah, salah satunya adalah prediksi curah hujan dengan metode backpropagation. Salah satu algoritma
inisialisasi bobot yang dapat meningkatkan waktu eksekusi adalah nguyen-widrow. Pada penelitian ini
penulis akan memprediksi curah hujan di Kota Medan dengan metode backpropagation neural network
dengan memadukan algoritma inisialisasi nguyen-widrow pada proses inisialisasi bobotnya. Dari hasil
penelitian diketahui bahwa : pada proses trainning JST, semakin kecil nilai target error maka nilai iterasinya
akan semakin besar dan keakurasiannya juga semakin tinggi, pada kasus prediksi curah hujan di Kota Medan
dengan metode backpropagation neural network, proses training dengan inisialisasi bobot nguyen-widrow
tidak lebih baik dari bobot random, dan tingat keakurasian terbesar pada proses pengujian prediksi curah
hujan di Kota Medan dengan metode backpropagation neural network adalah 43.1 %, dengan target error
0.007.
57
Seminar Nasional Informatika 2014
(8)
58
Seminar Nasional Informatika 2014
59
Seminar Nasional Informatika 2014
Tabel 2(a). Data input tahun 1997 – 2004 a adalah data minimum, b adalah data maksimum,
dengan target tahun 2005 x adalah data yang akan dinormalisasi, dan x’
1997 1998 1999 2000 2001 2002 2003 2004 2005
106.2 181 315 59 216.5 90.8 169.4 138.8 189.1
adalah data yang telah ditransformasi. Sehingga
96.6 50.2 268.8 86.7 15.1 78.5 85.7 200.8 43.9 dihasilkan data hasil normalisasi yang
134.4 29.4 196.9 182.2 158 96.5 162.6 237.9 62.5
109.8 35.3 322 115 164.8 73.4 285.3 88.5 168.2 ditunjukkan pada Tabel 3.
80.9 133.5 302.6 60.3 252.8 195.2 245.7 68 229.5
175.3 144.6 256.2 191.1 306.7 191.7 196.3 200.5 174
225.8 213 29.9 121.9 121.3 139.2 312.1 206.8 210.8 Tabel 3(a). Data hasil normalisasi tahun 1997
95.7 381 78.6 342.6 417.6 156.3 282 204.3 145.7 – 2004 dengan target tahun 2005
290.6 170.8 407.2 451.1 395.7 382.5 561.5 475.3 290.5
1997 1998 1999 2000 2001 2002 2003 2004 2005
391.1 340.3 204.1 367.5 733 363.8 471.9 377.5 175.5 0.208 0.29 0.438 0.156 0.33 0.191 0.278 0.244 0.299
265.4 275.8 126.4 108 467.6 164.3 125.4 141.2 206.4
0.197 0.146 0.387 0.186 0.107 0.177 0.185 0.312 0.139
182.4 394.2 456.3 173.6 342.5 102.2 187.7 166.4 311.4
0.239 0.123 0.308 0.292 0.265 0.197 0.27 0.353 0.16
0.212 0.129 0.446 0.218 0.273 0.172 0.406 0.188 0.276
0.18 0.238 0.425 0.157 0.37 0.306 0.362 0.166 0.344
Tabel 2(b). Data input tahun 1998 – 2005 0.284 0.25 0.373 0.302 0.429 0.302 0.307 0.312 0.283
dengan target tahun 2006 0.34 0.326 0.124 0.225 0.224 0.244 0.435 0.319 0.323
1998 1999 2000 2001 2002 2003 2004 2005 2006 0.196 0.511 0.177 0.469 0.552 0.263 0.402 0.316 0.251
181 315 59 216.5 90.8 169.4 138.8 189.1 103.9 0.411 0.279 0.54 0.589 0.527 0.513 0.711 0.615 0.411
50.2 268.8 86.7 15.1 78.5 85.7 200.8 43.9 130.5 0.522 0.466 0.316 0.496 0.9 0.492 0.12 0.507 0.284
29.4 196.9 182.2 158 96.5 162.6 237.9 62.5 121.2 0.384 0.395 0.23 0.21 0.607 0.272 0.229 0.246 0.318
35.3 322 115 164.8 73.4 285.3 88.5 168.2 222.5 0.292 0.526 0.594 0.282 0.469 0.203 0.298 0.274 0.434
133.5 302.6 60.3 252.8 195.2 245.7 68 229.5 300.5
144.6 256.2 191.1 306.7 191.7 196.3 200.5 174 251.4
213 29.9 121.9 121.3 139.2 312.1 206.8 210.8 109.1 Tabel 3(b). Data hasil normalisasi tahun 1998 –
381 78.6 342.6 417.6 156.3 282 204.3 145.7 148.3 2005 dengan target tahun 2006
170.8 407.2 451.1 395.7 382.5 561.5 475.3 290.5 385.6
1998 1999 2000 2001 2002 2003 2004 2005 2006
340.3 204.1 367.5 733 363.8 471.9 377.5 175.5 271.4 0.29 0.438 0.156 0.33 0.191 0.278 0.244 0.299 0.205
275.8 126.4 108 467.6 164.3 125.4 141.2 206.4 148.4 0.146 0.387 0.186 0.107 0.177 0.185 0.312 0.139 0.235
394.2 456.3 173.6 342.5 102.2 187.7 166.4 311.4 346.6
0.123 0.308 0.292 0.265 0.197 0.27 0.353 0.16 0.224
0.129 0.446 0.218 0.273 0.172 0.406 0.188 0.276 0.336
0.238 0.425 0.157 0.37 0.306 0.362 0.166 0.344 0.422
Tabel 2(c). Data input tahun 1999 – 2006 0.25 0.373 0.302 0.429 0.302 0.307 0.312 0.283 0.368
dengan target tahun 2007 0.326 0.124 0.225 0.224 0.244 0.435 0.319 0.323 0.211
1999 2000 2001 2002 2003 2004 2005 2006 2007 0.511 0.177 0.469 0.552 0.263 0.402 0.316 0.251 0.254
315 59 216.5 90.8 169.4 138.8 189.1 103.9 169.6 0.279 0.54 0.589 0.527 0.513 0.711 0.615 0.411 0.516
268.8 86.7 15.1 78.5 85.7 200.8 43.9 130.5 8.6 0.466 0.316 0.496 0.9 0.492 0.12 0.507 0.284 0.39
196.9 182.2 158 96.5 162.6 237.9 62.5 121.2 62.3 0.395 0.23 0.21 0.607 0.272 0.229 0.246 0.318 0.254
322 115 164.8 73.4 285.3 88.5 168.2 222.5 277.2 0.526 0.594 0.282 0.469 0.203 0.298 0.274 0.434 0.473
302.6 60.3 252.8 195.2 245.7 68 229.5 300.5 330.2
256.2 191.1 306.7 191.7 196.3 200.5 174 251.4 99.4
29.9 121.9 121.3 139.2 312.1 206.8 210.8 109.1 261.6 Tabel 3(c). Data hasil normalisasi tahun 1999
78.6 342.6 417.6 156.3 282 204.3 145.7 148.3 153.4 – 2006 dengan target tahun 2007
407.2 451.1 395.7 382.5 561.5 475.3 290.5 385.6 256.5
1999 2000 2001 2002 2003 2004 2005 2006 2007
204.1 367.5 733 363.8 471.9 377.5 175.5 271.4 303.3
0.438 0.156 0.33 0.191 0.278 0.244 0.299 0.205 0.278
126.4 108 467.6 164.3 125.4 141.2 206.4 148.4 374.1 0.387 0.186 0.107 0.177 0.185 0.312 0.139 0.235 0.1
456.3 173.6 342.5 102.2 187.7 166.4 311.4 346.6 218.4 0.308 0.292 0.265 0.197 0.27 0.353 0.16 0.224 0.159
Tabel 2(d). Data input tahun 2000 – 2007 0.446 0.218 0.273 0.172 0.406 0.188 0.276 0.336 0.397
0.425 0.157 0.37 0.306 0.362 0.166 0.344 0.422 0.455
dengan target tahun 2008 0.373 0.302 0.429 0.302 0.307 0.312 0.283 0.368 0.2
2000 2001 2002 2003 2004 2005 2006 2007 2008 0.124 0.225 0.224 0.244 0.435 0.319 0.323 0.211 0.379
59 216.5 90.8 169.4 138.8 189.1 103.9 169.6 126.7 0.177 0.469 0.552 0.263 0.402 0.316 0.251 0.254 0.26
86.7 15.1 78.5 85.7 200.8 43.9 130.5 8.6 16.2 0.54 0.589 0.527 0.513 0.711 0.615 0.411 0.516 0.374
182.2 158 96.5 162.6 237.9 62.5 121.2 62.3 126.8 0.316 0.496 0.9 0.492 0.12 0.507 0.284 0.39 0.425
115 164.8 73.4 285.3 88.5 168.2 222.5 277.2 146 0.23 0.21 0.607 0.272 0.229 0.246 0.318 0.254 0.504
60.3 252.8 195.2 245.7 68 229.5 300.5 330.2 172.5 0.594 0.282 0.469 0.203 0.298 0.274 0.434 0.473 0.332
60
Seminar Nasional Informatika 2014
Tabel 3(d). Data hasil normalisasi tahun 2000 – 0.378 0.3781 0.2884 0.3452 0.0352 0.305
0.4162 0.1741 0.2884 0.3452 0.0352 0.305
2007 dengan target tahun 2008 0.2054 0.1427 0.3421 0.2915 0.1733 0.1439
2000 2001 2002 2003 2004 2005 2006 2007 2008
0.3637 0.3945 0.3238 0.4437 0.5985 0.1168
0.156 0.33 0.191 0.278 0.244 0.299 0.205 0.278 0.23
0.186 0.107 0.177 0.185 0.312 0.139 0.235 0.1 0.108 0.3047 0.4689 0.1341 0.2402 0.0699 0.5146
0.292 0.265 0.197 0.27 0.353 0.16 0.224 0.159 0.231 0.2963 0.0076 0.3161 0.045 0.0677 0.4113
0.218 0.273 0.172 0.406 0.188 0.276 0.336 0.397 0.252 Bias input ke hidden
0.157 0.37 0.306 0.362 0.166 0.344 0.422 0.455 0.281 0.1422 0.0228 0.1479 0.191 0.1505 0.4743
0.302 0.429 0.302 0.307 0.312 0.283 0.368 0.2 0.159 Bobot hidden ke output
0.225 0.224 0.244 0.435 0.319 0.323 0.211 0.379 0.396
0.4899 0.2007 0.1391 0.0802 0.0814 0.3233
0.469 0.552 0.263 0.402 0.316 0.251 0.254 0.26 0.307
0.589 0.527 0.513 0.711 0.615 0.411 0.516 0.374 0.416 Bias hidden ke output 0.367
0.496 0.9 0.492 0.12 0.507 0.284 0.39 0.425 0.468
0.21 0.607 0.272 0.229 0.246 0.318 0.254 0.504 0.546
0.282 0.469 0.203 0.298 0.274 0.434 0.473 0.332 0.362 Proses training dengan menggunakan bobot
nguyen-widrow pada tabel 5 menghasilkan
Setelah proses normalisasi dilakukan, kuadrat error=0.01 pada iterasi ke-74. Penurunan
selanjutnya dilakukan proses inisialisasi bobot. kuadrat error dapat dilihat pada Gambar 3.
Proses inisialisasi bobot dikelompokkan menjadi
dua bagian, yaitu inisialisasi bobot random dan
inisialisasi bobot menggunakan algoritma nguyen-
widrow.
Langkah pertama akan dilakukan uji coba
dengan menggunakan bobot yang digenerate
secara random dengan hidden layer=6. Bobot
random yang telah digenerate dapat dilihat pada
Tabel 4.
61
Seminar Nasional Informatika 2014
besar ada pada target error 0.007 dengan tingkat baik dari bobot random, hal ini dapat dilihat
keakurasian=43.1%. Ini berarti semakin kecil dari proses training dengan bobot nguyen-
nilai target error maka nilai iterasinya akan widrow lebih lama dibandingkan proses
semakin besar dan keakurasiannya juga semakin training dengan bobot random.
tinggi. c. Tingat keakurasian terbesar pada proses
Dari hasil pengujian pada tabel 6 juga dapat pengujian prediksi curah hujan di Kota Medan
dilihat bahwa proses training dengan bobot dengan metode backpropagation neural
nguyen-widrow lebih lama dibandingkan dengan network adalah 43.1 %, dengan target error
bobot random. Hal ini berarti bahwa pada kasus 0.007.
prediksi curah hujan di Kota Medan dengan
metode backpropagation neural network, proses Daftar Pustaka:
training dengan inisialisasi bobot nguyen-widrow
tidak lebih baik dari bobot random. [1] Ihwan, Andi, 2013, Metode Jaringan Saraf
Proses terakhir yaitu melakukan prediksi Tiruan Propagasi Balik untuk Estimasi Curah
curah hujan untuk beberapa tahun berikutnya Hujan Bulanan di Ketapang Kalimantan
dengan mengambil nilai bobot hasil inisialisasi Barat, Prosiding Semirata FMIPA
nguyen-widrow dengan keakurasian 43.1 %. Hasil Universitas Lampung.
prediksi dapat dilihat pada Tabel 7. [2] Indrabayu, et al., 2011, Prediksi Curah Hujan
di Wilayah Makasar Menggunakan Metode
Tabel 7. Hasil prediksi curah hujan 2013-2017 Wavelet-Neural Network, Jurnal Ilmiah
Tahun
2013 2014 2015 2016 2017
“Elektrikal Enjiniring” UNHAS, Vol. 09, No.
Bulan
02, Agustus.
1 116 136.4 147.5 165.6 150.3
2 107.9 89.6 101 108.8 102.4 [3] Kharola, Manisha and Dinesh Kumar, 2014,
3 149.9 134.4 173.8 203 178.1 Efficient Weather Prediction By Back-
4 214.2 196 160.5 153.6 137
5 314.2 285.6 232.2 238.2 174 Propagation Algorithm, IOSR Journal of
6 133.7 104.1 112.3 129.3 139.5 Computer Engineering (IOSR-JCE), Volume
7 189.3 230 198 175.6 169.9
8 150.1 154 197 252.2 255.7 16, Issue 3, Ver. IV, June.
9
10
258.1
293.5
229.9
268.8
245.5
250.1
210.4
219.9
162
218
[4] Mishra, Khushboo, et al, 2014, Image
11 248.5 298.7 233.3 175.7 199 Compression Using Multilayer Feed Forward
12 241 197.6 159 122 154.4
Rata-rata 201.367 193.758 184.183 179.525 170.025
Artificial Neural Network with Nguyen
Widrow Weight Initialization Method,
Dari tabel 7 hasil prediksi curah hujan tahun International Journal of Emerging
2013-2017, diperkirakan bahwa curah hujan rata- Technology and Advanced Engineering,
rata pertahun akan semakin turun dari tahun 2013 Volume 4, Issue 4, April.
sampai tahun 2017. Tahun 2013 rata-rata curah [5] Naik, Arti R. and S.K.Pathan, 2012, Weather
hujan adalah 201.367, sedangkan pada tahun 2017 Classification and Forecasting using Back
rata-rata curah hujan adalah 170.025. Propagation Feed-forward Neural Network,
International Journal of Scientific and
7. Kesimpulan Research Publications, Volume 2, Issue 12,
December.
Dari hasil penelitian dapat diambil beberapa [6] Oktaviani, Cici dan Afdal, 2013, Prediksi
kesimpulan antara lain: Curah Hujan Bulanan Menggunakan
a. Pada proses trainning JST, semakin kecil nilai Jaringan Syaraf Tiruan dengan Beberapa
target error maka nilai iterasinya akan Fungsi Pelatihan Backpropagation, Jurnal
semakin besar dan keakurasiannya juga Fisika Unand, Vol. 2, No. 4, Oktober.
semakin tinggi [7] Sutojo, T., et al, 2010, Kecerdasan Buatan,
b. Pada kasus prediksi curah hujan di Kota Yogyakarta: Andi Offset.
Medan dengan metode backpropagation
neural network, proses training dengan Lampiran:
inisialisasi bobot nguyen-widrow tidak lebih Data curah hujan Kota Medan tahun 1997 – 2012
62
Seminar Nasional Informatika 2014
63