Escolar Documentos
Profissional Documentos
Cultura Documentos
Link: http://bit.ly/2x8ta9S
Oleh:
Imam Cholissodin
Efi Riyandani
PENGANTAR
Buku ini memberi pemahaman konsep dasar, maupun tingkat
lanjut secara mendetail sebagai solusi dalam penyelesaian untuk
kasus apapun dengan konsep Sistem Cerdas melalui pemanfaatan
teknologi Big Data mulai dari tingkat dasar sebagai cara yang paling
mudah untuk awalan dalam pemahaman, sampai pada implementasi
algoritma tanpa Library apapun, misal tidak menggunakan MLlib dari
Spark sama sekali atau lainnya, serta melatih dalam memodifikasi
algoritma maupun penggabungan dua tools atau lebih untuk
membangun ekosistem Big Data yang powerfull. Materi yang tersedia
selain memudahkan bagi para pembaca, juga untuk mendukung ma-
teri perkuliahan yang dapat membantu pengayaan mahasiswa yang
fokus pada pengembangan Artificial Intelligence (AI) untuk Big Data,
yang meliputi banyak Machine Learning yang digunakan.
Imam Cholissodin
Dosen Pengampu MK Analisis Big Data FILKOM UB
2016-2018
Kata Pengantar
ii
1. Para penulis artikel Analisis Big Data di forum, web, blog dan buku
yang menjadi referensi buku ini untuk memberikan masukan yang
sangat berharga sekali untuk perbaikan dan penyelesaian buku ini.
2. Mbak Efi Riyandani, yang telah banyak membantu penulisan buku,
dan mahasiswa-mahasiswa terbaik saya semester Ganjil
2016/2017, yaitu: Maryamah, Moh. Fadel Asikin, Daisy Kurniawaty,
Selly Kurnia Sari, Nanda Agung Putra, Ardisa Tamara Putri,
Dhimas Anjar Prabowo, Listiya Surtiningsih, Raissa Arniantya,
Brillian Aristyo Rahadian, Diva Kurnianingtyas, Dyan Putri
Mahardika, Tusty Nadia Maghfira.
3. Mahasiswa-mahasiswa terbaik saya semester Ganjil 2017/2018,
yaitu: Yessica Inggir F., Kholifaul K., Ni Made Gita D. P., Ema
Agasta, Retiana Fadma P. Sinaga, Fachrul Rozy Saputra Rangkuti,
Yunita Dwi Alfiyanti, Dyah Ayu Wahyuning Dewi, Annisaa Amalia
Safitri, Sarah Aditya Darmawan, Danastri Ramya Mehaninda, Eka
Novita Shandra, Fakharuddin Farid Irfani, Rio Cahyo Anggono,
Robih Dini, Yulia Kurniawati, Novirra Dwi Asri, Muhammad Vidi My-
charoka, Vania Nuraini Latifah, Olivia Bonita, Eka Miyahil Uyun,
Cusen Mosabeth, Evilia Nur Harsanti, Ivarianti Sihaloho.
Penulis
iii
Daftar Isi
Judul ...................................................................................................... i
Kata Pengantar ..................................................................................... ii
Daftar Isi .............................................................................................. iv
Daftar Tabel ........................................................................................ viii
Daftar Gambar ..................................................................................... ix
Daftar Source Code .......................................................................... xxvi
BAB 1 Konsep Big Data .............................................................. 1
1.1 Pengantar......................................................................... 1
1.2 Gambaran Umum Big Data.............................................. 3
1.3 Karakteristik Big Data (3V)............................................... 5
1.4 Ekosistem Big Data Analytics .......................................... 7
1.5 Ekosistem Tool Big Data Analytics .................................. 9
1.6 Tugas Kelompok ............................................................ 13
BAB 2 Analitik Big Data & Lifecycle ......................................... 14
2.1 Pengantar....................................................................... 14
2.2 Teknologi Advaced (Tools) Big Data ............................. 14
2.3 Arsitektur Big Data ......................................................... 16
2.4 Key Roles Kunci Sukses Proyek Analitik ....................... 20
2.5 Lifecycle Analitik Data .................................................... 22
2.6 Tugas Kelompok ............................................................ 24
BAB 3 Teknologi dan Tools Big Data (Bagian 1) ..................... 26
3.1 Konsep Pengolahan Big Data ........................................ 26
3.2 Introduction to Hadoop................................................... 27
3.2.1 Hadoop Distributed File System (HDFS) ........... 28
3.2.2 MapReduce (MR) ............................................... 30
3.3 Konfigurasi Hadoop Single Node Cluster di Linux ......... 34
3.3.1 Studi Kasus & Solusi Hadoop ............................ 35
3.3.2 Konfigurasi dengan Eclipse IDE ........................ 53
3.3.3 Konfigurasi dengan HUE ................................... 69
iv
3.3.4 Konfigurasi dengan Spark.................................. 93
3.3.5 Konfigurasi dengan Mahout ............................. 132
3.4 Konfigurasi Hadoop Single Node Cluster di Windows . 140
3.4.1 Konfigurasi dengan Syncfusion ....................... 154
3.4.2 Konfigurasi dengan Eclipse IDE ...................... 161
3.4.3 Konfigurasi dengan Spark................................ 170
3.5 Tugas Kelompok .......................................................... 173
BAB 4 Teknologi dan Tools Big Data (Bagian 2) ................... 175
4.1 Konsep Single (Standalone) Vs Multi-Node Cluster .... 175
4.2 Hadoop Multi Node Cluster (Pseudo-Distributed)........ 176
4.3 Hadoop Multi Node Cluster (Full Distributed) .............. 204
4.4 Studi Kasus (Sederhana) ............................................. 217
4.5 Studi Kasus (Run Kode Program)................................ 225
4.5.1 Klasifikasi: NB dengan Terminal ...................... 225
4.5.2 Klasifikasi: NB dengan Eclipse ........................ 230
4.5.3 Clustering: K-Means ........................................ 237
4.6 Tugas Kelompok .......................................................... 242
BAB 5 Analitik Data Tingkat Lanjut (Clustering) ..................... 244
5.1 Konsep Clustering ........................................................ 244
5.2 K-Means vs Kernel K-means ....................................... 245
5.3 Studi Kasus .................................................................. 188
5.4 Tugas Kelompok .......................................................... 195
BAB 6 Analitik Data Tingkat Lanjut (Regresi) ......................... 197
6.1 Konsep Regresi ........................................................... 197
6.2 Analisis Teknikal dan Fundamental ............................. 198
6.3 Regresi Linear & Regresi Logistic ............................... 199
6.4 Extreme Learning Machine (ELM) ............................... 200
6.5 Tugas Kelompok .......................................................... 207
BAB 7 Analitik Data Tingkat Lanjut (Klasifikasi)...................... 208
7.1 Konsep Klasifikasi ........................................................ 208
7.2 Linear dan Non-Linear Classifier ................................. 209
v
7.3 Algoritma Klasifikasi ..................................................... 210
7.3.1 ELM Untuk Regresi Vs Untuk Klasifikasi ......... 210
7.3.2 Support Vector Machine (SVM) Linear dan Non-
Linear 211
7.4 Tugas Kelompok .......................................................... 221
BAB 8 Teknologi dan Tools Big Data (Bagian 3) ................... 223
8.1 Editor + GUI untuk Spark Java/ Spark Scala/ PySpark223
8.1.1 Install Sublime Text.......................................... 224
8.1.2 Eclipse + Spark Standalone (Java EE) ............ 224
8.1.3 Eclipse + Spark + Scala IDE + Maven ............. 225
8.1.4 Eclipse + Spark + Scala IDE + SBT................. 243
8.1.5 Eclipse + PySpark + PyDev ............................. 254
8.1.6 PySpark + Pycharm ......................................... 318
8.1.7 IntelliJ IDEA + SBT .......................................... 340
8.1.8 Konfigurasi & Solusi Error/Bug ........................ 361
8.2 Konfigurasi Tambahan ................................................. 364
8.2.1 Create VM dari file *.vdi dan UUID Baru.......... 364
8.2.2 Share Folder Pada Linux Pada VirtualBox ...... 367
8.3 Konfigurasi Hadoop + MongoDB ................................. 373
8.3.1 WordCount ....................................................... 386
8.3.2 Movie Ratings .................................................. 399
8.4 Tugas Kelompok .......................................................... 412
BAB 9 Project Pilihan Analisis Big Data .................................. 413
9.1 Seleksi Asisten Praktikum............................................ 413
9.1.1 Dasar Teori ...................................................... 414
9.1.2 Impelementasi .................................................. 417
9.2 Klasifikasi Kendaraan Bermotor................................... 423
9.2.1 Dasar Teori ...................................................... 424
9.2.2 Implementasi .................................................... 427
9.3 Clustering Judul Majalah.............................................. 432
9.3.1 Dasar Teori ...................................................... 434
9.3.2 Implementasi .................................................... 436
vi
9.4 Collaborative Filtering .................................................. 440
9.4.1 Dasar Teori ...................................................... 440
9.4.2 Implementasi .................................................... 443
9.5 Klasifikasi Data Kualitatif (C4.5)................................... 446
9.5.1 Dasar Teori ...................................................... 447
9.5.2 Implementasi .................................................... 452
9.6 Clustering Tingkat Pengetahuan.................................. 456
9.6.1 Dasar Teori ...................................................... 457
9.6.2 Implementasi .................................................... 460
9.7 Klasifikasi Kanker Payudara (SVM) ............................. 462
9.7.1 Dasar Teori ...................................................... 464
9.7.2 Implementasi .................................................... 467
Daftar Pustaka .................................................................................. 470
Biografi Penulis ................................................................................. 476
vii
Daftar Tabel
Tabel 7.9 Contoh 3 SVM Biner dengan Metode One-Against-All .... 218
Tabel 7.10 Metode One-Against-One dengan 4 Kelas .................... 219
Tabel 7.11 Metode BDTSVM dengan 7 Kelas ................................. 220
Tabel 8.1 Perbedaan SQL dengan MongoDB.................................. 376
Tabel 9.1 Contoh Dataset Setiap Kategori ....................................... 434
viii
Daftar Gambar
ix
Gambar 3.3 Arsitektur HDFS.............................................................. 30
Gambar 3.4 Hadoop 2.x Core Components ....................................... 30
Gambar 3.5 High Level Arsitektur Hadoop dan The Job Tracker ...... 31
Gambar 3.6 The Job Tracker ............................................................. 32
Gambar 3.7 Diagram Cara Kerja Map Reduce .................................. 33
Gambar 3.8 Ilustrasi MR vs YARN ..................................................... 33
Gambar 3.9 Persiapan Pada Virtual Box ........................................... 34
Gambar 3.10 Studi Kasus Wordcount ................................................ 35
Gambar 3.11 Hasil: hduser@Master:/usr/local/hadoop$ jar cf wc.jar
WordCount*.class ................................................................................. 41
Gambar 3.12 Hasil: hduser@Master:/usr/local/hadoop$ jar cf wc.jar
WordCount*.class ............................................................................... 41
Gambar 3.13 Hasil: hduser@Master:/usr/local/hadoop$ jar cf wc.jar
WordCount*.class ............................................................................... 42
Gambar 3.14 Hasil Menjalankan JAR untuk wordcount (file a.txt saja): .. 46
Gambar 3.15 Hasil menjalankan JAR untuk wordcount (file b.txt saja): .... 49
Gambar 3.16 Menjalankan JAR untuk wordcount untuk semua file dalam
satu folder (file a.txt dan b.txts) ............................................................. 50
Gambar 3.17 Menjalankan JAR untuk wordcount untuk semua file dalam
satu folder (file a.txt dan b.txts) Cont. ..................................................... 51
Gambar 3.18 Cara menghapus folder HDFS ........................................... 51
Gambar 3.19 Cara menghapus folder HDFS Cont ................................... 52
Gambar 3.20 Link download Eclipse .................................................. 53
Gambar 3.21 Extract Here - Eclipse ................................................... 53
Gambar 3.22 Copy file, dan cek dengan “ls” ...................................... 54
Gambar 3.23 Install eclipse ................................................................ 54
Gambar 3.24 Pilih Eclipse IDE for Java EE Developers .................... 54
Gambar 3.25 Klik Install, tunggu beberapa waktu ............................. 55
Gambar 3.26 Klik Launch .................................................................... 55
Gambar 3.27 Klik “Launch”, tunggu beberapa saat ........................... 56
Gambar 3.28 Klik “restore” ................................................................. 56
Gambar 3.29 Masuk ke folder instalasi hadoop ................................. 57
Gambar 3.30 Jalankan Eclipse .......................................................... 58
x
Gambar 3.31 Klik Finish ...................................................................... 58
Gambar 3.32 Klik Open Pers.. .............................................................. 59
Gambar 3.33 Project “HadoopIDE” .................................................... 59
Gambar 3.34 Klik kanan “src”, tambahkan new “Package”................ 59
Gambar 3.35 Berikan name “org.hadoop.trainings”, klik “Finish”....... 60
Gambar 3.36 Klik kanan pada “org.hadoop.trainings”, klik new “Class”
............................................................................................................ 60
Gambar 3.37 Berikan nama “WordCount”, klik “Finish” ..................... 60
Gambar 3.38 klik “Configure Build Path..” .......................................... 61
Gambar 3.39 klik “Configure Build Path..” .......................................... 61
Gambar 3.40 Masuk ke folder instalasi hadoop ................................. 62
Gambar 3.41 Add *.jar hadoop part 1 ................................................ 62
Gambar 3.42 Add *.jar hadoop part 2 ................................................ 63
Gambar 3.43 Add *.jar hadoop part 3 ................................................ 63
Gambar 3.44 Add *.jar hadoop part 4 ................................................ 64
Gambar 3.45 Add *.jar hadoop part 5 ................................................ 64
Gambar 3.46 Add *.jar hadoop part 6 ................................................ 65
Gambar 3.47 Add *.jar hadoop part 7 ................................................ 65
Gambar 3.48 Add *.jar hadoop part 8 ................................................ 66
Gambar 3.49 Add *.jar hadoop part 9 ................................................ 66
Gambar 3.50 Daftar “Referenced Libraries” Hadoop ......................... 67
Gambar 3.51 Download code WordCount dari “https://goo.gl/wPa2ef”
............................................................................................................ 67
Gambar 3.52 Sebelum dan setelah dicopykan .................................. 68
Gambar 3.53 About Hue..................................................................... 69
Gambar 3.54 Cara kerja Hue Server.................................................. 69
Gambar 3.55 JVM Process Status Tool (jps) ..................................... 70
Gambar 3.56 Cek Hadoop Version .................................................... 70
Gambar 3.57 sudo apt-get install git .................................................. 71
Gambar 3.58 Lakukan git clone ......................................................... 71
Gambar 3.59 Download Hue Selesai ................................................. 72
Gambar 3.60 Install library development packages dan tools ........... 72
xi
Gambar 3.61 Install library development packages dan tools, selesai
............................................................................................................ 73
Gambar 3.62 Masuk ke hduser .......................................................... 73
Gambar 3.63 Error ketika make apps Hue ke-1 ................................. 74
Gambar 3.64 Update beberapa komponen ........................................ 74
Gambar 3.65 Error ketika make apps Hue ke-2 ................................. 75
Gambar 3.66 Install Hue, selesai. :D .................................................. 76
Gambar 3.67 Jalankan Server Hue .................................................... 76
Gambar 3.68 Starting pada http://127.0.0.1:8000 .............................. 77
Gambar 3.69 Set Username dan Password....................................... 77
Gambar 3.70 Tampilan Hue ke-1 ....................................................... 78
Gambar 3.71 Tampilan Hue ke-2 ....................................................... 78
Gambar 3.72 Load HDFS dari Hue .................................................... 79
Gambar 3.73 Solusi ke-1 Error pada Hue .......................................... 79
Gambar 3.74 Solusi ke-2 Error pada Hue .......................................... 80
Gambar 3.75 Setting file “hdfs-site.xml” ............................................. 81
Gambar 3.76 Setting file “core-site.xml” ............................................. 82
Gambar 3.77 Edit file “hue.ini” Part 1 of 7 .......................................... 83
Gambar 3.78 Edit file “hue.ini” Part 2 of 7 .......................................... 84
Gambar 3.79 Edit file “hue.ini” Part 3 of 7 .......................................... 85
Gambar 3.80 Edit file “hue.ini” Part 4 of 7 .......................................... 86
Gambar 3.81 Edit file “hue.ini” Part 5 of 7 .......................................... 86
Gambar 3.82 Edit file “hue.ini” Part 6 of 7 .......................................... 87
Gambar 3.83 Edit file “hue.ini” Part 7 of 7 .......................................... 87
Gambar 3.84 Jalankan lagi Hadoop ................................................... 88
Gambar 3.85 Jalankan lagi Hue ......................................................... 89
Gambar 3.86 Buka Hue di Web Browser ........................................... 89
Gambar 3.87 Buka Hue di Web Browser 1 ........................................ 90
Gambar 3.88 Buka Hue di Web Browser 2 ........................................ 91
Gambar 3.89 Buka Hue di Web Browser 3 ........................................ 92
Gambar 3.90 Buka Hue di Web Browser 4 ........................................ 92
Gambar 3.91 About Spark .................................................................. 93
xii
Gambar 3.92 Spark dan Tool lainnya................................................. 93
Gambar 3.93 Spark dan Bahasa Pemrograman ................................ 94
Gambar 3.94 Cek versi Linux ............................................................. 94
Gambar 3.95 Cek Hadoop Version dan Run Hadoop ........................ 95
Gambar 3.96 Download Spark ........................................................... 95
Gambar 3.97 Hasil download Spark................................................... 95
Gambar 3.98 Cek Java Version ......................................................... 96
Gambar 3.99 Tekan enter, tunggu sampai selesai ............................ 96
Gambar 3.100 Tekan enter, tunggu sampai selesai .......................... 97
Gambar 3.101 Instalasi Spark selesai :D ........................................... 97
Gambar 3.102 - Set PATH Spark ................................................. 98
Gambar 3.103 Install java terbaru part 1 ............................................ 98
Gambar 3.104 Install java terbaru part 2 ............................................ 98
Gambar 3.105 Install java terbaru part 2 ............................................ 99
Gambar 3.106 Install java terbaru part 4 ............................................ 99
Gambar 3.107 Install java terbaru part 4 (lanj. 1) ............................... 99
Gambar 3.108 Install java terbaru part 4 (lanj. 2) ............................. 100
Gambar 3.109 Install java terbaru Selesai ....................................... 100
Gambar 3.110 Cek java version sudah terupdate ............................ 101
Gambar 3.111 Update “sudo gedit ~/.bashrc” .................................. 101
Gambar 3.112 Restart Hadoop ........................................................ 102
Gambar 3.113 install python-pip ...................................................... 102
Gambar 3.114 Cek python –version................................................. 104
Gambar 3.115 Install Anaconda ....................................................... 104
Gambar 3.116 Tekan spasi, ketik yes, tekan enter .......................... 105
Gambar 3.117 set folder instalasinya ............................................... 105
Gambar 3.118 Ketik yes (untuk set PATH di /home/hduser/.bashrc)
.......................................................................................................... 106
Gambar 3.119 Install Anaconda (Done) ........................................... 106
Gambar 3.120 Set PATH Anaconda ................................................ 107
Gambar 3.121 Cek python –version................................................. 108
Gambar 3.122 Spark sudah aktif ...................................................... 108
xiii
Gambar 3.123 Spark di web ............................................................. 109
Gambar 3.124 Koding scala sederhana pada Spark ....................... 110
Gambar 3.125 Demo: WordCount (ScalaSpark) ke-1 ...................... 110
Gambar 3.126 Demo: WordCount (ScalaSpark) ke-2 ...................... 111
Gambar 3.127 Demo: WordCount (ScalaSpark) ke-3 ...................... 111
Gambar 3.128 Demo: WordCount (ScalaSpark) ke-4 ...................... 112
Gambar 3.129 Demo: WordCount (ScalaSpark) ke-5 ...................... 112
Gambar 3.130 Demo: WordCount (ScalaSpark) ke-6 ...................... 113
Gambar 3.131 Demo: WordCount (ScalaSpark) ke-7 ...................... 113
Gambar 3.132 cek JPS .................................................................... 113
Gambar 3.133 Hadoop sudah jalan ................................................. 114
Gambar 3.134 Tampilan hadoop di Web ......................................... 114
Gambar 3.135 Browse the file system ............................................. 114
Gambar 3.136 Buat folder di hadoop melalui Terminal.................... 115
Gambar 3.137 Cek isi dari “/user/hduser” ........................................ 115
Gambar 3.138 CopyFromLocal file *.txt to hdfs ............................... 115
Gambar 3.139 Scala: load data input dari hdfs ................................ 116
Gambar 3.140 Lihat di web hasil output Spark ................................ 117
Gambar 3.141 Tampilan di web ....................................................... 117
Gambar 3.142 PySpark sudah aktif ................................................. 118
Gambar 3.143 Python pada Spark ................................................... 118
Gambar 3.144 PySpark counts.collect()........................................... 119
Gambar 3.145 Tampilan di web (Spark) .......................................... 119
Gambar 3.146 koding python sederhana (map) .............................. 120
Gambar 3.147 koding python sederhana (filter) ............................... 121
Gambar 3.148 koding python sederhana (reduce) .......................... 121
Gambar 3.149 koding python sederhana (lambda) .......................... 122
Gambar 3.150 koding python sederhana (lambda): Latihan ............ 123
Gambar 3.151 koding python sederhana (flatmap) .......................... 124
Gambar 3.152 run pyspark part 1 .................................................... 125
Gambar 3.153 run pyspark part 2 .................................................... 126
xiv
Gambar 3.154 run pyspark part 3 .................................................... 126
Gambar 3.155 run pyspark part 4 .................................................... 127
Gambar 3.156 run pyspark part 5 .................................................... 128
Gambar 3.157 run pyspark part 6 .................................................... 128
Gambar 3.158 run pyspark part 7 .................................................... 129
Gambar 3.159 run pyspark part 8 .................................................... 129
Gambar 3.160 run pyspark part 9 .................................................... 129
Gambar 3.161 Hasil k-means clustering .......................................... 130
Gambar 3.162 Apache Mahout ........................................................ 132
Gambar 3.163 Recommender Engines ............................................ 132
Gambar 3.164 User-User, Item-Item, atau diantara keduanya ........ 133
Gambar 3.165 Tanimoto Coefficient ................................................ 133
Gambar 3.166 Cosine Coefficient .................................................... 133
Gambar 3.167 JVM Process Status Tool (jps) ................................. 134
Gambar 3.168 Cek Hadoop Version ................................................ 134
Gambar 3.169 Buka web Apache Mahout ....................................... 135
Gambar 3.170 Download Mahout .................................................... 135
Gambar 3.171 Hasil Download Mahout ........................................... 136
Gambar 3.172 Extract Mahout ......................................................... 136
Gambar 3.173 Buat folder “mahout”................................................. 137
Gambar 3.174 Instalasi Mahout Selesai :D ...................................... 137
Gambar 3.175 Cek Owner dan Nama Group “/usr/local/mahout” .... 138
Gambar 3.176 ubah Owner dan Nama Group “/usr/local/mahout” .. 138
Gambar 3.177 Update “sudo gedit ~/.bashrc” .................................. 139
Gambar 3.178 Restart “~/.bashrc” lalu Restart Hadoop................... 139
Gambar 3.179 Persiapan Install Hadoop di Windows ke-1.............. 140
Gambar 3.180 Ekstraks file “bin-master.zip” .................................... 143
Gambar 3.181 Masuk ke Control Panel ........................................... 143
Gambar 3.182 Set JAVA_HOME ..................................................... 144
Gambar 3.183 Edit file “hadoop-env.cmd” ....................................... 144
Gambar 3.184 Edit file “core-site.xml” .............................................. 145
xv
Gambar 3.185 Hasil edit file “hdfs-site.xml” ..................................... 146
Gambar 3.186 Buat folder namenode dan datanode ....................... 146
Gambar 3.187 Hasil edit file “mapred-site.xml.template” ................. 147
Gambar 3.188 Pilih Advanced system settings ................................ 149
Gambar 3.189 Ketik HADOOP_HOME ................................................ 149
Gambar 3.190 Pada Variable “Path” klik Edit.. .................................... 150
Gambar 3.191 Tambahkan bin hadoop pada Path .......................... 150
Gambar 3.192 Cek hadoop version di CMD .................................... 151
Gambar 3.193 Hasil format namenode ............................................ 151
Gambar 3.194 Hasil start-all.cmd ..................................................... 152
Gambar 3.195 Hasil localhost:50070 ke-1 ....................................... 153
Gambar 3.196 Hasil Hasil localhost:50070 ke-2 .............................. 153
Gambar 3.197 Hasil “http://localhost:8088” ...................................... 153
Gambar 3.198 Download syncfusion ............................................... 154
Gambar 3.199 Hasil klik “Proceed to the …” .................................... 155
Gambar 3.200 Klik “Download link ..” ............................................... 155
Gambar 3.201 Install “syncfusionbigdataplatform.exe” .................... 155
Gambar 3.202 Hasil klik Install ......................................................... 156
Gambar 3.203 Hasil klik Finish ......................................................... 156
Gambar 3.204 Hasil klik Launch Studio ........................................... 157
Gambar 3.205 Klik OK...................................................................... 157
Gambar 3.206 Syncfusion Big Data Agent dan Remote Agent ....... 157
Gambar 3.207 Big Data Platform (1 of 4) ......................................... 158
Gambar 3.208 Big Data Platform (2 of 4) ......................................... 158
Gambar 3.209 Big Data Platform (3 of 4) ......................................... 159
Gambar 3.210 Big Data Platform (4 of 4) ......................................... 159
Gambar 3.211 Hasil Install “syncfusionbigdatacluster.exe” ............. 160
Gambar 3.212 Download Eclipse ..................................................... 161
Gambar 3.213 Klik Install ................................................................. 161
Gambar 3.214 Tunggu beberapa Waktu .......................................... 162
Gambar 3.215 Klik Launch, untuk jalankan Eclipse ......................... 162
xvi
Gambar 3.216 Klik Launch ............................................................... 163
Gambar 3.217 Tunggu beberapa waktu........................................... 163
Gambar 3.218 Eclipse siap digunakan............................................. 164
Gambar 3.219 Hasil “bin\hdfs dfs -mkdir /user”................................ 164
Gambar 3.220 Hasil “bin\hdfs dfs -mkdir /user/hduser” ................... 165
Gambar 3.221 Hasil di HDFS (browser)........................................... 167
Gambar 3.222 Setting koding NB Hadoop ....................................... 167
Gambar 3.223 Hasil run koding NB Hadoop .................................... 168
Gambar 3.224 Set bin Spark ............................................................ 172
Gambar 4.1 Running Java Process ................................................. 175
Gambar 4.2 Setting PC Master + (PC Node1, Node2, Node3): ............... 176
Gambar 4.3 nidos@master:~$ sudo gedit /etc/hostname .................... 179
Gambar 4.4 nidos@master:~$ sudo gedit /etc/hosts ........................... 179
Gambar 4.5 Tampilan Menu ............................................................. 180
Gambar 4.6 Tampilan Menu Edit ..................................................... 180
Gambar 4.7 Tampilan Connection Information ................................ 181
Gambar 4.8 Tampilan Menu ............................................................. 181
Gambar 4.9 Tampilan Edit Pada Gateway dan DNS Server ........... 181
Gambar 4.10 Hasil nidos@master:~$ sudo gedit /etc/hosts ................ 182
Gambar 4.11 Tampilan Edit Method Menjadi Manual ...................... 182
Gambar 4.12 Hasil nidos@master:~$ sudo gedit
/usr/local/hadoop/etc/hadoop/masters ............................................... 183
Gambar 4.13 Hasil nidos@master:~$ sudo gedit
/usr/local/hadoop/etc/hadoop/slaves .................................................. 184
Gambar 4.14 Clone PC Master ........................................................ 186
Gambar 4.15 Setting PC Master ...................................................... 186
Gambar 4.16 Setting PC Node1, Node2 dan Node3:............................ 186
Gambar 4.17 Tampilan Lihat IP Master ........................................... 187
Gambar 4.18 Setting IP PC Node 1 ................................................. 187
Gambar 4.19 Setting IP PC Node 2 ................................................. 187
Gambar 4.20 Setting IP PC Node 3 ................................................. 188
xvii
Gambar 4.21 Tampilan nidos@node1:~$ sudo gedit
/usr/local/hadoop/etc/hadoop/masters ............................................... 189
Gambar 4.22 Tampilan nidos@node1:~$ sudo gedit
/usr/local/hadoop/etc/hadoop/slaves .................................................. 190
Gambar 4.23 Tampilan Ubah Setting Network pada Virtual Box ..... 196
Gambar 4.24 Tampilan pada Adapter 1 ........................................... 196
Gambar 4.25 Tampilan Call SSH ..................................................... 197
Gambar 4.26 Tampilan Call SSH ..................................................... 198
Gambar 4.27 Format Namenode dari PC Master ............................ 199
Gambar 4.28 Tampilan star start-dfs.sh ............................................ 200
Gambar 4.29 Tampilan Start-yarn.sh ............................................... 200
Gambar 4.30 Tampilan http://localhost:50070 di Firefox .................... 201
Gambar 4.31 Tampilan Datanode Information di Firefox ................. 201
Gambar 4.32 Tampilan http://localhost:50090/status.html di Firefox .. 202
Gambar 4.33 Tampilan http://localhost:8088/cluster di Firefox .......... 202
Gambar 4.34 Tampilan Nodes Of the Cluster pada Firefox ............. 202
Gambar 4.35 Setting IP Windows ke-1 ................................................ 204
Gambar 4.36 Setting IP PC Master ...................................................... 204
Gambar 4.37 Setting IP PC Slave......................................................... 205
Gambar 4.38 Pilih NAT ...................................................................... 205
Gambar 4.39 Pilih PCI (Master) .......................................................... 206
Gambar 4.40 Pilih PCI (Slave) ............................................................. 206
Gambar 4.41 Ketik sudo .. (Master) .................................................... 207
Gambar 4.42 Ketik sudo .. (Slave) ....................................................... 207
Gambar 4.43 Ketik sudo ifdown eth1 .................................................. 208
Gambar 4.44 Ketik sudo nano /etc/hostname ..................................... 208
Gambar 4.45 Ketik sudo nano /etc/hosts ............................................ 208
Gambar 4.46 Ketik sudo nano /etc/hostname ..................................... 209
Gambar 4.47 Ketik sudo nano /etc/hosts ............................................ 209
Gambar 4.48 Cek Koneksi ke PC Slave ................................................. 209
Gambar 4.49 Cek Koneksi ke PC Master .............................................. 209
xviii
Gambar 4.50 Ketik “sudo nano /usr/local/hadoop/etc/hadoop/masters”
.......................................................................................................... 210
Gambar 4.51 Ketik “sudo nano /usr/local/hadoop/etc/hadoop/slaves” 210
Gambar 4.52 Ketik sudo nano /usr/local/hadoop/etc/hadoop/hdfs-site.xml
.......................................................................................................... 210
Gambar 4.53 Ketik sudo nano /usr/local/hadoop/etc/hadoop/hdfs-site.xml
.......................................................................................................... 211
Gambar 4.54 Ketik sudo nano /usr/local/hadoop/etc/hadoop/core-site.xml
.......................................................................................................... 212
Gambar 4.55 Ketik sudo nano /usr/local/hadoop/etc/hadoop/mapred-
site.xml .............................................................................................. 212
Gambar 4.56 Buat namenode ............................................................ 213
Gambar 4.57 Buat datanode .............................................................. 213
Gambar 4.58 Call SSH dari PC Master ................................................. 214
Gambar 4.59 Call SSH dari PC Slave .................................................... 214
Gambar 4.60 Ketik hdfs namenode -format ........................................ 214
Gambar 4.61 Ketik start-all.sh ............................................................ 215
Gambar 4.62 JPS pada Master dan Slave ............................................. 215
Gambar 4.63 Cek datanode ............................................................... 215
Gambar 4.64 Copy File ...................................................................... 216
Gambar 4.65 bin hadoop ................................................................... 216
Gambar 4.66 bin hdfs ........................................................................ 216
Gambar 4.67 Cek pada PC Slave ......................................................... 216
Gambar 4.68 Cek pada PC Master ...................................................... 217
Gambar 4.69 Tampilan Dokumen Uji ............................................... 217
Gambar 4.70 Tampilan File wordcount.java..................................... 220
Gambar 4.71 Tampilan WordCount.Java dalam folder .................... 221
Gambar 4.72 Hasil nidos@master:/usr/local/hadoop$ jar cf wc.jar
WordCount*.class ............................................................................... 221
Gambar 4.73 Tampilan nidos@master:/usr/local/hadoop$ bin/hdfs dfs -
cat /user/nidos/wordcount/output/part* ............................................. 222
Gambar 4.74 Browse Directory pada Forefox .................................. 223
Gambar 4.75 Browse Directory pada Firefox ................................... 223
xix
Gambar 4.76 File Information Pada Firefox ..................................... 224
Gambar 4.77 File *.java dari Algoritma
Naive_Bayes_Classifier_MapReduce ..................................................... 225
Gambar 4.78 Folder /usr/local/hadoop ............................................. 226
Gambar 4.79 File *.java .................................................................... 227
Gambar 4.80 File *.java pada Folder Hadoop .................................. 227
Gambar 4.81 File *.class pada Folder Hadoop ................................ 228
Gambar 4.82 Hasill 1 of 2 ................................................................. 229
Gambar 4.83 Hasil 2 of 2.................................................................. 229
Gambar 4.84 NBbyArgument pada Eclipse ..................................... 230
Gambar 4.85 Running “NBbyArgument” ke-1 .................................. 231
Gambar 4.86 Running “NBbyArgument” ke-2 .................................. 231
Gambar 4.87 Running “NBbyArgument” ke-3 .................................. 232
Gambar 4.88 Running “NBbyArgument” ke-4 .................................. 232
Gambar 4.89 Running “NBbyArgument” ke-5 .................................. 233
Gambar 4.90 Running “NBbyArgument” ke-6 .................................. 233
Gambar 4.91 Running “NBbyArgument” ke-7 .................................. 234
Gambar 4.92 Running “NBbyArgument” ke-8 .................................. 234
Gambar 4.93 Running “NBtanpaArgument” ke-1 ............................. 235
Gambar 4.94 Running “NBtanpaArgument” ke-2 ............................. 235
Gambar 4.95 Running “NBtanpaArgument” ke-3 ............................. 236
Gambar 4.96 Running “NBtanpaArgument” ke-4 ............................. 236
Gambar 4.97 File *.java dari Algoritma K-Means ............................. 237
Gambar 4.98 Folder Com ................................................................. 237
Gambar 4.99 File *.class .................................................................. 238
Gambar 4.100 File KMeans.jar ........................................................ 238
Gambar 4.101 Hasil 1 of 2................................................................ 239
Gambar 4.102 Folder mapreduce dan model .................................. 239
Gambar 4.103 Folder com dalam folder hadoop ............................. 240
Gambar 4.104 File *.class ................................................................ 240
Gambar 4.105 File KMeans.jar ........................................................ 241
Gambar 4.106 Hasil 1 of 2................................................................ 241
xx
Gambar 4.107 Hasil 2 of 2................................................................ 242
Gambar 5.1 Konsep Hierarchical Clustering .................................... 244
Gambar 5.2 Konsep Non-Hierarchical Clustering ............................ 245
Gambar 5.3 K-Means ....................................................................... 249
Gambar 5.4 Kernel K-Means ............................................................ 249
Gambar 5.5 Visualisasi Hasil Mapping Data Kernel K-means ......... 188
Gambar 5.6 Visualisasi Data 2 Dimensi ........................................... 189
Gambar 5.7 Visualisasi data hasil update anggota cluster iterasi 1 195
Gambar 6.1 Visualisasi Hasil Peramalan Iterasi SVR 100000......... 197
Gambar 6.2 Regresi ......................................................................... 199
Gambar 6.3 Arsitektur ELM .............................................................. 200
Gambar 6.4 Training Algoritma ELM ................................................ 201
Gambar 6.5 Training ELM dengan Bias ........................................... 201
Gambar 6.6 Arsitektur Artificial Neural Network Backpropagation... 202
Gambar 7.1 Gambaran Perbedaan Klasifikasi dan Regresi ............ 208
Gambar 7.2 Contoh Regresi............................................................. 208
Gambar 7.3 Contoh Klasifikasi ......................................................... 209
Gambar 7.4 Linear Clasifier.............................................................. 209
Gambar 7.5 Non-Linear Clasifier ...................................................... 209
Gambar 7.6 Ilustrasi SVM Linear ..................................................... 211
Gambar 7.7 SVM Non-Linear ........................................................... 212
Gambar 7.8 Gambaran SVM dengan Slack Variable ...................... 212
Gambar 7.9 Contoh Klasifikasi dengan Metode One-Against-All .... 218
Gambar 7.10 Klasifikasi One-Against-One untuk 4 Kelas ............... 219
Gambar 7.11 Ilustrasi Klasifikasi dengan BDTSVM ......................... 220
Gambar 7.12 Ilustrasi Klasifikasi dengan metode DAGSVM ........... 221
Gambar 8.1 Get Eclipse OXYGEN ................................................... 223
Gambar 8.2 Bahasa Java/ Scala/ Python/ R .................................... 223
Gambar 8.5 Copy paste file *.vdi ...................................................... 364
Gambar 8.6 Buka cmd as administrator ........................................... 364
Gambar 8.7 Ketikkan “cd C:\Program Files\Oracle\VirtualBox” ....... 365
xxi
Gambar 8.8 Lalu ketikkan “vboxmanage sethduuid” ........................ 365
Gambar 8.9 Buka Virtualbox ............................................................ 365
Gambar 8.10 Set Memory size, misal “5000MB” ............................. 366
Gambar 8.11 Pilih “Use an existing virtual hard disk file”................. 366
Gambar 8.12 Virtual Machine siap untuk dijalankan ........................ 367
Gambar 8.13 Jalankan Virtual Machine ........................................... 367
Gambar 8.14 Folder di Window yang akan di-share ........................ 368
Gambar 8.15 Klik Devices Shared Folders.................................. 368
Gambar 8.16 Klik “Adds new shared folder” .................................... 369
Gambar 8.17 Pilih Folder.................................................................. 369
Gambar 8.18 cek “Auto-mount” dan “Make Permanent”, klik OK .... 370
Gambar 8.19 Kik OK ........................................................................ 370
Gambar 8.20 Cek pada Media “sf_File_Share” ........................... 371
Gambar 8.21 set mount dari Terminal ke-1...................................... 371
Gambar 8.22 set mount dari Terminal ke-2 (Fix) ............................. 372
Gambar 8.23 Relational Vs Non-Relational DB ............................... 373
Gambar 8.24 Collection pada NoSQL .............................................. 373
Gambar 8.25 Visual NoSQL System ................................................ 374
Gambar 8.26 Bentuk NoSQL ........................................................... 374
Gambar 8.27 SQL Vs NoSQL .......................................................... 375
Gambar 8.28 Hasil Running Hadoop (Install GUI MongoBD) .......... 378
Gambar 8.29 Tampilan Install GUI MongoDB .................................. 379
Gambar 8.30 Tampilan Install GUI MongoDB .................................. 380
Gambar 8.31 Hasil perintah (http://127.0.0.1:3333/) ........................ 380
Gambar 8.32 Hasil perintah (http://127.0.0.1:3333/) ........................ 381
Gambar 8.33 Perintah (http://127.0.0.1:3333/) test Connection ...... 381
Gambar 8.34 Perintah (http://127.0.0.1:3333/) ................................ 382
Gambar 8.35 Konfigurasi Koneksi (Hadoop + MongoDB) ............... 382
Gambar 8.36 Copy file “mongo-hadoop-core-2.0.1.jar” ....................... 383
Gambar 8.37 file “mongo-java-driver” ................................................ 383
xxii
Gambar 8.38 copy file jars (“mongo-hadoop-core-2.0.1.jar” dan
“mongo-java-driver-3.4.0.jar”) ke dir. lib pada tiap di hadoop cluster
.......................................................................................................... 386
Gambar 8.39 Buat DB “testmr” ......................................................... 386
Gambar 8.40 Tampilan Add Collection ............................................ 387
Gambar 8.41 Import file “*.json” as collection pada DB “testmr” ke
collection “in” ..................................................................................... 387
Gambar 8.42 Text Input.................................................................... 388
Gambar 8.43 Import Document Untuk file “in.json” tidak standar
Mongo ............................................................................................... 389
Gambar 8.44 Import Document Untuk file “in.json” tidak standar
Mongo ............................................................................................... 389
Gambar 8.45 file in_standard.json standar Mongo .......................... 390
Gambar 8.46 in_standard.json standar Mongo (Klik Open) .............. 390
Gambar 8.47 Import Document ........................................................ 391
Gambar 8.48 Hasil dari Klik Import .................................................. 391
Gambar 8.49 file “WordCountMongo.java”: ........................................ 394
Gambar 8.50 Hasil: nidos@master:/usr/local/hadoop$ bin/hdfs
com.sun.tools.javac.Main WordCountMongo.java ................................. 396
Gambar 8.51 Hasil: nidos@master:/usr/local/hadoop$ jar cf wcmongo.jar
WordCountMongo*.class .................................................................... 396
Gambar 8.52 Running perhitungan kata dari file dalam MongoDB . 397
Gambar 8.53 Hasil MongoDB .......................................................... 397
Gambar 8.54 Browse Directory ........................................................ 398
Gambar 8.55 Browse Directory ........................................................ 398
Gambar 8.56 File Information di Browser......................................... 398
Gambar 8.57 List dataset ................................................................... 399
Gambar 8.58 List dataset (dari MovieLens) ......................................... 400
Gambar 8.59 Tampilan Browse Directory ........................................ 400
Gambar 8.60 Add database “ratemovie” pada MongoDB ..................... 401
Gambar 8.61 Add database “ratemovie” pada MongoDB ..................... 401
Gambar 8.62 List File*.java untuk di Compile ke *.jar ...................... 402
Gambar 8.63 file comratingbymovies ............................................... 407
xxiii
Gambar 8.64 Compile Semua file *.java ke *.jar .............................. 407
Gambar 8.65 Hasil: nidos@master:/usr/local/hadoop$ jar cf ratemovie.jar
comratingbymovies/nidos/*.class ........................................................ 408
Gambar 8.66 Hasil: nidos@master:/usr/local/hadoop$ jar cf ratemovie.jar
comratingbymovies/nidos/*.class ........................................................ 408
Gambar 8.67 Hasil Running proses perhitungan rating movie .............. 409
Gambar 8.68 Running proses perhitungan rating movie out2 ............... 410
Gambar 8.69 Lihat hasil dari MongoDB melalui terminal ...................... 410
Gambar 8.70 Tampilan Browse Directory ........................................ 411
Gambar 8.71 File Information di Browser......................................... 411
Gambar 9.1 Mapreduce.................................................................... 415
Gambar 9.2 Hadoop Multi Node ....................................................... 416
Gambar 9.3 start-all.sh ..................................................................... 420
Gambar 9.4 Membuat Folder ........................................................... 420
Gambar 9.5 Cek Folder .................................................................... 421
Gambar 9.6 Compile semua file Java .............................................. 421
Gambar 9.7 Class Pada Direktori .................................................... 421
Gambar 9.8 File*.jar ......................................................................... 421
Gambar 9.9 Direktori ........................................................................ 422
Gambar 9.10 File Pada Folder Input ................................................ 422
Gambar 9.11 File Pada Localhost .................................................... 422
Gambar 9.12 Folder Output.............................................................. 422
Gambar 9.13 Folder Output.............................................................. 422
Gambar 9.14 Cek Folder .................................................................. 423
Gambar 9.15 Menjalankan Program ................................................ 423
Gambar 9.16 Cek Hasil .................................................................... 423
Gambar 9.17 Arsitektur Single Cluster ............................................. 426
Gambar 9.18 Cara Kerja Mapreduce ............................................... 426
Gambar 9.19 Jalankan hadoop (start-all.sh) .................................... 430
Gambar 9.20 Folder Data Latih dan Data Uji ................................... 431
Gambar 9.21 Proses Klasifikasi ....................................................... 431
Gambar 9.22 Contoh Hasil Klasifikasi .............................................. 431
xxiv
Gambar 9.23 Diagram Alir Clustering K-Means Judul Majalah........ 436
Gambar 9.24 Keluaran dari Proses Run File ................................... 438
Gambar 9.25 Keluaran Proses Run Clustering ................................ 439
xxv
Daftar Source Code
xxvi
Source Code 4.8 Setting PC Master (Node1, Node2, Node 3) ........ 189
Source Code 4.9 Setting PC Master ................................................ 190
Source Code 4.10 Setting PC Master .............................................. 190
Source Code 4.11 Setting PC Master .............................................. 191
Source Code 4.12 Call SSH ............................................................. 192
Source Code 4.13 Cek Status SSH Ok ............................................ 192
Source Code 4.14 Cek Status SSH Error ........................................ 192
Source Code 4.15 Re-install SSH dan Cek Status OK .................... 193
Source Code 4.16 Call SSH untuk Node 2 ...................................... 193
Source Code 4.17 Cek Status SSH Ok ............................................ 194
Source Code 4.18 Cek Status SSH Error ........................................ 194
Source Code 4.19 Re-Install SSH dan Cek Status .......................... 194
Source Code 4.20 Call SSH untuk Node 3 ...................................... 194
Source Code 4.21 Call SSH untuk Node 3 Cont. ............................. 195
Source Code 4.22 Cek Status SSH Ok ............................................ 195
Source Code 4.23 Cek Status SSH Error ........................................ 195
Source Code 4.24 Re-Install SSH dan Cek Status .......................... 195
Source Code 4.25 Solusi untuk error “ssh: connect to host
master/node1/node2/node3 port 22: No route to host” ........................ 196
Source Code 4.26 Call SSH Node 1 dari Master ............................. 197
Source Code 4.27 Call SSH-nya Master dari Node 1 ...................... 198
Source Code 4.28 SSH ID dari PC Master ...................................... 199
Source Code 4.29 Membuat Directories di HDFS ........................... 203
Source Code 4.30 Source Code Membuat Directories di HDFS Cont
.......................................................................................................... 203
Source Code 4.31 Buat File Dokumen Uji........................................ 217
Source Code 4.32 File Wordcount.Java........................................... 218
Source Code 4.33 File *.java Part 1 ................................................. 218
Source Code 4.34 File *.Java Part 2 Cont ....................................... 219
Source Code 4.35 File*.Java Part 2 ................................................. 219
Source Code 4.36 File *.Java Part 2 Cont ....................................... 220
Source Code 4.37 Running Proses Perhitungan Kata ..................... 222
xxvii
Source Code 4.38 Menjalankan JAR untuk wordcount untuk satu file
dalam satu folder .............................................................................. 224
Source Code 4.39 RatingCounterByMovieMongo.java.................... 226
Source Code 4.40 File *.class .......................................................... 227
Source Code 4.41 Membuat file *.class *.jar ................................. 228
Source Code 4.42 Membuat File *.class .......................................... 238
Source Code 4.43 Membuat File *.class .......................................... 240
Source Code 4.44 Perintah Membuat file *.class *.jar ................... 241
Source Code 8.1 Contoh Document BSON ..................................... 376
Source Code 8.2 Contoh Penggunaan BSON ................................. 376
Source Code 8.3 Contoh Penggunaan BSON ................................. 376
Source Code 8.4 Install MongoBD untuk simpan file hasil running
kode program di Hadoop .................................................................. 377
Source Code 8.5 Running Hadoop (Install GUI MongoDB) ............. 378
Source Code 8.6 Running Hadoop (Install GUI MongoDB) ............. 378
Source Code 8.7 Running Hadoop (Install GUI MongoDB) Cont .... 379
Source Code 8.8 Install GUI MongoDB Cont .................................. 379
Source Code 8.9 perintah (http://127.0.0.1:3333/) ........................... 381
Source Code 8.10 Konfigurasi Koneksi (Hadoop + MongoDB) ....... 382
Source Code 8.11 copy file jars (“mongo-hadoop-core-2.0.1.jar” dan
“mongo-java-driver-3.4.0.jar”) ke directory lib pada setiap di hadoop
cluster ............................................................................................... 384
Source Code 8.12 copy file jars (“mongo-hadoop-core-2.0.1.jar” dan
“mongo-java-driver-3.4.0.jar”) ke directory lib pada setiap di hadoop
cluster Cont ...................................................................................... 385
Source Code 8.13 in.json tidak standar Mongo ........... 387
Source Code 8.14 in_standard.json standar Mongo ..... 388
Source Code 8.15 File WordCountMongo.java Part 1 of 2 .................. 392
Source Code 8.16 File WordCountMongo.java Part 2 of 2 .................. 393
Source Code 8.17 Compile ke *.jar file WordCountMongo.java ........ 394
Source Code 8.18 Compile ke *.jar file WordCountMongo.java ........ 395
Source Code 8.19 Running proses perhitungan kata dalam file dokumen
dalam MongoDB ................................................................................. 397
xxviii
Source Code 8.20 Membuat Directories “ratemovie/dataset” di HDFS. 399
Source Code 8.21 Copy Semua File Dataset dari Local Folder ...... 400
Source Code 8.22 file (MovieMapper.java Part 1 of 1) ........................ 402
Source Code 8.23 file (MovieReducer.java Part 1 of 2)........................ 403
Source Code 8.24 file (MovieReducer.java Part 2 of 2)........................ 403
Source Code 8.25 file (RatingCounterByMovieMongo.java Part 1 of 2) 404
Source Code 8.26 file (RatingCounterByMovieMongo.java Part 1 of 2) 405
Source Code 8.27 file (RatingCounterByMovieMongo.java Part 2 of 2) 405
Source Code 8.28 file (RatingMapper.java Part 1 of 1) ........................ 406
Source Code 8.29 Compile file ke *.jar ............................................ 406
Source Code 8.30 Compile file *.java ke *.jar .................................. 407
Source Code 8.31 Running proses perhitungan rating movie out1 ....... 409
Source Code 8.32 Running proses perhitungan rating movie out2 ....... 409
Source Code 9.1 Map.java ............................................................... 419
Source Code 9.2 Reduce.java ......................................................... 420
Source Code 9.3 Kode Program 1 ................................................... 428
Source Code 9.4 Kode Program 2 ................................................... 429
Source Code 9.5 KMeansHadoop.java ............................................ 438
Source Code 9.6 Map Reduce ......................................................... 443
xxix
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
1.1 Pengantar
Banyak perdebatan yang signifikan tentang apa itu Big Data dan
apa jenis keterampilan yang diperlukan untuk penggunaan terbaik dari
Big Data tersebut. Banyak yang menulis tentang Big Data dan
kebutuhan untuk analisis yang canggih dalam industri, akademisi, dan
pemerintah, maupun lainnya. Ketersediaan sumber data baru dan
munculnya peluang analitis yang lebih kompleks telah menciptakan
kebutuhan untuk memikirkan kembali arsitektur data yang ada untuk
memungkinkan analisis yang dapat dengan optimal memanfaatkan Big
Data.
Bab ini menjelaskan beberapa konsep utama Big Data, mengapa
analisis canggih diperlukan, perbedaan Data Science vs Business
Intelligence (BI), dan apa peran baru yang diperlukan untuk ekosistem
Big Data. Berikut berbagai perkembangan data dan munculnya sumber
data yang besar dari tahun ke tahun yang ditunjukan oleh Gambar 1.1
berikut:
1
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
2
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
3
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
4
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
5
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
6
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
2. Velocity
Velocity adalah Kecepatan data yang masuk (per jam, per
detik, etc). Clickstreams (web log) dan transfer data asynchronous
yang dapat menangkap apa saja yang dilakukan oleh jutaan atau
lebih pengguna yang lakukan saat ini. Dimana clickstream atau
web log merupakan salah satu sumber data yang menarik. Sebuah
clickstream meliputi suatu rekaman untuk setiap permintaan
halaman dari setiap pengunjung website. Jadi, suatu clickstream
merekam setiap gesture yang dibuat oleh pengunjung dan gesture
ini memiliki potensi untuk memberikan deskripsi mengenai
kebiasaan dari pengunjung yang bersangkutan. Diharapkan bahwa
clickstream akan mengidentifikasi sesi yang berhasil dan tidak
berhasil, menentukan apakah pengunjung puas atau tidak puas,
dan menemukan bagian dari website yang secara efektif menarik
perhatian pengunjung.
37
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
semi terstruktur
tidak terstruktur
6
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Decision
Support Business Analytics
Systems Intelligence
7
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
8
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
9
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
10
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
11
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
12
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
kemudian disusul Tool yang lainnya , hal ini akan memudahkan anda
belajar untuk menjadi sangat ahli dalam bidang Big Data dan Tool-
nya, sehingga setelah mahir, anda akan merasa sangat mudah dalam
membuat Hadoop Distribution secara mandiri.
13
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
2.1 Pengantar
Fakta-fakta terkait dengan kondisi existing Perusahaan:
14
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
15
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
16
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
17
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
diarahkan dan ini adalah titik awal di mana analitik telah dilakukan.
Data pipeline merupakan komponen utama dari Integrasi Data. Data
pipeline mengalirkan dan mengubah data real-time ke layanan yang
memerlukannya, mengotomatiskan pergerakan dan transformasi
data, mengolah data yang berjalan di dalam aplikasi Anda, dan
mentransformasikan semua data yang masuk ke dalam format
standar sehingga bisa digunakan untuk analisis dan visualisasi. Jadi,
Data pipeline adalah rangkaian langkah yang ditempuh oleh data
Anda. Output dari satu langkah dalam proses menjadi input
berikutnya. Langkah-langkah dari Data pipeline dapat mencakup
pembersihan, transformasi, penggabungan, pemodelan dan banyak
lagi, dalam bentuk kombinasi apapun. Tool yang dapat digunakan,
yaitu Apache Sqoop, Apache Storm, Apache Spark, Apache Flink.
Lapisan Penyimpanan Data (Data Storage Layer) - Media
penyimpanan menjadi tantangan utama, saat ukuran data yang
digunakan menjadi sangat besar. Lapisan ini berfokus pada "tempat
menyimpan data yang begitu besar secara efisien". Tool yang dapat
digunakan, yaitu Apache Hadoop (HDFS), Gluster file systems (GFS),
Amazon S3.
Lapisan Query Data (Data Query Layer) - lapisan ini
merupakan tempat berlangsungnya pemrosesan secara analitik yang
sedang dalam keadaaan aktif. Di sini, fokus utamanya adalah
mengumpulkan data value sehingga dapat dibuat lebih bermanfaat
dan mudah digunakan untuk lapisan berikutnya. Tool yang dapat
digunakan, yaitu Apache Hive, Apache (Spark SQL), Amazon Redshift,
Presto.
Lapisan Visualisasi Data (Data Visualization Layer) - Proses
Visualisasi, atau tahapan merepresentasikan data dalam bentuk
visual, kemungkinan ini adalah tingkat yang paling bergengsi, di
mana pengguna data pipeline dapat merasakan hasil laporan yang
mendetail dan mudah dipahami dari data value yang telah
divisualisasikan. Kita membutuhkan sesuatu yang akan menarik
perhatian orang dari visualisasi data, sehigga membuat temuan Anda
mudah dipahami dengan baik oleh mereka melalui visualisasi
tersebut. Tool yang dapat digunakan, yaitu “Tableau, Kibana”
sebagai Real-Time Dashboards, “Angular.js” sebagai Intelligence
Agents misalnya agen dapat mengingat hal-hal yang mungkin Anda
sudah lupa, dengan cerdas meringkas data yang kompleks, belajar
dari Anda dan bahkan membuat rekomendasi untuk Anda,
18
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Gambar 2.4 Data Integration Using Apache NiFi dan Apache Kafka
Gambar 2.5 Integrating Apache Spark dan NiFi for Data Lakes
Apache Spark digunakan secara luas untuk pengolahan Big
Data. Spark bisa mengolah data di kedua mode yaitu Pengolahan
Batch Mode dan Streaming Mode. Apache NiFi ke Apache Spark
melakukan transmisi data menggunakan komunikasi situs ke situs.
Dan output port-nya digunakan untuk mempublikasikan data dari
sumbernya (source). Apache Spark adalah mesin pemrosesan data
dalam memori, yang cepat dan ringkas dengan mode pengembangan
API yang elegan dan ekspresif, yang memungkinkan pengguna
melakukan proses secara streaming, menggunakan pembelajaran
mesin (machine learning), atau SQL yang memerlukan akses
berulang-ulang secara cepat terhadap kumpulan data. Dengan Spark
yang berjalan di Apache Hadoop YARN, developer sekarang dapat
membuat aplikasi dengan memanfaatkan kehandalan dari Spark,
untuk memperoleh wawasan, dan memperkaya data sains mereka
19
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
20
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
21
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
22
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
23
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
24
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
25
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
26
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
27
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
28
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Kelemahan HDFS di hadoop versi 1.x adalah jika name node mati.
Maka seluruh cluster tidak bisa digunakan sampai name node baru
dipasang di cluster.
Hadoop versi 2.x ada beberapa jenis node di dalam cluster:
- Lebih dari satu name nodes. Hal ini berfungsi sebagai
implementasi dari High Availability. Hanya ada satu name node
yang berjalan di cluster (aktif) sedangkan yang lain dalam
kondisi pasif. Jika name node yang aktif mati/rusak, maka name
node yang pasif langsung menjadi aktif dan mengambil alih
tugas sebagai name node.
- Secondary name node, checkpoint node dan backup node tidak
lagi diperlukan. Meskipun ketiga jenis node tersebut menjadi
optional, tetapi kebanyakan tidak lagi ada di cluster yang
memakai hadoop versi 2.x. Hal ini karena selain fungsi yang
redundan, juga lebih baik mengalokasikan node untuk membuat
tambahan name node sehingga tingkat High Availability lebih
tinggi.
- Data node tidak ada perubahan yang signifikan di versi hadoop
2.x dari versi sebelumnya.
Meskipun konteks yang kita bicarakan disini adalah dalam cluster,
Hadoop juga bisa dijalankan dalam single node. Dalam single node
maka semua peran diatas berada dalam satu komputer. Biasanya
single node ini digunakan hanya untuk training atau development.
Bukan untuk produksi skala enterprise.
29
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
30
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Gambar 3.5 High Level Arsitektur Hadoop dan The Job Tracker
31
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Slaves
Gambar 3.6 The Job Tracker
Dua Komponen yang terdapat MapReduce, yaitu Job Tracker
dan Task Traker. Job Tracker adalah komponen pada komputer
Master, dan Task Tracker adalah komponen pada komputer Slaves.
Berikut urutan cara kerjanya MR pada komputer “Master” maupun
pada komputer “Slaves”:
1. Client submit “the job” ke “Job Tracker”.
2. “Job Tracker” menanyakan “Name Node”, yang menjadi
lokasi dari data.
3. Setelah mendapatkan replay lokasi data dari "Name Node",
kemudian "Job Tracker" menanyakan masing-masing tugas
"Task Tracker", kemudian meminta untuk menjalankan "the
task" terhadap data yang ada pada masing-masing mereka.
4. Semua hasil pengolahan data oleh "Task Tracker" disimpan
pada beberapa "Data Node" dan "Name Node" diberikan
informasi tentang hal yang sama, yaitu sebagai pengingat
lokasi di node mana data hasil pengolahan tersebut disimpan.
5. "Task Tracker" akan menginformasikan bahwa "the job" telah
diselesaiakan yaitu dengan memberikan informasi dalam
bentuk progress ke "Job Tracker".
6. “Job Tracker” menginformasikan bahwa “the job” telah
selesai dikerjakan kepada Client.
7. Client akan memanggil “Name Node” dan mengambil hasil
pengolahan datanya dari “Name Node” tersebut.
32
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
33
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
34
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
35
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
36
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
37
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import
org.apache.hadoop.mapreduce.lib.input.FileInpu
tFormat;
import
org.apache.hadoop.mapreduce.lib.output.FileOut
putFormat;
public class WordCount {
public static class TokenizerMapper
extends Mapper<Object, Text, Text,
IntWritable> {
private final static IntWritable one =
new IntWritable(1);
private Text word = new Text();
public void map(Object key, Text
value, Context context) throws IOException,
InterruptedException {
StringTokenizer itr = new
StringTokenizer(value.toString());
while (itr.hasMoreTokens()) {
word.set(itr.nextToken());
context.write(word, one);
}
}
}
38
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
job.setCombinerClass(IntSumReducer.class);
job.setReducerClass(IntSumReducer.class);
job.setOutputKeyClass(Text.class);
39
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
job.setOutputValueClass(IntWritable.class);
FileInputFormat.addInputPath(job, new
Path(args[0]));
FileOutputFormat.setOutputPath(job, new
Path(args[1]));
System.exit(job.waitForCompletion(true) ?
0 : 1);
}
}
export HADOOP_CLASSPATH=/usr/lib/jvm/java-7-
openjdk-amd64/lib/tools.jar
Lalu ketikkan
“hduser@Master:/usr/local/hadoop$source
~/.bashrc” atau dengan me-restart PC anda, lalu
coba lalu coba lagi:
hduser@Master:/usr/local/hadoop$ bin/hdfs
com.sun.tools.javac.Main WordCount.java
hduser@Master:/usr/local/hadoop$
Source Code 3.7 Solusi Error: Could not find or load main class
com.sun.tools.javac.Main
40
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
41
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
hduser@Master:/usr/local/hadoop$ bin/hdfs fs -
copyFromLocal /home/nidos/Desktop/data/a.txt
/user/hduser/wordcount/input
Contoh yang benar:
hduser@Master:/usr/local/hadoop$ bin/hdfs dfs
-copyFromLocal /home/nidos/Desktop/data/a.txt
/user/hduser/wordcount/input
Jika error:
hduser@Master:/usr/local/hadoop$ bin/hdfs dfs
-copyFromLocal /home/nidos/Desktop/data/a.txt
/user/hduser/wordcount/input
16/11/20 22:56:34 WARN util.NativeCodeLoader:
Unable to load native-hadoop library for your
platform... using builtin-java classes where
applicable
Source Code 3.8 Solusi Error: Could not find or load main class
fs:
42
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Maka, lakukan
hduser@Master:/usr/local/hadoop$ start-
all.sh
Source Code 3.9 Solusi Error: Could not find or load main class fs:
Cont
Hasil: hduser@Master:/usr/local/hadoop$ bin/hdfs dfs –
copyFromLocal /home/nidos/Desktop/data/a.txt/user/hduser/word
count/input
43
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Source Code 3.12 Source Code Untuk Melihat Isi dari Dokumen
yang Akan Diproses
Membuat folder output:
44
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
45
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
46
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
hduser@Master:/usr/local/hadoop$ bin/hadoop
jar wc.jar WordCount
/user/hduser/wordcount/input/b.txt output
hduser@Master:/usr/local/hadoop$ bin/hdfs dfs -
ls /user/hduser/wordcount/
Found 3 items
47
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
48
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Hasil dari
hduser@Master:/usr/local/hadoop$ bin/hadoop jar wc.jar
WordCount /user/hduser/wordcount/input/b.txt output
Sebaiknya “output’ dibuat menjadi spesifik misal,
“/user/hduser/wordcount/output3”)
Menjalankan JAR untuk wordcount untuk semua file dalam satu
folder (file a.txt dan b.txts):
49
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
50
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
0 1
1 5
17228 2
17351 1
17517 1
17728 2
17855 2
18407 1
3 1
4 1
5 2
7 4
8 1
Data 1
DataNode 1
J 1
Jps 1
Manager 2
Name 2
NameNode 1
Node 4
s 1
NodeManager 1
Resource 1
ResourceManager 1
Secondary 1
SecondaryNameNode 1
p 1
51
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
52
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
53
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
54
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
55
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
56
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
57
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
58
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
59
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
60
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
61
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
62
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
63
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
64
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
65
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
66
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
67
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
68
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Cara kerja Hue Server adalah sebagai aplikasi web yang ada di
antara instalasi Cloudera Distributed Hadoop (CDH) dan browser
Anda. Hue akan berkomunikasi dengan berbagai server dan
berinteraksi dengan komponen CDH.
69
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
70
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Masuk ke Terminal
nidos@Master:~$ sudo apt-get install git
71
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
72
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
73
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
74
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
75
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
76
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
77
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
78
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Jika masih muncul error “Cannot access: /. Note: ..., "hdfs" or part
of HDFS supergroup, "supergroup".” Ketikkan
hduser@Master:~$ sudo gedit
/usr/local/hue/desktop/conf/pseudo-distributed.ini
79
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
80
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
81
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
82
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Kemudian, jika Namenode ada di host lain selain Hue, jangan lupa
update di file “hue.ini” Part 1 of 7:
hduser@Master:~$ sudo gedit
/usr/local/hue/desktop/conf.dist/hue.ini
[hadoop]
[[hdfs_clusters]]
[[[default]]]
# Enter the filesystem uri
fs_defaultfs=hdfs://localhost:8020
# Use WebHdfs/HttpFs as the communication
mechanism.
# Domain should be the NameNode or HttpFs
host.
webhdfs_url=http://localhost:50070/webhdfs/v1
83
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Kemudian, jika Namenode ada di host lain selain Hue, jangan lupa
update di file “hue.ini” Part 2 of 7:
Pada YARN, Resource Manager, secara default sering
diset pada http://localhost:8088
Server ProxyServer dan Job History juga perlu
ditentukan. Kemudian Job Browser akan mengijikan
Anda mendaftar dan terminate aplikasi yang sedang
berjalan dan mendapatkan log mereka.
[hadoop]
[[yarn_clusters]]
[[[default]]]
# Enter the host on which you are running the
ResourceManager
resourcemanager_host=localhost
84
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Kemudian, jika Namenode ada di host lain selain Hue, jangan lupa
update di file “hue.ini” Part 3 of 7:
Pada Hive, kita butuh HiveServer2 yang sedang
berjalan untuk mengirimkan query SQL.
[beeswax]
Catatan:
Jika HiveServer2 berada di komputer lain dan Anda menggunakan
konfigurasi HiveServer2 dengan security dan customized, maka
Anda perlu menyalin hive-site.xml pada mesin Hue juga:
[beeswax]
85
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Kemudian, jika Namenode ada di host lain selain Hue, jangan lupa
update di file “hue.ini” Part 4 of 7:
Pada Impala, perlu menentukan salah satu alamat
Impalad untuk SQL interaktif di aplikasi Impala.
[impala]
[search]
86
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Kemudian, jika Namenode ada di host lain selain Hue, jangan lupa
update di file “hue.ini” Part 6 of 7:
Pada Oozie, Oozie server harus aktif dan berjalan
sebelum submitting atau monitoring workflows.
[liboozie]
[hbase]
87
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
88
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
hduser@Master:/usr/local/hue$ build/env/bin/hue
runserver
89
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
90
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
91
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
92
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
93
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
94
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
95
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
96
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Move hasil ekstrak file *.tgz, ketikkan “mv ....”, misal ke hduser
hduser@Master:/home/nidos/Downloads$ mv spark-2.2.0-
bin-hadoop2.7/ ~/
hduser@Master:/home/nidos/Downloads$ cd
hduser@Master:~$ ls
examples.desktop hadoop-2.7.3.tar.gz spark-2.2.0-
bin-hadoop2.7
hduser@Master:~$
97
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
98
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
99
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
100
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Restart “~/.bashrc”
hduser@Master:~$ source ~/.bashrc
101
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- install python-pip
hduser@Master:~$ sudo apt-get install python-pip
102
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
103
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Install Anaconda:
hduser@Master:/home/nidos/Downloads$ bash
./Anaconda2-4.4.0-Linux-x86_64.sh
104
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
105
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
export SPARK_HOME=/home/hduser/spark-2.2.0-bin-
hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin
export PATH=$PATH:$SPARK_HOME/bin/pyspark
export XDG_RUNTIME_DIR=""
106
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
107
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
108
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
val textFile =
sc.textFile(“/home/nidos/Documents/ScalaSpark/data/p
ancasila.txt”)
val counts = textFile.flatMap(line => line.split("
"))map(word => (word, 1))reduceByKey(_ + _)
109
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Cara counts.collect()
val textFile =
sc.textFile(“/home/nidos/Documents/ScalaSpark/data/p
ancasila.txt”)
val counts = textFile.flatMap(line => line.split("
"))map(word => (word, 1))reduceByKey(_ + _)
scala> counts.collect()
110
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Cara counts.foreach(println)
val textFile =
sc.textFile(“/home/nidos/Documents/ScalaSpark/data/p
ancasila.txt”)
val counts = textFile.flatMap(line => line.split("
"))map(word => (word, 1))reduceByKey(_ + _) scala>
counts.foreach(println)
111
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Cara Copy hasil Count di local filesystem pada user lain, misal di
folder “/home/nidos/Documents/ScalaSpark/hasil” dengan
nama file “outputpancasila.txt”
hduser@Master:~$ sudo cp ~/out/part-00000
/home/nidos/Documents/ScalaSpark/hasil/outputpancasi
la.txt
[sudo] password for hduser:
hduser@Master:~$ sudo chmod 777 -R
/home/nidos/Documents/
hduser@Master:~$
112
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
113
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
114
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
val inputFile =
sc.textFile("hdfs://localhost:9000/user/hduser/wordc
ountScalaSpark/input/pancasila.txt")
val counts = inputFile.flatMap(line => line.split("
"))map(word => (word, 1))reduceByKey(_ + _)
- Lihat di web
http://localhost:50070/explorer.html#/user/hduser/wo
rdcountScalaSpark/output
115
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Tampilan di web
val textFile =
sc.textFile(“/home/nidos/Documents/ScalaSpark/data/p
ancasila.txt”)
val counts = textFile.flatMap(line => line.split("
"))map(word => (word, 1))reduceByKey(_ + _)
116
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- counts.collect()
text_file =
sc.textFile(“/home/nidos/Documents/PySpark/data/Prid
e_and_Prejudice.txt”)
counts = text_file.flatMap(lambda line: line.split(“
“).map(lambda word: (word, 1)).reduceByKey(lambda a,
b: a + b))
117
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Tampilan di web
text_file =
sc.textFile(“/home/nidos/Documents/PySpark/data/Prid
e_and_Prejudice.txt”)
counts = text_file.flatMap(lambda line: line.split(“
“).map(lambda word: (word, 1)).reduceByKey(lambda a,
b: a + b))
118
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
119
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
>>> range(1,5)
[1, 2, 3, 4]
>>> def add(x,y): return x+y
>>> reduce(add,range(1,5))
10
120
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Jawab:
>>> a=[(1,2),(3,4),(5,6)]
>>> map(lambda t:t[1],a)
[2, 4, 6]
>>> reduce(lambda x,y:x+y,map(lambda t:t[1],a))
12
>>> reduce(lambda x,y:x+y,filter(isOdd,map(lambda t:t[0],a)))
9
121
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
122
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
123
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
124
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
125
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
126
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
127
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Hasil
sample_kmeans_data.txt
0 1:0.0 2:0.0 3:0.0
1 1:0.1 2:0.1 3:0.1
2 1:0.2 2:0.2 3:0.2
3 1:9.0 2:9.0 3:9.0
4 1:9.1 2:9.1 3:9.1
5 1:9.2 2:9.2 3:9.2
128
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
# Loads data.
dataset =
spark.read.format("libsvm").load("data/mllib/sample_
kmeans_data.txt")
129
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
130
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
131
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
132
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Masuk ke http://mahout.apache.org/general/downloads.html
133
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
134
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
135
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
136
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Setelah:
export XDG_RUNTIME_DIR=""
Tambahkan:
export MAHOUT_HOME=/usr/local/mahout
export PATH=$PATH:$MAHOUT_HOME/bin
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
137
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Copykan File
“hadoop-2.7.3.tar.gz”
dan
“bin-master.zip” ke
misal, C:/opt
138
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Install GOW:
139
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Close dan open command line (CMD) dan download Master Ha-
doop untuk Windows dari “https://goo.gl/J5rp9f”
Unzip file “hadoop-2.7.3.tar.gz” di folder “C:\opt”
Jalankan di CMD:
C:\Users\Nidos>cd C:\opt
C:\opt\Spark>gzip -d hadoop-2.7.3.tar.gz
Lalu jalankan
“c:\opt>tar xvf hadoop-2.7.3.tar” di
CMD, tunggu beberapa saat sampai
selesai:
140
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Masuk ke Control Panel > Pilih System and Security > Pilih System
> Pilih Advanced system settings, pada System variables, klik
New..
141
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
142
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
menjadi
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
menjadi
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/C:/opt/hadoop-2.7.3/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/C:/opt/hadoop-2.7.3/hdfs/datanode</value>
</property>
</configuration>
143
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
144
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
menjadi
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
menjadi
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-
services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>localhost:8025</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>localhost:8030</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>localhost:8050</value>
</property>
</configuration>
145
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
146
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Masuk ke Control Panel > Pilih System and Security > Pilih System
> Pilih Advanced system settings, pada System variables, klik
New..
147
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Pada Variable “Path”, tambahkan berikut (folder bin dan sbin dari
hadoop anda, misal di “;C:\opt\hadoop-2.7.3\bin;C:\opt\hadoop-
2.7.3\sbin”)
- Konfigurasi Selesai. :D
148
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
149
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
150
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
151
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
152
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Install “syncfusionbigdataplatform.exe”
153
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
154
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Pada Services, cek apakah “Syncfusion Big Data Agent dan Re-
mote Agent” sudah Running, jika belum, klik kanan, klik Start.
155
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
156
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
157
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
158
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Klik Install
159
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
160
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Klik Launch
161
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
162
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
163
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
164
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
165
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
166
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Menghentikan Hadoop:
c:\opt\hadoop-2.7.3>stop-all.cmd
This script is Deprecated. Instead use stop-dfs.cmd and
stop-yarn.cmd
INFO: No tasks running with the specified criteria.
SUCCESS: Sent termination signal to the process with PID
3236. stopping yarn daemons
SUCCESS: Sent termination signal to the process with PID
1556.
SUCCESS: Sent termination signal to the process with PID
3852.
INFO: No tasks running with the specified criteria.
c:\opt\hadoop-2.7.3>jps
7560 Jps
c:\opt\hadoop-2.7.3>
167
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
C:\Users\Nidos\Anaconda2>where python
C:\Users\Nidos\Anaconda2\python.exe
C:\Users\Nidos\Anaconda2>where conda
C:\Users\Nidos\Anaconda2\Scripts\conda.exe
168
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Close dan open command line (CMD) dan download Apache Spark
dari “http://spark.apache.org/downloads.html”.
Buat dir “C:\opt\Spark”
C:\Users\Nidos>mkdir C:\opt\Spark
Lalu jalankan
“C:\opt\Spark>tar xvf spark-2.2.0-
bin-hadoop2.7.tar” di CMD, tunggu
beberapa saat sampai selesai:
169
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Lalu jalankan
“C:\opt\Spark\spark-2.2.0-bin-hadoop2.7\bin>curl -k -L -o
winutils.exe
https://github.com/steveloughran/winutils/blob/master/hadoop-
2.6.0/bin/winutils.exe?raw=true” di CMD, tunggu beberapa saat sampai
selesai.
170
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
171
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
172
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
173
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
174
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
175
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
"
176
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
177
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
178
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
179
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
180
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/ha-
doop_tmp/hdfs/namenode</value>
</property>
</configuration>
181
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
182
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
183
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Lihat IP PC Master:
184
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
185
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
186
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
187
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
188
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
189
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nidos@master:~$ ssh
Lalu tekan tombol Tab
190
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Jika hasil ssh seperti diatas maka solusinya adalah cek status
ssh sebagai berikut:
Solusi (cek status sshOK):
191
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
192
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Jika hasil ssh seperti diatas maka solusinya adalah cek status ssh
sebagai berikut:
Solusi (cek status sshOK):
nidos@master:~$ sudo service ssh status
[sudo] password for nidos:
ssh start/running, process 790
193
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
194
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Coba call lagi ssh-nya node1 dari master, lakukan hal berikut:
195
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nidos@master's password:
Welcome to Ubuntu 14.04.1 LTS (GNU/Linux
3.13.0-32-generic x86_64)
* Documentation: https://help.ubuntu.com/
631 packages can be updated.
331 updates are security updates.
Last login: Sat Dec 3 13:27:54 2016 from
node1
Source Code 4.27 Call SSH-nya Master dari Node 1
nidos@master:~$
Lakukan juga untuk mencoba call ssh-nya node2 dari master
dan call ssh-nya node3 dari master
196
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nidos@master:~$ ssh-copy-id -i
~/.ssh/id_rsa.pub nidos@node1
nidos@master:~$ ssh-copy-id -i
~/.ssh/id_rsa.pub nidos@node2
nidos@master:~$ ssh-copy-id -i
~/.ssh/id_rsa.pub nidos@node3
atau dengan perintah seperti berikut:
nidos@master:~$ ssh-copy-id nidos@node1
nidos@master:~$ ssh-copy-id nidos@node2
nidos@master:~$ ssh-copy-id nidos@node3
197
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
198
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
199
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
200
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nidos@master:~$ cd /usr/local/hadoop
nidos@master:/usr/local/hadoop$
bin/hdfs dfs -mkdir /user
nidos@master:/usr/local/hadoop$
bin/hdfs dfs -mkdir /user/nidos
nidos@master:/usr/local/hadoop$
bin/hdfs dfs -mkdir
/user/nidos/wordcount
nidos@master:/usr/local/hadoop$
bin/hdfs dfs -ls /user/nidos
Found 1 items
201
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
202
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
203
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
204
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
205
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
206
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
207
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
208
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/hadoop_tmp/hdfs/namenode</value>
</property>
</configuration>
<property>
<name>dfsdataenode.data.dir</name>
<value>file:/usr/local/hadoop_tmp/hdfs/datanode</value>
</property>
</configuration>
209
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
<property>
<name>mapred.job.tracker</name>
<value>master:54311</value>
</property>
</configuration>
210
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
211
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
212
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
213
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
214
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
215
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
216
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
217
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
job.setJarByClass(WordCount.class);
job.setMapperClass(TokenizerMapper.class);
job.setCombinerClass(IntSumReducer.class);
job.setReducerClass(IntSumReducer.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class)
;
FileInputFormat.addInputPath(job,
new Path(args[0]));
FileOutputFormat.setOutputPath(job, new
Path(args[1]));
System.exit(job.waitForCompletion(true) ?
0 : 1);
}
}
218
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
219
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
220
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
221
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Source Code 4.38 Menjalankan JAR untuk wordcount untuk satu file
dalam satu folder
222
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
223
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
package comratingbymovies.nidos;
import
org.apache.hadoop.conf.Configuration;
.....
...
public class RatingCounterByMovieMongo
extends Configured implements Tool{
public int run(String[] args) throws
Exception {
....
..
System.exit(res);
}
}
224
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Copy-Paste
225
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
226
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
8. Hasil 1 of 2:
227
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
228
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Running “NBbyArgument”:
Pada NBCDriver.java terdapat “args[0], args[1],
args[2]”
- Running “NBbyArgument”:
Klik Kanan Project “NBbyArgument”, Klik “Run As”,
Klik “RunConfigurations..”
229
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Running “NBbyArgument”:
Pada Java Application, jika belum ada “NB”, bisa
dibuat dengan klik
Buat nama, misal ”NB”, lalu pada “MainClass” isikan
“org.myhadoop.trainings.NBCDriver”
- Running “NBbyArgument”:
Dan pada Tab “Arguments” isikan “Urgent,Yes,Yes
hdfs://localhost:9000/user/hduser/nb/input/1.txt
hdfs://localhost:9000/user/hduser/nb/output2”
230
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Running “NBbyArgument”:
hdfs://localhost:9000/user/hduser/nb/output2”
Jika sudah digunakan, ketika di klik “Run” akan
muncul error seperti berikut:
“Output directory
hdfs://localhost:9000/user/hduser/nb/output2 already
exists”
- Running “NBbyArgument”:
args[2] =
hdfs://localhost:9000/user/hduser/nb/output3
Klik Apply, Klik Run
231
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Running “NBbyArgument”:
args[2] =
hdfs://localhost:9000/user/hduser/nb/output3
Klik Apply, Klik Run, berikut tampilan jika berhasil
dijalankan
- Running “NBbyArgument”:
args[2] =
hdfs://localhost:9000/user/hduser/nb/output3
Klik Apply, Klik Run, berikut tampilan jika berhasil
dijalankan & hasil klasifikasinya
232
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Running “NBtanpaArgument”:
Set “Run Configuration”, klik Apply, klik Run
233
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Running “NBtanpaArgument”:
Hasil “Run Configuration”, klik Apply, klik Run
- Running “NBtanpaArgument”:
Hasil “Run Configuration”, klik Apply, klik Run, dan
hasil klasifikasinya
234
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
235
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nidos@master:/usr/local/hadoop$ bin/hdfs
com.sun.tools.javac.Main com/clustering/map
reduce/*.java com/clustering/model/*.java
nidos@master:/usr/local/hadoop$ jar cf
KMeans.jar com/clustering/mapreduce/*.class
com/clustering/model/*.class
236
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
4. Hasil 1 of 2:
237
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
238
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nidos@master:/usr/local/hadoop$ jar cf
KMeans.jar com/clustering/mapreduce/*.class
com/clustering/model/*.class
9. Hasil 1 of 2:
239
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
240
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
241
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
242
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
243
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
(3.1)
4. Hitung kembali pusat cluster dengan keanggotaan cluster yang
sekarang menggunakan persamaan 3.2 berikut:
1 mi
1 mi
Ci1
mi
x
j 1
j1 ....... Cid
mi
x
j 1
jd
(3.2)
5. Jika pusat cluster tidak berubah lagi maka proses clustering
selesai atau kembali ke langkah nomor 3 sampai pusat cluster
tidak berubah.
K-means adalah algoritma unsupervised learning yang
membagi kumpulan data ke dalam sejumlah cluster (kelompok).
Akan tetapi k-means clustering memiliki kelemahan di dalam
memproses data yang berdimensi banyak khususnya untuk data
yang bersifat non-linierly separable. Sedangkan dalam dunia nyata
saat ini, data yang tersedia atau yang diperoleh memiliki dimensi
yang banyak dan bervariasi. Dalam hal ini, penambahan fungsi kernel
pada input data clustering merupakan pilihan yang baik.
Kita dapat menggunakan beberapa jenis transformasi pada
data, dengan memetakan data pada ruang baru dimana machine
learning dapat digunakan. Fungsi kernel memberikan kepada kita
sebuah alat untuk mendefinisikan transformasi.
1. Kernel Polynomial
k xi , x j xi x j c
d
(3.3)
2. Kernel RBF
x x 2
k xi , x j exp
i j
2 2
(3.4)
Pada umumnya, perluasan dari k-means ke kernel k-means
direalisasi melalui pernyataan jarak dalam bentuk fungsi kernel.
Dengan menggunakan Jarak Euclidean pada tradisional k-means dan
fungsi pemetaan Φ, maka algoritma k-means clustering dapat diubah
menjadi :
1. Tentukan jumlah cluster k.
244
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
( xi ) c~j
n m 2
min uij
i 1 j 1
(3.5)
Keterangan:
c~j merupakan cluster centers dan dihitung dengan
menggunakan rumus :
1
c~j
n
nj
u (x )
i 1
ij i
(3.6)
Sehingga jika dijabarkan persamaan 3.5 menjadi :
2
1 n
min u ( x ) ulj ( xl )
n m
i ij
i 1 j 1
n j l 1
1 n
( xi ) 1 ulj ( xl )
n m
min uij ( xi ) ulj ( xl )
n
n j l 1 n j l 1
i 1 j 1
( xi ) n 1 n
2
n m
min uij ( xi ). ( xi ) 2
ulj ( xl )
ulj ( xl )
n l n l
i 1 j 1
j 1 j 1
1 n 1 n n
ulj K ( xl , x p )
n m
min uij K ( xi , xi ) 2 ulj K ( xl , xi )
2
n l1 n 2 l1 1
i 1 j 1
j
j p
1 n 1 n n
ulj K ( xl , x p )
n m
min uij K ( xi , xi ) 2 ulj K ( xl , xi )
2
n l 1
n l 1 p 1
2
i 1 j 1
j j
Keterangan:
n = Jumlah data.
m = Jumlah cluster.
K = Fungsi kernel.
xi = Titik data ke-i.
xl = Titik data ke-l.
245
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
xp
= Titik data ke-p.
i
= Index untuk keseluruhan data.
j
= Index untuk cluster.
l
= Index untuk data yang terdapat pada cluster ke-i.
p
= Index untuk data yang terdapat pada cluster ke-j.
uij
=Nilai keanggotaan data ke-i terhadap cluster ke-j.
Bernilai 1 apabila merupakan anggota, bernilai 0 jika
bukan merupakan anggota dari cluster yang diproses.
ulj = Nilai keanggotaan data ke-l terhadap cluster ke-j
= Fungsi yang memetakan titik x ke ruang baru yang
berdimensi lebih tinggi.
nj = Banyaknya data pada cluster ke-j.
4. Setelah mendapat jarak titik data terhadap masing-masing
cluster pada langkah 3, jarak terdekat titik data dengan suatu
cluster berarti titik data tersebut termasuk dalam cluster
tersebut.
5. Perhatikan kondisi berhenti, misal jika pusat cluster tidak
berubah lagi maka proses clustering selesai. Atau, kembali ke
langkah nomor 3 sampai pusat cluster tidak berubah.
Kondisi Berhenti (Termination Condition)
Langkah selanjutnya adalah menentukan apakah diperlukan
iterasi selanjutnya atau tidak (stop condition).
a. Jumlah Iterasi Maksimum
b. Fungsi Obyektif dan Threshold
Fungsi obyektif dihitung dan nilai threshold pada sistem ini diperoleh
dari masukan user.
ndata k
F a ji D( x j , Ci )
j 1 i 1
(3.7)
Keterangan:
F = Fungsi Objektif k = Jum. cluster. ndata = Jum. data.
aji = Nilai keanggotaan data ke-j terhadap cluster ke-i.
D(xj,Ci) = Jarak antara titik data ke-j terhadap cluster ke-i.
246
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Keterangan:
Fbaru = Fungsi obyektif dari iterasi ke-i.
Flama = Fungsi obyektif dari iterasi ke-(i-1).
Jika delta ≥ threshold, maka iterasi berlanjut. Jika delta <
threshold, maka iterasi berhenti.
Hasil clustering data 2 dimensi dengan menggunakan k-means
Vs Kernel k-means clustering (Chitta, Radha, Rong Jin, Timothy C. Ha-
vens, dan Anil K. Jain., 2011):
247
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
188
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Misal dengan kernel Polynomial k xi , x j xi x j c
d
189
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nj
u (x )
i 1
ij i
k xi , x j xi x j c
d
Tabel 5.2 xi
Tabel 5.3 ( xi )
2 2
No. X Y Cluster No. X Y Cluster X √2.X.Y Y
1 0.50 0.00 1 1 0.50 0.00 1 0.25 0.00 0.00
. . . . . . . .
97 14.95 -1.27 2 97 14.95 -1.27 2
98 15.00 0.04 1 98 15.00 0.04 1
190
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Setelah diperoleh fungsi pemetaan dari seluruh data pada setiap clus-
ter langkah selanjutnya adalah menghitung centroid cluster dengan
menggunakan persamaan 3.6.
centroid cluster 1 pada iterasi 1:
4312.54 / 49 88.01
~
c1 1.63 / 49 0.03
4240.21 / 49 86.53
centroid cluster 2 pada iterasi 1:
4018.97 / 49 82.02
~
c1 - 1.22 / 49 - 0.02
3859.54 / 49 78.77
a b c
191
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Tabel 5.6 Nilai Kernel data i terhadap semua data cluster 1 iterasi 1
192
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
. . .
48 14.78, -2.57 54.6121
49 15, 0.04 56.25
Total 1078.15
Tabel 5.7 Nilai Kernel Antar Data Pada Cluster j untuk iterasi 1
xl 1 2 3 . . . 49
1 0.06 0.02 0 . . . 56.25
2 0.02 0.06 0.06 . . . 14.19
3 0 0.06 0.06 . . . 3.88
. . . . . . . .
. . . . . . . .
. . . . . . . .
49 56.25 14.19 3.88 . . . 50625.72
193
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Tabel 5.8 Jarak dan alokasi data untuk centroid terdekat iterasi 1
Data X Y Jarak ke C1 Jarak ke C2 K baru K lama
1 0.50 0.00 15190.29 12890.39 2 1
2 0.25 0.43 15190.84 12891.62 2 1
3 0.13 0.48 15190.98 12891.91 2 1
4 -0.25 0.43 15190.86 12891.60 2 1
. . . . . . .
48 14.78 -2.57 26277.54 26687.92 1 1
49 15.00 0.04 26254.64 26647.91 1 1
50 0.48 0.13 15190.35 12890.51 2 2
. . . . . . .
97 14.11 -5.10 26337.65 26811.35 1 2
98 14.95 -1.27 26260.58 26656.34 1 2
Total 1177274.15 1138242.98
194
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
20
15
10
5
0
X
-20 -10 0 10 20
-5
-10
-15
-20
Y
2 6
a. x1 x2
3 3
195
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
1 3
b. x1 4 x2 2
3 4
4. Tentukan hasil perhitungan jarak kuadrat dari data ke-1 dari
Tabel 3.1 terhadap cluster 2, berdasarkan perhitungan ber-
dasarkan persamaan 3.5!
196
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
aktual ramalan
197
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
198
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
No (X) (Y)
1 10 15
2 6 20
3 3 12
4 4 10
b1
n xy - x y
b 0 y b1 x
y - b x 1
n x 2 x
2
n
yˆ b0 b1 x
199
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
4. Hitung Yˆ H .̂
200
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
4. Hitung Yˆ H .̂
201
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
3. Hitung Yˆ H .̂
4. Hitung nilai evaluasi, misal dengan MAPE.
202
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
4 1 1 0 2
5 0 1 0 2
6 0 0 0 2
7 0 1 0 3
8 1 1 0 3
9 0 0 0 3
Diketahui:
N : Banyaknya data training =9
k : Banyaknya dimensi input layer =3
i : Banyaknya dimensi output layer =1
Misal diset,
j : Banyaknya dimensi hidden layer =3
Penyelesaian:
1. Men-generate bobot input (Wj x k) antara input layer dan
hidden layer. Ukuran W adalah [j x k], yang nilainya di-
generate antara [-0.5,0.5].
W=
Hinit =
203
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
̂ H .Y
6. Menghitung Y prediksi
Yˆ H .̂
7. Hitung MAPE
1 N
yˆ i yi
MAPE
N
|
i 1 yi
100 |
204
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
1 N 9 yˆ i yi
MAPE | y 100 |
N 9 i 1 i
30.11
Pada proses training, didapatkan hasil testing menggunakan
data training sendiri masih memiliki error MAPE sebesar 30.11.
2. Misalkan diketahui, data testing sebagai berikut:
Data Training:
Data Testing:
Diketahui,
N : Banyaknya data training =9
k : Banyaknya input layer =3
i : Banyaknya output layer =1
Misal diset,
j : Banyaknya hidden layer =3
Penyelesaian:
1. Hitung matrik inisialisasi output hidden layer (Hinit =
Xtest.WT)
205
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
3. Menghitung Y prediksi
Yˆ H .̂
Diketahui ̂ maka
4. Hitung MAPE
1 N 3 yˆ i yi
MAPE | y 100 | 36.0048
N 3 i 1 i
Rij ( K ( xi , x j ) 2 )
3. Untuk tiap training point lakukan:
Ei yi j 1 ( *j j ) Rij
l
206
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
a a
x1 1 x2 2
b1 b2
Tentukan hasil Φ(x1) dan Φ(x2) dengan menggunakan kernel
Polynomial dengan c = 1 dan d = 2.
2. Pada Studi Kasus Sederhana proses training dengan ELM, jika
diketahui hasil random W adalah sebagai berikut:
207
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
208
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Contoh Klasifikasi:
209
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
210
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
211
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
212
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
1
b [ w x w.x ]
2
1 m m
b i yi xi x i yi xi x
2 i 1 i 1
1 m m
b i yi ( xi ) ( x ) i yi ( xi ) ( x )
2 i 1 i 1
1 m m
b i yi K ( xi , x ) i yi K ( xi , x )
2 i 1 i 1
f ( x) w x b
m
f ( x) i yi xi x b
i 1
m
f ( x) i yi ( xi ) ( x) b
i 1
m
f ( x) i yi K ( xi , x) b
i 1
Dij yi y j ( K ( xi , x j ) 2 )
2. Melakukan iterasi untuk perhitungan:
n
a. Ei j Dij
j 1
213
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Tabel 7.2 𝛼i
𝛼
i
0
0
0
0
0
214
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Dij yi y j ( K ( xi , x j ) 2 )
3.61095 10 -5
D1, 2 1x1 exp 2
4.32 2
2 ( 0.7 )
19.6623631 542
1 1 -1 -1 -1
1 1 1 -1 -1 -1
1 1 1 -1 -1 -1
-1 -1 -1 1 1 1
-1 -1 -1 1 1 1
-1 -1 -1 1 1 1
n
a. Ei j Dij
j 1
i Ei
1 0
2 0
3 0
215
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
4 0
5 0
c. i i i
1 1 1 0 0.00406 0.00406
216
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
1 m m
b i yi K ( xi , x ) i yi K ( xi , x )
2 i 1 i 1
Set nilai x+ dan x- dari masing kelas yang memiliki nilai 𝛼i tertinggi,
yaitu x x1 x x3 dan karena semua nilai 𝛼i > 0, maka
banyaknya support vector (m) = banyak data training, yaitu 5
1 m m
b i yi K ( xi , x ) i yi K ( xi , x )
2 i 1 i 1
1 5 5
b i yi K ( xi , x1 ) i yi K ( xi , x3 )
2 i 1 i 1
5
y K ( x , x ) y K ( x , x ) ..
i 1
i i i 1 1 1 1 1 5 y5 K ( x5 , x1 ) 0.00405952 95
y K ( x , x ) y K ( x , x ) ..
i 1
i i i 3 1 1 1 3 5 y5 K ( x5 , x3 ) 0.00406012 71
1
b - 0.00405952 951339599 -0.0040601 2708165399
2
0.00405982 829752499
217
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
K(xi,xtest1) xtest1
x1 0.999888955584422
x2 0.999908104359568
x3 0.999909913096674
x4 0.999919979151857
x5 0.999928826350961
𝑦𝑖 = 1 𝑦𝑖 = −1 Hipotesis
218
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Pair-wise
Misal
219
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Kelas 2,3,4,7 Kelas 1, 5, 6 𝑓 (2, 3, 4, 7)(1, 5, 6) (𝑥) = (𝑤 (2, 3, 4, 7)(1, 5, 6) )𝑥 + 𝑏 (2, 3, 4, 7)(1, 5, 6)
Kelas 2,3 Kelas 4,7 𝑓 (2, 3)(4,7) (𝑥) = (𝑤 (2, 3)(4,7) )𝑥 + 𝑏 (2, 3)(4,7)
Kelas 1,5 Kelas 6 𝑓 (1, 5)(6) (𝑥) = (𝑤 (1, 5)(6) )𝑥 + 𝑏 (1, 5)(6)
220
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
221
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Data testing:
Kelas Aktual
222
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
223
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Ganti kode
“SparkSession spark =
SparkSession.builder().appName("JavaWordCount")
.getOrCreate();”
Dengan
SparkSession spark =
SparkSession.builder().appName("JavaWordCount").config("spar
k.master", "local[*]")
.getOrCreate();
224
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
225
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
226
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
klik Next
227
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
228
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
229
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Cek FileNew
object HelloScala {
def main(args:Array[String]){
println("Hello my Scala")
}
}
230
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
231
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
klik Next
klik Next
232
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
233
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
234
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Klik Add
235
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Klik Finish
Klik OK
236
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
237
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
238
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
<dependency>
<groupId>org.scala-lang</groupId>
<artifactId>scala-library</artifactId>
<version>2.10.4</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.4.1</version>
</dependency>
239
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Sampai Selesai
240
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
dan muncul error “Error: Could not find or load main class
com.nidos.spark.mysparkexample.WordCount”
Jika masih ada error “Error: Could not find or load main
class com.nidos.spark.mysparkexample.WordCount” maka coba
tambahkan kode berikut “package com.nidos.mysparkexample”,
langsung jalankan tanpa dengan “Scala Application”
241
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Set Argument
“hdfs://localhost:9000/user/hduser/wordcount/input/input3.tx
t”, lalu klik Run
242
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
243
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
244
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
245
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
246
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
247
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
248
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
249
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Klik Browse
Klik Finish
250
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
251
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Dengan
val args = Array.fill(1)("")
val logFile = "README.md" // Should be some file on your system
val conf = new SparkConf()
conf.setAppName("SparkSVM")
conf.setMaster("local[*]")
val sc = new SparkContext(conf)
args(0)="file:///home/nidos/eclipse-workspace/SparkSVM/iris3.txt"
252
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
253
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
254
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Klik Next
255
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
256
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
257
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Ketikkan,
hduser@Master:~$ sudo gedit ~/.bashrc
..
export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export JRE_HOME=/usr/lib/jvm/java-8-oracle/jre
export HADOOP_INSTALL=/usr/local/hadoop
export PATH=$PATH:$HADOOP_INSTALL/bin
export PATH=$PATH:$HADOOP_INSTALL/sbin
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL
export YARN_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib/native"
export HADOOP_CLASSPATH=/usr/lib/jvm/java-8-oracle/lib/tools.jar
export SPARK_HOME=/home/hduser/spark-2.2.0-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin
export PATH=$PATH:$SPARK_HOME/bin/pyspark
export XDG_RUNTIME_DIR=""
export MAHOUT_HOME=/usr/local/mahout
export PATH=$PATH:$MAHOUT_HOME/bin
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
258
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
259
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
260
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
261
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Pilih “/home/hduser/spark-2.2.0-bin-
hadoop2.7/python/lib/py4j-0.10.4-src.zip”, lalu klik OK
File “/home/hduser/spark-2.2.0-bin-
hadoop2.7/python/lib/py4j-0.10.4-src.zip”, berhasil
ditambahkan
262
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Klik Apply
263
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
264
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
265
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
266
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
267
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
268
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
269
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
270
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
271
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
272
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
273
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
274
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
275
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
276
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
277
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
278
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
279
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
280
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
281
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
282
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
283
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
284
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
285
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
286
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
287
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
288
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
289
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
290
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
291
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
292
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
293
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
294
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
295
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
296
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
297
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
298
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
299
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
300
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
301
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
302
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
303
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
304
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
305
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
306
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
307
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
308
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
309
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
310
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
311
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
312
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
313
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
314
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Klik Apply
Klik Finish
315
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
316
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
317
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
318
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
319
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
320
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
321
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
322
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Edit Configuration
323
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
SPARK_HOME=/home/hduser/spark-2.2.0-bin-hadoop2.7
PYTHONPATH=/home/hduser/spark-2.2.0-bin-
hadoop2.7/python/lib/py4j-0.10.4-src.zip:/home/hduser/spark-
2.2.0-bin-hadoop2.7/python
SPARK_HOME=/home/hduser/spark-2.2.0-bin-hadoop2.7
PYTHONPATH=/home/hduser/spark-2.2.0-bin-
hadoop2.7/python/lib/py4j-0.10.4-src.zip:/home/hduser/spark-
2.2.0-bin-hadoop2.7/python
324
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Ketikkan:
hduser@Master:~$ sudo gedit ~/.bashrc
..
export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export JRE_HOME=/usr/lib/jvm/java-8-oracle/jre
export HADOOP_INSTALL=/usr/local/hadoop
export PATH=$PATH:$HADOOP_INSTALL/bin
export PATH=$PATH:$HADOOP_INSTALL/sbin
export HADOOP_MAPRED_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_HOME=$HADOOP_INSTALL
export HADOOP_HDFS_HOME=$HADOOP_INSTALL
export YARN_HOME=$HADOOP_INSTALL
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib/native"
export HADOOP_CLASSPATH=/usr/lib/jvm/java-8-oracle/lib/tools.jar
export SPARK_HOME=/home/hduser/spark-2.2.0-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin
export PATH=$PATH:$SPARK_HOME/bin/pyspark
export XDG_RUNTIME_DIR=""
export MAHOUT_HOME=/usr/local/mahout
export PATH=$PATH:$MAHOUT_HOME/bin
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
325
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
326
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
327
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
328
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
329
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Pada saat koding dijalankan, untuk melakukan proses wordcount maka masukkan file
text sembarang ke alamat /user/hduser/wordcount/input pada hdfs, misal file terebut
adalah “input.txt” dan “input2.txt”, dari link berikut “https://goo.gl/6d7CWQ”
330
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Klik Open
331
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Klik Open
332
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
333
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
334
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
335
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
336
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
337
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
338
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
339
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
340
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
341
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Pilih Theme
342
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Klik Next
343
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
344
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
345
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
346
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
347
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
348
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
349
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Klik Replace
350
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
351
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
352
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
353
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
[error]
[error] unresolved dependency: com.ankurdave#part_2.10;0.1: Resolution failed several times for
dependency: com.ankurdave#part_2.10;0.1 {compile=[default(compile)]}::
[error] public: unable to get resource for com/ankurdave#part_2.10;0.1:
res=https://repo1.maven.org/maven2/com/ankurdave/part_2.10/0.1/part_2.10-0.1.pom:
java.net.UnknownHostException: repo1.maven.org
[error] Spark Packages Repo: unable to get resource for com/ankurdave#part_2.10;0.1:
res=http://dl.bintray.com/spark-packages/maven/com/ankurdave/part_2.10/0.1/part_2.10-0.1.pom:
java.net.UnknownHostException: dl.bintray.com
[error] Repo at github.com/ankurdave/maven-repo: unable to get resource for
com/ankurdave#part_2.10;0.1: res=https://raw.githubusercontent.com/ankurdave/maven-
repo/master/com/ankurdave/part_2.10/0.1/part_2.10-0.1.pom: java.net.UnknownHostException:
raw.githubusercontent.com
[error]
[error] unresolved dependency: org.scalatest#scalatest_2.11;2.2.4: Resolution failed several
times for dependency: org.scalatest#scalatest_2.11;2.2.4 {test=[default(compile)]}::
[error] public: unable to get resource for org/scalatest#scalatest_2.11;2.2.4:
res=https://repo1.maven.org/maven2/org/scalatest/scalatest_2.11/2.2.4/scalatest_2.11-2.2.4.pom:
java.net.UnknownHostException: repo1.maven.org
[error] Spark Packages Repo: unable to get resource for org/scalatest#scalatest_2.11;2.2.4:
res=http://dl.bintray.com/spark-
packages/maven/org/scalatest/scalatest_2.11/2.2.4/scalatest_2.11-2.2.4.pom:
java.net.UnknownHostException: dl.bintray.com
[error] Repo at github.com/ankurdave/maven-repo: unable to get resource for
org/scalatest#scalatest_2.11;2.2.4: res=https://raw.githubusercontent.com/ankurdave/maven-
repo/master/org/scalatest/scalatest_2.11/2.2.4/scalatest_2.11-2.2.4.pom:
java.net.UnknownHostException: raw.githubusercontent.com
[error]
[error] unresolved dependency: org.scalacheck#scalacheck_2.11;1.12.2: Resolution failed several
times for dependency: org.scalacheck#scalacheck_2.11;1.12.2 {test=[default(compile)]}::
[error] public: unable to get resource for org/scalacheck#scalacheck_2.11;1.12.2:
res=https://repo1.maven.org/maven2/org/scalacheck/scalacheck_2.11/1.12.2/scalacheck_2.11-
1.12.2.pom: java.net.UnknownHostException: repo1.maven.org
[error] Spark Packages Repo: unable to get resource for
org/scalacheck#scalacheck_2.11;1.12.2: res=http://dl.bintray.com/spark-
packages/maven/org/scalacheck/scalacheck_2.11/1.12.2/scalacheck_2.11-1.12.2.pom:
java.net.UnknownHostException: dl.bintray.com
[error] Repo at github.com/ankurdave/maven-repo: unable to get resource for
org/scalacheck#scalacheck_2.11;1.12.2: res=https://raw.githubusercontent.com/ankurdave/maven-
repo/master/org/scalacheck/scalacheck_2.11/1.12.2/scalacheck_2.11-1.12.2.pom:
java.net.UnknownHostException: raw.githubusercontent.com
[error] Total time: 9 s, completed Dec 16, 2017 1:27:20 PM</pre><br/>See complete log in <a
href="file:/home/hduser/.IdeaIC2017.2/system/log/sbt.last.log">file:/home/hduser/.IdeaIC2017.2/s
ystem/log/sbt.last.log</a>
354
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
355
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
356
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- args(0), tipe
- args(1), trainingfile: Path of the training set in libsvm
format
- args(2), lambda: Regularization Term
- args(3), sigma: Kernel Parameter
- args(4), iterations: Number of iterations
- args(5), outputfile: log file
- args(6), numfeatures: Number of variables of the dataset
- args(0), tipe
- args(1), trainingfile: Path of the training set in libsvm
format
- args(2), lambda: Regularization Term
- args(3), sigma: Kernel Parameter
- args(4), iterations: Number of iterations
- args(5), outputfile: log file
- args(6), numfeatures: Number of variables of the dataset
- args(7), testingfile: Path of the testing set in libsvm
format
357
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
VALIDATION
file:///home/hduser/ideaProject/MYSVMnBPPGD/iris3.txt
0.8
1.0
10
result.txt
4
358
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
result.txt, berisi:
Training time: 10 Accuracy: 1.0 AUC: 1.0
Training time: 5 Accuracy: 1.0 AUC: 1.0
Training time: 4 Accuracy: 1.0 AUC: 1.0
Training time: 3 Accuracy: 1.0 AUC: 1.0
Training time: 2 Accuracy: 1.0 AUC: 1.0
Mean_Accuracy: 1.0 Mean_AUC: 1.0
359
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Tampilan project
360
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
cat -n /etc/apt/sources.list
ls -la /etc/apt/sources.list.d
tail -v -n +1 /etc/apt/sources.list.d/*
sudo apt-get update
sudo apt-get upgrade
sudo apt-get --reinstall install python3-minimal
[Desktop Entry]
Type=Application
Name=Eclipse
Comment=Eclipse Integrated Development Environment
Icon=/home/hduser/eclipse/jee-
Anda install Eclipse
Exec=/home/hduser/eclipse/jee-
Anda install Eclipse
Terminal=false
Categories=Development;IDE;Java;
StartupWMClass=Eclipse
361
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
*Agar HDFS hduser bisa juga digunakan oleh user lain, misal nidos,
sehingga ketika eclipse dijalankan dari Desktop nidos, hasil data
prosesing dapat disimpan pada HDFS hduser.
362
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
363
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
364
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
365
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Pilih “Use an existing virtual hard disk file” dengan cara klik “O”,
pilih “HadoopSparkMahoutFix.vdi”, klik Open
366
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
367
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
368
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
369
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
- Klik OK
370
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
371
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
372
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
373
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
374
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
375
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
{
"_id": Ob-
jectId('58520a516a2ea8e208cd6c26'),
"name": "Employee One",
"salary": 20000
}
MongoDB:
db.employeedetails.find(
{
$or: [
{ name: "Employee One" },
{ nomor: 20000 }
]
})
SQL MongoDB
database Database
table Collection
row Document
column Field
index Index
376
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Source Code 8.4 Install MongoBD untuk simpan file hasil running
kode program di Hadoop
377
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
378
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nidos@master:~/mms-v1.9.4-
community-linux-x86_64/lx-mms$
sudo nano config.js
379
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nidos@master:~/mms-v1.9.4-
community-linux-x86_64/lx-mms$
sudo ./start
- Lakukan perintah:
nidos@master:~/mms-v1.9.4-commu-
nity-linux-x86_64/lx-mms$ sudo
./start
380
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nidos@master:~/mms-v1.9.4-community-
linux-x86_64/lx-mms$ sudo ./start
Create/Edit connection
Name: ..........., misal “test”
Server connection*:
[username:password@]host1[:port1][,host2
[:port2],....,[,hostN[:portN]]], misal
“localhost”
nidos@master:~/mms-v1.9.4-commu-
nity-linux-x86_64/lx-mms$ sudo
./start
nidos@master:~/mms-v1.9.4-
community-linux-x86_64/lx-mms$
sudo ./start
381
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
382
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
383
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
$HADOOP_PREFIX/lib/
$HADOOP_PREFIX/share/hadoop/mapreduce/
$HADOOP_PREFIX/share/hadoop/lib/
Misal 2 file jar tersebut sudah disiapkan di
“/home/nidos/Desktop/kode/WordCountMongo/”
nidos@master:~/Desktop/kode/WordCountMongo$ ls
mongo-hadoop-core-2.0.1.jar WordCountMongo.java
mongo-java-driver-3.4.0.jar
Untuk PC master:
nidos@master:~$ cp
/home/nidos/Desktop/kode/WordCountMongo/mongo*
/usr/local/hadoop/lib
nidos@master:~$ cp
/home/nidos/Desktop/kode/WordCountMongo/mongo*
/usr/local/hadoop/share/hadoop/mapreduce
nidos@master:~$ mkdir r
/usr/local/hadoop/share/hadoop/lib
nidos@master:~$ cp
/home/nidos/Desktop/kode/WordCountMongo/mongo*
/usr/local/hadoop/share/hadoop/lib
384
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Untuk PC node1:
Untuk PC node3:
nidos@node3:~$ mkdir r
/usr/local/hadoop/share/hadoop/lib
385
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
386
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
387
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
388
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
389
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
390
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
391
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
import java.util.*;
import java.io.*;
import org.bson.*;
import
com.mongodb.hadoop.MongoInputFormat;
import
com.mongodb.hadoop.MongoOutputFormat;
import
org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.io.*;
import org.apache.hadoop.mapreduce.*;
/**
* test.in
db.insert( { x: "eliot was here" } )
db.insert( { x: "eliot is here" } )
db.insert( { x: "who is here" } )
*
*/
public class WordCountMongo {
public static class TokenizerMapper
extends Mapper<Object, BSONObject, Text,
IntWritable> {
private final static IntWritable one
= new IntWritable(1);
private Text word = new Text();
public void map(Object key,
BSONObject value, Context context )
throws IOException,
InterruptedException {
System.out.println( "key: " +
key );
System.out.println( "value: "
+ value );
StringTokenizer itr = new
StringTokenizer(value.get( "x"
).toString());
while (itr.hasMoreTokens()) {
word.set(itr.nextToken());
context.write(word,
one);
}
}
}
392
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
job.setMapperClass(TokenizerMapper.class)
;
job.setCombinerClass(IntSumReducer.class)
;
job.setReducerClass(IntSumReducer.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class
);
job.setInputFormatClass(
MongoInputFormat.class );
job.setOutputFormatClass(
MongoOutputFormat.class );
System.exit(job.waitForCompletion(true) ?
0 : 1);
}
}
393
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nidos@master:/usr/local/hadoop$ bin/hdfs
com.sun.tools.javac.Main
WordCountMongo.Java
error: Class names, 'WordCountMongo.Java',
are only accepted if annotation processing
is explicitly requested
1 error
Solusi: ubah “WordCountMongo.Java”
“WordCountMongo.java”
394
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nidos@master:/usr/local/hadoop$ bin/hdfs
com.sun.tools.javac.Main WordCountMongo.java
Jika muncul error:
nidos@master:/usr/local/hadoop$ bin/hdfs
com.sun.tools.javac.Main WordCountMongo.java
WordCountMongo.java:4: error: package org.bson does
not exist
import org.bson.*;
^
WordCountMongo.java:6: error: package
com.mongodb.hadoop does not exist
import com.mongodb.hadoop.MongoInputFormat;
^
WordCountMongo.java:7: error: package
com.mongodb.hadoop does not exist
import com.mongodb.hadoop.MongoOutputFormat;
^
WordCountMongo.java:22: error: cannot find symbol
public static class TokenizerMapper extends
Mapper<Object, BSONObject, Text, IntWritable> {
^
symbol: class BSONObject
location: class WordCountMongo
WordCountMongo.java:25: error: cannot find symbol
public void map(Object key, BSONObject
value, Context context )
^
symbol: class BSONObject
location: class TokenizerMapper
WordCountMongo.java:60: error: cannot find symbol
job.setInputFormatClass(
MongoInputFormat.class );
^
symbol: class MongoInputFormat
location: class WordCountMongo
WordCountMongo.java:61: error: cannot find symbol
job.setOutputFormatClass(
MongoOutputFormat.class );
^
symbol: class MongoOutputFormat
location: class WordCountMongo
7 errors
395
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
396
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
{"_id":"2","value":1}
{"_id":"again","value":1}
{"_id":"bye","value":2}
{"_id":"good","value":1}
{"_id":"hello","value":1}
{"_id":"meet","value":1}
{"_id":"nice","value":1}
{"_id":"see","value":2}
{"_id":"to","value":2}
{"_id":"war","value":1}
397
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
398
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
399
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Source Code 8.21 Copy Semua File Dataset dari Local Folder
400
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
401
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
402
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
package comratingbymovies.nidos;
import java.io.IOException;
import java.util.Iterator;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.JobConf;
import
org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop.mapred.Reporter;
import org.apache.hadoop.mapreduce.Reducer;
public class MovieReducer extends
Reducer<Text,Text,Text,IntWritable>
{
Text valTitle = new Text();
Text valEmit = new Text();
String merge;
public void reduce(Text key,
Iterable<Text> values, Context context)
throws IOException , InterruptedException{
int counter = 0;
merge = "";
for(Text value:values){
if
(value.toString().startsWith("#")){ //from
rating
counter++;
}
403
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
job.setJarByClass(RatingCounterByMovi
eMongo.class);
MultipleInputs.addInputPath(job, p1,
Source TextInputFormat.class,
Code 8.25 file (RatingCounterByMovieMongo.java
RatingMapper.class);
Part 1 of 2)
MultipleInputs.addInputPath(job, p2,
404
TextInputFormat.class, MovieMapper.class);
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
job.setJarByClass(RatingCounterByMovi
eMongo.class);
MultipleInputs.addInputPath(job, p1,
TextInputFormat.class, RatingMapper.class);
MultipleInputs.addInputPath(job, p2,
TextInputFormat.class, MovieMapper.class);
Cont
- Siapkan file (RatingCounterByMovieMongo.java Part 2 of 2)
untuk dicompile ke *.jar:
job.setReducerClass(MovieReducer.class)
;
job.setOutputFormatClass(com.mongodb.ha
doop.MongoOutputFormat.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(Text.class);
boolean success =
job.waitForCompletion(true);
return success?0:1;
}
public static void main(String[] args)
throws Exception {
if (args.length != 3 ){
System.err.println ("Usage
:<inputlocation1> <inputlocation2>
<outputlocation> >");
System.exit(0);
}
int res = ToolRunner.run(new
Configuration(), new
RatingCounterByMovieMongo(), args);
System.exit(res);
}
}
405
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nidos@master:~$ cd /usr/local/hadoop
nidos@master:/usr/local/hadoop$ cp -r
/home/nidos/Desktop/kode/RatingByMovies/com
ratingbymovies /usr/local/hadoop
406
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
407
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
408
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
nidos@master:/usr/local/hadoop$
bin/hadoop jar ratemovie.jar
comratingbymovies/nidos/RatingCounterByMo
vieMongo
/user/nidos/ratemovie/dataset/ratings.dat
/user/nidos/ratemovie/dataset/movies.dat
mongodb://localhost/ratemovie.out
409
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
410
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
411
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
412
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
413
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
414
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
415
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
b. Multi Node
Dalam hadoop multi node ini dibutuhkan dua buah
komputer, komputer pertama digunakan pada cluster sedangkan
komputer kedua digunakan pada slave. Dua komputer ini
dikonfigurasi yang merupakan dari mesin dua single node.
416
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
𝑃(𝑋 |𝐻 ).𝑃(𝐻)
𝑃 (𝐻 |𝑋) = (1)
𝑃(𝑋)
Keterangan:
X : Data kelas yang belum diketahui.
H : Hipotesis dari data X yaitu suatu kelas
Spesifik.
P(H| X) : Probabilitas Hipotesis H berdasarkan kondisi X.
P(H) : Probabilitas Hipotesis H
P(X | H) : Probabilitas X berdasarkan kondisi H
P(X) : Probabilitas X
Pada rumus di atas dapat dijelaskan bahwa teorema naive bayes
dibutuhkan sebuah petunjuk sebagai proses penentu kelas yang sesuai
dengan sampel. Sehingga dibutuhkan kesesuaian terhadap teorema
bayes sebagai berikut:
𝑃(𝐶)𝑃(𝐹1…𝐹𝑛|𝐶)
𝑃 (𝐶|𝐹1 … 𝐹𝑛) = (2)
𝑃(𝐹1…𝐹𝑛)
Keterangan:
C : Sebagai kelas
F1…Fn : Petunjuk atau syarat kondisi
9.1.2 Impelementasi
Dalam penyelesaian masalah seleksi pemilihan sistem praktikum
di Filkom Universitas Brawijaya, data pada penelitian ini berupa atribut
hasil live koding, mata kuliah, hasil mengajar, dan kelas. Kemudian
hasil klasifikasi yang didapatkan adalah sangat disarankan, disarankan,
dan yang terakhir tidak disarankan.
417
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
418
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
1], features_count.get(j+","+in-
put[j]+"|"+input[input.length-
1])+1);
else fea-
tures_count.put(j+","+in-
put[j]+"|"+input[input.length-
1], (double) 1);
}
}
}
++count;
}
419
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
out_value=(double) output.get-
Value();
out_key=output.getKey();
}
}
context.write(null, new
Text(out_key));
}
}
420
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
421
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
422
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
423
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
424
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
3. Status Pernikahan
Parameter yang menyimpan status pernikahan pembeli. Status
pernikahan dibagi menjadi 4 yaitu Divorce, Single, Married
dan Widowed.
4. Jenis Kelamin
Parameter yang menyimpan jenis kelamin pembeli. Jenis kelamin
dibagi menjadi 2 yaitu Male dan Female.
5. Jumlah Anak
Parameter yang menyimpan jumlah anak yang dimiliki oleh
pembeli.
Data yang digunakan juga memiliki kelas didalamnya. Kelas dalam
data dibagi menjadi 4 kelas antara lain Vario, Mio, Next dan Beat.
1. Volume
Ukuran data yang disimpan atau diproses.
2. Velocity
Kecepatan membuat data. Kecepatan data dibuat umumnya
berbanding lurus dengan volume data.
3. Variety
Keberagaman data yang diolah. Dari segi format maupun
struktur data.
eknologi yang berkaitan dengan big data akan memudahka
proses pengumpulan data-data yang sebelumnya tidak bisa atau
sulit untuk dikumpulkan.
a. Single Node
Hadoop single node menggunakan 1 mesin / computer saja
dalam melakukan prosesnya. Secara default Hadoop dikonfigur-
asikan untuk berjalan pada mode non-distributed (berdiri
sendiri). Komputer didesain sebagai master bukan slave se-
hingga semua proses dilakukan dalam satu mesin seperti yang
ditunjukkan pada Gambar 1.
425
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
b. Mapreduce
Pada Gambar 2, Mapreduce bertujuan untuk memproses
data yang memiliki ukuran yang besar secara terdistribusi dan
parallel dalam kluster yang terdiri atas ribuan computer. Dalam
prosesnya, mapreduce dibagi menjadi 2 proses yaitu map dan re-
duce. Map berfungsi dalam pengumpulan informasi dari data-
data yang terdistribusi dalam tiap komputer. Keluaran dari proses
map akan digunakan dalam proses reduce. Proses reduce ber-
fungsi dalam penggabungan atau pengelompokan berdasarkan
kata kunci (Dean & Ghemawat, 2004).
3. KNN
K-Nearest Neighbor (kNN) merupakan algoritma untuk
menentukan kelas objek data uji berdasarkan K objek pada data
latih yang terdekat (mirip). Algoritma ini termasuk instance-based
426
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
learning dan merupakan salah satu teknik lazy learning. Dasar Al-
goritma K-Nearest Neighbour (Brammer, 2007):
- Tentukan data latih yang paling dekat dengan data uji.
- Kelas yang paling sering muncul dari k data latih yang terdekat
akan dipilih.
a. Inisialisasi
Menentukan parameter K, dimana K merupakan jumlah
dari tetangga terdekat, nilai K untuk menguji data uji diten-
tukan berdasarkan nilai K optimum pada saat training.
b. Alokasi Data
Alokasikan data uji dengan cara menghitung jarak setiap
atribut data uji terhadap data latih dengan persamaan (1).
𝑑(𝑥1 , 𝑥2 ) = (𝑥11 − 𝑥21 )2 + (𝑥12 − 𝑥22 )2 (1)
dimana xij menyatakan koordinat titik xi pada dimensi
ke-j dan d merupakan jarak. Setelah menghitung jarak data uji
terhadap data latih, urutkan jarak setiap atribut data uji,
kelompokkan menurut jarak yang terdekat.
c. Klasifikasi
Klasifikasi kelompok data uji dilakukan dengan cara
mengumpulkan kategori Y (klasifikasi nearest neighbour).
Lalu, memilih kategori mayoritas dari K data yang ditentukan.
9.2.2 Implementasi
1. Kode Program
Berikut ini diberikan bagian kode program JAVA untuk
implementasi Klasifikasi Kendaraan Bermoto. Proses ini merupakan
proses map dalam MapReduce kNN. Proses map sendiri berfungsi
dalam pengumpulan informasi data-data yang menjadi input dalam
proses kNN. Keseluruhan proses map dapat dilihat dalam Kode
Program 1.
1 @Override
2 public void map(Object kunci, Text hasil, Context konteks)
3 throws IOException, InterruptedException
4 {
5 String baris = hasil.toString();
6 StringTokenizer token = new StringTokenizer(baris,
7 ",");
8
427
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
428
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
429
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
430
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
431
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
432
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
433
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Kategori Dokumen
434
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
2. Text Mining
Analisis kata atau kalimat menggunakan proses text mining. Text
mining memiliki dua proses antara lain preprocessing dan pengolahan
data (clustering atau klasifikasi). Proses text preprocessing merupakan
tahapan pertama yang dilakukan sebelum input dokumen diolah lebih
lanjut menjadi kluster-kluster kalimat. Proses-proses yang dilalui
antara lain menghilangkan tanda baca, angka, mengkoversi huruf
besar, tokenizing (cari kata dalam kalimat), stemming (ubah kata ke
kata dasar), dan menghapus kata sesuai stopword (Çakir and
Güldamlasioglu, 2016). Setelah itu proses pengolahan data, hasilmya
akan digunakan untuk pengkategorian dengan clustering atau
klasifikasi.
3. Clustering Text
Input yang digunakan dalam pembentukan sebuah cluster
kalimat berasal dari hasil text processing. Proses ini mempunyai
peranan yang sangat penting dalam meringkas secara otomatis. Setiap
topik dalam dokumen harus diidentifikasi secara tepat untuk
menemukan kesamaan (similarity) dan ketidaksamaan (dissimilarity)
yang ada pada dokumen sehingga menjamin good coverage (Sarkar,
2009). Faktor koherensi cluster digunakan untuk menjamin kualitas
hasil ringkasan. Koherensi cluster menunjukkan keterkaitan antar
kalimat pada masing-masing cluster yang terbentuk dalam proses
peringkasan banyak dokumen. Tingginya derajat koherensi cluster
yang sangat sulit dicapai karena memerlukan pengetahuan tentang
makna dan struktur kalimat (Sarkar, 2009). Tingginya derajat
koherensi dalam sebuah cluster dapat dicapai dengan
mempertahankan derajat similarity antar anggota tetap tinggi
(Hammouda and Kamel, 2003).
4. K-Means
Algoritma K-Means dikenal sebagai algoritma yang sangat mudah
dalam proses clustering data besar. Proses untuk melakukan clustering
data outlier sangatlah cepat. Selain itu, metode ini juga memiliki
kelemahan yaitu dapat dimungkinkan bagi setiap data cluster tertentu
pada suatu tahapan dapat berpindah ke cluster yang lain pada tahapan
selanjutnya (Larose et al., 2005).
Berikut ini adalah persamaan dan langkah-langkah perhitungan
menggunakan algoritma K-Means (Hung et al., 2005) antara lain:
∑𝑛
𝑖=1 𝑚(𝐶𝑗 |𝑋𝑖 )𝑋𝑖
𝑣𝑗 = ∑𝑛
𝑓𝑜𝑟 𝑗 = 1, … , 𝑘 (1)
𝑖=1 𝑚(𝐶𝑗 |𝑋𝑖 )
435
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
9.3.2 Implementasi
Pada penelitian ini terdapat beberapa tahapan yang harus
dijalankan untuk menentukan cluster dari judul bacaan majalah
Kawanku. Berikut ini pada Gambar 9.23 ditunjukkan alur proses
clustering.
mulai
judulBacaan
preprocessing
menentukan wordcount
centroid tiap
cluster
selesai
436
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
1. Kode Program
Berikut ini ditunjukkan potongan kode program proses clustering
pada Source Code 9.5.
437
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
55 line.split("\t");
56 oldCentroid[x]= new Datapoint(centroidString[0],cen-
57 troidString[1]);
58 System.out.println(centroidString[0]
59 + "===VSD OLD===="+
60 centroidString[1]);
61 }
62 br.close();
63
64 //Comparing thechange from previous centroid
65 for(int i = 0; i<numberOfCentroids;i++){
66 for(int k = 0;k<numberOfAttributes;k++){
67
68 if(0.02<Math.abs(newCentroid[i].getVal(k)-oldCentroid[i].get-
69 Val(k))){
70 shouldContinue = true;
71 System.out.println("Should continue: "+ shouldContinue);
72 return 1; }
73 else{
74 shouldContinue = false;
75 System.out.println("Should continue: "+ shouldContinue);
76 }
77 }
78 }
79 return 0;
80 }
81
438
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
439
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
440
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
441
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
∑𝑚 (𝑅𝑢,𝑗 −𝑅
̅̅̅̅
𝑢)
𝑃𝑎,𝑗 = ̅𝑅̅̅𝑎̅ + 𝑈=1 (3)
𝑚
Algoritma pembobotan dan rata-rata rating dapat
digabungkan supaya mendapatkan 𝑃 yang lebih spesifik dengan
menggunakan rumus:
∑𝑚 ̅̅̅̅
𝑈=1(𝑅𝑢,𝑗 −𝑅𝑢 )𝑊𝑢
𝑃𝑎,𝑗 = ̅𝑅̅̅𝑎̅ + ∑ 𝑊𝑢
(4)
Dengan menggabungkan pembobotan dan rata-rata rating
penggua, nilai 𝑃𝑎,𝑗 akan lebih spesifik karena melibatkan dua
variabel yang berasal dari kegiatan lampau pengguna aktif dan
tetangga.
b. Item-based Collaborative Filtering
Pendekatan item-based yaitu dengan menggunakan
sekumpulan item yang telah diberi rating oleh pengguna dan
menghitung kemiripannya terhadap target item 𝑖 untuk kemudian
dipilih sebanya 𝑘 item yang paling mirip. Setelah ditemukan item
yang paling mirip, kemudian dihitung berdasarkan nilai rata-rata
dari rating dari pengguna pada item yang mirip. Untuk menghitung
kemiripan item terdapat dua cara yaitu:
o Adjusted Cosine-based similarity
Digunakan menghitung kemiripan dari pengguna yang
memberikan rating berbeda, dengan menggunakan rumus:
∑𝑚 ̅̅̅̅ ̅̅̅̅
𝑖=1(𝑅𝑘,𝑝 −𝑅𝑘 )(𝑅𝑘,𝑞 −𝑅𝑘 )
𝑠𝑖𝑚(𝑖𝑝 , 𝑖𝑞 ) = (5)
√ ∑𝑚 ̅̅̅̅ 2 𝑚 ̅̅̅̅ 2
𝑖=1(𝑅𝑘,𝑝 −𝑅𝑘 ) √∑𝑖=1(𝑅𝑘,𝑞 −𝑅𝑘 )
442
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
9.4.2 Implementasi
Proses ini menjelaskan mengenai tahapan map reduce pada
dataset yang dimasukkan. Map reduce ini berdasarkan userID dari
pemberi rating. Berikut sedikit potongan kode program dari proses map
reduce.
publicvoid map(LongWritable key, Text value, Context context) throws
IOException, InterruptedException {
//input user,movie,rating
String[] user_movie_rating = value.toString().trim().split(",");
intuserID = Integer.parseInt(user_movie_rating[0]);
String movieID = user_movie_rating[1];
String rating = user_movie_rating[2];
}}
443
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
444
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
445
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
446
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
447
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
1. Volume
Karakteristik ini mengacu pada kapasitas atau jumlah data
yang dihasilkan untuk setiap waktu. Dalam satu detik, media
seperti E-Mail, Facebook, Youtube, Twitter menghasilkan berjuta
data. Diperkirakan ledakan data yang membanjiri bumi mencapai
2.5 Exabyte (1 Exabyte = 1 Milyar Gigabyte). Pada tahun 2020,
diperkirakan ledakan data yang dihasilkan perhari mencapai 35
Zettabyte (1 Zettabyte = 1000 Exabyte).
2. Variety
Berbagai jenis media produksi data yang digunakan
mengakibatkan beragamnya jenis data yang dihasilkan. Dengan
begitu banyaknya sensor, perangkat pintar dan teknologi
kolaborasi sosial, data yang pada umumnya dihasilkan dalam
bentuk data terstruktur, sekarang berkembang menjadi berbagai
bentuk data yaitu data terstruktur, tidak terstruktur, dan
semiterstruktur.
3. Velocity
Velocity adalah kecepatan data yang terus meningkat.
Karakteristik ini mengacu pada kecepatan di mana data dibuat,
diolah, dan dianalisis secara terus-menerus. Teknologi Big Data
sekarang memungkinkan kita untuk menganalisis data sementara
yang dihasilkan tanpa pernah memasukkannya ke dalam
database.
4. Veracity
Veracity merupakan ketidakpastian dari data. Veracity
mengacu pada tingkat kehandalan dari data dengan jenis tertentu.
Big Data juga mengandung data-data yang rusak, tidak normal,
dan tidak sesuai. Data tersebut tentu saja dapat menghasilkan
informasi yang salah. Oleh karena itu, diperlukan kemampuan
untuk meneliti dan mengidentifikasi ketidakpastian data tersebut.
5. Value
Value mengacu pada nilai data yang terus bertambah.
Diperlukan kemampuan untuk mengubah data yang banyak
tersebut menjadi bernilai agar dapat digunakan mendukung tujuan
tertentu. Semua data yang tersedia tidak akan memiliki arti kecuali
kita dapat mengambil nilai penting darinya.
9. Hadoop
Apache Hadoop adalah suatu framework yang
memungkinkan pemrosesan data set besar pada kluster-kluster
komputer secara terdistribusi dengan memanfaatkan model-
model pemrograman sederhana. Hadoop dirancang untuk dapat
448
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
10. MapReduce
MapReduce merupakan suatu model pemrograman dan
implementasi terkait untuk memproses dan menghasilkan dataset
besar. Pengguna menspesifikasikan fungsi map yang memproses
pasangan key/vaiue untuk menghasilkan sekumpulan pasangan
intermediate key/value. Sedangkan, fungsi reduce
menggabungkan seluruh intermediate value yang berasosiasi
dengan intermediate key yang sama. MapReduce adalah suatu
teknik dan model pemrograman untuk komputasi terdistribusi.
Keuntungan utama dari MapReduce adalah kemudahan untuk
449
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
a. Map
Fungsi Map menerima pasangan input dan menghasilkan
sekumpulan pasangan kunci/nilai perantara (intermediate
key/value). Pustaka MapReduce mengelompokkan seluruh nilai
perantara yang berasosiasi dengan kunci perantara yang sama,
kemudian meneruskannya ke fungsi Reduce.
b. Reduce
Fungsi Reduce menerima suatu kunci perantara dan
sekumpulan nilai untuk kunci tersebut. Fungsi ini menggabungkan
nilai-nilai tersebut untuk kemudian membentuk sekumpulan nilai
yang lebih sederhana atau jumlahnya lebih sedikit. Idealnya,
setiap pemanggilan Reduce akan menghasilkan nol atau satu nilai
output. Nilai perantara diberikan ke fungsi Reduce melalui suatu
iterator. Hal ini memungkinkan kita untuk menangani nilai yang
terlalu besar untuk dimasukkan ke dalam memori. Reduce
mengambil output dari fungsi Map sebagai input, kemudian
menggabungkan data tersebut menjadi satu set data yang lebih
sederhana atau jumlahnya lebih sedikit. Fungsi Reduce ini selalu
dilakukan setelah fungsi Map.
Dalam model pemrograman MapReduce, tipe data antara
fungsi Map dan Reduce memiliki hubungan sebagai berikut:
map (k1,v1) → list(k2,v2)
reduce (k2,list(v2)) → list(v2)
Tipe data input kunci/nilai pada fungsi Map (k1, v1) boleh
saja berbeda dengan tipe data output fungsi Map (k2, v2). Namun
tipe data input fungsi Reduce (k2, v2) harus sama dengan tipe
data output fungsi Map. Tipe data output fungsi Reduce (v2)
450
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Keterangan:
S : Himpunan kasus
A : Atribut
n : Jumlah partisi atribut A
|Si| : Jumlah kasus pada partisi ke i
|S| : Jumlah kasus dalam S
Sebelum mendapatkan nilai Gain adalah dengan mencari
nilai Entropi. Entropi digunakan untuk menentukan seberapa
informatif sebuah masukan atribut untuk menghasilkan sebuah
atribut. Rumus dasar dari Entropi adalah sebagai berikut:
𝐸𝑛𝑡𝑟𝑜𝑝𝑦(𝑆) = ∑ − 𝑝𝑖 ∗ 𝑙𝑜𝑔2 𝑝𝑖
𝑖=𝑖
Keterangan:
S : Himpunan Kasus
n : Jumlah partisi S
pi: Proporsi dari Si terhadap S
451
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
9.5.2 Implementasi
Berikut kode program dari kedua class, yaitu class GainRatio.java
1 public double entropy(int c[]){
2 double entropy=0;
3 int i=0;
4 int sum=0;
5 double frac;
6 while(c[i]!=0) {
7 sum=sum+c[i];
8 i++;}
9 i=0;
10 while(c[i]!=0){
11 frac=(double)c[i]/sum;
12 entropy=entropy-frac*(Math.log(frac)/Math.log(2));
13 i++;}
14 return entropy;}
15
16 public double gainratio(int index,double enp){
17 int c[][]=new int[1000][100];
18 int sum[]=new int[1000]; //
19 String currentatrrval="@3#441get";
20 double gainratio=0;
21 int j=0;
22 int m=-1; //index for split number
23 int lines=linenumber;
24 int totalsum=0;
25 for(int i=0;i<lines;i++){
26 if(Integer.parseInt(count[i][0])==index) {
27 if(count[i][1].contentEquals(currentatrrval)) {
28 j++;
29 c[m][j]=Integer.parseInt(count[i][3]);
30 sum[m]=sum[m]+c[m][j]; }
31 else{
32 j=0;
33 m++;
34 currentatrrval=count[i][1];
35 c[m][j]=Integer.parseInt(count[i][3]); //(different class) data sets count
36 per m index split
37 sum[m]=c[m][j]; }
38 }
39 }
40 int p=0;
41 while(sum[p]!=0) {
42 totalsum=totalsum+sum[p]; //calculating total instance in node
43 p++;}
44 double wtenp=0;
45 double splitenp=0;
46 double part=0;
47 for(int splitnum=0;splitnum<=m;splitnum++){
48 part=(double)sum[splitnum]/totalsum;
49 wtenp=wtenp+part*entropy(c[splitnum]); }
50 splitenp=entropy(sum);
51 gainratio=(enp-wtenp)/(splitenp);
52 return gainratio;
53 }
452
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
8. Cek JPS
453
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
454
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
455
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
456
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Fitur
UNS
STG SCG STR LPR PEG
0 0 0 0 0 very_low
0.08 0.08 0.1 0.24 0.9 High
0.06 0.06 0.05 0.25 0.33 Low
0.1 0.1 0.15 0.65 0.3 Middle
0.08 0.08 0.08 0.98 0.24 Low
0.09 0.15 0.4 0.1 0.66 Middle
0.1 0.1 0.43 0.29 0.56 Middle
0.15 0.02 0.34 0.4 0.01 very_low
0.2 0.14 0.35 0.72 0.25 Low
Sumber:
https://archive.ics.uci.edu/ml/datasets/User+Knowledge+Modeling
Keterangan:
STG : Tingkat waktu belajar terhadap objek
SCG : Tingkat pengulangan belajar terhadap objek
STR : Tingkat waktu belajar pada objek lain
LPR : Kemampuan menghadapi ujian sesuai objek
PEG : Kemampuan menghadapi ujian pada objek lain
UNS : tingkat pengetahuan siswa
13. Konsep Big Data
Big data merupakan data yang melebihi kapasitas dalam
sistem basis data, berukuran sangat besar dan memiliki struktur
yang tidak sesuai dengan struktur basis data yang ada sehingga
dalam pengolahannya membutuhkan proses dari teknik-teknik
yang lain (Dumbill, 2012). Big Data dapat didefinisikan sebagai
sebuah teknologi baru yang memungkinkan untuk melakukan
457
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
458
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
459
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
9.6.2 Implementasi
Proses dari algoritma k-means dimulai dengan menginputkan
dataset, nilai k dan threshold yang akan digunakan untuk
pengelompokan data. Proses pertama adalah menentukan centroid
yang dipilih secara random, kemudian menghitung jarak dari objek ke
centroid dengan menggunakan metode euclidean dan hasil
perhitungan jarak dikelompokan sesuai dengan centroid terdekat.
Selanjutnya cek kondisi, jika data masih mengalami perubahan maka
kembali ke proses menentukan centroid sampai data kovergen
kemudian proses selesai dijalankan. Proses menentukan centroid dan
algoritma k-means ditunjukan pada potongan kode program berikut.
460
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Sumber: https://github.com/mameli/k-means-hadoop
461
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
4. Hasil clustering
462
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
463
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
464
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
465
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
∇𝑓𝑡 (𝑤) = 𝜎𝑤 −
0, 𝑦𝑖 (𝑡). (𝑤. 𝜙(𝑥𝑖 (𝑡)) ≥ 1
{
𝑦𝑖 (𝑡)𝜙(𝑥𝑖 (𝑡), 𝑦𝑖 (𝑡). (𝑤. 𝜙(𝑥𝑖 (𝑡)) < 1
Ketika proses perhitungan kernel dijalankan maka nilai w
memiliki posisi sebagai superposition dengan proses perhitungan
𝑡=1 𝛼𝑖 𝑦𝑖 𝜙(𝑥𝑖 ), dimana:
𝑤 = ∑𝑚
1
𝑤 ← (1 − ) 𝑤 +
𝑡
0, 𝑦𝑖 (𝑡). (𝑤. 𝜙(𝑥𝑖 (𝑡)) ≥ 1
{𝑦𝑖 (𝑡)
∅(𝑥𝑖 (𝑡), 𝑦𝑖 (𝑡). (𝑤. 𝜙(𝑥𝑖 (𝑡)) < 1
𝛼𝑡
466
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
9.7.2 Implementasi
Penelitian klasifikasi penyakit payudara ini menggunakan algoritma
Support Vector Machine, untuk metode SVM ini dianggap dapat
menghasilkan akurasi pengklasifikasian yang cukup tinggi (Zhang,
2012). Proses klasifikasi menggunakan algoritma SVM dimulai dengan
melakukan pelatihan pada data training dengan menggunakan
pendekatan Stochastic Gradient Descent (SGD). Kemudian, pada
penghitungan data uji dengan rumus svm menggunakan kernel Radial
Basis Function (RBF).
Pelatihan data latih dilakukan dengan pendekatan SGD dimulai
dengan inisialisasi parameter SGD, melatih model dengan
memperbarui pack, lalu menyimpan bagian model yang dioptimasi.
Pada pembaruan pack terdiri dari menghitung pasangan produk di
dalam kernel, menghitung sub gradient, lalu memperbarui model.
Berikut potongan kode program untuk menghitung sub gradien yang
dapat dilihat pada kode program berikut.
467
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
468
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Selain itu akan terbentuk file txt yang berisi jumlah data latih dan
data uji yang dipakai, banyak iterasi, pack size, akurasi yang didapat,
dan lama waktu komputasi. Isi file txt dari hasil runing program dapat
dilihat pada Gambar berikut.
469
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Daftar Pustaka
470
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
471
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
472
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
473
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
474
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
https://tecadmin.net/install-oracle-java-8-ubuntu-via-
ppa/#
https://medium.com/@GalarnykMichael/install-spark-
on-ubuntu-pyspark-231c45677de0
http://spark.praveendeshmane.co.in/spark/spark-
wordcount-scala-example.jsp
https://stackoverflow.com/questions/27478096/cannot-
read-a-file-from-hdfs-using-spark
https://spark.apache.org/examples.html
https://www.impactradius.com/blog/7-vs-big-data/
https://www.xenonstack.com/blog/ingestion-processing-
data-for-big-data-iot-solutions
https://stackoverflow.com/questions/24115828/what-is-
hue-all-about
475
Cholissodin, I., Riyandani, E., 2016, Analisis Big Data, Fakultas Ilmu Komputer,
Universitas Brawijaya, Malang.
Biografi Penulis
476