Computer File
Perbandingan performa pencarian data besar pada lingkungan hadoop dan konvensional
Pertumbuhan data jaman sekarang tidak mengenal kata berhenti dan setiap tahun jumlah data yang tersimpan dalam server-server berkali lipat lebih banyak. Banyak sekali data tersimpan tetapi tidak dapat dimanfaatkan dengan baik karena alasan tipe data yang tidak dapat diklasifikasikan seperti data file teks yang merupakan data setengah terstruktur. Kurangnya pemanfaatan ini dikarenakan teknologi penyimpanan data seperti RDBMS membutuhkan data memiliki struktur yang jelas dan tidak dapat mencari data yang sangat berukuran besar. Untuk itu diperlukan platform penyimpanan untuk semua jenis data dan file sistem terdistribusi agar dapat diproses oleh beberapa perangkat secara bersamaan.
Studi kasus dalam penelitian ini adalah pencarian data untuk kemudian dikelompokan dan dijumlahkan untuk setiap kata yang telah dicari. Hasil proses pencarian ini kemudian disimpan data peforma waktu dari mulai aplikasi berjalan hingga aplikasi berhenti. Lalu dari hasil pengujian waktu rata-rata akan didapatkan perbandingan peforma aplikasi yang mencari data dengan model file sistem tidak terdistribusi dan aplikasi yang mencari data dengan model file sistem terdistribusi.
Berdasarkan penelitian yang dilakukan, proses pencarian data besar dapat dilakukan dengan menggunakan metode MapReduce yang memanfaatkan model file sistem terdistribusi (HDFS). Proses Map yaitu proses pemetaan yang berguna untuk mengambil data yang dibutuhkan pengguna yang tersebar ke beberapa DataNode. Proses Reduce yaitu proses penggabungan hasil pemetaan Map dan menampilkan hasil kepada pengguna. Dengan melakukan pengujian terhadap data dengan ukuran bervariasi didapatkan pembuktikan perbandingan kecepatan pencarian data antara Hadoop DFS dengan file sistem Linux lalu antara HBase dan mySQL. Pada pengujian pertama dengan ukuran data sekitar 9.69 Gigabyte didapat perbandingan 1 : 36.27 (Hadoop:Linux). Pada pengujian kedua dengan ukuran data sekitar 4.84 Gigabyte didapat perbandingan 1 : 8.625 (Hadoop: Linux). Pada pengujian ketiga dengan ukuran data sekitar 2.77 Gigabyte didapat perbandingan 1 : 10.09 (Hadoop:Linux). Pada pengujian keempat dengan ukuran data sekitar 1.45 Gigabyte didapat perbandingan 1 : 0.462 (Hadoop:Linux). Pada pengujian kelima dengan ukuran data sekitar 744.8 Megabyte didapat perbandingan 1 : 3.37 (Hadoop: Linux). Lalu berdasarkan pengujian pertama perbandingan MySQL dan HBase didapat bahwa untuk ukuran data 827,05 Megabyte mempunyai perbandingan 1 : 8.625 (HBase:MySQL). Pengujian berikutnya, pada pengujian kedua didapat perbandingan 1 : 8.90 (HBase:MySQL) untuk ukuran data 551,37 Megabyte. Pada pengujian ketiga didapat perbandingan 1 : 36.27 (HBase:MySQL) untuk ukuran data 275,68 Megabyte. Dari hasil pengujian-pengujian tersebut membuktikan bahwa pencarian data berukuran besar dapat menggunakan Hadoop dengan memanfaatkan pendistribusian data sebagai solusi kecepatan pencarian data.
Kata-kata kunci: RDBMS, MapReduce, HDFS, Map, Reduce, Hadoop.
Barcode | Tipe Koleksi | Nomor Panggil | Lokasi | Status | |
---|---|---|---|---|---|
skp31423 | DIG - FTIS | Skripsi | INFO HER p/15 | Perpustakaan | Tersedia namun tidak untuk dipinjamkan - Missing |
Tidak tersedia versi lain