Langsung ke konten utama

Cara Untuk Gain Hasil yang Diharapkan Dari Domino QQ ?

Dalam kurun waktu tersebut, judi online sangat digandrungi oleh hampir setiap orang di seluruh dunia terutama karena judi internet memberikan beberapa keuntungan bagi individu. Perjudian internet bukan hanya formulasi menghasilkan uang tetapi juga pengejaran menyenangkan yang sangat baik. Ada yang banyak mengintai permainan dalam komunitas online taruhan, termasuk, poker, dominoqq, roulette, baccarat, blackjack, dan bahkan lebih bahwa orang dapat menikmati di rumah mereka. Semua orang tahu, judi online sangat digemari masyarakat, namun di Indonesia memiliki kelompok penggemar tersendiri. Di Indonesia, banyak orang mengambil risiko dalam permainan judi setiap saat untuk mendapatkan uang. Tidak ada perbedaan antara game perjudian online ditambah pertandingan kasino darat, dan individu dapat membelanjakan uang untuk game perjudian online apa pun. Untuk pemula, taruhan online bisa jadi sulit karena taruhan online memiliki beberapa kelemahan, dan orang-orang yang mengenali semua prinsip dap...

Cara Sederhana Install Hadoop 2 mode Standalone pada Windows 7 dan Windows 10

    Hadoop adalah framework open-source berbasis Java yang ditujukan untuk memproses data secara terdistribusi melalui kemampuan penyimpanan data secara terdistribusi. Hadoop dapat menyimpan data apapun dan memprosesnya dengan model pemrograman MapReduce. Hadoop didesain untuk dapat mengatasi permasalahan yang disebabkan oleh kegagalan fungsi hardware sehingga dapat mencegah hilangnya data maupun proses kerja. Hadoop memotong-motong data untuk didistribusikan ke setiap node di dalam suatu kluster untuk kemudian diproses secara paralel dan lokal di tiap node yang bersangkutan.

Kebutuhan Software

Berikut adalah software yang harus disiapkan untuk dapat menjalankan Hadoop 2 mode standalone dengan OS Windows 7 atau Windows 10:
  1. Java JDK 1.8, dapat diunduh dari https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
  2. Apache Hadoop 2.7.7, dapat diunduh dari https://hadoop.apache.org/releases.html
  3. Hadoop Patch File untuk OS Windows, dapat diunduh dari https://github.com/wmwijaya/hadoop2-standalone-windows7-windows10

Langkah-langkah Install Hadoop 2 (dalam tutorial ini digunakan Hadoop-2.7.7):

  1. Download JDk 1.8 dari URL Java JDK diatas, install dan kemudian set JAVA_HOME dan Path pada Environment Variables>System Variables Windows. JAVA_HOME adalah lokasi Java di-install C:\Program Files\Java\jdk1.8.0_201 sedangkan Path untuk Java adalah C:\Program Files\Java\jdk1.8.0_201\bin


  2. Unduh JDK-8u201 Windows x64

    Install Java 8

    Set JAVA_HOME Tampilan Windows 7

    Set Path Java Tampilan Windows 7


  3. Download Apache Hadoop-2.7.7 (hadoop-2.7.7.tar.gz). Ekstrak, kemudian pindahkan ke lokasi yang dikehendaki. Pada tutorial ini, direktori hadoop-2.7.7 adalah C:\hadoop-2.7.7
  4. Edit file hadoop-env.cmd yang ada di direktori C:\hadoop-2.7.7\etc\hadoop menggunakan Notepad atau Notepad++ atau text editor lain: set variabel JAVA_HOME sesuai lokasi instal Java JDK 1.8 pada OS Windows 7. Pada tutorial ini adalah: set JAVA_HOME=C:"\Program Files\Java\jdk1.8.0_201"

  5. Edit file core-site.xml yang ada di direktori C:\hadoop-2.7.7\etc\hadoop dengan menggunakan Notepad atau Notepad++ atau text editor lain. Silahkan di-copy-paste contoh berikut:

  6. Edit file hdfs-site.xml yang terdapat pada direktori C:\hadoop-2.7.7\etc\hadoop untuk menentukan jumlah replika yang harus dibuat, kemudian lokasi namenode dan datanode seperti pada contoh: (Ingat! pastikan untuk membuat direktori namenode dan datanode, yaitu C:/hadoop-2.7.7/data/namenode dan C:/hadoop-2.7.7/data/datanode)

  7. Masih di direktori C:\hadoop-2.7.7\etc\hadoop, copy file mapred-site.xml.template, kemudian paste pada direktori ini dan ganti namanya menjadi mapred-site.xml. Edit seperti contoh berikut untuk menentukan dimana aplikasi MapReduce pada Hadoop harus dijalankan.

  8. Tetap pada direktori C:\hadoop-2.77\etc\hadoop, edit file yarn-site.xml seperti pada contoh berikut:

  9. Agar Hadoop dapat dioperasikan pada OS Windows, diperlukan patch file Hadoop yang spesifik untuk OS Windows. Patch file ini secara default tidak menjadi bawaan Hadoop. Patch file tersebut bisa diperoleh dari Github URL https://github.com/wmwijaya/hadoop2-standalone-windows7-windows10 dengan mengunduh semua file yang ada dalam direktori bin. Kemudian, hapus semua file yang ada dalam direktori C:\hadoop-2.7.7\bin, ganti dengan patch file yang sudah diunduh tersebut.
  10. Set HADOOP_HOME dan Path pada Environment Variables>System Variables Windows. Nilai variabel HADOOP_HOME adalah C:\hadoop-2.7.7 sedangkan pada variabel Path silakan diisi C:\hadoop-2.7.7\bin dan C:\hadoop-2.7.7\sbin seperti setting JAVA_HOME dan Path pada langkah 1.
  11. Jalankan aplikasi Command Prompt Windows sebagai Administrator, kemudian eksekusi perintah hadoop namenode -format atau hdfs namenode -format (lebih dianjurkan perintah yang ke-2 karena yang pertama sudah deprecated ).
  12. Jalankan Command Prompt Windows sebagai Administrator, eksekusi perintah start-all.cmd atau start-dfs.cmd dan start-yarn.cmd untuk menjalankan Namenode, Datanode, Resource Manager, dan Nodemanager. Masing-masing service tersebut akan membuka jendela Command Prompt baru. Jika anda ingin mengetahui service apa saja yang sedang berjalan, silakan eksekusi perintah jps di Command Prompt.

  13. Memastikan service yang sedang berjalan: jps

Demikian, Hadoop sudah selesai di-install dan berjalan pada mode standalone. Penampilan GUI-nya dapat diakses melalui URL berikut:
  1. Resource Manager : http://localhost:8088 
  2. Namenode : http://localhost:50070
Resource Manager
Namenode


Selamat mencoba!

Setelah Hadoop terinstall di Windows, sekarang kita bisa menjalankan Aplikasi MapReduce dan Spark. Silakan ikuti tutorial berikut:
1. Membuat dan Menjalankan Aplikasi Hadoop MapReduce dengan Intellij IDEA pada OS Windows
2. Membuat dan Menjalankan Aplikasi Apache Spark dengan Intellij IDEA pada OS Windows

Postingan populer dari blog ini

Apache Nutch Crawl Script : Web Crawling hanya dengan Satu Command

Pada artikel Membangun Mesin Pencari dengan Kombinasi Apache Nutch, Elasticsearch, dan MongoDB telah dibahas secara singkat tentang apa itu Apache Nutch, apa itu Elasticsearch, dan Apa itu MongoDB. Kemudian, pada artikel Crawling dan Indexing Berbasis Apache Nutch, Elasticsearch, dan MongoDB telah dijelaskan langkah-langkah website crawling menggunakan Apache Nutch yang meliputi 6 tahap dengan mengeksekusi 6 command Apache Nutch, yaitu: inject, generate, fetch, parse, updatedb, index. Telah disebutkan pula bahwa proses crawling yang meliputi 6 langkah ini tidak cukup hanya dilakukan satu kali untuk dapat meng-index seluruh isi website yang dijadikan target. Beruntungnya, Apache Nutch juga dilengkapi dengan script yang dapat mempersingkat proses crawling dari 6 langkah menjadi satu langkah saja, yaitu dengan mengeksekusi perintah berikut: hennywijaya$ runtime/local/bin/crawl urls/ webpage3 http://localhost:9300/nutch/ 3 Adapun arguments dari perintah diatas adalah: 1. urls adalah direc...

Teknologi Big Data Fundamental: Kelebihan Hadoop versi 2 dibanding Hadoop versi 1

Apa itu Apache Hadoop Apache Hadoop adalah software framework yang memungkinkan pemrosesan data berukuran besar secara terdistribusi dengan melibatkan berkluster-kluster komputer. Hadoop didesain untuk dapat bekerja secara efektif baik dalam skala terkecil yang hanya melibatkan satu server hingga skala besar yang memperkerjakan ribuan komputer dimana masing-masing komputer tersebut memfasilitasi komputasi dan penyimpanan data secara lokal. Untuk menjamin High Availability, Hadoop tidak menggantungkannya pada hardware yang digunakan, tetapi framework Hadoop itu sendiri telah didesain untuk dapat mendeteksi dan menangani gagal fungsi (failure) pada level/layer aplikasi. Framework Hadoop terdiri atas 4 komponen (modul) utama, sebagai berikut: 1. Hadoop Distributed File System (HDFS), adalah file-system terdistribusi yang memfasilitasi penyimpanan data secara terdistribusi dalam kluster komputer. 2. Hadoop MapReduce, adalah sebuah sistem yang ditujukan untuk memproses data berukuran besar ...

Penerapan Model Pemrograman MapReduce Menggunakan Java dan MongoDB untuk Mencari Mutual Friends ala Facebook

Pada artikel "Mengaplikasikan MapReduce untuk Mencari Mutual Friends ala Facebook" telah dijelaskan bagaimana menerapkan pola pemrograman MapReduce untuk mencari mutual friends atau friends in common pada hubungan pertemanan di jejaring sosial ala Facebook. Pada artikel ini akan dibahas implementasi atau penerapan pola pemrograman MapReduce tersebut menggunakan bahasa program Java dan database NoSQL MongoDB. Bagi yang masih asing dengan MongoDB, silakan menyimak artikel "MongoDB : Database NoSQL Berbasis Dokumen yang sedang Naik Daun di Era Big Data" untuk mengenal database berbasis dokumen MongoDB. Kemudian, untuk cara instal MongoDB dijelaskan dalam artikel "Web Crawling: Menyerap isi Website dan Membangun Mesin Pencari ala Google Menggunakan Apache Nutch, Elasticsearch, dan MongoDB-bagian 2/3". Jadi, disini kita akan langsung mulai mengoperasikan MongoDB melalui Mongo Shell dan dengan menggunakan bahasa program Java melalui MongoDB Java Driver. Pada con...