Pertumbuhan data yang semakin besar tidak lepas dari semakin berkembangnya teknologi saat ini. Hal tersebut menciptakan tantangan tersendiri dalam hal pengelolaan, pengoleksian, analisa dengan mengandalkan system database biasa yang umumnya digunakan untuk menyimpan dan mengelola data dengan jumlah yang tidak terlalu besar, sehingga dibutuhkan solusi untuk itu salah satunya dengan Parallel computing dengan menggunakan menggunakan Hadoop yang merupakan platform untuk mengolah data yang berukuran besar (big data) secara terdistribusi dan dapat berjalan diatas cluster. Penelitian ini menggunakan algoritma FIFO dan Delay Scheduling sebagai job scheduler dan menggunakan parameter pengujian job throughput sebagai acuan perhitungan performansi sistem. Dari hasil analisis menunjukkan bahwa penambahan jumlah job yang diberikan akan menyebabkan nilai througput menjadi kecil karena jumlah job sangat berpengaruh terhadap nilai throughput. Meski demikian untuk masing-masing skenario yang telah dilakukan penggunaan algoritma delay scheduling memiliki nilai throughput yang lebih besar bila dibandingkan dengan algoritma FIFO.