Jurnal Informatika Polinema (JIP)
The focus and scope of articles published in JIP (Journal of Informatics Polinema) encompasses the game technology, information system, computer network, computing, which covers the following scope: Game Technology Artificial Intelligence Intelligent System Machine Learning Image Processing Computer Vision Information Retrieval Machine Learning Information System Internet of Things Computer Security Technology Enhanced Learning Education Technologies Digital Forensic Wireless Sensor UI/UX research JIP (Jurnal Informatika Polinema) publishes comprehensive research articles and invited reviews by leading expert in the field. Papers will be selected that high scientific merit, impart important new knowledge, and are of high interest to computer and information technology.
Articles
20 Documents
Search results for
, issue
"Vol. 7 No. 2 (2021): Vol 7 No 2 (2021)"
:
20 Documents
clear
Analisis Kecenderungan Informasi Terkait Covid-10 Berdasarkan Big Data Sosial Media dengan Menggunakan Metode Data Mining
Enda Esyudha Pratama;
Helen Sastypratiwi;
Yulianti
Jurnal Informatika Polinema Vol. 7 No. 2 (2021): Vol 7 No 2 (2021)
Publisher : UPT P2M State Polytechnic of Malang
Show Abstract
|
Download Original
|
Original Source
|
Check in Google Scholar
|
DOI: 10.33795/jip.v7i2.453
Wabah virus CORONA (COVID-19) mulai menginfeksi hampir ke seluruh negara di awal tahun 2020 tak terkecuali di Indonesia. Pemerintah selaku pihak yang berkepentingan mengeluarkan beberapa kebijakan terkait penanganan virus ini. Kebijakan tersebut mendapat berbagai tanggapan dari masyarakat terutama di media sosial. Jumlah tanggapan yang banyak dan beragam akan menjadi sebuah big data. Big data tersebut dapat menghasilkan informasi yang berharga jika diolah secara baik dan benar. Salah satu informasi yang dapat dihasilkan adalah analisis sentimen. Data mining merupakan salah satu metode yang digunakan untuk menggali informasi penting dari sebuah tumpukan data yang berjumlah besar. Pada penelitian ini digunakan 1400 tweet. Kata kunci (keyword) yang digunakan terkait kebijakan pemerintah yaitu Social Distancing, Isolasi Mandiri, Karantina Wilayah, WFH, PSBB, Lockdown, dan Rapid Test. Dari hasil penellitian yang dilakukan, sentimen masayrakat di media sosial terhadap kebijakan pemerintah dalam menanggulangi wabah virus ini cenderung positif
Identifikasi "Acne Vulgaris" Berdasarkan Fitur Warna Dan Tekstur Menggunakan Klasifikasi JST Backpropagation
Ulla Delfana Rosiani;
Kadek Suarjuna Batubulan;
Malia Elisiana
Jurnal Informatika Polinema Vol. 7 No. 2 (2021): Vol 7 No 2 (2021)
Publisher : UPT P2M State Polytechnic of Malang
Show Abstract
|
Download Original
|
Original Source
|
Check in Google Scholar
|
DOI: 10.33795/jip.v7i2.463
Acne Vulgaris adalah salah satu penyakit kulit kronis umum yang berkaitan dengan penyumbatan dan atau peradangan pada folikel rambut dan kelenjar minyak yang menyertainya. Acne vulgaris dibagi menjadi beberapa macam jenis, diantaranya ada whitehead, blackhead, papule, dan pustule. Beberapa jenis acne vulgaris memiliki warna dan tekstur yang berbeda. Hasil dari ekstraksi warna dan tekstur dapat dilakukan klasifikasi terhadap jenis acne vulgaris. Dengan berkembangnya teknologi bidang informatics engineering proses identifikasi jenis acne vulgaris dapat dilakukan menggunakan pengolahan citra digital. Hasil dari ekstraksi fitur warna dan fitur tekstur kemudian dianalisis dan diklasifikasikan sehingga dapat diketahui jenis acne vulgaris pada citra tersebut. HSV merupakan salah satu ruang warna yang memperlihatkan warna seperti yang dilihat oleh manusia pada umumnya. GLCM merupakan metode yang mampu menyediakan informasi penting dan melakukan analisis mengenai tekstur citra. Empat ciri statistik GLCM yaitu contrast, correlations, homogenity, dan energy dengan sudut 0°, 45°, 90°, dan 135° akan memberikan nilai untuk membedakan tekstur acne vulgaris pada setiap jenisnya. Backpropagation digunakan karena metode tersebut mampu menyelesaikan pengklasifikasian dengan problem nonlinear. Terdapat tiga tahap backpropagation dalam pengolahan data yaitu tahap feedfordward, backpropagation, dan penyesuaian bobot, sedangkan untuk klasifikasi hanya menggunakan tahap feedfordward. Dari hasil penelitian mengidentifikasi acne vulgaris menggunakan ruang warna HSV, metode GLCM dan klasifikasi JST Backpropagation dapat menghasilkan nilai akurasi sebesar 65%. Akurasi tersebut didapatkan dari parameter learning rate 0.0002 dan epoch sebanyak 200.
Implementasi 360 Degree untuk Membantu Proses Pelaporan Kinerja Dosen (Studi Kasus; JTI Polinema)
Misbahudin;
Rudy Ariyanto;
Yoppy Yunhasnawa
Jurnal Informatika Polinema Vol. 7 No. 2 (2021): Vol 7 No 2 (2021)
Publisher : UPT P2M State Polytechnic of Malang
Show Abstract
|
Download Original
|
Original Source
|
Check in Google Scholar
|
DOI: 10.33795/jip.v7i2.483
Untuk menuju tujuan pendidikan nasional tersebut diperlukan dosen yang professional. Evaluasi kinerja dosen diperlukan agar dalam melaksanakan tugas dan tanggung jawabnya sejalan dengan apa yang diisyaratkan dalam UU No. 14 Tahun 2005 tentang guru dan dosen, Dalam melaksanakan penilaian yang benar, maka penilaian dilakukan oleh pihak yang tepat yang dapat memberikan kontribusi penilaian yang baik. Hal ini cocok dengan metode 360 degree yang menilai seseorang dari pihak-pihak yang berada di sekitarnya. Penelitian ini menggunakan konsep sistem pendukung keputusan kelompok (GDSS) sebagai metode pengolahan data dengan 3 penilai yaitu atasan, mahasiswa, dan rekan sesama dosen. Sistem pendukung keputusan kelompok yang dikembangkan dalam penelitian ini menggunakan metode AHP (Analytical Hierarchy Process) dan Borda untuk penentuan keputusan kelompok. Metode AHP digunakan untuk penentuan bobot kriteria dari setiap alternatif. Metode Borda digunakan untuk penggabungan hasil perangkingan yang didapat oleh setiap pengambil keputusan sehingga mendapatkan perangkingan akhir dan mendapatkan skor setiap alternatif. Kriteria yang digunakan antara lain: Kepribadian, Pedagogik, Sosial, dan Profesional. Hasil dari pengujian dari 10 data uji, dapat disimpulkan tingkat akurasi yakni sebesar 20 %. Presentase yang rendah ini disebabkan penilaian kinerja yang selama ini diterapkan tidak menggabungkan penilaian dari mahasiswa, atasan dan rekan sejawat. Selain itu tidak ada penilaian untuk rekan kerja.
Penerapan Algoritma Apriori Untuk Mempercepat dan Mempermudah Akses Barang di Gudang Material : (Studi Kasus pada PT.XYZ)
Arwin Datumaya Wahyudi Sumari;
Maulana Zinedin Zidane;
Odhitya Desta Triswidrananta
Jurnal Informatika Polinema Vol. 7 No. 2 (2021): Vol 7 No 2 (2021)
Publisher : UPT P2M State Polytechnic of Malang
Show Abstract
|
Download Original
|
Original Source
|
Check in Google Scholar
|
DOI: 10.33795/jip.v7i2.491
Pada sebuah gudang material dengan beragam jenis barang dalam jumlah besar, menemukan satu barang atau kombinasi beberapa barang sesuai permintaan menjadi sebuah tantangan yang perlu diberikan solusi. Kecepatan dan kemudahan akses barang merupakan parameter-parameter penting yang membantu petugas gudang dalam memperoleh barang-barang sesuai yang diminta. Dalam penelitian ini telah dibangun sebuah sistem pemberi rekomendasi penataan barang atau kombinasi beberapa barang pada rak-rak di dalam gudang material menggunakan algoritma apriori. Studi kasus menggunakan data transaksi barang di gudang material PT. XYZ dengan beberapa kombinasi barang sesuai dengan kondisi riil. Dari penelitian ini diperoleh hasil bahwa sistem perekomendasi akan memberikan hasil penataan barang atau kombinasi beberapa barang yang optimal bila menggunakan nilai minimum support 2% yang mana akan diperoleh frequent 1-itemset sebanyak 55 itemset dan frequent 2-itemset sebanyak 26 itemset. Dari pengujian pada frequent 2-itemset diperoleh bahwa kombinasi terbaik adalah nilai minimum support 2% dan nilai minimum confidence 40% yang meghasilkan 42 aturan asosiasi pada kombinasi 2 macam barang yang sering diambil secara bersamaan. Untuk rekomendasi penentuan lokasi barang didasarkan nilai lift ratio (LR) dari setiap kombinasi barang.
Metode Absensi Mahasiswa berbasis QR Code dan Time-Based One-Time Password
Aprianti Nanda Sari;
Trisna Gelar Abdillah
Jurnal Informatika Polinema Vol. 7 No. 2 (2021): Vol 7 No 2 (2021)
Publisher : UPT P2M State Polytechnic of Malang
Show Abstract
|
Download Original
|
Original Source
|
Check in Google Scholar
|
DOI: 10.33795/jip.v7i2.492
Sistem absensi manual dengan cara memanggil nama mahasiswa satu persatu oleh dosen atau dengan menandatangani list kehadiran tentunya akan memakan waktu yang cukup lama dan tidak aman. Maka dibangunlah sistem absensi terkomputerisasi berbasis sidik jari, RFID, pengenalan wajah dan lainnya. Akan tetapi metode-metode tersebut memerlukan biaya tambahan untuk membeli alat khusus. Sebagai solusi, akhirnya sistem absensi berbasis QR code semakin diminati karena hanya memerlukan webcam bawaan dari laptop atau PC. Mahasiswa yang hadir di kelas hanya butuh memindai QR code yang tertera pada saat kelas berlangsung melalui smartphone mereka sebagai tanda kehadiran. Akan tetapi sistem absensi berbasis QR code ini memiliki celah misalnya mahasiswa yang hadir dapat mengambil gambar dan mengirimkan QR code di kelas kepada temannya yang tidak hadir agar dapat dianggap hadir. Sehingga diperlukan sistem autentikasi dengan keamanan tambahan agar kecurangan pada sistem absensi berbasis QR code tidak terjadi. Salah satu upayanya adalah dengan menggunakan One-Time Password yang dibuat unik dan dinamis untuk setiap mahasiswa dan hanya berlaku sekali saja dalam waktu singkat saja atau yang lebih dikenal sebagai Time-based One-Time Password atau disingkat TOTP. Dari hasil analisa, penggunaan TOTP dapat menghindari berbagai kemungkinan kecurangan oleh mahasiswa dan penyerangan oleh pihak ketiga.
Prediksi Banjir Lahar Dingin pada Lereng Merapi menggunakan Data Curah Hujan dari Satelit
Rosa Andrie Asmara;
Arief Prasetyo;
Siska Stevani;
Ratih Indri Hapsari
Jurnal Informatika Polinema Vol. 7 No. 2 (2021): Vol 7 No 2 (2021)
Publisher : UPT P2M State Polytechnic of Malang
Show Abstract
|
Download Original
|
Original Source
|
Check in Google Scholar
|
DOI: 10.33795/jip.v7i2.494
Banjir lahar dingin merupakan sekumpulan lahar yang dimuntahkan oleh gunung berapi dan sampai ke permukaan yang lebih rendah dengan bantuan atau dorongan dari air hujan. Akibatnya, air hujan yang membawa serta material-material vulkanik dari lahar ini akan menerjang lahan yang berada di bawahnya ataupun pemukiman penduduk dan banyaknya kerusakan atapun dampak-dampak lain yang akan dihasilkan oleh banjir lahar dingin ini. Faktor yang menyebabkan banjir lahar adalah intensitas atau curah hujan (mm/jam) dan akumulasi hujan (mm/7hari). Terjadinya banjir lahar dapat dideteksi oleh beberapa alat salah satunya adalah Geofon. Alat sering rusak dan hanyut karena dipasang atau ditempatkan pada permukaan tanah disetiap stasiun sungai, dan pada saat terjadinya banjir lahar hingga sampai ke permukaan yang lebih rendah maka alat tersebut tidak dapat mengirimkan informasi getaran. Oleh karena itu pada penelitian ini di buat sebuah sistem untuk membantu sensor Geofon dalam memprediksi banjir lahar pada kawasan Lereng Merapi. Sistem akan mengeluarkan status getaran yang terdiri dari 4 kelas yaitu banjir rendah, banjir sedang, banjir tinggi dan tidak terjadi banjir lahar dengan memperhitungkan atribut curah hujan dan akumulasi hujan dari satelit menggunakan metode K-NN (K-Nearest Neighbor). Pemilihan nilai K pada algoritma K-NN menjadi hal yang penting karena akan mempengaruhi kinerja dari algoritma K-NN pada sistem prediksi banjir lahar, oleh karena itu perlu diketahui berapa nilai K dan tingkat akurasinya. Metode 10-Fold Cross Validation dan Uji Akurasi digunakan untuk mengetahui nilai K Optimal pada tiap lokasi penelitian yaitu Gendol, Putih 1 dan Putih 2. Berdasarkan hasil pengujian yang didapat adalah pada lokasi Gendol dan Putih 1 menggunakan 3-NN dengan akurasi rata-rata 72.307% dan 81.429%, lokasi Putih 2 menggunakan 1-NN dengan akurasi rata-rata 86.955%. Data pengujian pada lokasi Gendol menggunakan data 1-Fold Cross Validation dengan akurasi 3-NN 92.31%, Putih 1 data 8-Fold Cross Validation dengan akurasi 3-NN 95.24%, dan Putih 2 data 10-Fold Cross Validation dengan akurasi 1-NN 91.3%.
Evaluasi Penggunaan Prometheus dan Grafana Untuk Monitoring Database Mongodb
Ramadoni;
Mahmud Zunus Amirudin;
Rifki Fahmi;
Ema Utami;
Muhammad Syukri Mustafa
Jurnal Informatika Polinema Vol. 7 No. 2 (2021): Vol 7 No 2 (2021)
Publisher : UPT P2M State Polytechnic of Malang
Show Abstract
|
Download Original
|
Original Source
|
Check in Google Scholar
|
DOI: 10.33795/jip.v7i2.530
Sebuah basis data dituntut untuk selalu dalam keadaan optimal, karena hal tersebut merupakan faktor penting dalam sebuah Sistem Informasi Manajemen. Untuk menjaga sebuah sistem basis data agar selalu optimal tentu saja dibutuhkan mekanisme monitoring yang dapat memberikan informasi kepada pihak yang berkepentingan sehingga setiap kejadian dapat terpantau, sehingga apabila diperlukan sebuah tindakan preventif maupun korektif dapat segera dilakukan. Pemilihan perangkat monitoring perlu mempertimbangkan beberapa faktor seperti fleksibilitas, kemampuan untuk diintegrasikan dengan sistem yang lain. Prometheus dan Grafana adalah kombinasi yang bagus untuk melakukan monitoring pada sistem basis data, tidak hanya terbatas pada sistem sebuah basis data MongoDB, kemampuan Prometheus untuk menyimpan basis data dalam bentuk time series memungkinkan Prometheus untuk menyimpan data dalam jumlah besar. Sedangkan tampilan visualisasi Grafana yang bisa dikustomisasi membuka peluang untuk kita membuat visualisasi dan mendapatkan visibilitas sesuai dengan kebutuhan. Penggunaan Prometheus dan Grafana yang bersifat opensource juga menjadi pilihan untuk mengurangi biaya karena tidak membutuhkan lisensi untuk penggunaannya bahkan di lingkungan komersial sekalipun.
Fuzzy Logic Recommended Student Learning Levels
Abdul Rahman;
Destiarini;
Joko Kuswanto
Jurnal Informatika Polinema Vol. 7 No. 2 (2021): Vol 7 No 2 (2021)
Publisher : UPT P2M State Polytechnic of Malang
Show Abstract
|
Download Original
|
Original Source
|
Check in Google Scholar
|
DOI: 10.33795/jip.v7i2.531
Dalam proses penerimaan siswa kursus bahasa inggris menggunakan tes penempatan level belajar. Pada tahap penerapan tes menemui masalah seperti lambatnya penentuan tingkat belajar siswa berdasarkan hasil tes yang berbasis kertas. Tujuan dari penelitian ini adalah memberikan rekomendasi untuk tingkat pembelajaran siswa menggunakan metode Fuzzy. Dimana level belajar bahasa inggris ini terbagi dalam kategori Foundation, Basic, Elementary, Intermediate dan Advance. Untuk inputan nilainya adalah Listening, Vocabulary, Structure dan Reading. Hasil penelitian diuji akurasi dataset dengan metode confusion matrix dengan hasil akurasi sebesar 88%
Cost Sensitive Tree dan Naïve Bayes pada Klasifikasi Multiclass
M. Aldiki Febriantono;
Ridho Herasmara;
Gusti Pangestu
Jurnal Informatika Polinema Vol. 7 No. 2 (2021): Vol 7 No 2 (2021)
Publisher : UPT P2M State Polytechnic of Malang
Show Abstract
|
Download Original
|
Original Source
|
Check in Google Scholar
|
DOI: 10.33795/jip.v7i2.533
Data mining merupakan proses pengolahan data untuk mengambil keputusan secara cepat, tepat dan akurat. Data mining pada bidang kesehatan dan manufacturing menjadi hal yang sangat penting dikarenakan suatu kesalahan klasifikasi (misclassification) akan memiliki dampak serius. Masalah utama pada data mining ketika data yang digunakan bersifat imbalanced multiclass karena classifier kesulitan untuk mengklasifikasikan data sehingga menyebabkan terjadinya misclassification. Solusi untuk meminimalkan missclasification dengan menggunakan metode cost sensitive pada classifier decision tree C5.0 dan naïve bayes. Penelitian ini menggunakan dataset glass, lympografi, vehicle, thyroid dan wine yang diperoleh dari UCI Respository. Kelima dataset dilakukan proses seleksi atribut menggunakan particle swarm optimazation. Kemudian dataset diuji menggunakan metode cost sensitive decision tree C5.0 dan cost sensitive naïve bayes. Hasil pengujian menggunakan metode cost sensitive decision tree C5.0 diperoleh nilai accuracy pada dataset glass, lympografi, vehicle, thyroid dan wine berturut-turut sebesar 76.17%, 83.33%, 75.27%, 95.81% dan 95.83%. Sedangkan metode cost sensitive naïve bayes memiliki performa accuracy pada dataset berturut-turut sebesar 32.24%, 82.61%, 25.53%, 97.67% dan 94.94%.
Ekstraksi Click Stream Data Web E-Commerce Menggunakan Web Usage Mining
Kartina Diah Kusuma Wardani
Jurnal Informatika Polinema Vol. 7 No. 2 (2021): Vol 7 No 2 (2021)
Publisher : UPT P2M State Polytechnic of Malang
Show Abstract
|
Download Original
|
Original Source
|
Check in Google Scholar
|
DOI: 10.33795/jip.v7i2.538
E-Commerce berkembang pesat dalam world wide web hingga menghasilkan berbagai jenis data yang dapat dianalisa lebih lanjut untuk berbagai keperluan seperti personifikasi web, profiling customer, dan sebagainya. Salah satu jenis data yang dihasilkan e-Commerce adalah click stream data web yang merekam aktivitas visitor web dalam bentuk log data selama berinteraksi pada laman web. Penelitian ini mengekstraksi click stream data web e-commerce untuk mendapatkan pola interaksi konsumen terhadap halaman web selama mengunjungi web e-commerce. Berdasarkan jenis data yang diekstrak maka web usage mining digunakan untuk ekstraksi pola dari click stream data yang berbentuk log data. Teknik mining yang dianalisa terhadap log data e-commerce pada penelitian ini terdiri dari frequent itemset, asociation rules, dan frequence sequence mining. Frequent itemset menghasilkan halaman web yang paling sering diakses oleh visitor. Association rules menghasilkan pola kemungkinan halaman web yang akan diakses visitor jika visitor mengakses halaman-halamn tertentu. Frequence sequence mining mendapatkan pola urutan halaman web yang paling sering diakses oleh visitor web e-commerce saat berinteraksi pada laman web. Pola urutan halaman yang diakses visitor menunjukkan urutan kebiasaan visitor mengunjungi e-commerce. Sedangkan teknik mining yang diimplementasikan untuk menghasilkan pola akses visitor pada penelitian ini adalah Frequence sequence mining. Hasil ekstraksi dari penelitian ini menunjukkan ada enam halaman web yang paling sering diakses oleh konsumen dengan berbagai pola urutan aksesnya.