Claim Missing Document
Check
Articles

Found 25 Documents
Search

Rancang Bangun Aplikasi Chatbot Rekomendasi Jadwal Penggunaan Ruangan Berbasis Graph Coloring menggunakan Dialogflow dan Neo4j Diaz Ardian Alvianto; Ricky Eka Putra
Journal of Informatics and Computer Science (JINACS) Vol 2 No 03 (2021)
Publisher : Universitas Negeri Surabaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1014.983 KB) | DOI: 10.26740/jinacs.v2n03.p194-203

Abstract

Peningkatan jumlah mahasiswa Universitas Negeri Surabaya pada Program Studi Teknik Informatika merupakan hal yang tidak bisa dihindari. Hal itu berpengaruh pada banyaknya jadwal perkuliahan yang harus diatur dengan baik. Salah satu variabel penting dalam menyusun penjadwalan yaitu ketersediaan ruangan perkuliahan. Sehingga dibutuhkan suatu sistem yang dapat membantu manajemen ruang untuk mengatur antara jadwal kuliah dengan ruangan yang tersedia. Sistem yang dirancang berupa aplikasi chatbot rekomendasi jadwal penggunaan ruangan berbasis Graph Coloring menggunakan Dialogflow dan Neo4j. Penelitian ini mengaplikasikan graph coloring algoritma welch-powell untuk membuat rekomendasi penggunaan ruang kelas yang efektif. Hasil penjadwalan ruangan yang diperoleh nantinya akan dimasukkan kedalam Neo4j sebagai database aplikasi. Chatbot digunakan untuk mengimplementasikan hasil dari penjadwalan ruangan, sehingga akan menampilkan output rekomendasi ruangan tersedia dalam aplikasi chatbot. Algoritma yang diterapkan mampu menghasilkan ketepatan hasil untuk pemesanan ruang kelas pengganti dan ruang sidang dari chatbot, yaitu pada pengujian menggunakan algoritma genetika untuk membuat jadwal perkuliahan menghasilkan tidak ada bentrok antar kelas dan dosen dari best fitness dengan besar probabilitas crossover 0,75, probabilitas mutasi: 0,50, dan kromosom/ populasi 100. Sedangkan pada pengujian graph coloring menggunakan fitur K-1 Coloring Algorithm pada Neo4j mengasilkan pemetaan node dan edges untuk rekomendasi penggunaan ruang kelas. Pada fitur pemesanan ruang kelas pengganti dilakukan 20 kali percobaan melihat rekomendasi kelas dari chatbot dan menghasilkan balasan yang sudah sesuai dengan aspek menurut hari, ketersediaan dosen dan kelas. Hal tersebut menunjukkan bahwa aplikasi chatbot yang telah dibuat telah berhasil dan layak diterapkan untuk rekomendasi jadwal penggunaan ruangan. Kata Kunci — Penjadwalan, Chatbot, Graph Coloring, DialogFlow, Neo4j
Perbandingan Performa Algoritma GA-SVM dan BOA-SVM dalam Mengklasifikasi Artikel Berita Berbahasa Indonesia Winda Ramadhanty Pratiwi; Ricky Eka Putra
Journal of Informatics and Computer Science (JINACS) Vol 2 No 04 (2021)
Publisher : Universitas Negeri Surabaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (659.054 KB) | DOI: 10.26740/jinacs.v2n04.p252-258

Abstract

Abstrak— Kemajuan teknologi mendorong industri media massa untuk beralih dari media cetak ke media digital seperti situs berita online. Secara umum, situs berita online mengelompokkan artikel berita menjadi beberapa kategori untuk memudahkan pembaca dalam memilih artikel berita sesuai topik yang diminati. Hanya saja pengelompokkan artikel berita dilakukan secara manual dengan mempelajari isi atau kontennya terlebih dahulu. Apabila jumlah artikel berita yang ingin dikelompokkan sangat banyak, maka waktu yang dibutuhkan juga tidak sedikit. Hal ini menjadi dasar untuk membuat sistem klasifikasi otomatis dalam mengelompokkan artikel berita. Artikel berita dari IDNTimes menjadi sumber data di penelitian ini. Algoritma TF-IDF digunakan sebagai ekstraksi fitur, sedangkan SVM digunakan sebagai klasifikasi data. Penelitian ini akan membandingkan Genetic Algorithm (GA) dan Bayesian Optimization Algorithm (BOA) dalam mengoptimasi SVM untuk mengklasifikasi artikel berita. Berdasarkan hasil pengujian sistem, algoritma GA-SVM memiliki akurasi 93.80% dan waktu pemrosesan 969.015 detik, sedangkan BOA-SVM memiliki akurasi 94.79% dan waktu pemrosesan 829.921 detik. Kesimpulannya, algoritma BOA lebih baik daripada GA dalam mengoptimasi SVM untuk mengklasifikasi artikel berita. Kata Kunci— klasifikasi artikel berita, support vector machine, bayesian optimization, genetic algorithm.
Pengukuran Probabilitas Berita Hoax Berdasarkan Judul Clickbait Menggunakan Metode Adaptive Neuro Fuzzy Inference System Berbasis Web Muhammad Aris Ashari; Ricky Eka Putra
Journal of Informatics and Computer Science (JINACS) Vol 2 No 04 (2021)
Publisher : Universitas Negeri Surabaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (351.481 KB) | DOI: 10.26740/jinacs.v2n04.p290-294

Abstract

Penggunaan platform digital membawa pengaruh terhadap minat konsumsi berita di masyarakat karena memiliki nilai lebih dari sisi visual dan realtime. Bentuk berita berupa baris-baris tulisan telah banyak berubah menjadi bentuk gambar-gambar informatif yang memuat isi berita secara keseluruhan dan perubahan informasi yang dapat dilaporkan secara langsung tanpa memiliki jadwal terbit tertentu. Dari banyaknya pengaruh positif, terdapat sebuah cela dari penggunaan platform digital sebagai media penyebaran berita, yaitu kebebasan membuat dan menyebarkan informasi di dunia maya. Semua orang dapat menulis artikel atau berita kemudian mengunggah dan membagikannya untuk mendapat keuntungan pribadi dari jumlah klik maupun kunjungan pada hasil unggahannya. Praktik clickbait santer digunakan untuk mendapatkan perhatian pembaca melalui pemilihan kata-kata yang bersifat provokatif, ambigu dan tidak jarang mengandung unsur hoaks. Banyak ditemukan kasus isi muatan berita yang berbeda atau bahkan tidak berhubungan sama sekali dengan judul yang dibuat. Hal ini jelas sangat meresahkan pembaca karena dapat menimbulkan kesalahpahaman antara judul dengan berita yang dibaca. Penelitian ini merupakan suatu bentuk upaya untuk mengurangi tersebarnya berita-berita bohong dan meminimalisir kesalahpahaman pembaca terhadap isi muatan berita. Sistem yang dibuat pada penelitian ini akan mampu mendeteksi probabilitas hoaks yang terkandung pada berita-berita yang diunggah pada platform digital melalui analisis linguistik judul berita. Dengan kemampuan individual learning, algoritma ANFIS akan melakukan proses learning tiap kali terdapat data inputan baru. Kemampuan ini membuat algoritma ANFIS dapat mendeteksi probabilitas hoaks dengan baik. Algoritma ANFIS mencapai tingkat akurasi tertinggi pada data testing sebesar 90% menggunakan threshold 60. Sedangkan akurasi tertinggi pada data training mencapai 75% menggunakan threshold 40 dan 50.
Implementasi Virtual Server Berbasis Container pada Sistem Informasi Geografis Cagar Budaya Mojokerto Muhammad Hussein Isron; Ricky Eka Putra
Journal of Informatics and Computer Science (JINACS) Vol 3 No 02 (2021)
Publisher : Universitas Negeri Surabaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1294.687 KB) | DOI: 10.26740/jinacs.v3n02.p143-154

Abstract

Sistem Informasi Geografis Cagar Budaya Kabupaten Mojokerto Merupakan Sistem informasi yang memuat detail dan lokasi cagar budaya di Kabupaten Mojokerto. Dalam sistem informasi geografis terdapat beberapa integrasi diantaranya maps dan database. Pembuatan SIG ini dilakukan menggunakan cara pengumpulan data melalui observasi baik secara offline di beberapa titik lokasi maupun daring melalui portal resmi Kemendikbud terkait cagar budaya yang ada di Mojokerto. Pada pengembangannya juga melakukan studi literatur yang mendukung penyelesaian masalah mengenai penyiapan lokal development server yang fleksibel, scaleable, efisien, dan mempunyai ketersediaan yang tinggi. Teknologi yang digunakan yaitu docker dengan arsitektur container. Pengembangan SIG dilakukan dalam docker container dan dibangun dengan arsitektur model view controller menggunakan penentuan titik lokasi google maps. Penyiapan lokal development server terdiri dari beberapa requirement yang dibutuhkan untuk pengembangan SIG, Apache http server sebagai server menjalankan aplikasi, PHP sebagai bahasa pemrograman pembuatan aplikasi, MySQL sebagai rdbms penyimpanan data cagar budaya serta Adminer digunakan untuk mengelola administrasi database. Server tersebut dibangun dengan docker berbasis container. Pengujian pada sistem informasi geografis ini menggunakan blackbox testing dimana fungsi halaman pengunjung dan admin dapat berjalan dengan baik. Dilakukan juga evaluasi terhadap hasil pengembangan melalui docker container sebagai alternatif lokal development server yang efisien, fleksibel, scaleable dan memiliki ketersediaan yang tinggi.
Sistem Klasifikasi Limbah Menggunakan Metode Convolutional Neural Network (CNN) Pada Webservice Berbasis Framework Flask Parole Nimadinaga Dacipta; Ricky Eka Putra
Journal of Informatics and Computer Science (JINACS) Vol 3 No 04 (2022)
Publisher : Universitas Negeri Surabaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (924.348 KB) | DOI: 10.26740/jinacs.v3n04.p394-402

Abstract

Abstrak— Di berbagai negara sampah merupakan permasalahan yang dihadapi sehari-hari seluruh aktivitas tidak bisa terhindar dari kata sampah. banyak sekali jenis–jenis sampah di lingkungan kita, dan kebanyakan masyarakat Indonesia masih belum bisa membedakan jenis sampah apa yang setiap hari mereka buang sehingga banyak sekali sampah yang tidak diklasifikasikan. Yang menyebabkan proses klasifikasi limbah pada pabrik daur ulang sangat susah untuk dilakukan. Maka dari itu bagaimana jika limbah yang ada diklasifikasikan menjadi 9 macam dan setiap masyarakat dapat membuang limbah sampah mereka sesuai dengan 9 macam class yang telah dibedakan yaitu battery, pakaian, e-limbah, kaca, bola lampu, metal, organic, kertas, plastic. sehingga mempermudah pabrik daur ulang dalam proses klasifikasi sampah. Oleh karena itu Sistem Klasifikasi Limbah Pada Web Service Berbasis Framework Flask akan sangat membantu masyarakat dalam mengklasifikasikan limbah sampah yang dihasilkan. Sistem klasifikasi limbah pada aplikasi berbasis web ini menggunakan metode Convolutional Neural Network (CNN). Metode CNN merupakan suatu metode deep learning yang dapat mengidentifikasi dan mengklasifikasi sebuah object pada citra digital. Penelitian ini menggunakan arsitektur VGGNet. VGGNet merupakan arsitektur dari Convolutional Neural Network. Penelitian ini menggunakan 9 class limbah sampah. Dataset yang digunakan yaitu 8371 citra limbah sampah. Dimana dataset tersebut digunakan untuk melakukan training data yang telah dibagi menjadi 1.122 citra battery, 729 pakaian, 624 e-limbah, 773 kaca, 651 bola lampu, 1092 metal, 671 organic, 1468 kertas dan 1241 plastic. Pada proses training dilakukan sebanyak 28 epoch, yang mendapatkan akurasi tertinggi 69,77% dengan loss terendah 0,34. Untuk data testing didapatkan hasil 64,45% accuracy.
Pengamanan Mnemonic Phrase Menggunakan Modified Advanced Encryption Standart M. Adharis Adlani; Ricky Eka Putra
Journal of Informatics and Computer Science (JINACS) Vol 3 No 04 (2022)
Publisher : Universitas Negeri Surabaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (2066.775 KB) | DOI: 10.26740/jinacs.v3n04.p425-434

Abstract

Abstract - Security is an action to prevent the occurrence of dangers, threats, and attacks, especially the security of cryptocurrency storage assets on the smartphone crypto mobile wallet application. Security is important to protect wallet data from asset theft attacks. The results of the observations made by many users store their wallet recovery words (mnemonic phrases) on cloud services such as Google Drive and One Drive, this is very vulnerable to data hacking if the account has been compromised then hackers take valuable data for their own benefit. Computer scientists created a cryptographic security algorithm to steal data from theft. The AES (Advanced Encryption Standard) algorithm is a symmetric block cipher cryptography algorithm where to obtain data that has been encrypted using a secret key or passkey user must enter the same key when encoding data (encryption). AES is divided into three based on key length, namely AES-128 has a key length of 128 bits, AES-192 has a key length of 192 bits, and AES-256 has a key length of 256 bits. The system that will be made in this research is to modify the rotation of the standard AES algorithm which has 10 rounds to 16 rounds. Modifications made by increasing the number of algorithm cycles make the system more secure and stronger from attacks and require longer computational time for hackers to crack encryption. The tests carried out are comparing the results of ciphertext, time and avalanche effects. The test results show differences in ciphertext output in the same file after encryption, then the time required for the modified AES algorithm in the encryption and decryption process is longer than the AES standard. While the test results on the avalanche effect showed a slight change that occurred in the standard AES by 48.6% and then in the modified AES by 55.6%. An avalanche effect has good results if there is a slight change of 45-60% (half or more). The more bits that change the more difficult the cryptographic algorithm to crack.
Penerapan Clean Architecture pada Aplikasi Pemesanan Makanan menggunakan Metode Slope One Algorithm Moh. Hilmy Badrudduja; Ricky Eka Putra
Journal of Informatics and Computer Science (JINACS) Vol 3 No 04 (2022)
Publisher : Universitas Negeri Surabaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1052.375 KB) | DOI: 10.26740/jinacs.v3n04.p506-514

Abstract

Abstrak – Aplikasi Pemesanan Makanan merupakan suatu terobosan teknologi yang dibuat supaya masyarakat pengguna Android dapat membeli makanan kapanpun dan dimanapun. Mengkonsumsi Makanan yang bernutrisi sangatlah dibutuhkan oleh tubuh terutama pada masa COVID-19 seperti saat ini. Oleh karena itu, masyarakat membutuhkan sebuah aplikasi yang didalamnya terdapat rekomendasi makanan sesuai nutrisi yang terkandung sehingga dapat menciptakan pola makan yang sehat dan dapat mencegah risiko beberapa penyakit. Aplikasi ini dibuat menggunakan kualitas kode yang maintainability dengan menerapkan prinsip Clean Architecture. Pengujian pada penelitian ini dilakukan dengan membandingkan antara aplikasi yang menerapkan prinsip Clean Architecture dengan aplikasi yang menerapkan arsitektur Model-View-Controller (MVC). Hasil pengujian membuktikan bahwa penerapan prinsip Clean Architecture mempunyai tingkat maintainability lebih besar daripada penerapan arsitektur MVC yaitu 78.2% dibanding 54.8%, dimana 78.2% dapat dikatakan maintainability karena mendapatkan nilai lebih dari 67%. Selain itu, penelitian ini juga melakukan pengujian Metode Slope One Algorithm untuk mengetahui rekomendasi makanan yang baik untuk beberapa kondisi kesehatan (seperti sehat, diabetes, jantung, kelelahan, obesitas, dan sembelit) menjadi tiga kategori makanan berdasarkan keadaan gizi menurut Indeks Antropometri, yaitu Buruk dikonsumsi apabila ???????????? ≤ 2.4, Kurang baik dikonsumsi apabila 2.4 < ???????????? ≤ 3.2, dan Baik dikonsumsi apabila ???????????? > 3.2. Berdasarkan hasil pengujian Metode Slope One Algorithm, terdapat beberapa menu makanan yang sebaiknya dihindari oleh kondisi Kesehatan tertentu contohnya pada menu Nasi Goreng Seafood dan Mie Goreng Seafood yang mempunyai kategori Buruk dikonsumsi oleh seseorang yang mengalami Kelelahan karena mendapatkan nilai ???????????? sebesar 1.375 atau kurang dari 2.4. Kata Kunci – Rekomendasi Makanan, Maintainability, Clean Architecture, MVC, Slope One Algorithm
Perkiraan Harga Beras Premium DKI Jakarta Menggunakan Regresi Linier Ricky Eka Putra; Anita Sindar Sinaga
JIEET (Journal of Information Engineering and Educational Technology) Vol. 6 No. 2 (2022)
Publisher : Universitas Negeri Surabaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.26740/jieet.v6n2.p80-85

Abstract

Kebutuhan masyarakat DKI Jakarta terhadap beras cukup tinggi. Hal ini berdasarkan kegemaran masyarakat Indonesia untuk memilih nasi sebagai makanan pokoknya sehingga daya beli masyarakat terhadap beras cukup besar. Beras premium merupakan salah satu jenis beras yang memiliki kualitas terbaik. Banyak kalangan dari masyarakat yang memilih beras tipe ini sebagai bahan pokok di tempatnya masing-masing . Sebagai negara yang memproduksi beras serta berada di lingkungan negara-negara tetangga yang juga memproduksi beras, Indonesia melalui bagian pemerintah terkait juga turut mengontrol harga dari beras tersebut khususnya beras premium. Hal ini dilakukan agar harga beras premium yang ada di masyarakat sesuai dengan kondisi perekonomian di wilayah sekitar. Peluang para pedagang untuk berbuat curang dalam memainkan harga juga dapat direduksi dengan adanya kebijakan dari pemerintah terkait harga tersebut. Oleh karena itu, pemerintah memerlukan suatu dukungan dari sebuah metodologi sains data untuk memperkirakan harga beras premium sebagai masukan untuk menetapkan harga beras premium ke masyarakat. Penelitian ini memilih sebuah metode regresi linier untuk melakukan prediksi terhadap harga beras premium. Metode regresi linier ini diyakini dapat cocok dan sesuai dengan data harga beras yang bersifat time series. Pengembangan aplikasi perkiraan harga beras ini juga mengadopsi metodologi Cross Industry Standard Process – Data Mining (CRISP-DM) yang cukup populer dalam berbagai penelitian terkait. Regresi linier masuk dalam bagian pengembangan model pada salah satu tahapan di CRISP-DM tersebut. Hasil performa dari metode Regresi Linier tersebut dengan Mean Absolute Error (MAE) sebesar 275.55 dan Mean Squared Error (MSE) sebesar 103169.10, masih membuat metode ini dapat dihandalkan dalam memperkirakan harga beras di DKI Jakarta.
Klasifikasi Data Trafik Jaringan dengan Framework Big Data Analitik I Made Suartana; Ricky Eka Putra; Aditya Prapanca
JIEET (Journal of Information Engineering and Educational Technology) Vol. 6 No. 2 (2022)
Publisher : Universitas Negeri Surabaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.26740/jieet.v6n2.p90-94

Abstract

Pada era Big Data perkembangan data menjadi sangat pesat berbagai teknologi menghasilkan data sangat cepat dengan berbagai format dan struktur data. Dengan masifnya data menjadi permasalahan dalam pengolahan dan analisis data untuk mendapatkan informasi terkait data tersebut. Masifnya data juga menjadi masalah dalam pengelolaan jaringan komputer. Dengan perkembangan teknologi jaringan yang mengarah ke virtualisasi jaringan dan semakin banyaknya penggunaan IoT menghasilkan data yang semakin beragam. Beragamnya data menimbulkan kesulitan dalam manajemen, monitoring dan keamanan jaringan. Data trafik jaringan yang dihasilkan berbagai perangkat memiliki struktur yang beragam dan jumlah data yang semakin besar menyulitkan mekanisme pemantauan dan pendeteksi serangan untuk menemukan pola serangan. Munculnya konsep Big Data Analitik menjadi satu solusi dalam manajemen data, Big data analitik adalah proses mendapatkan informasi yang bermanfaat lewat analisis berbagai jenis kumpulan data yang berukuran sangat besar. Pada penelitian ini menggunakan pendekatan big data analitik untuk melakukan klasifikasi pada trafik jaringan untuk mengelompokkan data normal atau yang diindikasikan serangan pada jaringan. Penelitian ini menggunakan Network Traffic Project dari kaggle. Spark dipilih sebagai framework big data analitik yang digunakan dalam proses klasifikasi trafik jaringan.
Penerapan Algoritma Damerau Levenshtein Distance Pada Pencarian Arsip Desa Jerukseger Pendukung ISO Farra Wahyunanda Arsyta; Ricky Eka Putra
Journal of Informatics and Computer Science (JINACS) Vol 4 No 04 (2023)
Publisher : Universitas Negeri Surabaya

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.26740/jinacs.v4n04.p423-435

Abstract

Penelitian ini bertujuan untuk mengimplementasikan algoritma Damerau-Levenshtein Distance pada sistem informasi arsip dan surat menyurat di Desa Jerukseger. Masalah yang dihadapi adalah kesulitan mencari data spesifik dalam sistem informasi karena ketidakcocokan kata kunci yang dimasukkan oleh pengguna dengan data yang ada. Algoritma Damerau-Levenshtein Distance dapat mengatasi masalah ini dengan memperhitungkan perubahan karakter seperti penghilangan, penambahan, penggantian, atau transposisi karakter yang dilakukan oleh pengguna. Dengan menggunakan algoritma ini, diharapkan sistem informasi dapat memberikan hasil pencarian yang lebih akurat dan relevan. Penelitian ini mengacu pada standar ISO 15489-1:2016 sebagai pedoman dalam pengelolaan arsip dan surat menyurat. Metodologi yang digunakan adalah metode waterfall, yang terdiri dari tahap analisis, desain, implementasi, pengujian, dan pemeliharaan. Pada tahap analisis, dilakukan analisis terhadap sistem informasi yang ada, termasuk fungsi-fungsi utama dan standar ISO yang relevan. Pada tahap desain, akan dibuat desain sistem berbasis web yang mencakup fitur pencarian data menggunakan algoritma Damerau-Levenshtein Distance. Tahap implementasi melibatkan penggunaan framework Laravel dengan bahasa pemrograman PHP. Pada tahap pengujian, sistem akan diuji untuk memastikan kinerja dan akurasi algoritma pencarian. Terakhir, pada tahap pemeliharaan, sistem akan dipelihara dan diperbaiki jika terdapat masalah atau kekurangan. Hasil dari penelitian ini diharapkan dapat meningkatkan efektivitas dan efisiensi dalam pencarian data pada sistem informasi arsip dan surat menyurat di Desa Jerukseger. Implementasi algoritma Damerau-Levenshtein Distance diharapkan memudahkan pengguna dalam menemukan data yang dicari, serta mengoptimalkan pengelolaan arsip dan surat menyurat sesuai dengan standar ISO yang berlaku. Kata Kunci: Sistem informasi arsip, surat menyurat, Damerau-Levenshtein Distance, standar ISO 15489-1:2016, Laravel, PHP, algoritma pencarian.