p-Index From 2019 - 2024
4.436
P-Index
Claim Missing Document
Check
Articles

Optimasi Pembobotan pada Query Expansion dengan Term Relatedness to Query-Entropy based (TRQE) Ludviani, Resti; Hayati, Khadijah F.; Arifin, Agus Zainal; Purwitasari, Diana
Jurnal Buana Informatika Vol 6, No 3 (2015): Jurnal Buana Informatika Volume 6 Nomor 3 Juli 2015
Publisher : Universitas Atma Jaya Yogyakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (297.228 KB) | DOI: 10.24002/jbi.v6i3.433

Abstract

Abstract. An appropriate selection term for expanding a query is very important in query expansion. Therefore, term selection optimization is added to improve query expansion performance on document retrieval system. This study proposes a new approach named Term Relatedness to Query-Entropy based (TRQE) to optimize weight in query expansion by considering semantic and statistic aspects from relevance evaluation of pseudo feedback to improve document retrieval performance. The proposed method has 3 main modules, they are relevace feedback, pseudo feedback, and document retrieval. TRQE is implemented in pseudo feedback module to optimize weighting term in query expansion. The evaluation result shows that TRQE can retrieve document with the highest result at precission of 100% and recall of 22,22%. TRQE for weighting optimization of query expansion is proven to improve retrieval document.     Keywords: TRQE, query expansion, term weighting, term relatedness to query, relevance feedback Abstrak..Pemilihan term yang tepat untuk memperluas queri merupakan hal yang penting pada query expansion. Oleh karena itu, perlu dilakukan optimasi penentuan term yang sesuai sehingga mampu meningkatkan performa query expansion pada system temu kembali dokumen. Penelitian ini mengajukan metode Term Relatedness to Query-Entropy based (TRQE), sebuah metode untuk mengoptimasi pembobotan pada query expansion dengan memperhatikan aspek semantic dan statistic dari penilaian relevansi suatu pseudo feedback sehingga mampu meningkatkan performa temukembali dokumen. Metode yang diusulkan memiliki 3 modul utama yaitu relevan feedback, pseudo feedback, dan document retrieval. TRQE diimplementasikan pada modul pseudo feedback untuk optimasi pembobotan term pada ekspansi query. Evaluasi hasil uji coba menunjukkan bahwa metode TRQE dapat melakukan temukembali dokumen dengan hasil terbaik pada precision  100% dan recall sebesar 22,22%.Metode TRQE untuk optimasi pembobotan pada query expansion terbukti memberikan pengaruh untuk meningkatkan relevansi pencarian dokumen.Kata Kunci: TRQE, ekspansi query, pembobotan term, term relatedness to query, relevance feedback
Perangkingan Dokumen Berbahasa Arab Menggunakan Latent Semantic Indexing Wahib, Aminul; Pasnur, Pasnur; Santika, Putu Praba; Arifin, Agus Zainal
Jurnal Buana Informatika Vol 6, No 2 (2015): Jurnal Buana Informatika Volume 6 Nomor 2 April 2015
Publisher : Universitas Atma Jaya Yogyakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (417.199 KB) | DOI: 10.24002/jbi.v6i2.411

Abstract

Berbagai metode perangkingan dokumen dalam aplikasi InformationRetrieval telah dikembangkan dan diimplementasikan. Salah satu metode yangsangat populer adalah perangkingan dokumen menggunakan vector space modelberbasis pada nilai term weighting TF.IDF. Metode tersebut hanya melakukanpembobotan term berdasarkan frekuensi kemunculannya pada dokumen tanpamemperhatikan hubungan semantik antar term. Dalam kenyataannya hubungansemantik antar term memiliki peranan penting untuk meningkatkan relevansi hasilpencarian dokumen. Penelitian ini mengembangkan metode TF.IDF.ICF.IBFdengan menambahkan Latent Semantic Indexing untuk menemukan hubungansemantik antar term pada kasus perangkingan dokumen berbahasa Arab. Datasetyang digunakan diambil dari kumpulan dokumen pada perangkat lunak MaktabahSyamilah. Hasil pengujian menunjukkan bahwa metode yang diusulkanmemberikan nilai evaluasi yang lebih baik dibandingkan dengan metodeTF.IDF.ICF.IBF. Secara berurut nilai f-measure metode TF.IDF.ICF.IBF.LSIpada ambang cosine similarity 0,3, 0,4, dan 0,5 adalah 45%, 51%, dan 60%. Namun metode yang disulkan memiliki waktu komputasi rata-rata lebih tinggidibandingkan dengan metode TF.IDF.ICF.IBF sebesar 2 menit 8 detik.
Citra Radiografi Panoramik pada Tulang Mandibula untuk Deteksi Dini Osteoporosis dengan Metode Gray Level Cooccurence Matrix (GLCM) Azhari, -; Suprijanto, -; Diputra, Yudhi; Juliastuti, Endang; Arifin, Agus Zainal
Majalah Kedokteran Bandung Vol 46, No 4 (2014)
Publisher : Faculty of Medicine, Universitas Padjadjaran

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (722.539 KB)

Abstract

Osteoporosis  salah satu penyakit degeneratif yang berkaitan dengan proses penuaan yang ditunjukkan perubahan struktur trabekula dan penurunan bone mineral density (BMD). Tujuan penelitian  adalah mendapatkan metode kuantifikasi citra panoramik  pada region of interest (ROI) di mandibula untuk menentukan BMD. Penelitian ini menggunakan  ROI (80x80 pixel) pada  kondilus mandibula untuk kuantifikasi citra dilakukan di Bagian Radiologi  Fakultas Kedokteran Gigi Universitas Padjadjaran bulan  Oktober sampai Desember 2013. Pendekatan analisis tekstur menggunakan prinsip gray level co-occurence matrix (GLCM).  Desain dari kuantifikasi citra terdiri atas tahapan pelatihan dan pengujian.  Tahapan pelatihan melalui  9 data latih terhadap subjek wanita berusia 52–73 tahun pascamenopause.  Data  BMD vertebra lumbar dari DEXA digunakan sebagai referensi pada tahap klasifikasi dengan support vector machine (SVM) dengan fungsi kernel multilayer perceptron. Pengujian digunakan 14 data uji dari subjek selain yang digunakan untuk data latih. Pengujian untuk klasifikasi kelas normal dan osteoporosis menggunakan SVM memberikan akurasi  85,71%; sensitivitas (tingkat benar positif) 90,91%; dan spesifisitas (tingkat benar negatif) 66,67%. Pengenalan fitur paling baik didapatkan menggunakan kombinasi fitur contrast, correlation, energy, dan homogeneity sebagai input bagi klasifikasi SVM. Simpulan, analisis tekstur trabekula menggunakan metode gray level co-occurence matrix (GLCM) citra panoramik gigi dapat digunakan untuk deteksi dini osteoporosis. Kata kunci: Grey level co-occorance matrix (GLCM), panoramik, osteoporosis Panoramic Radiograph Image using Cooccurence Gray Level Matrix Method (GLCM) for Early Detection of Osteoporosis in Mandibular Bone  Abstract Osteoporosis is one of the degenerative diseases associated with aging, which is apparent from changes in trabecular structure and decreased bone mineral density (BMD) The  aim of this study  was to obtain a panoramic image quantification method on a region of interest (ROI) to determine the BMD. This study used an ROI (80x80 pixels) of the mandibular condyle for image quantification. The study was performed at the Department of Radiology, Faculty of Dentistry, Padjadjaran University during the period of October to December 2013. A texture analysis approach was applied using the principles of gray level co-occurence matrix (GLCM). The design of image quantification consisted of training and testing stages. The training stage was performed through 9 training data on the subjects of post-menopausal women between 52–73 years old . Data from the lumbar vertebrae BMD DEXA was used as a reference in the classification stage using a support vector machine (SVM) with kernel function multilayer perceptron. The testing used 14 test data from subjects which were not used for training data. The results showed that for the normal and osteoporotic class classification using SVM the accuracy was 85.71%, sensitivity (true positive rate) was 90.91%, and specificity (true negative rate) was 66.67%.  The best feature recognition was obtained using a combination of feature contrast, correlation, energy, and homogeneity as inputs for SVM classification. In conclusion, analysis of the trabecular texture using dental panoramic image produced by gray level co-occurance matrix (GLCM) method can be useful for early detection of osteoporosis.Key words: Grey level co-occorance matrix (GLCM), panoramic, osteoporosis DOI: 10.15395/mkb.v46n4.338
Segmentasi Citra Ikan Tuna Menggunakan Gradient-Barrier Watershed Berbasis Analisis Hierarki Klaster dan Regional Credibility Merging Fadllullah, Arif; Arifin, Agus Zainal; Navastara, Dini Adni
Jurnal Buana Informatika Vol 7, No 3 (2016): Jurnal Buana Informatika Volume 7 Nomor 3 Juli 2016
Publisher : Universitas Atma Jaya Yogyakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (566.329 KB) | DOI: 10.24002/jbi.v7i3.661

Abstract

Abstract. The main issue of object identification in tuna image is the difficulty of extracting the entire contour of tuna physical features, because it is often influenced by uneven illumination and the ambiguity of object edges in tuna image. We propose a novel segmentation method to optimize the determination of tuna region using GBW-AHK and RCM. GBW-AHK is used to optimize the determination of adaptive threshold in order to reduce over-segmented watershed regions. Then, RCM merges the remaining regions based on two merging criteria, thus it produces two main areas of segmentation, the object extraction of tuna and the background. The experimental results on 25 tuna images demonstrate that the proposed method successfully produced an image segmentation with the average value of RAE by 4.77%, ME of 0.63%, MHD of 0.20, and the execution time was 11.61 seconds. Keywords: watershed, gradient-barrier, hierarchical cluster analysis, regional credibility merging, tuna segmentation Abstrak. Kendala utama identifikasi objek tuna pada citra ikan tuna adalah sulitnya mengekstraksi seluruh kontur tubuh ikan, karena seringkali dipengaruhi faktor iluminasi yang tidak merata dan ambiguitas tepi objek pada citra. Penelitian ini mengusulkan metode segmentasi baru yang mengoptimalkan penentuan region objek tuna menggunakan Gradient-Barrier Watershed berbasis Analisis Hierarki Klaster (GBW-AHK) dan Regional Credibility Merging (RCM). Metode GBW-AHK digunakan untuk mengoptimalkan penentuan adaptif threshold untuk mereduksi region watershed yang over-segmentasi. Kemudian RCM melakukan penggabungan region sisa hasil reduksi berdasarkan dua syarat penggabungan hingga dihasilkan dua wilayah utama segmentasi, yakni ekstraksi objek ikan tuna dan background. Hasil eksperimen pada 25 citra ikan tuna membuktikan bahwa metode usulan berhasil melakukan segmentasi dengan nilai rata-rata relative foreground area error (RAE) 4,77%, misclassification error (ME) 0,63%, modified Hausdorff distance (MHD) 0,20, dan waktu eksekusi 11,61 detik. Kata Kunci: watershed, gradient-barrier, analisis hierarki klaster, regional credibility merging, segmentasi tuna
Deteksi Bot Spammer pada Twitter Berbasis Sentiment Analysis dan Time Interval Entropy Aditya, Christian Sri Kusuma; Hani’ah, Mamluatul; Fitrawan, Alif Akbar; Arifin, Agus Zainal; Purwitasari, Diana
Jurnal Buana Informatika Vol 7, No 3 (2016): Jurnal Buana Informatika Volume 7 Nomor 3 Juli 2016
Publisher : Universitas Atma Jaya Yogyakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (456.068 KB) | DOI: 10.24002/jbi.v7i3.656

Abstract

Abstract. Spam is an abuse of messaging undesired by recipients. Those who send spam are called spammers.  Popularity of Twitter has attracted spammers to use it as a means to disseminate spam messages. The spams are characterized by a neutral emotional sentiment or no particular users’ preference perspective. In addition, the regularity of tweeting behavior periodically shows automation performed by bot. This study proposes a new method to differentiate between bot spammer and legitimate user accounts by integrating the sentiment analysis (SA) based on emotions and time interval entropy (TIE). The combination of knowledge-based and machine learning-based were used to classify tweets with positive, negative and neutral sentiments. Furthermore, the collection of timestamp is used to calculate the time interval entropy of each account. The results show that the precision and recall of the proposed method reach up to 83% and 91%. This proves that the merging SA and TIE can optimize overall system performance in detecting Bot Spammer.Keywords: bot spammer, twitter, sentiment analysis, polarity, entropy Abstrak. Spam merupakan penyalahgunaan pengiriman pesan tanpa dikehendaki oleh penerimanya, orang yang mengirimkan spam disebut spammer. Ketenaran Twitter mengundang spammer untuk menggunakannya sebagai sarana menyebarluaskan pesan spam. Karakteristik dari tweet yang dikategorikan spam memiliki sentimen emosi netral atau tidak ada preferensi tertentu terhadap suatu perspektif dari user yang memposting tweet. Selain itu keteraturan waktu perilaku saat memposting tweet secara periodik menunjukkan otomatisasi yang dilakukan bot. Pada penelitian ini diusulkan metode baru untuk mendeteksi antara bot spammer dan legitimate user dengan mengintegrasikan sentimen analysis berdasarkan emosi dan time interval entropy. Pendekatan gabungan knowledge-based dan machine learning-based digunakan untuk mengklasifikasi tweet yang memiliki sentimen positif, negatif dan tweet netral. Selanjutnya kumpulan timestamp digunakan untuk menghitung time interval entropy dari tiap akun. Hasil percobaan menunjukan bahwa precision dan recall dari metode yang diusulkan mencapai 83% dan 91%. Hal ini membuktikan penggabungan Sentiment Analysis (SA) dan Time Interval Entropy (TIE) dapat mengoptimalkan performa sistem secara keseluruhan dalam mendeteksi Bot Spammer.Kata Kunci:  bot spammer, twitter, sentiment analysis,  polarity, entropy
Peringkasan Dokumen Berbahasa Inggris Menggunakan Sebaran Local Sentence Wahib, Aminul; Arifin, Agus Zainal; Purwitasari, Diana
Jurnal Buana Informatika Vol 7, No 1 (2016): Jurnal Buana Informatika Volume 7 Nomor 1 Januari 2016
Publisher : Universitas Atma Jaya Yogyakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (353.749 KB) | DOI: 10.24002/jbi.v7i1.482

Abstract

Abstract. The number of digital documents grows very rapidly causing time waste in searching and reading the information. To overcome these problems, many document summary methods are developed to find important or key sentences from the source document. This study proposes a new strategy in summarizing English document by using local sentence distribution method to find and dig up hidden important sentence from the source document in an effort to improve quality of the summaries. Experiments are conducted on dataset DUC 2004 task 2. Measurement ROUGE-1 and ROUGE-2 are employed as a performance evaluation of the proposed method with sentence information density and sentence cluster keyword (SIDeKiCK). The experiment shows that the proposed method has better performance with an average achievement ROUGE-1 0.398, an increase of 1.5% compared to SIDeKiCK method and ROUGE-2 0.12, an increase 13% compared to SIDeKiCK method.Keywords: Summarize Document, Important Sentences, Distribution of Local Sentence, ROUGE. Abstrak. Jumlah dokumen digital yang berkembang sangat pesat menyebabkan banyaknya waktu terbuang dalam mencari dan membaca informasi. Untuk mengatasi permasalahan tersebut banyak dikembangkan metode peringkasan dokumen yang diharapkan mampu menemukan kalimat-kalimat penting dari dokumen sumber. Penelitian ini mengajukan strategi baru peringkasan dokumen berbahasa inggris menggunakan metode sebaran local sentence untuk mencari dan menggali kalimat penting yang tersembunyi dalam dokumen sumber sebagai upaya untuk meningkatkan kualitas hasil ringkasan. Uji coba dilakukan terhadap dataset task 2 DUC 2004. Pengukuran ROUGE-1 dan ROUGE-2 digunakan sebagai evaluasi performa metode yang diusulkan dengan metode lain yaitu metode sentence information density dan kata kunci cluster kalimat (SIDeKiCK). Hasil ujicoba didapatkan bahwa metode yang diusulkan memiliki performa lebih baik dengan capaian rata-rata ROUGE-1 0,398, meningkat 1,5% dibanding metode SIDeKiCK dan ROUGE-2 0,12 meningkat 13% dibanding metode SIDeKiCK.Kata Kunci: Peringkasan Dokumen, Kalimat Penting, Sebaran Local Sentence, ROUGE.
Segmentasi Citra Ikan Tuna dengan Mahalanobis Histogram Thresholding dan Mahalanobis Fuzzy C-Means Kaswar, Andi Baso; Arifin, Agus Zainal; Wijaya, Arya Yudhi
Jurnal Buana Informatika Vol 7, No 3 (2016): Jurnal Buana Informatika Volume 7 Nomor 3 Juli 2016
Publisher : Universitas Atma Jaya Yogyakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (490.754 KB) | DOI: 10.24002/jbi.v7i3.658

Abstract

Abstract. Fuzzy C-Means segmentation algorithm based on Mahalanobis distance can be utilized to segment tuna fish image. However, initialization of pixels membership value and clusters centroid randomly cause the segmentation process become inefficient in terms of iteration and time of computation. This paper proposes a new method for tuna fish image segmentation by Mahalanobis Histogram Thresholding (M-HT) and Mahalanobis Fuzzy C-Means (MFCM). The proposed method consists of three main phases, namely: centroid initialization, pixel clustering and accuracy improvement. The experiment carried out obtained average of iteration amount is as many as 66 iteration with average of segmentation time as many as 162.03 second. While the average of Accuracy is 98.54%, average of Missclassification Error is 1.46%. The result shows that the proposed method can improve the efficiency of segmentation method in terms of number of iterations and time of segmentation. Besides that, the proposed method can give more accurate segmentation result compared with the conventional method.Keywords: Tuna Fish Image, Segmentation, Fuzzy Clustering, Histogram Thresholding, Mahalanobis Distance. Abstrak. Algoritma segmentasi Fuzzy C-Means berbasis jarak Mahalanobis dapat digunakan untuk mensegmentasi ikan tuna. Namun, inisialisasi derajat keanggotaan piksel dan centroid klaster secara random mengakibatkan proses segmentasi menjadi tidak efisien dalam hal iterasi dan waktu komputasi. Penelitian ini mengusulkan metode baru untuk segmentasi citra ikan tuna dengan Mahalanobis Histogram Thresholding (M-HT) dan Mahalanobis Fuzzy C-Means (MFCM). Metode ini terdiri atas tiga tahap utama, yaitu: inisialisasi centroid, pengklasteran piksel dan peningkatan akurasi. Berdasarkan hasil ekseprimen, diperoleh rata-rata jumlah iterasi sebanyak 66 iterasi dengan rata-rata waktu segmentasi 162,03 detik. Rata-rata Akurasi 98,54% dengan rata-rata tingkat Missclassification Error 1,46%. Hasil yang diperoleh menunjukkan bahwa metode yang diusulkan dapat meningkatkan efisiensi metode segmentasi dalam hal jumlah iterasi dan waktu segmentasi. Selain itu, metode yang diusulkan dapat memberikan hasil segmentasi yang lebih akurat dibandingkan dengan metode konvensional.Kata Kunci: Citra Ikan Tuna, Segmentasi, Fuzzy Clustering, Histogram Thresholding, Jarak Mahalanobis.
EKSTRAKSI FITUR BERDASARKAN DESKRIPTOR BENTUK DAN TITIK SALIEN UNTUK KLASIFIKASI CITRA IKAN TUNA Pawening, Ratri Enggar; Arifin, Agus Zainal; Yuniarti, Anny
Jurnal Buana Informatika Vol 7, No 3 (2016): Jurnal Buana Informatika Volume 7 Nomor 3 Juli 2016
Publisher : Universitas Atma Jaya Yogyakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (283.26 KB) | DOI: 10.24002/jbi.v7i3.660

Abstract

Abstract. The manual classification of fish causes problems on accuracy and execution time. In the image of tuna, beside the shape feature, local features is also necessary to differentiate the types of fish especially which have a similar shape. The purpose of this study is to develop a new feature extraction system which integrates point of saline and the shape of descriptor to classify the image of tuna. The input image is then transformed into HSV format. Hue channel is selected for the segmentation process. Shape descriptors are extracted by using Fourier Descriptor (FD) and the saline points are extracted using Speeded Up Robust Features (SURF). The results of local features are performed by Bag of Feature (BOF). Feature integration combines shape descriptor and saline features with appropriate weight. Experimental results show that by integrating features, the classification problems of fish with similar shape can be resolved with an accuracy of classification acquired by 83.33%.Keywords: feature extraction, fourier descriptor, surf, classification, tuna fish imageAbstrak. Klasifikasi secara manual yang dilakukan berdasarkan bentuk, tekstur, dan bagian tubuh ikan dapat menimbulkan permasalahan pada akurasi dan waktu klasifikasi. Pada citra ikan tuna, selain diperlukan fitur bentuk juga diperlukan fitur lokal untuk membedakan jenis ikan terutama yang memiliki bentuk secara visual mirip. Tujuan penelitian ini adalah mengembangkan sistem ekstraksi fitur baru yang mengintegrasikan deskriptor bentuk dan titik salien untuk klasifikasi citra ikan tuna. Segmentasi diawali dengan mengambil kanal Hue pada citra HSV. Deskriptor bentuk diekstrak menggunakan Fourier Descriptor dan titik salien diekstrak menggunakan Speeded Up Robust Features. Untuk menyamakan dimensi dilakukan pemrosesan menggunakan Bag of Feature. Kedua jenis fitur yang sudah diperoleh dilakukan integrasi dengan mempertimbangkan bobot masing-masing fitur. Uji coba dilakukan pada dataset tiga jenis ikan tuna dengan 10-fold cross validation. Hasil uji coba menunjukkan dengan mengintegrasikan deskriptor bentuk dan titik salien permasalahan klasifikasi ikan tuna dengan bentuk yang mirip dapat diselesaikan dengan akurasi klasifikasi sebesar 83,33%.Kata Kunci: ekstraksi fitur, deskriptor fourier, surf, klasifikasi, citra ikan tuna
Perbandingan Metode Term Weighting terhadap Hasil Klasifikasi Teks pada Dataset Terjemahan Kitab Hadis Ni'mah, Ana Tsalitsatun; Arifin, Agus Zainal
Rekayasa Vol 13, No 2: August 2020
Publisher : Universitas Trunojoyo Madura

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (434.672 KB) | DOI: 10.21107/rekayasa.v13i2.6412

Abstract

Hadis adalah sumber rujukan agama Islam kedua setelah Al-Qur’an. Teks Hadis saat ini diteliti dalam bidang teknologi untuk dapat ditangkap nilai-nilai yang terkandung di dalamnya secara pegetahuan teknologi. Dengan adanya penelitian terhadap Kitab Hadis, pengambilan informasi dari Hadis tentunya membutuhkan representasi teks ke dalam vektor untuk mengoptimalkan klasifikasi otomatis. Klasifikasi Hadis diperlukan untuk dapat mengelompokkan isi Hadis menjadi beberapa kategori. Ada beberapa kategori dalam Kitab Hadis tertentu yang sama dengan Kitab Hadis lainnya. Ini menunjukkan bahwa ada beberapa dokumen Kitab Hadis tertentu yang memiliki topik yang sama dengan Kitab Hadis lain. Oleh karena itu, diperlukan metode term weighting yang dapat memilih kata mana yang harus memiliki bobot tinggi atau rendah dalam ruang Kitab Hadis untuk optimalisasi hasil klasifikasi dalam Kitab-kitab Hadis. Penelitian ini mengusulkan sebuah perbandingan beberapa metode term weighting, yaitu: Term Frequency Inverse Document Frequency (TF-IDF), Term Frequency Inverse Document Frequency Inverse Class Frequency (TF-IDF-ICF), Term Frequency Inverse Document Frequency Inverse Class Space Density Frequency (TF-IDF-ICSδF), dan Term Frequency Inverse Document Frequency Inverse Class Space Density Frequency Inverse Hadith Space Density Frequency (TF-IDF-ICSδF-IHSδF). Penelitian ini melakukan perbandingan hasil term weighting terhadap dataset Terjemahan 9 Kitab Hadis yang diterapkan pada mesin klasifikasi Naive Bayes dan SVM. 9 Kitab Hadis yang digunakan, yaitu: Sahih Bukhari, Sahih Muslim, Abu Dawud, at-Turmudzi, an-Nasa'i, Ibnu Majah, Ahmad, Malik, dan Darimi. Hasil uji coba menunjukkan bahwa hasil klasifikasi menggunakan metode term weighting TF-IDF-ICSδF-IHSδF mengungguli term weighting lainnya, yaitu mendapatkan Precission sebesar 90%, Recall sebesar 93%, F1-Score sebesar 92%, dan Accuracy sebesar 83%.Comparison of a term weighting method for the text classification in Indonesian hadithHadith is the second source of reference for Islam after the Qur’an. Currently, hadith text is researched in the field of technology for capturing the values of technology knowledge. With the research of the Book of Hadith, retrieval of information from the hadith certainly requires the representation of text into vectors to optimize automatic classification. The classification of the hadith is needed to be able to group the contents of the hadith into several categories. There are several categories in certain Hadiths that are the same as other Hadiths. Shows that there are certain documents of the hadith that have the same topic as other Hadiths. Therefore, a term weighting method is needed that can choose which words should have high or low weights in the Hadith Book space to optimize the classification results in the Hadith Books. This study proposes a comparison of several term weighting methods, namely: Term Frequency Inverse Document Frequency (TF-IDF), Term Frequency Inverse Document Frequency Inverse Class Frequency (TF-IDF-ICF), Term Frequency Inverse Document Frequency Inverse Class Space Density Frequency (TF-IDF-ICSδF) and Term Frequency Inverse Document Frequency Inverse Class Space Density Frequency Inverse Hadith Space Density Frequency (TF-IDF-ICSδF-IHSδF). This research compares the term weighting results to the 9 Hadith Book Translation dataset applied to the Naive Bayes classification engine and SVM. 9 Books of Hadith are used, namely: Sahih Bukhari, Sahih Muslim, Abu Dawud, at-Turmudzi, an-Nasa’i, Ibn Majah, Ahmad, Malik, and Darimi. The trial results show that the classification results using the TF-IDF-ICSδF-IHSδF term weighting method outperformed another term weighting, namely getting a Precession of 90%, Recall of 93%, F1-Score of 92%, and Accuracy of 83%.
Klasterisasi Jenis Musik Menggunakan Kombinasi Algoritma Neural Network, K-Means dan Particle Swarm Optimization Sankoh, Alhaji Sheku; Musthafa, Ahmad Reza; Rosadi, Muhammad Imron; Arifin, Agus Zainal
Jurnal Buana Informatika Vol 6, No 3 (2015): Jurnal Buana Informatika Volume 6 Nomor 3 Juli 2015
Publisher : Universitas Atma Jaya Yogyakarta

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.24002/jbi.v6i3.431

Abstract

Abstract. Having a number of audio files in a directory could result to unstructured arrangement of files. This will cause some difficulties for users in sorting a collection of audio files based on a particular category of music. In some previous studies, researchers used a method conducting to group documents on a web page. However, those studies were not carried out on file containing documents such as audio files; relatively they were conducted on files that contain text documents. In this study, we develop a method of grouping files using a combination of pre-processing approach, neural networks, k-means, and particle swarm optimization to obtain a form of audio file collections that are group based on the types of music. The result of this study is a system with improved method of grouping audio files based on the type of music. The pre-processing stage has therefore produced the best results on this approach based on spectrum analysis melody and bass guitar, which offers a value precision 95%, 100% recall and an F-Measure 97.44%.Keywords: Cluster, Music, NN, K-Means, PSO Abstrak. Banyaknya file audio pada suatu direktori membuat sususan file tidak terstruktur. Hal ini akan menyulitkan pengguna untuk mengurutkan bahkan memilah kumpulan file audio berdasarkan kategori tertentu, khususnya kategori berdasarkan jenis musik. Pada penelitian sebelumnya, dilakukan pengelompokan dokumen pada suatu halaman website. Namun hal tersebut tidak dilakukan pada file selain dokumen, seperti file audio. Penelitian ini bertujuan untuk mengembangkan metode pengelompokan file berupa kombinasi pendekatan pre-processing, neural network, k-means, dan particle swarm optimization dengan masukan berupa file audio sehingga diperoleh keluaran berupa kumpulan file audio yang telah terkelompok berdasarkan jenis musik. Hasil dari penelitian ini yaitu berupa suatu sistem dengan pengembangan metode dalam pengelompokan file audio berdasarkan jenis musik. Metode pada tahap pre-processing memiliki hasil terbaik pada pendekatan berdasarkan analisa spectrum melodi gitar dan bass, di mana memiliki nilai precission 95%, recall 100% dan F-Measure 97,44%. Kata kunci: Klaster, Musik, NN, K-Means, PSO
Co-Authors - Azhari - Suprijanto Adam, Safri Adenuar Purnomo Adhi Nurilham Adi Guna, I Gusti Agung Socrates Afrizal Laksita Akbar Ahmad Afiif Naufal Ahmad Reza Musthafa, Ahmad Reza Ahmad Syauqi Aida Muflichah Aidila Fitri Fitri Heddyanna Akira Asano Akira Taguchi Akwila Feliciano Alhaji Sheku Sankoh, Alhaji Sheku Alif Akbar Fitrawan, Alif Akbar Alifia Puspaningrum Alqis Alqis Rausanfita Amelia Devi Putri Ariyanto Aminul Wahib Aminul Wahib Aminul Wahib Ana Tsalitsatun Ni'mah Andi Baso Kaswar Andi Baso Kaswar Anggraeni, Irna Dwi Anggraini, Syadza Anindhita Sigit Nugroho Anindita Sigit Nugroho Anny Yunairti Anny Yuniarti Anto Satriyo Nugroho Arif Fadllullah Arif Mudi Priyatno Arifin, M. Jainal Arifzan Razak Arini Rosyadi Arrie Kurniawardhani Arya Widyadhana Arya Yudhi Wijaya Bagus Satria Wiguna Bagus Setya Rintyarna Baskoro Nugroho Bilqis Amaliah Chandranegara, Didih Rizki Chastine Fatichah Christian Sri kusuma Aditya, Christian Sri kusuma Cinthia Vairra Hudiyanti Cornelius Bagus Purnama Putra Daniel Sugianto Daniel Swanjaya Darlis Herumurti Dasrit Debora Kamudi Desepta Isna Ulumi Desmin Tuwohingide Dhian Kartika Diana Purwitasari Didih Rizki Chandranegara Dika Rizky Yunianto Dika Rizky Yunianto, Dika Rizky Dimas Fanny Hebrasianto Permadi Dini Adni Navastara, Dini Adni Dinial Utami Nurul Qomariah Dwi Ari Suryaningrum Dyah S. Rahayu Eha Renwi Astuti Endang Juliastuti Erliyah Nurul Jannah, Erliyah Nurul Ery Permana Yudha Eva Firdayanti Bisono Evan Tanuwijaya Evelyn Sierra Fahmi Syuhada Fahmi Syuhada Fandy Kuncoro Adianto Fathoni, Kholid Fiqey Indriati Eka Sari Gosario, Sony Gulpi Qorik Oktagalu Pratamasunu Gus Nanang Syaifuddiin Handayani Tjandrasa Hani’ah, Mamluatul Hanif Affandi Hartanto Hendra Maulana Hudan Studiawan Humaira, Fitrah Maharani Humaira, Fitrah Maharani I Guna Adi Socrates I Gusti Agung Socrates Adi Guna I Made Widiartha I Putu Gede Hendra Suputra Indra Lukmana Ismail Eko Prayitno Rozi Januar Adi Putra Kevin Christian Hadinata Khadijah F. Hayati Khairiyyah Nur Aisyah Khairiyyah Nur Aisyah, Khairiyyah Nur Khalid Khalid Khoirul Umam Kholid Fathoni Lafnidita Farosanti Laili Cahyani Lutfiani Ratna Dewi Luthfi Atikah M. Ali Fauzi M. Jainal Arifin Maulana, Hendra Mika Parwita Moch Zawaruddin Abdullah Moch Zawaruddin Abdullah Moh. Zikky Moh. Zikky, Moh. Mohammad Fatoni Anggris, Mohammad Fatoni Mohammad Sonhaji Akbar Muhamad Nasir Muhammad Bahrul Subkhi Muhammad Fikri Sunandar Muhammad Imron Rosadi Muhammad Machmud Muhammad Mirza Muttaqi Muhammad Muharrom Al Haromainy Munjiah Nur Saadah Muttaqi, Muhammad Mirza Nahya Nur Nanang Fakhrur Rozi Nanik Suciati Nina Kadaritna Nova Hadi Lestriandoko Novi Nur Putriwijaya Novrindah Alvi Hasanah Novrindah Alvi Hasanah Nur, Nahya Nuraisa Novia Hidayati Nursanti Novi Arisa Nursuci Putri Husain Ozzy Secio Riza Pangestu Widodo, Pangestu Pasnur Pasnur Pasnur Pasnur Puji Budi Setia Asih Putri Damayanti Putri Nur Rahayu Putu Praba Santika Rangga Kusuma Dinata Rarasmaya Indraswari Ratri Enggar Pawening Renest Danardono Resti Ludviani Rigga Widar Atmagi Riyanarto Sarno Riza, Ozzy Secio Rizka Sholikah Rizka Wakhidatus Sholikah Rizqa Raaiqa Bintana Rizqi Okta Ekoputris Rosyadi, Ahmad Wahyu Ryfial Azhar, Ryfial Safhira Maharani Safri Adam Saiful Bahri Musa Salim Bin Usman Saputra, Wahyu Syaifullah Jauharis Satrio Verdianto Satrio Verdianto Setyawan, Dimas Ari Sherly Rosa Anggraeni Siprianus Septian Manek Sonny Christiano Gosaria Sugiyanto, Sugiyanto Suwanto Afiadi Syadza Anggraini Syuhada, Fahmi Takashi Nakamoto Tegar Palyus Fiqar Tesa Eranti Putri Tio Darmawan Umi Salamah Undang Rosidin Verdianto, Satrio Waluya, Onny Kartika Wanvy Arifha Saputra Wawan Gunawan Wawan Gunawan Wawan Gunawan Wawan Gunawan Wijayanti Nurul Khotimah Wiwik Dyah Septiana Kurniati Yudhi Diputra Yufis Azhar Yulia Niza Zainal Abidin Zakiya Azizah Cahyaningtyas