Claim Missing Document
Check
Articles

Found 38 Documents
Search

Integrasi Discrete Wavelet Transform dan Singular Value Decomposition pada Watermarking Citra untuk Perlindungan Hak Cipta Chandra, Jaya; Wahono, Romi Satria
Journal of Intelligent Systems Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1016.522 KB)

Abstract

Tren masalah watermarking pada sekarang ini adalah bagaimana mengoptimalkan trade-off antara imperceptibility (visibilitas) citra ter-watermark terhadap pengaruh distorsi dan robustness terhadap penyisipan watermark. Masalah menggunakan kekuatan penyisipan berdasarkan Single Scaling Factor (SSF) atau Multiple Scaling Factor (MSF) juga ditemukan. Penelitian ini mengusulkan metode penyisipan watermark untuk perlindungan hak cipta pada citra dan algoritma ekstraksi citra ter-watermark yang dioptimalkan dengan penggabungan Discrete Wavelet Transform (DWT) dan Singular Value Decomposition (SVD). Nilai-nilai singular dari LL3 koefisien sub-band dari citra host dimodifikasi menggunakan nilai tunggal citra watermark biner menggunakan MSFs. Kontribusi utama dari skema yang diusulkan adalah aplikasi DWT-SVD untuk mengidentifikasi beberapa faktor skala yang optimal. Hasil penelitian menunjukkan bahwa skema yang diusulkan menghasilkan nilai Peak Signal to Noise Ratio (PSNR) yang tinggi, yang menunjukkan bahwa kualitas visual gambar yang baik pada masalah citra watermarking telah mengoptimalkan trade-off. Trade-off antara imperceptibility (visibilitas) citra ter-watermark terhadap pengaruh distorsi dan robustness citra ter-watermark terhadap operasi pengolahan citra. Nilai PSNR yang didapat pada citra yang diujikan: baboon=53,184; boat=53,328; cameraman=53,700; lena=53,668; man=53,328; dan pepper sebesar 52,662.  Delapan perlakuan khusus pada hasil citra ter-watermark diujikan dan diekstraksi kembali yaitu JPEG 5%, Noise 5%, Gaussian filter 3x3, Sharpening, Histogram Equalization, Scaling 512-256, Gray Quantitation 1bit, dan Cropping 1/8. Hasil dari perlakuan khusus kemudian diukur nilai Normalized Cross-Correlation (NC) yang menghasilkan rata-rata semua citra diperoleh sebesar 0,999 dari satu. Hasil penelitian dari metode yang diusulkan lebih unggul nilai PSNR dan NC dari penelitian sebelumnya. Jadi dapat disimpulkan bahwa penerapan dengan metode DWT-SVD ini mampu menghasilkan citra yang robust namun memiliki tingkat imperceptibility yang cukup tinggi.
Integrasi Kromosom Buatan Dinamis Untuk Memecahkan Masalah Konvergensi Prematur Pada Algoritma Genetika Untuk Traveling Salesman Problem Kamal, Muhammad Rikzam; Wahono, Romi Satria; Syukur, Abdul
Journal of Intelligent Systems Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (693.322 KB)

Abstract

Genetic Algorithm (GA) adalah metode adaptif yang digunakan untuk memecahkan masalah pencarian dan optimasi, diantaranya adalah Travelling Salesman Problem (TSP) yang merupakan persoalan optimasi, dimana rute terpendek merupakan solusi yang paling optimal. GA juga salah satu metode optimisasi global yang bekerja dengan baik dan efisien pada fungsi tujuan yang kompleks dalam hal nonlinear, tetapi GA mempunyai masalah yaitu konvergensi prematur. Untuk mengatasi masalah konvergensi prematur, maka pada penelitian ini diusulkan Dynamic Artificial Chromosomes (DAC) yang digunakan untuk mengkontrol keragaman populasi dan juga seleksi kromosom terbaik untuk memilih individu atau kromosom terbaik yang tujuannya untuk membuat keragaman pada populasi menjadi beragam dan keluar dari konvergensi prematur. Beberapa eksperimen dilakukan dengan menggunakan Genetic Algorithm Dynamic Artificial Chromosomes (GA-DAC), dimana threshold terbaik adalah 0.5, kemudian juga mendapatkan hasil perbaikan pada jarak terpendek yang dibandingkan dengan GA standar dengan dataset KroA100 sebesar 12.60%, KroA150 sebesar 13.92% dan KroA200 sebesar 12.92%. Untuk keragaman populasi mendapatkan hasil pada KroA100 sebesar 24.97%, KroA150 sebesar 50.84% dan KroA200 sebesar 49.08% dibandingkan dengan GA standar. Maka dapat disimpulkan bahwa GA-DAC bisa mendapatkan hasil lebih baik dibandingkan dengan GA standar, sehingga ini akan membuat GA bisa keluar dari konvergensi prematur. Keywords: algoritma genetika, konvergensi prematur, dynamic artificial chromosomes, seleksi kromosom terbaik, travelling salesman problem.
Penerapan Reduksi Region Palsu Berbasis Mathematical Morphology pada Algoritma Adaboost Untuk Deteksi Plat Nomor Kendaraan Indonesia Amin, Muhammad Faisal; Wahono, Romi Satria
Journal of Intelligent Systems Vol 1, No 1 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1417.182 KB)

Abstract

Tahap deteksi plat nomor merupakan langkah yang paling penting dan sulit dalam sistem identifikasi plat nomor. Kondisi plat nomor yang memiliki warna background yang mirip dengan warna  mobil, dan memiliki variasi yang besar dalam bentuk dan ukuran, menyebabkan deteksi plat nomor menjadi rendah. Kondisi tersebut terjadi pada plat nomor kendaraan pribadi Indonesia. Agar deteksi plat nomor Indonesia menjadi akurat, maka diusulkan untuk menerapkan algoritma adaboost. Dibandingkan dengan metode lain, algoritma adaboost adalah metode terbaik untuk mengatasi masalah yang terjadi pada plat nomor Indonesia.  Algoritma adaboost akurat dalam mendeteksi plat nomor tanpa terikat oleh warna, bentuk, dan ukuran. Akan tetapi, akurasi dari algoritma ini rendah ketika terdapat banyak region palsu pada gambar. Oleh karena itu, diusulkan untuk menambahkan proses reduksi region palsu berupa operasi mathematical morphology di bagian online recognizing algoritma adaboost. Hasil eksperimen menunjukkan bahwa integrasi algoritma adaboost dan mathematical morphology lebih akurat dalam mendeteksi plat nomor Indonesia. Nilai  precision rate dan recall rate masing-masing dari algoritma adaboost standard adalah 84,44% dan 84,62%. Setelah algoritma adaboost dan mathematical morphology diintegrasikan, nilai precision rate dan recall rate masing-masing naik  menjadi 94,47% dan 92,31%. 
Resampling Logistic Regression untuk Penanganan Ketidakseimbangan Class pada Prediksi Cacat Software Rianto, Harsih; Wahono, Romi Satria
Journal of Software Engineering Vol 1, No 1 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (569.155 KB)

Abstract

Software yang berkualitas tinggi adalah software yang dapat membantu proses bisnis perusahaan dengan efektif, efesien dan tidak ditemukan cacat selama proses pengujian, pemeriksaan, dan implementasi. Perbaikan software setelah pengirimana dan implementasi, membutuhkan biaya jauh lebih mahal dari pada saat pengembangan.  Biaya yang dibutuhkan untuk pengujian software menghabisakan lebih dari 50% dari biaya pengembangan. Dibutuhkan model pengujian cacat software untuk mengurangi biaya yang dikeluarkan. Saat ini belum ada model prediksi cacat software yang berlaku umum pada saat digunakan digunakan. Model Logistic Regression merupakan model paling efektif dan efesien dalam prediksi cacat software.  Kelemahan  dari  Logistic Regression adalah rentan terhadap underfitting pada dataset yang kelasnya tidak seimbang, sehingga akan menghasilkan akurasi yang rendah. Dataset NASA MDP adalah dataset umum yang digunakan dalam prediksi cacat software. Salah satu karakter dari dataset prediksi cacat software, termasuk didalamnya dataset NASA MDP adalah memiliki ketidakseimbangan pada kelas. Untuk menangani masalah ketidakseimbangan kelas pada dataset cacat software pada penelitian ini diusulkan metode resampling. Eksperimen dilakukan untuk membandingkan hasil kinerja Logistic Regression sebelum dan setelah diterapkan metode resampling. Demikian juga dilakukan eksperimen untuk membandingkan metode yang diusulkan hasil pengklasifikasi lain seperti Naïve Bayes, Linear Descriminant Analysis, C4.5, Random Forest, Neural Network, k-Nearest Network. Hasil eksperimen menunjukkan bahwa tingkat akurasi Logistic Regression dengan resampling lebih tinggi dibandingkan dengan metode Logistric Regression yang tidak menggunakan resampling, demikian juga bila dibandingkan dengan pengkalisifkasi yang lain. Dari hasil eksperimen di atas dapat disimpulkan bahwa metode resampling terbukti efektif dalam menyelesaikan ketidakseimbangan kelas pada prediksi cacat software dengan algoritma Logistic Regression.
Penerapan Bootstrapping untuk Ketidakseimbangan Kelas dan Weighted Information Gain untuk Feature Selection pada Algoritma Support Vector Machine untuk Prediksi Loyalitas Pelanggan Naufal, Abdul Razak; Wahono, Romi Satria; Syukur, Abdul
Journal of Intelligent Systems Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (776.065 KB)

Abstract

Prediksi loyalitas pelanggan merupakan sebuah strategi bisnis yang penting bagi industri telekomunikasi modern untuk memenangkan persaingan global, karena untuk mendapatkan pelanggan baru biayanya lebih mahal lima sampai enam kali lipat daripada mempertahankan pelanggan yang sudah ada. Klasifikasi loyalitas pelanggan bertujuan untuk mengidentifikasi pelanggan yang cenderung beralih ke perusahaan kompetitor yang sering disebut customer churn. Algoritma Support Vector Machine (SVM) adalah algoritma klasifikasi yang juga berfungsi untuk memprediksi loyalitas pelanggan. Penerapan algoritma SVM dalam memprediksi loyalitas pelanggan mempunyai kelemahan yang mempengaruhi keakuratan dalam memprediksi loyalitas pelanggan yaitu sulitnya pemilihan fungsi kernel dan penentuan nilai parameternya. Dataset yang besar pada umumnya mengandung ketidakseimbangan kelas (class imbalance), yaitu adanya perbedaan yang signifikan antar jumlah kelas, yang mana kelas negatif lebih besar daripada kelas positif. Dalam penelitian ini diusulkan metode resampling bootstrapping untuk mengatasi ketidakseimbangan kelas. Selain itu dataset juga mengandung fitur yang tidak relevan sehingga dalam pemilihan fitur dalam penelitian ini digunakan metode dua fitur seleksi yaitu Forward Selection (FS) dan Weighted Information Gain (WIG). FS berfungsi untuk menghilangkan fitur yang paling tidak relevan serta membutuhkan waktu komputasi yang relatif pendek dibandingkan dengan backward elimination dan stepwise selection. WIG digunakan untuk memberi nilai bobot pada setiap atribut, karena WIG lebih cocok digunakan dalam memilih fitur terbaik daripada Principal Component Analysis (PCA) yang biasa digunakan untuk mereduksi data yang berdimensi tinggi. Tujuan pembobotan ini untuk merangking atribut yang memenuhi kriteria (threshold) yang ditentukan dipertahankan untuk digunakan oleh algoritma SVM.  Sedangkan untuk pemilihan parameter algoritma SVM dengan menggunakan metode grid search. Metode grid search dapat mencari nilai parameter terbaik dengan memberi range nilai parameter. Grid search juga sangat handal jika diaplikasikan pada dataset yang mempunyai atribut sedikit daripada menggunakan random search. Hasil eksperimen dari beberapa kombinasi parameter dapat disimpulkan bahwa prediksi loyalitas pelanggan dengan menggunakan sampel bootstrapping, FS-WIG serta grid search lebih akurat dibanding dengan metode individual SVM.
Penggunaan Random Under Sampling untuk Penanganan Ketidakseimbangan Kelas pada Prediksi Cacat Software Berbasis Neural Network Irawan, Erna; Wahono, Romi Satria
Journal of Software Engineering Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (979.175 KB)

Abstract

Abstract : Penurunan kualitas software dan biaya perbaikan yang tinggi dapat diakibatkan kesalahan atau cacat pada software. Prediksi cacat software sangat penting di dalam software engineering, terutama dalam mengatasi masalah efektifitas dan efisiensi sehingga dapat meningkatkan kualitas software. Neural Network (NN) merupakan algoritma klasifikasi yang telah terbukti mampu mengatasi masalah data nonlinear dan memiliki sensitifitas yang tinggi terhadap suatu data serta mampu menganalisa data yang besar. Dataset NASA MDP merupakan data metric yang nonlinear  perangkat lunak yang biasa digunakan untuk penelitian software defect prediction  (prediksi cacat software). Terdapat 62 penelitian dari 208 penelitian menggunakan dataset NASA. NASA MDP memiliki kelemahan yaitu kelas yang tidak seimbang sehingga dapat menurunkan kinerja dari model prediksi cacat software. Untuk menangani ketidakseimbangan kelas dalam dataset NASA MDP adalah dengan menggunakan metode level data yaitu Random Under Sampling (RUS). RUS ditujukan untuk memperbaiki ketidakseimbangan kelas. Metode yang diusulkan untuk menangani ketidakseimbangan kelas pada Neural Network (NN) adalah penerapan RUS. Eksperimen yang diusulkan untuk membandingkan hasil kinerja Neural Network sebelum dan sesudah diterapkan metode RUS, serta dibandingkan dengan model yang lainnya. Hasil Eksperimen rata-rata AUC pada NN (0.80)  dan NN+RUS (0.82). Hasil uji Wilcoxon dan Friedman menunjukan bahwa bahwa AUC NN+RUS memiliki perbedaan yang signifikan dengan NN dengan p-value wilcoxon = 0.002 dan  p-value friedman = 0.003 (p<0.05). Menurut uji friedman terdapat perbedaan AUC yang signifikan antara NN+RUS dengan NN, NN+SMOTE, NB, dan C45 karena nilai                  p-value < 0.0001. Maka dapat disimpulkan bahwa penerapan model RUS terbukti dapat menangani masalah ketidakseimbangan kelas pada prediksi cacat software berbasis neural network. Kata Kunci: Ketidakseimbangan Kelas, Neural   Network, Random Under Sampling 
Penerapan Metode Bagging untuk Mengurangi Data Noise pada Neural Network untuk Estimasi Kuat Tekan Beton Setiyorini, Tyas; Wahono, Romi Satria
Journal of Intelligent Systems Vol 1, No 1 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (794.776 KB)

Abstract

Beton adalah bahan yang diolah yang terdiri dari semen, agregat kasar, agregat halus, air dan bahan tambahan lainnya. Kuat tekan beton sangat bergantung pada karakteristik dan komposisi bahan-bahan pembentuk beton. Metode neural network memiliki kinerja yang baik dalam mengatasi masalah data nonlinear, namun neural network memiliki keterbatasan dalam mengatasi data noise yang tinggi. Untuk menyelesaikan masalah tersebut diperlukan metode bagging untuk mengurangi data noise pada metode neural network. Beberapa eksperimen dilakukan untuk mendapatkan arsitektur yang optimal dan menghasilkan estimasi yang akurat. Hasil eksperiman dari delapan kombinasi parameter penelitian pada dataset concrete compressive strength dengan neural network didapatkan nilai rata-rata RMSE adalah 0,069 dan nilai RMSE terkecil adalah 0,057, sedangkan dengan menggunakan neural network dan bagging didapatkan nilai rata-rata RMSE adalah 0,062 dan nilai RMSE terkecil adalah 0,055. Hasil eksperimen dari delapan kombinasi parameter penelitian pada dataset slump dengan neural network didapatkan nilai rata-rata RMSE adalah 0,020 dan nilai RMSE terkecil adalah 0,011 sedangkan dengan neural network dan bagging didapatkan nilai rata-rata RMSE adalah 0,016 dan nilai RMSE terkecil adalah 0,010. Maka dapat disimpulkan estimasi kuat tekan beton dengan menggunakan metode bagging dan neural network lebih akurat dibanding dengan metode individual neural network.
A Systematic Literature Review of Software Defect Prediction: Research Trends, Datasets, Methods and Frameworks Wahono, Romi Satria
Journal of Software Engineering Vol 1, No 1 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (992.5 KB)

Abstract

Recent studies of software defect prediction typically produce datasets, methods and frameworks which allow software engineers to focus on development activities in terms of defect-prone code, thereby improving software quality and making better use of resources. Many software defect prediction datasets, methods and frameworks are published disparate and complex, thus a comprehensive picture of the current state of defect prediction research that exists is missing. This literature review aims to identify and analyze the research trends, datasets, methods and frameworks used in software defect prediction research betweeen 2000 and 2013. Based on the defined inclusion and exclusion criteria, 71 software defect prediction studies published between January 2000 and December 2013 were remained and selected to be investigated further. This literature review has been undertaken as a systematic literature review. Systematic literature review is defined as a process of identifying, assessing, and interpreting all available research evidence with the purpose to provide answers for specific research questions. Analysis of the selected primary studies revealed that current software defect prediction research focuses on five topics and trends: estimation, association, classification, clustering and dataset analysis. The total distribution of defect prediction methods is as follows. 77.46% of the research studies are related to classification methods, 14.08% of the studies focused on estimation methods, and 1.41% of the studies concerned on clustering and association methods. In addition, 64.79% of the research studies used public datasets and 35.21% of the research studies used private datasets. Nineteen different methods have been applied to predict software defects. From the nineteen methods, seven most applied methods in software defect prediction are identified. Researchers proposed some techniques for improving the accuracy of machine learning classifier for software defect prediction by ensembling some machine learning methods, by using boosting algorithm, by adding feature selection and by using parameter optimization for some classifiers. The results of this research also identified three frameworks that are highly cited and therefore influential in the software defect prediction field. They are Menzies et al. Framework, Lessmann et al. Framework, and Song et al. Framework.
Penerapan Naive Bayes untuk Mengurangi Data Noise pada Klasifikasi Multi Kelas dengan Decision Tree Khadafy, Al Riza; Wahono, Romi Satria
Journal of Intelligent Systems Vol 1, No 2 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (859.638 KB)

Abstract

Selama beberapa dekade terakhir, cukup banyak algoritma data mining yang telah diusulkan oleh peneliti kecerdasan komputasi untuk memecahkan masalah klasifikasi di dunia nyata. Di antara metode-metode data mining lainnya, Decision Tree (DT) memiliki berbagai keunggulan diantaranya sederhana untuk dipahami, mudah untuk diterapkan, membutuhkan sedikit pengetahuan, mampu menangani data numerik dan kategorikal, tangguh, dan dapat menangani dataset yang besar. Banyak dataset berukuran besar dan memiliki banyak kelas atau multi kelas yang ada di dunia memiliki noise atau mengandung error. Algoritma pengklasifikasi DT memiliki keunggulan dalam menyelesaikan masalah klasifikasi, namun data noise yang terdapat pada dataset berukuran besar dan memiliki banyak kelas atau multi kelas dapat mengurangi akurasi pada klasifikasinya. Masalah data noise pada dataset tersebut akan diselesaikan dengan menerapkan pengklasifikasi Naive Bayes (NB) untuk menemukan instance yang mengandung noise dan menghapusnya sebelum diproses oleh pengklasifikasi DT. Pengujian metode yang diusulkan dilakukan dengan delapan dataset uji dari UCI (University of California, Irvine) machine learning repository dan dibandingkan dengan algoritma pengklasifikasi DT. Hasil akurasi yang didapat menunjukkan bahwa algoritma yang diusulkan DT+NB lebih unggul dari algoritma DT, dengan nilai akurasi untuk masing-masing dataset uji seperti Breast Cancer 96.59% (meningkat 21,06%), Diabetes 92,32% (meningkat 18,49%), Glass 87,50% (meningkat 20,68%), Iris 97,22% (meningkat 1,22%), Soybean 95,28% (meningkat 3,77%), Vote 98,98% (meningkat 2,66%), Image Segmentation 99,10% (meningkat 3,36%), dan Tic-tac-toe 93,85% (meningkat 9,30%). Dengan demikian dapat disimpulkan bahwa penerapan NB terbukti dapat menangani data noise pada dataset berukuran besar dan memiliki banyak kelas atau multi kelas sehingga akurasi pada algoritma klasifikasi DT meningkat.
Estimasi Proyek Pengembangan Perangkat Lunak dengan Fuzzy Use Case Points Hariyanto, Muhadi; Wahono, Romi Satria
Journal of Software Engineering Vol 1, No 1 (2015)
Publisher : IlmuKomputer.Com

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (995.723 KB)

Abstract

Perangkat lunak memegang peranan penting agar sebuah komputer atau sistem dapat digunakan, sehingga dibutuhkan manajemen proyek dalam pengembangan perangkat lunak dan salah satu prosesnya adalah melakukan estimasi agar perangkat lunak yang dihasilkan sesuai dengan jadwal dan biaya yang telah ditentukan. Metode use case points banyak dipakai terutama untuk aplikasi yang berbasis obyek, tetapi ditemukan beberapa kelemahan berupa ketidakpastian faktor biaya dan penentuan klasifikasi use case memiliki beda nilai cukup tinggi yang mengakibatkan hasil estimasi kurang akurat. Metode use case points dimodifikasi dengan menambahkan logika fuzzy sehingga menjadi metode fuzzy use case points, komponen yang dimodifikasi yaitu pada penilaian klasifikasi use case. Modifikasi yang dilakukan berupa penentuan nilai use case berdasarkan jumlah transaksi. Dari hasil percobaan yang dilakukan, nilai effort dari metode ini lebih akurat atau mendekati effort aktual. Peningkatan akurasi metode ini mencapai 6 sampai 10%..