Claim Missing Document
Check
Articles

Found 24 Documents
Search

Implementasi Ontology Pada Web Crawler Pardede, Jasman; Ungkawa, Uung; Bernovaldy, Muhammad Akbar
MIND Journal Vol 1, No 2 (2016): MIND Journal
Publisher : Institut Teknologi Nasional Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (593.895 KB) | DOI: 10.26760/mindjournal.v1i2.76-84

Abstract

Web crawler adalah suatu program atau script otomatis yang bekerja dengan memprioritaskan ketentuan khusus untuk melakukan penjelajahan dan melakukan pengambilan informasi dalam halaman web yang ada di internet. Proses pengindeksan merupakan proses crawler yang memudahkan setiap orang dalam pencarian informasi Pada proses indexing tersebut dibangun dengan menggunakan metode ontology. Metode ontology merupakan sebuah teori tentang makna dari suatu objek dengan hubungan objek tersebut. Pada penelitian ini, metode ontology diterapkan dalam proses pengambilan data dan pengelompokkan data. Metode ontology memiliki proses, yaitu melakukan splitting terhadap objek dengan ketentuan relasi untuk mendapatkan sebuah objek ontology. Selanjutnya dilakukan crawling terhadap objek ontology tersebut untuk mendapatkan hasil crawling dengan ontology. Pengelompokkan data diproses berdasarkan objek yang telah didapat berdasarkan relasi ontology. Dari hasil penelitian dapat diambil kesimpulan, yaitu presentase objek relasi sesuai dengan relasinya adalah 100% dan kecepatan web crawler dengan ontology lebih cepat 56,67% dibanding dengan web crawler biasa.
Implementasi Algoritma Lzss pada Aplikasi Kompresi dan Dekompresi File Dokumen Pardede, Jasman; B, Mira Musrini; Yudhianto, Luqman
MIND Journal Vol 2, No 1 (2017): MIND Journal
Publisher : Institut Teknologi Nasional Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (980.973 KB) | DOI: 10.26760/mindjournal.v2i1.68-81

Abstract

Informasi yang bersifat dinamis dan berubah dalam hitungan detik harus dikirimkan saat itu juga agar informasi yang didapat sesuai dengan keadaan. Dokumen yang berukuran besar menimbulkan masalah bila kecepatan unggah pengirim lambat atau kecepatan unduh penerima lambat atau koneksi internet tidak stabil, informasi tidak bisa langsung diproses dikarenakan waktu transfer data yang terlampau lama. Kompresi file dibutuhkan agar dokumen yang dikirimkan dapat lebih kecil dari ukuran aslinya sehingga waktu pengiriman file dokumen tidak terlalu lama. Dalam penelitian ini dikembangkan aplikasi kompresi fileteks dengan menggunakan metode Lempel Ziv Storer Szymanski (LZSS) dengan menggunakan bahasa pemograman java. Metode Lempel Ziv Storer Szymanski mencari kesamaan string antara dictionary buffer dan look ahead buffer menghasilkan token yang ukuran lebih kecil dari string yang diwakili. Berdasarkan pengujian aplikasi, file teks yang berformat .doc menghasilkan rasio kompresi terbaik yaitu 30%. Metode Lempel Ziv Storer Szymanski bekerja dengan baik pada file teks yang isinya tidak memiliki gambar.
Augmented Reality Berbasis Cloud Recognition pada Majalah Film N, Youllia Indrawaty; Pardede, Jasman; Siswantini, Afis
MIND Journal Vol 2, No 2 (2017): MIND Journal
Publisher : Institut Teknologi Nasional Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (870.866 KB) | DOI: 10.26760/mindjournal.v2i2.70-81

Abstract

Film telah menjadi salah satu hiburan bagi manusia termasuk pencinta film itu sendiri. Untuk menyampaikan informasi mengenai film di media lain, maka diterapkan teknologi Augmented Reality pada majalah melalui smartphone. Penerapan Augmented Reality berbasis cloud computing dapat memudahkan pihak redaksi mengunggah dan mengubah konten agar dapat ditampilkan serta diakses oleh pembaca siapa saja dan kapan saja dengan terkoneksi internet. Layanan yang dapat menggabungkan teknologi Augmented Reality dan cloud computing adalah Vuforia Cloud Recognition. Maka dari itu, diuji bagaimana kualitas marker mempengaruhi kinerja pendeteksian marker dengan tiga kondisi marker yaitu pudar, miscolour, dan blur dengan berbagai intensitas. Dari hasil penelitian, didapat data bahwa marker dengan intensitas kepudaran 25%, semua marker tidak dapat dikenali karena struktur gambar berubah. Pada marker dengan keadaan miscolour, semua marker dapat dikenali karena struktur gambar tidak berubah. Sedangkan pada marker dengan keadaan blur dengan intensitas 75%, semua marker tidak dapat dikenali karena struktur gambar berubah. Ini membuktikan bahwa struktur gambar mempengaruhi kinerja pendeteksian marker.
Perbandingan Metode Breadth First Search dan Backlink pada Web Crawler Pardede, Jasman; Hermana, Asep Nana; Swarghani, Galih
MIND Journal Vol 2, No 2 (2017): MIND Journal
Publisher : Institut Teknologi Nasional Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (539.055 KB) | DOI: 10.26760/mindjournal.v2i2.61-69

Abstract

Dalam sebuah search engine terdapat beberapa komponen penting yang salah satunya adalah crawler / web crawler. Crawler adalah sebuah komponen dalam search engine yang berfungsi untuk mencari semua link pada setiap halaman dimana hasil pengumpulan alamat web selanjutnya akan diindeks. Crawler bekerja dengan menggunakan algoritma pencarian yang beragam, diantaranya adalah Breadth First Search dan Backlink. Breadth first search merupakan algoritma untuk melakukan pencarian secara berurutan dengan mengunjungi setiap simpul secara preorder. Backlink memanfaatkan tautan yang berada disitus lain dan mengarah ke situs tertentu. Adapun hasil dari uji aplikasi yaitu dengan membandingkan kedua metode tersebut dengan cara melihat performa pengambilan URL terbanyak pada Detik.com dan Kompas.com. Metode breadth first search secara performa lebih baik dibandingkan dengan metode backlink, dalam pengujian crawling, perbedaan jumlah url mencapai 25,17 pada website detik.com dan 28,94% pada website Kompas.com.
Penerapan Algoritma Lemmatization pada Dokumen Bahasa Indonesia Miftahuddin, Yusup; Pardede, Jasman; Dewi, Renita
MIND Journal Vol 3, No 2 (2018): MIND Journal
Publisher : Institut Teknologi Nasional Bandung

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (883.444 KB) | DOI: 10.26760/mindjournal.v3i2.47-56

Abstract

Sebuah kata, kalimat maupun tulisan dapat dikatakan layak apabila telah memenuhi PUEBI (Pedoman Umum Ejaan Bahasa Indonesia) dan KBBI (Kamus Besar Bahasa Indonesia). Akan tetapi, sangat banyak ditemukan kesalahan penulisan dalam suatu dokumen seperti karya ilmiah mapun skripsi diantaranya yaitu suatu katayang tidak memenuhi kebakuan dan tidak sesuai dengan PUEBI dan kesalahan penulisan (typographical error) yaitu salah dalam pengetikkan karena kecepatan perpindahan jari yang tidak seimbang dari satu tombol ke tombol lain untuk merangkai kata yang akhirnyamembuat orang salah paham dengan maksud kalimat yang dihasilkan dari susunan kata tersebut karena tidak ada dalam KBBI. Algoritma lemmatization adalah suatu algoritma yang digunakan untuk menemukan bentuk dasar dari suatu kata sehingga dapat dimanfaatkan untukmemeriksa kebenaran dari penggunaan ejaan pada suatu kata. Penelitian ini bertujuan untuk mengukur keakurasian dari penggunaan algoritma lemmatization dalam melakukan seleksi terhadap kata yang salah atau tidak tepat berdasarkan PUEBI dan KBBI sebagai acuan
Implementasi Multithreading Untuk Meningkatkan Kinerja Information Retrieval Dengan Metode GVSM Pardede, Jasman
Jurnal Sistem Komputer Vol 4, No 1 (2014)
Publisher : Jurnal Sistem Komputer

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.14710/jsk.v4i1.59

Abstract

GVSM is one of the models of IR systems. GVSM divided into two processes i.e. preprocessing process namely reading the text (*.pdf, *.doc,*.docx), tokenization, filtration, stemming, and parse the query and the process of calculating the relevance of the document that has been done preprocessing with user query to get the value of similarity. In general, to determine of the effectiveness of IR application is determined by two factors, namely recall and precision [7,8,10]. According to Järvelin and Ingwersen, the effectiveness of IR application is not only determined by the recall and precision, but rather the ability of IR applications in helping users to complete the search more effective and efficient. The effectiveness of an IR application is determined by recall, precision, time requirements, and reporting documents are presented to the user [7]. To improve the performance of IR applications in time requirements is implemented multithreading in the preprocessing process, i.e. stage 1 to stage 4 GVSM method. The result showed that the method GVSM able to rediscover relevant documents with 100% the precision value, to get the recall value which is equal to the same documents collection either with or without multithreading, but can save processing time by over 50 %.
Deteksi Komentar Cyberbullying Pada Media Sosial Berbahasa Inggris Menggunakan Naïve Bayes Classification Jasman Pardede
Jurnal Informatika Vol 7, No 1 (2020): April 2020
Publisher : LPPM Universitas Bina Sarana Informatika

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (434.9 KB) | DOI: 10.31294/ji.v7i1.6920

Abstract

Pesatnya perkembangan teknologi dan media sosial dapat memudahkan pengguna untuk menyampaikan informasi. Selain itu, media sosial juga memberikan dampak negatif dengan cara memposting tulisan kejam atau berkomentar semena-mena tanpa memikirkan akibat pada orang lain. Hal inilah yang menjadikan salah satu terjadinya tindak kekerasan dalam dunia maya (Cyberbullying). Tahapan awal yang dilakukan dalam penelitian ini adalah pengolahan bahasa atau yang disebut dengan text preprocessing meliputi tokenizing,casefolding, stopword removal dan stemming. Kemudian feature selection yaitu mengubah dokument teks menjadi matriks dengan tujuan untuk mendapatkan fitur pada setiap kata untuk dijadikan parameter atau kriteria klasifikasi. Untuk pengambilan keputusan apakah komentar mengandung makna bully atau nonbully menggunakan algoritma Naïve Bayes Classification dengan model multinomial naïve bayes. Perhitungan yang dilakukan adalah menghitung nilai probabilitas setiap kata yang muncul berdasarkan classdan nilai perkalian class conditional probability. Berdasarkan hasil eksperimen menggunakan dataset “cyberbullying comments” yang diambil dari Kaggle  akurasi yang didapat sebesar 80%, precission 81% dan recall 80%.
Sistem Manajer pada Sistem Kolaborasi Berbasis Web Jasman Pardede
Seminar Nasional Aplikasi Teknologi Informasi (SNATI) 2009
Publisher : Jurusan Teknik Informatika, Fakultas Teknologi Industri, Universitas Islam Indonesia

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

Berkolaborasi dalam menyelesaikan suatu tugas satu kelompok merupakan suatu bagian penting dalamproses bisnis, karena setiap orang perlu untuk mendiskusikan gagasan-gagasannya, membagikanpemikirannya, mengkoordinasikan rencananya, menetapkan rencana kerja selanjutnya dan membuat suatukeputusan bersama. Perkembangan zaman saat ini, dimana tingkat mobilitas manusia yang semakin tinggisehingga anggota kelompok sering tidak dapat berada pada tempat dan waktu yang sama. Lokasi yang tersebardan sulitnya menyamakan waktu di antara sesama anggota dalam membahas suatu topik tertentu sangatmenghambat kolaborasi. Untuk itu dibutuhkan suatu wadah yang dapat memfasilitasi kolaborasi tanpamemperhatikan lokasi dan waktu. Pesatnya perkembangan internet dan multimedia akhir-akhir ini telah ikutmemicu pengembangan sistem kolaborasi, terutama sistem kolaborasi berbasis web. Untuk mengatur agarkolaborasi berjalan dengan baik pemakalah membangun suatu sistem yang disebut Sistem manajer. Sistemmanajer merupakan aplikasi yang bertanggung jawab untuk mengatur dan memfasilitasi setiap client yangberkolaborasi dengan pengontrolan aktivitas pengguna, pengaturan sesi dan workspace dengan menyediakanfungsionalitas pengiriman teks dan gambar pada satu kelompok. Studi kasus yang digunakan dalam makalahini adalah ruang kelas pertemuan maya.Kata Kunci: berkolaborasi, kelompok, web, sistem manajer, client, sesi.
Implementation of Principal Component Analysis and Learning Vector Quantization for Classification of Food Nutrition Status Jasman Pardede; Hilwa Athifah
JUITA : Jurnal Informatika JUITA Vol. 10 No. 1, May 2022
Publisher : Department of Informatics Engineering, Universitas Muhammadiyah Purwokerto

Show Abstract | Download Original | Original Source | Check in Google Scholar | Full PDF (1097.645 KB) | DOI: 10.30595/juita.v10i1.11104

Abstract

Balanced nutrition is very good in the process of child development. During the COVID-19 pandemic, consuming a balanced nutritious diet can keep a child's immune system from transmitting the virus. In determining the nutritional content of children's food during the pandemic, a classification of the nutritional content of children's food is carried out by applying the principal component analysis (PCA) dimension reduction method and the learning vector quantization (LVQ) classification method. The data used in this study amounted to 1168 data with 25 indicators of food nutrients. From the tests that have been carried out, the combination of the PCA-LVQ method produces an average accuracy of 58% with the highest accuracy of 60%. In addition, this study also compares the performance of the PCA dimension reduction method, independent component analysis (ICA) and factor analysis (FA) on the LVQ classification process. The final result of testing the three methods is that the FA method takes the fastest time, which is 4.10434 seconds and the PCA method produces the highest accuracy, which is 58.2%
Implementasi Long Short-Term Memory untuk Identifikasi Berita Hoax Berbahasa Inggris pada Media Sosial Jasman Pardede; Raka Gemi Ibrahim
Journal of Computer Science and Informatics Engineering (J-Cosine) Vol 4 No 2 (2020): December 2020
Publisher : Informatics Engineering Dept., Faculty of Engineering, University of Mataram

Show Abstract | Download Original | Original Source | Check in Google Scholar | DOI: 10.29303/jcosine.v4i2.361

Abstract

Hoax or fake news spreads very fast on social media. The news can influence readers and be a poison of the mind. Problems like this must be resolved in a strategic way to identify the news that is read that is disseminated on social media. Some of the methods proposed to predict hoax are to use Support Vector Classifier, Logistic Regression, and MultinomialNaiveBayes. In this study, the researchers applied Long Short-Term Memory to identify hoax. System performance is measured based on the value of precision, recall, accuracy, and F-Measure. Based on the results of experiments conducted on the hoax data obtained the average value of precision, recall, accuracy, and F-Measure respectively 0.94, 0.96, 0.95, and 0.95. Based on the experimental results it was found that the proposed Long Short-Term Memory has better performance compared to the state-of-the-art methods method.