cover
Contact Name
-
Contact Email
-
Phone
-
Journal Mail Official
-
Editorial Address
-
Location
Kota malang,
Jawa timur
INDONESIA
Jurnal POINTER
Published by Universitas Brawijaya
ISSN : -     EISSN : -     DOI : -
Core Subject : Science,
Jurnal POINTER diterbitkan oleh Program Studi Ilmu Komputer, Jurusan Matematika, Fakultas Matematika dan Ilmu Pengetahuan Alam, Universitas Brawijaya Malang. Jurnal POINTER ini terbit dua kali dalam satu tahun, yaitu pada bulan Februari dan September.
Arjuna Subject : -
Articles 20 Documents
Image Resizing Menggunakan Algoritma Seam Carving dengan Menggabungkan Dynamic Programming dan Stochastic Path Adhie Indi Arsyanto; Edy Santoso; Nurul Hidayat
Jurnal POINTER Vol 2, No 2 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Pada April 2007, Ariel Shamir dan Shai Avidan menemukan dan mempublikasikan algoritma seam carving. Kelebihan dari algoritma ini adalah pada saat ukuran sebuah citra diubah, dimana perubahan ukuran citra tersebut akan mengubah perbandingan panjang dan lebar. Seam carving dapat menjaga agar objek utama dalam citra tetap utuh, baik dengan atau tanpa bantuan user. Masalah yang timbul adalah operator pada makalah terdahulu menggunakan gradient magnitude dan histogram of oriented gradients dimana hanya 2 piksel yang paling berperan dalam menentukan sebuah tepi. Kedua operator ini sangat sensitif terhadap adanya gangguan pada citra (noise), karena hanya sedikit jumlah piksel yang dilibatkan untuk memperhitungkan gradien (Milan, 1993). Selain itu, menurut Hector Yee (2007) penggunaan algoritma dynamic programming seringkali menimbulkan artifact (pembentukan/perubahan objek). Penggunaan metode stochastic path dengan membuat 10.000 seam secara acak dinilai Hector Yee dapat memberikan hasil yang lebih baik (Hector. 2007). Namun, dengan metode tersebut ukuran citra akan mempengaruhi kualitas hasil resizing. Hal ini dikarenakan jumlah seam yang dibuat akan tetap meskipun ukuran citra bervariasi. Oleh karena itu dalam makalah ini akan dilakukan modifikasi dari algoritma seam carving dengan cara menggabungkan algoritma dynamic pr
Teknik Kompresi Citra Menggunakan Dekomposisi Nilai Singulir Berbasis Blok Dewi Yanti Liliana; Dian Eka Ratnawati; Marji -
Jurnal POINTER Vol 2, No 2 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Kompresi citra merupakan teknik yang sangat penting pada pengolahan citra digital baik untuk penyimpanan maupun untuk transmisi. Citra yang tidak dikompresi memerlukan kapasitas penyimpanan yang besar, sedangkan pengiriman file citra berukuran besar dapat memperlambat laju transmisi data. Penelitian ini mengkompresi citra menggunakan teknik komputasi numerik yaitu dengan mendekomposisi matriks citra menjadi tiga buah matriks; sebuah matriks diagonal dan dua buah matriks ortogonal yang dikenal dengan teknik dekomposisi nilai singulir (DNS). Selanjutnya kompresi akan dilakukan terhadap matriks singulir dari citra dengan cara mereduksi dimensi matriks secara bertahap sampai mencapai nilai rank maksimal. Selain itu citra juga akan dibagi menjadi blok-blok citra dan DNS diterapkan terhadap masing-masing blok dengan tujuan untuk memperbesar rasio kompresi citra. Pengujian kinerja teknik kompresi dilakukan melalui perhitungan rasio kompresi, MSE dan PSNR. Berdasarkan pengujian diperoleh hasil bahwa penggunaan nilai singulir yang semakin sedikit akan menaikkan rasio kompresi. Sedangkan penggunaan blok juga dapat meningkatkan rasio kompresi, namun jumlah blok tidak berpengaruh terhadap hasil kompresi. Kata kunci : kompresi, citra digital, dekomposisi nilai singulir   ABSTRACT Image compression is a very important technique in digital image processing either for storage or for transmission. Uncompressed image requires large storage capacity, while the delivery of large image files can slow the rate of data transmission. This research make use of image compression techniques of numerical computation by decomposing the image matrix into three matrices which are a diagonal matrix and two orthogonal matrices technique known as single value decomposition (SVD). Further compression is performed on a singulir matrix by reducing gradually the dimensional of matrix until reaching the maximum rank value. In addition, the image will be divided into blocks of image and SVD is applied to each block in order to enlarge the image compression ratio. Testing the performance of compression techniques is done through calculation of compression ratio, MSE and PSNR. Based on the testing showed that the use of less singular value will raise the compression ratio. While the use of block can also increase the compression ratio, but the number of blocks did not affect the compression results. Keywords : compression, digital image, singular value decomposition
Rekomendasi Kata Berbahasa Alay Ke Bahasa Indonesia Menggunakan Algoritma Fonetik dan Levenshtein Distance Putra Pandu Adikara
Jurnal POINTER Vol 2, No 2 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Kata dalam bahasa Alay yang digunakan remaja akhir-akhir ini dapat menyulitkan pembacaan dan pengertian karena ketidakbakuan ejaan kata sesuai kaidah EYD. Ketidakbakuan ejaan ini dapat dikenali melalui algoritma spelling checker. Algoritma spelling checker yang digunakan adalah algoritma fonetik. Algoritma fonetik ini menghasilkan kunci dari suatu kata yang nantinya dihitung kedekataannya dengan kunci kata-kata lain yang ada di database. Penghitungan kedekatan kunci sebagai kemiripan kata di sini menggunakan algoritma Levenshtein Distance. Hasil eksperimen menunjukkan recall terhadap kata dalam bahasa Alay hasil pembangkitan Alay Generator sebesar 92.5%, sedangkan recall dari kata yang dibuat manual sebesar 60%.   Kata kunci: bahasa alay, bahasa Indonesia, cek ejaan, algoritma fonetik, levenshtein distance   ABSTRACT Words in bahasa Alay used recently by nowadays teenagers can be really difficult to read and to understand because of its non standard spelling and not following Bahasa Indonesia’s improved spelling (EYD) rules. This non standard spelling can be recognized by using spelling checker algorithm. Spelling checker algorithm proposed here is using phonetic algorithm. Phonetic algorithm generates key from a word which later the similarity with other words’ key, stored in database, can be calculated. Calculation of the keys similarity, as word similarity, used in this paper is using Levenshtein Distance. Experiment result shows that recall of words generated by Alay Generator is 92.5% while recall of words manually made is 60%.   Keywords: alay language, Indonesian language, spelling check, phonetic algorithm, levenshtein distance
Komputasi Frekuensi Kebersamaan Data Berdasarkan Klaster Pembentuknya Marji -; Edy Santoso; Nurul Hidayat
Jurnal POINTER Vol 2, No 2 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Salah satu cara untuk mengetahui kemiripan rekord data adalah dengan klastering. Pada metode klastering, dengan jumlah klaster yang sama, antara metode yang satu dengan yang lain kemungkinan menghasilkan struktur klaster yang berbeda. Dengan adanya perbedaan struktur tersebut dimungkinkan dua buah rekord data dengan suatu metode klaster berada dalam suatu klaster, tetapi dengan metode yang lain berada pada klaster yang berbeda. Pada penelitian ini dikembangkan suatu algoritma yang dapat digunakan untuk mengetahui frekuensi rekord data berada dalam satu klaster. Metode klaster yang digunakan adalah k-means, kohonen, fuzzy cmean dan fuzzy substractive. Berdasarkan hasil klastering keempat metode tersebut, dikembangkan algoritma yang dapat digunakan untuk mengetahui frekuensi rekord data bersamaan dalam satu kluster. Data yang digunakan adalah data gen jamur yang dapat didownload pada alamat http://cmgm.stanford.edu/pbrown/  sporulation/ additional/   Kata kunci: klastering, k-means, kohonen, fuzzy cmean, fuzzy substractive ABSTRACT Clustering is a one of  the way to know similarity  among data records.  Sometime, different methods give a different cluster structure , although in  the same sum  of cluster.  So that, by using different methods,  it is possible 2 data  at the different structure.  For exampale , by using kmean, data -1 and data-2 in the same cluster, but by  kohonen, data-1 and data-2 in the  different cluster. In this researh, we developt algorithm that can be used to calculate frequency of data record at the same cluster.  The methods, we are used are kmean, kohonen, fuzzy cmean and fuzzy substractive. Based on those methods, we developt  algorithm that can be used to know frequency of data record at the same cluster. Data used in this research is fungi gen, that can be download at http://cmgm.stanford.edu/pbrown/ sporulation/ additional/   Keywords: clustering, kmean,kohonen, fuzzy cmean, fuzzy substractive
Penerapan Algoritma Genetik Dua Populasi Pada Kasus Transportasi Dua Tahap (Pada Studi Kasus Distribusi Susu Fermentasi Pada Perusahaan XYZ di Pulau Jawa) Kusuma Ari Prabowo; Achmad Ridok; Nurul Hidayat
Jurnal POINTER Vol 2, No 2 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Algoritma genetik adalah suatu metode algoritma optimalisasi dan pencarian yang didasarkan pada prinsip genetika dan seleksi natural (Haupt. 2004). Pada penelitian ini, akan dibangun sebuah aplikasi optimasi pencarian rute pada transportasi dua tahap yang diterapkan pada studi kasus distribusi produk susu fermentasi pada perusahaan XYZ menggunakan algoritma genetik dua populasi. Algoritma genetik dua populasi, adalah suatu algoritma genetik yang membentuk dua populasi sebagai populasinya. Populasi tersebut dibagi dalam populasi elit dan umum, dimana individu yang terdapat pada populasi elit adalah suatu individu dengan nilai fitness tertinggi dan individu pada populasi umum dengan nilai fitness yang lebih rendah (Martikainen dan Ovaska, 2006). Seperti pada proses genetika, algoritma genetik memiliki operator genetik yang digunakan dalam proses regenetik.  Pada penelitian ini digunakan metode roulette wheel pada proses select parent nya, metode weight mapping cross over (WMX) untuk  proses cross over, dan swap mutation untuk proses mutasinya. Untuk mengukur sejauh mana pengaruh populasi elit terhadap fitness yang dihasilkan dilakukan uji perbandingan rata-rata hasil fitness pada 10 kali percobaan antara algoritma dua populasi dengan algoritma berpopulasi tunggal. Hasil ujicoba dan evaluasi menunjukkan bahwa metode algoritma genetik dengan dua populasi menghasilkan fitness 12 % lebih baik dari metode algoritma genetik berpopulasi tunggal.   ABSTRACT Genetic algorithm is an optimization method and search algorithms that are based on the principles of genetics and natural selection (Haupt. 2004). In this research we built a search optimization applications in the transportation routes applicable to the two-stage case study of the distribution of fermented milk products at XYZ company uses genetic algorithms two-populations. Two-population genetic algorithm, is a genetic algorithm that forms two populations as a population. The population is divided into elite and the general population, where individuals contained in the elite population is an individual with highest fitness value and individuals in the general population with lower fitness value (Martikainen and Ovaska, 2006). As in the genetic processes, genetic algorithms have the genetic operators used in the re-genetic  process. In this research, we use roulette wheel method for select parent process and weight mapping crossover (WMX) method for cross over process, then for mutation process we use swap mutation method. To measure the extent of the influence of the elite population of the fitness test yielded an average ratio of fitness results from 10 trials between two populations algorithm with single population algorithm. Testing and evaluation results show that the genetic algorithm method with two populations yield 12% better fitness than the single population genetic algorithm method.   Kata kunci : Algoritma genetic, genetic algorithm, dua populasi, two population, transportasi dua tahap, two step transportation.  
Prediksi Profil Asam Amino Pada Family Protein Menggunakan Hidden Markov Model Endang Wahyu Handamari; Kwardiniya A; Mila Kurniawaty; Emilia S I
Jurnal POINTER Vol 2, No 2 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Sequence  alignment adalah metode dasar dalam analisis sekuens, yang  merupakan proses penyusunan atau penjajaran dua atau lebih sequence primer sehingga persamaan sequence - sequence tersebut tampak nyata. Salah satu kegunaan  metode ini adalah untuk  memprediksi karakteristik dari suatu protein, yaitu memprediksi struktur atau fungsi protein yang belum diketahui menggunakan protein yang telah diketahui informasi struktur atau informasi fungsinya jika protein tersebut memiliki kesamaan sequence dengan sequence yang terdapat dalam database. Protein merupakan makromolekul yang menyusun lebih dari separuh bagian dari sel.  Protein merupakan  rantai dari gabungan 20 jenis asam amino, di mana setiap jenis protein mempunyai jumlah dan sequence asam amino yang khas. Metode yang dapat diterapkan untuk sequence  alignment di samping algoritma genetika adalah  metode yang berhubungan dengan Hidden Markov Model (HMM). Hidden Markov Model (HMM)  merupakan bentuk pengembangan dari rantai Markov, yang dapat diterapkan dalam kasus yang tidak dapat diamati secara langsung. Sebagai observed state untuk sequence  alignment adalah sequence asam amino dalam tiga kategori yaitu : deletion(1), insertion(2) dan match(3),  sedangkan  untuk hidden state adalah residu asam amino, yang  dapat menentukan  family protein  bersesuaian dengan observasi O .               Implementasi melalui perangkat lunak HMM terhadap sequence asam amino telah dilakukan namun perlu diuji keakuratan  terhadap data sebenarnya melalui PDB (Protein Data Bank). ABSTRACT Sequence alignment is the basic method in sequence analysis,  which is the process of  two or more primer  sequences  so  that  the  equation sequences are apparent.  One of  the  usefulness  of  this  method to predict the characteristics of a protein, which predicts the structure or function of unknown proteins using known protein structure information  if the information  these proteins have sequence similarity to sequences contained in the data base. Proteins are  macromolecules  which  make up more  than half of  the cell. Proteins  are  chains  of a combination of  20 kinds of amino acids,  where each type protein  has  a number of proteins and amino acid sequences are typical.   The  method  can be  applied  to sequence  alignment besides  the genetic algorithm is a method associated with the Hidden Markov Model  (HMM). Hidden Markov Model (HMM) is a form of development of Markov chains, which can be applied in cases that can not be observed directly. As observed state for sequence alignment is the sequence of amino acids into three categories namely: deletion (1), insertion (2) and match (3), while for the hidden state is an amino acid residue, which can determine the family of proteins corresponding to the observation O. Implementation through HMM software for  the amino acid sequence has been done but needs to be tested against actual data accuracy through the PDB  (Protein Data Bank).
Pengelompokan Ayat Al-Qur’an Berdasarkan Kesamaan Kata Menggunakan Metode Association Rule Muh Arif Rahman
Jurnal POINTER Vol 2, No 2 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Al-Qur'an terdiri atas 114 bagian yang dikenal dengan nama surah (surat). Setiap surat akan terdiri atas beberapa ayat. Total jumlah ayat dalam Al-Qur'an mencapai 6236 ayat. Surat-surat yang panjang terbagi lagi atas sub bagian lagi yang disebut ruku' dimana jumlahnya ada 554 yang membahas tema atau topik tertentu. Pembagian umum lainnya adalah bahwa Alqur’an terbagi menjadi 30 juz dimana masing-masing juz mempunyai jumlah ayat yang sama. Jika kita lakukan pencarian satu kata di Al-Quran maka kata tersebut akan terdapat di beberapa surat atau beberapa ruku’ yang tidak selalu urut. Perkembangan teknologi informasi memungkinkan hampir semua data dapat direpresentasikan dalam bentuk teks, suara maupun gambar (multimedia). Salah satu bidang di ilmu komputer adalah data mining.. Diantara topik bahasan dalam data mining adalah association rule. Salah satu implementasi dari penyelesaian association rule adalah clustering data. Al-Quran terdiri atas Surat dan ruku’. Apabila Surat atau ruku’ dapat diasumsikan (dipandang) sebagai transaksi dimana item-item barang dapat dianalogikan dengan kata-kata penting yang muncul maka dalam penelitian ini akan dibahas pengelompokan ayat-ayat Al Qur’an berdasarkan kesamaan kata baik per surat maupun per ruku’ dengan menggunakan metode penyelesaian association rule.   ABSTRACT The Qur'an consists of 114 parts, known by the name of surah. Each surah will consist of a few ayat. The total number of ayat in the Quran reaches 6236. Each surat is divided into several part known as ruku' where there are 554 ruku' that discuss a particular theme or topic. Another common division is that the Quran is divided into 30 chapters which each section of the Koran have the same number of surat. If we do a single search word in the Quran, the word is to be found in some letters or some ruku' that is not always sequential. The development of information technology, any data can be represented in the form of text, sound or image (multimedia). One area in computer science is data mining. One of topic in data mining is association rule which can be implemented on association rule is the clustering of data. If each of ayat can  be assumed as sequence of transaction and every word is similar to item on transaction then we can modelling of similarity of each ayat.
Pengenalan Wajah Menggunakan Nilai Varian Obyek Wajah Muh Arif Rahman; Solimun S
Jurnal POINTER Vol 2, No 1 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Terdapat banyak algoritma pengenalan wajah yang dikembangkan diantaranya adalah algoritma principal componen analysis (PCA), Independen component analysis, Linear Discriminant Analysis (LDA). Beberapa algoritma lainnya merupakan kolaborasi dengan algoritma lainnya misal algoritma EigenSpace (EP) memuat algoritma genetika pada setiap iterasinya, algoritma Elastic Bunch Graph Matching (EBGM) memetakan data wajah menggunakan teori graph. Dari semua metode tersebut terdapat beberapa kelemahan mendasar yaitu pembuatan data latih yang digunakan sebagai database wajah memerlukan komputasi yang cukup besar. Penelitian ini mengusulkan algoritma baru pengenalan wajah berdasarkan nilai varian pada masing-masing obyek wajah yang dibatasi pada obyek mata, hidung dan bibir sedemikian hingga menghindari perhitungan seluruh obyek wajah. Pengenalan tersebut memerlukan sejumlah data latih untuk obyek mata, hidung dan bibir. Pada setiap data latih akan dibuat template window untuk wajah. Template windows tersebut memuat koordinat dari mata (kiri-kanan), hidung dan bibir. Hasil pengujian menunjukkan bahwa kinerja algoritma yang diusulkan ternyata memberikan hasil yang lebih buruk dibandingkan dengan metode LDA dan PCA. Hasil ini dipengaruhi oleh pemilihan nilai threshold serta kualitas citra yang diuji.
Improving Performance of Document Clustering Using Latent Semantic Index Approach Lailil Muflikhah; Baharudin B. Baharum
Jurnal POINTER Vol 2, No 1 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRACT Document clustering is important to help users to retrieve the information they need. Initially, clustering is a method used to improve the precision and recall in information retrieval. The fuzzy clustering method is used to categorize document collections. Clustering of document involves huge volume of data that may be correlated either inter or intra documents. Hence, their pattern can be found by using Latent Semantic Index (LSI) approach. There are two methods used in this research, Singular Vector Decomposition (SVD) and Principal Component Analysis (PCA). The PCA is an extension of SVD method using data covariance. The aim of this study is to improve the performance of existing clustering algorithm (fuzzy c-Means) by simplified matrix dimension, which can contribute to improving the performance quality of document categorization. By various data volumes (class sizes) and topics, the experiment has shown that there is significant improvement for the performance quality of cluster either internal or external. Keyword: document clustering, Latent Semantic Index, SVD, PCA, fuzzy c-means
Aplikasi Fuzzy Ordered Weighted Averaging (OWA) Dalam Multi Kriteria Analisis Untuk Penentuan Kelas Area Bencana Lumpur Lapindo Candra Dewi; Ani Budi Astuti; Putra Pandu Adikara
Jurnal POINTER Vol 2, No 1 (2011): Jurnal Pointer - Ilmu Komputer
Publisher : Ilmu Komputer, Universitas Brawijaya

Show Abstract | Download Original | Original Source | Check in Google Scholar

Abstract

ABSTRAK Penentuan area yang berbahaya dari suatu sumber bencana sangat penting untuk memberikan informasi tentang area yang mungkin terdampak bencana tersebut. Dalam analisa tingkat bahaya terhadap bencana alam kadang timbul fuzziness yang terkait dengan adanya informasi yang tidak lengkap terhadap lingkungan sistem dan ketidakpastian dalam pengukuran. Untuk kasus analisa tingkat bahaya yang memiliki informasi yang tidak presisi, metode standarisasi yang bisa digunakan adalah dengan metode fuzzy. Tujuan dari penelitian ini adalah untuk menerapkan metode fuzzy Ordered Weighted Averaging (OWA) dalam evaluasi multi kriteria daerah berbahaya Lumpur Lapindo. Hasil yang diperoleh dari penerapan fuzzy dari masing-masing kriteria ini kemudian digunakan untuk menampilkan informasi area berdasarkan tingkat bahaya dengan menggunakan analisa spasial. Sedangkan untuk analisa sensitifitas, digunakan nilai kriteria pada batas bawah, batas tengah dan batas atas. Berdasarkan hasil analisa spasial diketahui bahwa sekitar 56,35% area dikategorikan kelas kerawanan rendah (Z3), daerah dengan kelas kerawanan sedang (Z2) mencakup luas sekitar 28,07%, kelas keranan tinggi (Z1) dan daerah tidak rawan (Z4) secara berturut-turut hanya menempati luasan 15,33% dan 0,24% dari total area pemukiman. Dari hasil overlay peta kerawanan ini dengan peta terdampak dapat diketahui bahwa terdapat daerah diluar daerah terdampak yang termasuk dalam kelas kerawanan sedang dan tinggi. Dan dari hasil analisa sensitifitas diketahui bahwa zona Z1 dan Z4 tidak begitu sensitif untuk nilai dari batas tengah sampai atas, zona Z2 dan Z3 tidak begitu sensitif untuk nilai dari batas bawah sampai batas tengah.   Kata kunci: analisa multi kriteria, analisa spasial, fuzzy OWA   ABSTRACT Determining vulnerable area of hot mud volcano is important to provide information on the extent of the areas affected by the hazard. Vulnerability analysis for natural hazard deals with uncertainty arises due to the lack of information about system behavior (vagueness, ambiguity, fuzziness) and inexactness of measurement (impreciseness, fuzziness). Fuzzy approach can be used to overcome this fuzziness. The objectives of this paper are to implement fuzzy Ordered Weighted Averaging (OWA) for multi-criteria evaluation of mud volcano vulnerable area and to develop mud volcano vulnerable map using proposed method in Lapindo Mud area. The calculation of membership degree used sigmoid and triangular membership function. The sensitivity analysis was done at lower, middle and upper value of the range. Base on the spatial analysis was found that low hazardous area (Z3) covered about 56.35% area, while 28.07% considered as moderate hazardous area (Z2), 15.33% as high hazardous area (Z1) and 0.24% as not impacted area (Z4). Base on sensitivity analysis also found that classes Z1 and Z4 were not enough sensitive between the middle and upper range, while classes Z2 and Z3 were not enough sensitive between the lower and middle range.   Keywords: multi criteria analysis, spatial analysis, fuzzy OWA

Page 1 of 2 | Total Record : 20