K Nearest Neighbor (KNN) |
Halo teman-teman, berjumpa lagi dengan situs belajar dan berbagi jokoding.com. Setelah kita kemarin mengula bersama mengenai salah satu model dalam machine learning berjenis supervised learning, yaitu support vector machine (SVM), kita akan lanjut membahas mengenai model machine learning lain yang diistilahkan dengan K Nearest Neighbor (KNN model).
K Nearest Neighbor (KNN) merupakan salah satu model machine learning yang berjenis supervised learning yang biasanya digunakan dalam pengklasifikasian dan regresi. Mirip dengan algoritma SVM, hanya saja di dalam KNN ini prinsip dasar yang kita gunakan dalam mengklasifikasikan data berfokus pada sebuah amatan baru berdasarkan kemiripan menurut ukuran jarak atau kita istilahkan dengan distance similarity.
Misalkan kita memiliki sekumpulan data yang awalnya telah terkelompokkan dalam dua kelas dan satu atau beberapa amatan baru yang belum terklasifikasikan ke kelas mana. Maka, berdasarkan pencirian dua kelas tersebut, kita kemudian mencari satu atau beberapa amatan yang memiliki ciri terdekat dengan amatan baru yang berasal dari kedua kelas itu. Kemudian kita hitung kedekatannya menurut jarak, bisa jarak euclidian, jarak Manhattan (Manhattan distance), jarak Hamming, jarak Minkowski, atau bisa jadi rumus jarak yang lain, kemudian kita tentukan amatan baru tersebut masuk ke kelas mana. Untuk lebih memperdalam pemahaman, kita coba dengan visualisasi dengan kasus misalkan klasifikasi foto anjing dan kucing.
Terdapat data baru (warna kuning) untuk diklasifikasikan |
Sebuah foto diketahui belum dapat diidentifikasikan apakah foto tersebut merupakan foto anjing atau kucing. Tetapi, kita sebelumnya telah memiliki sejumlah foto anjing (bulatan biru tua) dan foto kucing (bulatan biru muda) di atas. Masing-masing amatan (bulatan) mengandung data ciri-ciri spesifik mengenai anjing dan kucing.
Dalam algoritma KNN, kita kemudian menentukan beberapa amatan yang kemungkinan merupakan amatan terdekat dengan data foto yang belum teridentifikasi tadi. Misalkan kita memiliki sebanyak 6 tetangga terdekat baik dari foto yang mencirikan anjing maupun kucing. Pemilihan tetangga sebanyak 6 inilah yang dinotasikan sebagai K - 6 sekaligus menjadi dasar penamaan K Nearest Neighbor (KNN).
Dimisalkan kita memilik 6 amatan tetangga terdekat amatan baru |
Caranya adalah kita mencari tahu, kelompok mana yang nilai d nya paling banyak yang dekat dengan amatan atau foto belum teridentifikasi. Bila dari penghitungan foto belum teridentifikasi ternyata paling paling banyak dekat dengan foto kucing, maka foto belum teridentifikasi itu masuk kelompok foto kucing. Begitu pula bila ternyata sebaliknya.
Proses KNN dalam menentukan klasifikasi terhadap data baru |
Itu sekilas mengenai teori dasar dalam memahami algoritma KNN. Berikutnya kita akan mencoba melakukan pemodelan KNN dengan menggunakan R. Adapun kasus yang kita angkat dalam praktikum kali ini adalah fraud kartu kredit (credit card fraud). Pengertian dasar fraud sendiri banyak kita dapatkan di internet, intinya fraud ini merupakan bentuk ketidaknormalan, penyimpangan, atau bahkan yang lebih ekstrem, yaitu tindak penipuan atau kecurangan. Credit card fraud ini merupakan tindak penipuan yang menggunakan atau berkedok kartu kredit oleh oknum tidak bertanggungjawab demi meraup keuntungan pribadi. Data credit card fraud ini saya peroleh dari situs Kaggle kemudian untuk mempersingkat lama pemodelan, kita pangkas hanya 1.000 amatan saja mengingat dalam proses klasifikasi KNN ini butuh waktu yang lama tergantung dengan dimensi data yang digunakan. Teman-teman dapat mengunduh datanya terlebih dulu pada tautan berikut. Setelah itu, pemodelan KNN dapat mengikuti beberapa code berikut:
Code:
#Install dan aktivasi package
install.packages("kknn")
install.packages("caret")
library(kknn)
library(caret)
#Import Data
library(readxl)
fraud <- read_excel("C:/Users/Joko Ade/Downloads/fraud.xlsx")
dataku <- fraud[-1]
attach(dataku)
#Mengubah Class bertipe factor
dataku$Class <- as.factor(dataku$Class)
#Melihat Struktur Data
str(dataku)
Hasil:
tibble [1,000 x 30] (S3: tbl_df/tbl/data.frame)
$ V1 : num [1:1000] -1.36e+13 1.19e+14 -1.36e+14 -9.66e-01 -1.16e+14 ...
$ V2 : num [1:1000] -7.28e-02 2.66e-01 -1.34e+14 -1.85e-01 8.78e-01 ...
$ V3 : num [1:1000] 2.54e+14 1.66e-01 1.77e+14 1.79e+14 1.55e+12 ...
$ V4 : num [1:1000] 1.38e+14 4.48e-01 3.80e-01 -8.63e-01 4.03e-01 ...
$ V5 : num [1:1000] -0.3383 0.06 -0.5032 -0.0103 -0.4072 ...
$ V6 : num [1:1000] 4.62e-01 -8.24e-02 1.80e+14 1.25e+14 9.59e-02 ...
$ V7 : num [1:1000] 0.2396 -0.0788 0.7915 0.2376 0.5929 ...
$ V8 : num [1:1000] 0.0987 0.0851 0.2477 0.3774 -0.2705 ...
$ V9 : num [1:1000] 3.64e-01 -2.55e-01 -1.51e+14 -1.39e+14 8.18e-01 ...
$ V10 : num [1:1000] 0.0908 -0.167 0.2076 -0.055 0.7531 ...
$ V11 : num [1:1000] -5.52e-01 1.61e+14 6.25e-01 -2.26e-01 -8.23e-01 ...
$ V12 : num [1:1000] -6.18e-01 1.07e+14 6.61e-02 1.78e-01 5.38e-01 ...
$ V13 : num [1:1000] -9.91e-01 4.89e-01 7.17e-01 5.08e-01 1.35e+13 ...
$ V14 : num [1:1000] -3.11e-01 -1.44e-01 -1.66e-01 -2.88e-01 -1.12e+14 ...
$ V15 : num [1:1000] 1.47e+14 6.36e-01 2.35e+14 -6.31e-01 1.75e-01 ...
$ V16 : num [1:1000] -4.70e-01 4.64e-01 -2.89e+14 -1.06e+13 -4.51e-01 ...
$ V17 : num [1:1000] 2.08e-01 -1.15e-01 1.11e+14 -6.84e-01 -2.37e-01 ...
$ V18 : num [1:1000] 2.58e-02 -1.83e-01 -1.21e-01 1.97e+14 -3.82e-02 ...
$ V19 : num [1:1000] 4.04e-01 -1.46e-01 -2.26e+14 -1.23e+13 8.03e-01 ...
$ V20 : num [1:1000] 0.2514 -0.0691 0.525 -0.208 0.4085 ...
$ V21 : num [1:1000] -0.01831 -0.22578 0.248 -0.1083 -0.00943 ...
$ V22 : num [1:1000] 0.27784 -0.63867 0.77168 0.00527 0.79828 ...
$ V23 : num [1:1000] -0.11 0.101 0.909 -0.19 -0.137 ...
$ V24 : num [1:1000] 6.69e-02 -3.40e-01 -6.89e-01 -1.18e+14 1.41e-01 ...
$ V25 : num [1:1000] 0.129 0.167 -0.328 0.647 -0.206 ...
$ V26 : num [1:1000] -0.189 0.126 -0.139 -0.222 0.502 ...
$ V27 : num [1:1000] 0.13356 -0.00898 -0.05535 0.06272 0.21942 ...
$ V28 : num [1:1000] -0.0211 0.0147 -0.0598 0.0615 0.2152 ...
$ Amount: num [1:1000] 149.62 2.69 378.66 123.5 69.99 ...
$ Class : Factor w/ 2 levels "0","1": 1 1 1 1 1 1 1 1 1 1 ...
Code:
#Membuat matriks korelasi
knnku <- dataku[,-c(1,30)]
corr_knn <- cor(knnku)
#Mengurangi dimensi dari matriks korelasi
library(reshape2)
melt_corr <- melt(corr_knn)
#Membuat Visualisasi Matriks Korelasi Multi Variabel
#ggplot() untuk memformat template visualisasi
#geom_text() untuk menampilkan nilai dalam hal ini korelasi
library(ggplot2)
ggplot(data = melt_corr, aes(x=Var1, y = Var2, fill = value)) +
geom_tile(aes(fill = value), colour = "white") +
scale_fill_gradient(low = "white", high = "steelblue") +
geom_text(aes(Var2, Var1, label = round(value,2)), size = 1.5)
Hasil:
Matrik korelasi variabel independen |
Code:
#Partisi Data
inTrain <- createDataPartition(y=dataku$Class, p = 0.80, list = F)
train <- dataku[inTrain,]
test <- dataku[-inTrain,]
#Pemodelan K Nearest Neighbor
#kmax bisa diatur sesuai kemungkinan
kn <- train.kknn(Class~., data = train, kmax = 10)
#Ringkasan Model KNN
kn
Hasil:
Call:
train.kknn(formula = Class ~ ., data = train, kmax = 10)
Type of response variable: nominal
Minimal misclassification: 0.002496879
Best kernel: optimal
Best k: 6
Terlihat bahwa dari K mulai 1 sampai Kmax 10, nilai K terbaik adalah sebesar 6, jadi jumlah tetangga terbaik terhadap amatan baru sebanyak 6 dari masing-masing kelompok
Code:
#Plot Model KNN dengan k terbaik 6
plot(kn)
text(6, 0.00255, c("Nilai K terbaik"), col = "red")
Hasil:
Plot mendapatkan K terbaik, K = 6 memiliki kecuraman tajam terhadap K = 1,2,3,4,5 |
Code:
#Prediksi dengan Train
p4 <- predict(kn, train)
head(train$Class)
head(p4)
#Akurasi Prediksi train
confusionMatrix(p4, train$Class, mode = "everything")
Hasil:
Confusion Matrix and Statistics
Reference
Prediction 0 1
0 799 2
1 0 0
Accuracy : 0.9975
95% CI : (0.991, 0.9997)
No Information Rate : 0.9975
P-Value [Acc > NIR] : 0.6767
Kappa : 0
Mcnemar's Test P-Value : 0.4795
Sensitivity : 1.0000
Specificity : 0.0000
Pos Pred Value : 0.9975
Neg Pred Value : NaN
Precision : 0.9975
Recall : 1.0000
F1 : 0.9988
Prevalence : 0.9975
Detection Rate : 0.9975
Detection Prevalence : 1.0000
Balanced Accuracy : 0.5000
'Positive' Class : 0
Terdapat misklasifikasi sebanyak 2 amatan
Akurasi model KNN dengan train dataset 99,75 persen. Hasil ini sangat baik.
Code:
#Prediksi dengan Test
predtestknn <- predict(kn, test)
#Akurasi prediksi Test
confusionMatrix(predtestknn, test$Class, mode = "everything")
Confusion Matrix and Statistics
Reference
Prediction 0 1
0 199 0
1 0 0
Terlihat pada tabel korkondansi tidak ada yang salah klasifikasi (misclassification)
Accuracy : 1
95% CI : (0.9816, 1)
No Information Rate : 1
P-Value [Acc > NIR] : 1
Kappa : NaN
Mcnemar's Test P-Value : NA
Sensitivity : 1
Specificity : NA
Pos Pred Value : NA
Neg Pred Value : NA
Precision : 1
Recall : 1
F1 : 1
Prevalence : 1
Detection Rate : 1
Detection Prevalence : 1
Balanced Accuracy : NA
'Positive' Class : 0
Terlihat pada test dataset diperoleh akurasi 100 persen. Sebuah hasil yang sangat baik.
Demikian sekilas pembahasan kita mengenai K Nearest Neighbor (KNN) dengan R. Ikuti terus unggahan selanjutnya, selamat memahami dan mempraktikkan!.