Skip to main content

P9 - Supervise Learning (Klasifikasi) dan Contoh Algoritma Yang Ada Didalamnya

Supervised learning adalah salah satu jenis pembelajaran mesin (machine learning) di mana model dilatih menggunakan data yang telah diberi label. Dalam supervised learning, terdapat dua kategori utama: klasifikasi dan regresi. Fokus kita kali ini adalah pada klasifikasi.

Supervised Learning (Klasifikasi)

Klasifikasi adalah salah satu tugas utama dalam supervised learning, di mana model bertujuan untuk memetakan input ke dalam salah satu dari beberapa kategori atau kelas yang sudah ditentukan sebelumnya. Misalnya, dalam klasifikasi email, model dilatih untuk mengkategorikan email sebagai "spam" atau "not spam." Dalam klasifikasi gambar, model dilatih untuk mengenali objek dalam gambar seperti "kucing," "anjing," atau "mobil." Dalam konteks pembelajaran mesin, supervised learning (pembelajaran terawasi) adalah metode di mana model dilatih menggunakan data yang telah diberi label. Artinya, setiap contoh data dalam set pelatihan memiliki input (fitur) yang sesuai dengan output (label). Tujuan utama dari supervised learning adalah untuk membuat model yang dapat memprediksi label yang benar untuk data baru yang tidak diketahui. 

Algoritma dalam Supervised Learning (Klasifikasi)

Berikut adalah beberapa algoritma yang umum digunakan dalam klasifikasi:

  1. Logistic Regression: Algoritma statistik yang digunakan untuk memodelkan probabilitas kelas biner.

  2. K-Nearest Neighbors (KNN): Algoritma non-parametrik yang mengklasifikasikan data berdasarkan kedekatan dengan tetangga terdekatnya.

  3. Support Vector Machines (SVM): Algoritma yang mencari hyperplane yang memaksimalkan margin antara dua kelas.

  4. Decision Trees: Algoritma berbasis pohon keputusan yang memisahkan data berdasarkan fitur yang memberikan informasi maksimal.

  5. Random Forest: Algoritma ensemble yang menggunakan banyak pohon keputusan untuk meningkatkan akurasi dan mengurangi overfitting.

  6. Naive Bayes: Algoritma probabilistik yang didasarkan pada Teorema Bayes dengan asumsi independensi antar fitur.

  7. Gradient Boosting Machines (GBM): Algoritma ensemble yang membangun model secara bertahap dan menggabungkan banyak model lemah menjadi model kuat.

  8. XGBoost: Implementasi optimasi dari gradient boosting yang dirancang untuk kinerja dan efisiensi.

  9. LightGBM: Algoritma boosting yang mengembangkan pohon secara vertikal dengan efisiensi memori tinggi.

  10. CatBoost: Algoritma boosting yang khusus dirancang untuk menangani fitur kategorikal secara otomatis.

  11. Neural Networks: Model berbasis jaringan saraf yang mampu menangkap pola kompleks dalam data.

  12. Convolutional Neural Networks (CNN): Jaringan saraf yang dirancang khusus untuk tugas pengenalan gambar.

  13. Recurrent Neural Networks (RNN): Jaringan saraf yang dirancang untuk memproses data urutan, seperti teks atau sinyal waktu.

  14. Multilayer Perceptron (MLP): Jaringan saraf dengan satu atau lebih lapisan tersembunyi yang digunakan untuk klasifikasi.

  15. AdaBoost: Algoritma boosting yang menggabungkan beberapa model lemah menjadi model kuat dengan menekankan contoh yang sulit diklasifikasikan.

  16. Bagging Classifier: Teknik ensemble yang menggabungkan prediksi dari beberapa model untuk meningkatkan stabilitas dan akurasi.

  17. Extra Trees: Algoritma ensemble yang mirip dengan random forest tetapi lebih random dalam pembentukan pohon.

  18. Linear Discriminant Analysis (LDA): Teknik statistik yang menemukan kombinasi fitur yang memisahkan dua atau lebih kelas.

  19. Quadratic Discriminant Analysis (QDA): Mirip dengan LDA tetapi mengasumsikan bahwa kelas memiliki matriks kovarians berbeda.

  20. Stochastic Gradient Descent (SGD): Algoritma optimasi untuk model linear yang digunakan untuk klasifikasi dan regresi.

  21. Ridge Classifier: Variasi dari regresi logistik dengan regularisasi L2 untuk menghindari overfitting.

  22. Lasso Classifier: Regresi logistik dengan regularisasi L1 yang dapat melakukan seleksi fitur otomatis.

  23. Elastic Net: Kombinasi dari regularisasi L1 dan L2 yang dapat mengatasi kelemahan Ridge dan Lasso.

  24. Passive Aggressive Classifier: Algoritma untuk pembelajaran online yang cepat dan efisien.

  25. Perceptron: Algoritma dasar jaringan saraf untuk klasifikasi linier.

  26. Bernoulli Naive Bayes: Varian dari naive Bayes untuk fitur biner.

  27. Multinomial Naive Bayes: Varian dari naive Bayes untuk fitur kategorikal.

  28. Gaussian Naive Bayes: Varian dari naive Bayes untuk fitur kontinu dengan distribusi Gaussian.

  29. Complement Naive Bayes: Varian dari naive Bayes yang dirancang untuk mengatasi ketidakseimbangan kelas.

  30. K-Mean Clustering: Algoritma pengelompokan yang kadang digunakan dalam metode semi-supervised learning.

  31. Hierarchical Clustering: Algoritma pengelompokan yang menghasilkan hierarki dari cluster, berguna untuk klasifikasi hierarkis.

  32. DBSCAN (Density-Based Spatial Clustering of Applications with Noise): Algoritma pengelompokan yang menemukan cluster berdasarkan kepadatan data, berguna untuk klasifikasi dengan noise.

  33. Affinity Propagation: Algoritma pengelompokan yang mengidentifikasi cluster dengan mengirim pesan antar data poin.

  34. Mean Shift: Algoritma pengelompokan berbasis densitas yang menemukan pusat massa dalam data.

  35. Gaussian Mixture Model (GMM): Model probabilistik yang mengasumsikan bahwa data berasal dari campuran distribusi Gaussian.

  36. Neural Collaborative Filtering: Model berbasis jaringan saraf yang digunakan untuk rekomendasi dengan menggabungkan informasi pengguna dan item.

  37. Deep Belief Networks (DBN): Jenis jaringan saraf dalam yang terdiri dari beberapa lapisan RBM (Restricted Boltzmann Machines).

  38. Restricted Boltzmann Machines (RBM): Model probabilistik yang digunakan sebagai blok bangunan dalam DBN untuk menemukan representasi fitur yang baik.

  39. Deep Q-Network (DQNs): Model berbasis reinforcement learning yang digunakan untuk klasifikasi dengan menggunakan jaringan saraf untuk memperkirakan nilai tindakan.

Setiap algoritma memiliki karakteristik dan keunggulan tersendiri tergantung pada jenis data dan masalah yang dihadapi. Pemilihan algoritma yang tepat memerlukan pemahaman yang baik tentang data dan masalah spesifik yang ingin diselesaikan.

Comments

Popular posts from this blog

MENENTUKAN KARDINALITAS DAN OPSIOANLITAS

Prodi diketuai oleh dosen (one to one) 2. Dosen ploting program studi (one to one) 3.   Mahasiswa dibimbing dosen (many to one) 4.  Dosen memiliki prodi(one to one) 5.  Dosen mengampu matakuliah (one to one) 6.   Prodi memiliki kelas (many to many) 7.  Mahasiswa memilih matakuliah (many to many) 8.  mahasiswa ploting kelas (many to many) 9.  Fakultas memiliki Prodi (one to many) 10.  Mahasiswa dibimbing dosen (many to one)

Quiz Pertemuan 5 Data Mining

  Anda juga dapat mendownload laporan  Di sini . silahkan klik kata 'di sini'. Bagian 1. Pendahuluan Di era modern ini, tantangan dalam meningkatkan kualitas pendidikan menjadi semakin kompleks. Salah satu indikator keberhasilan pendidikan adalah tingkat kelulusan tepat waktu dan lama masa studi mahasiswa di perguruan tinggi. Oleh karena itu, pemahaman mendalam terhadap faktor-faktor yang memengaruhi lulusan tepat waktu sangat penting. Laporan ini bertujuan untuk melakukan analisis yang mendalam terhadap faktor-faktor yang mempengaruhi lulusan tepat waktu dan lama masa studi di lingkungan akademik. Analisis dilakukan meliputi integrasi dan pembersihan data, serta mengidentifikasi tren atau pola yang mempengaruhi lulusan tepat waktu. Berikut permasalahan-permasalahan yang akan dibahas pada analisis lulusan tepat waktu. 1.      Langkah-langkah apa saja dalam integrasi dan pembersihan data serta analisis pola lulusan tepat waktu? 2.    ...