Multilayer Perceptron (MLP) adalah jaringan saraf yang terdiri dari satu lapisan layer input , satu atau lebih lapisan layer hidden dan satu layer output. MLP yang memiliki banyak lapisan tersembunyi (hidden layer) juga disebut deep neural networks (DNN).
Jaringan saraf tiruan seperti MLP terlihat seperti bayi yang baru lahir yang belum mengerti apa-apa. Dengan belajar bahwa anak kemudian dapat meningkatkan pengetahuannya tentang dunia di sekitarnya . Begitu juga dengan MLP. Ketika kami melatihnya tentang data kami ingin MLP membuat kesalahan minimal dalam prediksinya.
Pada tahun-tahun awal banyak peneliti berjuang untuk menemukan cara untuk melatih MLP. Baru pada tahun 1986 David Rumelhard Geoffrey Hinton dan Ronald Williams menerbitkan sebuah penelitian yang memperkenalkan propagasi retrograde. Perkembangan terbalik adalah algoritma pelatihan MLP yang masih digunakan sampai sekarang.
Propagasi Balik
Propafasi balik adalah teknik yang memungkinkan MLP mempelajari cara membuat prediksi yang lebih baik.
Metode kerja propagasi balik hanya terdiri dari 3 fase yaitu:
- Jaringan saraf awalnya membuat prediksi.
- Keluaran hasil yang diharapkan kemudian diukur menggunakan tingkat kesalahan menggunakan fungsi loss.
- Hasil
kesalahan kemudian dikirim melalui propagation balik sehingga jaringan
saraf dapat menyesuaikan bobot untuk meminimalkan kesalahan optimasi.
Contoh
sederhana dari propagation balik adalah game Angry Birds. Kita dapat
memenangkan game dengan memilih jalur terbaik untuk mencapai tujuan
kita.
Di awal permainan MLP secara acak memilih sepotong. Pada pilihan trek pertama, MLP kemungkinan besar akan menghasilkan kesalahan dengan cara tidak mencapai target. Kemudian kesalahan diukur dengan fungsi kerugian di mana kesalahan adalah jarak antara lintasan yang tidak mencapai tujuan dan tujuan yang dimaksud. Kemudian kesalahan dikirim dengan propagasi balik dan setiap bobot dalam MLP diatur dalam pengoptimal.
Dalam hal ini bobot yang perlu dipelajari MLP adalah lintasan terbaik yang harus dilampaui untuk memenangkan game. MLP kemudian terus belajar dengan propagasi retroaktif hingga akhirnya menemukan lintasan yang berhasil mencapai target.
Klasifikasi dengan MLP
Setelah kita mempelajari multi layer perceptron, prppagasi balik, mari kita lihat cara kerjanya adalah model machine learning yang termasuk kategori supervised. Oleh karena itu MLP dapat digunakan dalam situasi klasifikasi dan regresi.
Kita akan melihat bagaimana MLP bekerja di klasifikasi. Klasifikasi kasus yang ditunjukkan pada gambar di bawah ini dirancang untuk menentukan apakah seorang siswa berasal dari suatu kelas ulus atau tidak. Jumlah absen panjang yang terlewatkan untuk tugas akhir memiliki 2 atribut, yaitu jumlah absensi dan lama waktu. Dan header data adalah 2 yang telah lulus dan gagal.
Untuk mengatasi masalah di atas kita bisa menggunakan MLP dengan satu hidden layer dengan 4 perceptron. Input dalam MLP merupakan 2 atribut untuk data dan pada output ada 1 perceptron yang akan mengeluarkan 2 pediksi kelas.
Pada kasus klasifikasi 2 kelas pada binner, kita menggunakan 2 perceptron pada output dimana 1 perceptron mewarisi sebuah kelas. Namun dikhususkan untuk klasifikasi biner kita hanya dapat menggunakan 1 perceptron pada output layer yang akan mengeluarkan probabilitas untuk pada tiap kelas (probabilitas>0.5 nilai prediksi untuk lulus dan probabilitas <0.5 nilai prediksi untuk tidak lulus). Pada kasus klasifikasi 3 kelas ke atas, jumlah perceptron untuk layer output sebaiknya menyesuaikan dari jumlah kelas pada data.
Tag : Machine Learning, MLP Propagasi Balik dan Klasifikasi.