Kamis, 26 November 2009

Algoritma Pembelajaran Backpropagation

Sesuai dengan namanya, algoritma ini melakukan dua tahap komputasi yaitu : perhitungan maju (feedforward) dan perhitungan mundur (backward), dalam setiap iterasinya, jaringan akan memperbaiki nilai-nilai bobot dan bias pada semua neuron yang ada di jaringan.

Algoritma Backpropagation adalah salah satu algoritma yang menggunakan metode terawasi (supervised learning), dan termasuk jaringan MLP (Multi Layer Perceptron).


Gb.1 Jaringan Multi Layer Perpceptron

Algoritma Pembelajaran Backpropagation :
● Inisialisasi semua input, target, bobot awal, bias awal dan target keluaran.
● Inisialisasi Epoch.
● Inisialisasi learning rate, maximum error.

Feedforward:
○ Hitung   nilai   masukan   pada   tiap   pasangan   elemen   input   pada   hidden  layer  dengan  formula :


○ Jika kita menggunakan fungsi aktivasi sigmoid, hitung output dengan :



○ Hitung   sinyal   keluaran   dari  hidden   layer  untuk   mendapatkan   keluaran output   layer  dengan menggunakan persamaan :



○ Jika kita menggunakan fungsi aktivasi sigmoid, hitung output dengan :



○ Kemudian, keluaran jaringan dibandingkan dengan target, hitung error E dengan :



○ Hitung MSE (Mean Square Error) :


dengan n adalah jumlah input masukan.


Backpropagation :
○ Pada tiap unit output, gunakan formula ini  untuk memperbaiki nilai bobot dan bias :



○ Perbaiki nilai bobot dan bias dengan menggunakan formula :


○ Hitung sinyal balik dari output layer pada tiap unit di hidden layer


○ Pada tiap unit hidden layer, hitung  delta_1 untuk memperbaiki nilai bobot dan bias :


○ Perbaiki nilai bobot dan bias dengan menggunakan formula :


○ Untuk semua layer, perbaiki bobot dan bias :


○ Hitung MSE (Mean Square Error) dengan menggunakan formula :

dengan n adalah jumlah input masukan.

○ Jika (Epoch < maximum Epoch) atau (MSE < Target Error), ulangi langkah pelatihan.

Download versi PDF disini

7 komentar: