MLP

learning

Multi Layer Peceptron

Pada metode ini jumlah node input layer disamakan dengan jumlah data yang diberikan dan jumlah node ouput layer disesuaikan dengan class, sedangkan hidden layer ditentukan pada 2 layer.

tabel

AlogaritmaSebuah alogaritman pelatihan untuk neural netwok MLP adalah sebagai berikut :

Langkah 1: Inisialisasi bobot;
Bobot Setiap weight menggunakan nilai acak, serta set learning rate miu dan alpa dengan nilai kecil (antara 0 sampai dengan 1).

Langkah 2: Selama error belum mencapai nilai yang digunakanm lakukan langkah-langkah sebagai berikut:

  • Set aktivasi input : x1 dan x2
    Hitung input jaringan untuk masing-masing unit pada layer 1 :
    v[k]1 = (x[1]*w[1,1])+(x[2]*w[2,1]);
    v[k]2 = (x[1]*w[1,2])+(x[2]*w[2,2]);
  • Tentukan output dari masing-masing unit :
    Xout1 = ƒ(1)[v(1)];
    Gbs(Vq) = αƒbs(Vq)[1-ƒbs(Vq)];
  • Hitung input dan output jaringan untuk masing-masing unit pada layer 2 :
    v[k]1 = (Xout1[1]*w[1,1])+(Xout1[2]*w[2,1]);
    v[k]2 = (Xout1[1]*w[1,2])+(Xout1[2]*w[2,2]);
    Xout2 = ƒ(1)[v(1)];
    Gbs(Vq) = αƒbs(Vq)[1-ƒbs(Vq)];
  • Hitung input dan output jaringan untuk masing-masing unit pada layer 3 :
    v[k]1 = (Xout2[1]*w[1,1])+(Xout2[2]*w[2,1]);
    v[k]2 = (Xout2[1]*w[1,2])+(Xout2[2]*w[2,2]);
    Xout3 = ƒ(1)[v(1)];
    Gbs(Vq) = αƒbs(Vq)[1-ƒbs(Vq)];
  • Hitung nilai error :
    Eq = 1/2 ∑(d – Xout3)(d – Xout3)
    Error(k) = E1+E2
  • Update weight setiap layer :
    sigm[3,n] = (y[n] – Xout[3,n])*Gout[3,n];
    sigm[2,n] = (sigm[3,1]*w{3,n,1]+sigm[3,n]*w[3,n,2])*Gout[2,n];
    sigm[1,n] = (sigm[2,1]*w[2,n,1]+sigm[2,2]*w[2,n,2])*Gout[1,n];
    update pada setiap weight,
    w[1,i,j,k+1] = w[1,i,j,k]+miu*sigm[1,j]*x[i,n];                       layer 1
    w[2,i,j,k+1] = w[2,i,j,k]+miu*sigm[2,j]*Xout[1,i];               layer 2
    w[3,i,j,k+1] = w[3,i,j,k]+miu*sigm[3,j]*Xout[2,i];               layer 3
    kembali lagi ke langkah 2 sampai iterasi ke 10;
  • Total jumlah semua error sampai iterasi ke 10;
    ErrorTotal = ∑Error(k)
  • Tes kondisi berhenti, jika perubahan ErrrorTotal sudah mendekati nilai yang diinginkan maka stop, jika tidak ulangi langkah 2   sampai mendekati nilai ErrorTotal;


Hasil Eksperimen

  • Iterasi akan semakin tinggi apabila miu mendekati nilai 0, dan iterasi akan semakin kecil apabila miu mendekati nilai untuk mendekati niai minimum error yang diinginkan.
  • Apabila nilai apa semakin tinggi mendekati nilai maka harga ierasi akan semkain kecil, dan apabila alpa semakin rendah mendekati 0 maka iterasi akan semakin besar untuk mendekati nilai minimum error.
  • Apabila diberi miu yang nilai selalu update maka hasil error dari learning akan semakin konvorgen, yang mana miu akan semakin menuju mendekati nilai 0 dalam proses learning pada tiap iterasi; apabila miu mendekati 0 maka iterasi akan semkain besar untuk mendekati minimum error.
  • Untuk update weight ada 2 cara yang digunakan yaitu standard Backpropagation dan momentum updating. Apabila menggunakanmomentum updating maka kecepatan konvergensi error akan semakin bertambah dan iterasi akan semakin kecil untuk mendekati minimum error daripada menggunakan standdard Backpropagation.

Leave a comment