Studi Informatika

Panduan Pembelajaran Ilmu Teknologi & Komputer

Saturday, December 2, 2017

Jaringan Syaraf Tiruan II

Pengelompokkan JST

JST Feed Forward

Tidak mempunyai loop

Contoh: single layer perceptron, mutilayer perceptron, radial basis function

JST Feed Backward (Recurrent)

Memiliki loop, lapisan output akan memberi input lagi bagi lapisan input

Contoh: competitive networks, kohonen, hopfield, ART


Paradigma pembelajaran

Supervised Learning

Kumpulan input berusaha membentuk target output yang sudah diketahui sebelumnya

Perbedaan antara output yang masih salah dengan output yang diharapkan harus sekecil mungkin

Biasanya lebih baik daripada unsupervised

Kelemahan: pertumbuhan waktu komputasi eksponensial, data bnyk berarti semakin lambat

Unsupervised Learning

JST mengorganisasikan dirinya untuk membentuk vektor-vektor input yang serupa tanpa menggunakan data atau contoh-contoh pelatihan, biasanya ke dalam suatu kategori/kelompok2 tertentu

Hibrida Learning

Gabungan antara unsupervised dan supervised


Algoritma Pembelajaran Umum

Dimasukkan n data pelatihan

Inisialisasi bobot-bobot jaringan, set i = 1

Masukkan contoh ke-i ke dalam input

Cari tingkat aktivasi unit output menggunakan algoritma yang ditetapkan

If memenuhi kriteria output then exit

  else:

Update bobot2 menggunakan fungsi galat error, Bobot baru = bobot lama + delta

If i=n then reset i=1, else i=i+1


JST dan Aplikasi

Klasifikasi: ADALINE, Backpropagation

Pengenalan Pola: ART, Backpropagation

Peramalan: ADALINE, MADALINE, Backpropagation

Optimasi: ADALINE, Hopfield, Boltzman, Backpropagation


Fungsi Aktivasi


McCulloch Pitts

Fungsi aktivasi biner

Besar bobotnya sama

Memiliki threshold yang sama


Contoh buat fungsi logika “and”, input X1 dan X2, dan Y =

1 jika dan hanya jika inputan 1


X1  X2  Y

1  1  1

1  0  0

0  1  0

0  0  0

Jawab

X1  X2  net   
Y, 1 jika net >=2, 0 jika net < 2

1  1  1.1+1.1=2  1

1  0  1.1+0.1=1  0  

0  1  0.1+1.1=1  0

0  0  0.1+0.1=0  0


Ternyata BERHASIL mengenali pola


Problem "OR" 


X1  X2  net     
Y, 1 jika net >=1, 0 jika net < 1

1  1  1.1+1.1=2  1

1  0  1.1+0.1=1  1

0  1  0.1+1.1=1  1

0  0  0.1+0.1=0  0


Ternyata BERHASIL mengenali pola
 

Problem “X1 and not(X2)”


X1  X2  net   
Y, 1 jika net >=2, 0 jika net < 2


1  1  1.2+1.-1=1  0

1  0  1.2+0.-1=2  1

0  1  0.2+1.-1=-1  0

0  0  0.2+0.-1=0  0


Ternyata BERHASIL mengenali pola


Problem "XOR"

X1  X2  Y

1  1  0

1  0  1

0  1  1

0  0  0



GAGAL!






Solusi

XOR = (x1 ^ ~x2) V (~x1 ^ x2)

Ternyata dibutuhkan sebuah layer tersembunyi


Tabel


Jaringan HEBB

Menggunakan iterasi untuk menghitung bobot dan bias

Dalam setiap iterasi, bobot dan bias diubah berdasarkan rumus tertentu

W = bobot

Wbaru = Wlama + X1Y1

Algoritma:

Init, semua bobot wi = 0

Untuk semua input:

Set fungsi aktivasi xi = si

Set output y=t

Perbaiki bobot: w(baru) = w(lama) + delta w, dengan delta w = xi*y

Perbaiki bias, b(baru) = b(lama) + y


To Be Continued

Jaringan HEBB

Jaringan Perceptron

Jaringan Back Propagation

Hybrid JST
 
Itulah Penjelasan Tentang Jaringan Syaraf Tiruan mudah-mudahan bermanfaat.
Terima Kasih Telah Berkunjung :)
Saturday, December 2, 2017 December 02, 2017 - tanpa komentar

No comments:

Post a Comment