[ ® marsal ® @ 09.02.2007. 01:04 ] @
Pozdrav svima, mislim da tema govori sama za sebe... Ako neko zna cemu konkretno sluzi prag T kod neuronskih mreza, molio bih ga da mi odgovori... :-) Hvala svima |
[ ® marsal ® @ 09.02.2007. 01:04 ] @
[ Ne znam @ 10.02.2007. 18:54 ] @
Javi mi se na pp.
nedavno sam polozila ispit na ovu temu. [ Slobodan Miskovic @ 14.02.2007. 11:07 ] @
Bilo bi lepo da napises ovde za neke druge korisnike kojima bi objasnjenje takodje dobro doslo.
[ Ne znam @ 19.02.2007. 22:59 ] @
Nisam strucnjak po ovom pitanju. Mogu samo da uputim na dobre i korisne linkove gde ce oni koje zanima ova tema moci da istraze i nadju odgovore.
Linkovi su postavljeni skroz dole. Imam sopstveni seminarski rad na temu razvoja neuronskih mreza, tako da jedan deo iz njega mogu kopirati pa postaviti. Inace T prag kod neurona, ili verovatno prag aktivacije neurona koj i se oznacava sa θ (teta) je objasnjen u sledecem odlomku: "Procesirajući elementi (neuroni) primaju ulazne signale (x1, x2, x3,…,xn) od drugih neurona preko veza koje mogu biti pobuđivačke ili inhibitorne, gde je n ukupan broj ulaza u neuron. Svaki od ovih ulaznih signala množi se određenim brojem – težinskim koeficijentom / težinom wij, j=1,2,...,n, odnosno: w1, w2, w3 ,…,wn (gde je i redni broj neurona u neuronskoj mreži), koji predstavlja jačinu uticaja (U biološkom neuronu procesorske sposobnosti svakog neurona zavise od elektro-hemijskih karakteristika interneuronskih veza ili sinapsi. Kod veštačkog neurona ovo se modelira pripisivanjem jačine veze ili tzv. “težine” svakog ulaza.) ulaza na posmatrani neuron. Ovako “otežane” ulazne veličine se sabiraju i formiraju ukupnu aktivaciju a. Ukoliko je vrednost aktivacije veća od definisanog praga, procesirajuća jedinica proizvodi odgovarajući odziv.Ovo je šematski prikazano na prvoj slici: model veštačkog neurona : *slike cu postaviti naknadno! Vrednost aktivacije a može se izračunati po formuli: a = w1x1+w2x2+…+wnxn , odnosno ai = ∑ wij xj j=1,n Kada je aktivacija neurona u datom trenutku poznata, neuron proizvodi izlazni signal y: y=f(a) Aktivacione funkcije igraju veoma važnu ulogu pri modeliranju veštačkih neuronskih mreža. U skrivenom sloju NM se nalaze aktivacione funkcije - one su potrebne na skrivenim slojevima da bi mreža bila u stanju da nauči nelinearne funkcije. Bez nelinearnosti, neuroni skrivenih slojeva ne bi imali veće mogućnosti od obične Perceptronske mreže (koja se sastoji samo od ulaza i izlaza). Zbog toga se na izlazu neurona nalazi aktivaciona funkcija koja je najčešće nelinearna. Ova nelinearnost čini mreže sa više slojeva naročito moćnima. Iako neuroni imaju prilično jednostavne (linearne) funkcije, kada se povežu u višeslojnu mrežu, u stanju su da obrade veoma složene (nelinearne) funkcije. Aktivacione funkcije se mogu svrstati u nekoliko zajedničkih grupa, kao što su: · linearne · binarne · sigmoidne · kompetitivne i · Gausove. Gotovo svaka nelinearna funkcija može da se koristi, mada se za Backpropagation algoritam najčešće koriste sigmoidne funkcije kao što su logistička (granična aktivaciona funkcija), arcustangens ili Gausova funkcija. Granične aktivacione funkcije, kakva je logistička, su naročito korisne kada su ciljne vrednosti ograničene. Ali ako ciljne vrednosti nemaju ograničene vrednosti, bolje je da se koristi aktivaciona funkcija koja nije ograničena. Ako su ciljne vrednosti pozitivne ali nemaju gornju granicu, najbolje je koristiti eksponencijalnu aktivacionu funkciju. --------- druga slika: Vrednost aktivacije a se koristi kao ulaz u nelinearnu funkciju σ , koja zavisi od parametra θ prikazanog na drugoj slici. Ova zavisnost je najčešće takva, da se θ oduzima od ai , i potom se njihova razlika koristi kao ulaz u nelinearnu funkciju σ. Tako se dobija vrednost izlaza i-tog neurona : yi = σ (ai – θ) = σ ( ∑ wij xj – θ) j=1,n Parametar θ se naziva prag aktivacije. Nelinearna funkcija σ može da ima različite oblike: a) ako je ulaz a veći od θ , izlaz iz ove funkcije je jednak 1, a inače je jednak 0. b) ako je ulaz a veći od θ , izlaz iz ove funkcije je jednak 1, a inače je jednak -1. Zbog toga što od parametra θ zavisi izlaz nelinearne funkcije, i to tako značajno da se vrednost izlaza menja drastično u zavisnosti od ovog parametra, θ se naziva pragom aktivacije. Drugim rečima, kažemo da je neuron aktivan kada je njegova izlazna vrednost jednaka 1. Kao deo neuronske mreže, neuron uči tako što menja vrednosti težinskih faktora wij , j=1,2,...,n " Linkovi: sajtovi vodecih naucnih institucija: www.ai.mit.edu http://www.eecs.berkeley.edu http://www.eecs.berkeley.edu/Research/Areas/CS/A www.aaai.org http://www.aaai.org/AITopics/html/neural.html#ann http://www.sri.com/ http://www.cs.bham.ac.uk/%7Eaxs/misc/talks/#talk1 http://www.ai.sri.com/ PRIMENE: http://www.aaai.org/AITopics/html/applications.html http://www.aaai.org/AITopics/html/#pages http://www.businessweek.com/bw50/content/mar2003/a3826072.htm http://www.gwu.edu%7Eaisoc/company.html http://cirl.uoregon.edu/research/reasoning.html http://good-old-ai.fon.bg.ac.yu Najaktuelniji rezultati na polju VI: www.artificialbrains.com Neuro-fazi sistemi http: www.abo.fi/instut/iamsr/research/nefuz.html --------------------------------------------------------- [ ® marsal ® @ 24.02.2007. 23:50 ] @
hvala svim za odgovore..... :-)
T sluzia da skalira dobijenu f-ju po x - osi Copyright (C) 2001-2025 by www.elitesecurity.org. All rights reserved.
|