Panel użytkownika
Nazwa użytkownika:
Hasło:
Nie masz jeszcze konta?

Sieci neuronowe Aproksymacja funkcji

Ostatnio zmodyfikowano 2016-08-19 11:37
Autor Wiadomość
Nazgul
Temat założony przez niniejszego użytkownika
Sieci neuronowe Aproksymacja funkcji
» 2016-08-19 00:48:20
Mam stworzony generator sieci neuronowych z algorytmem wstecznej propagacji(obiektowo, przejrzyście napisany. Ktoś chce, dam uploada)

Chcę aproksymować funkcję 2D znając jej punkty. Jednak:
(1.) aproksymująca funkcja nie wychodzi w "y" poza zakres 0<y<1 .
(2.) aproksymująca funkcja do bólu przypomina sigmoidalną "S", jak funkcja jest ciut bardziej skomplikowana aproksymacja kompletnie nie zdaje egzaminu.

Sieć którą mam zbudowaną to: [x(input)]->[neuron[10](warstwa ukryta)]->[neuron[1](output)]
w warstwie ukrytej oraz na outpucie funkcją aktywacji jest sigmoida unipolarna (1 / (1 + pow(e, -beta*x));, podane warstwy mają załączony bias o wartości 1.

Domyślam się że funkcja nie wychodzi poza zakres 0<y<1, ponieważ sigmoida na outpucie nie może dać innego wyniku.
Jednak nie mam pomysłu jak inaczej zaprojektować tę sieć, żeby aproksymowała dowolne funkcje(można funkcję przeskalować, ale chcę wykorzystać algorytm do ekstrapolacji(przewidywania wyników) i np. ekstrapolacja prostej funkcji kwadratowej na nic się nie zda)

Jak powinna być zaprojektowana sieć do aproksymacji funkcji 2D?
Czy da się aproksymować dowolne funkcje(bez skalowania)? (jeśli tak, patrz pyt. 1)
Czy przy pomocy wstecznej propagacji lepiej uczyć sieć [losując jeden wektor danych i uczyć aż się nauczy, potem następny wektor itd.],  czy lepiej [losując jeden wektor danych, raz poprawić wagi, potem następny wektor itd.] ?

P-150980
jankowalski25
» 2016-08-19 09:45:39
P-150983
Nazgul
Temat założony przez niniejszego użytkownika
» 2016-08-19 11:37:34
tak, ponieważ obawiałem się, że nikt chętny do pomocy nie wchodzi do działu "inne", tamten temat zamknąłem
P-150986
« 1 »
  Strona 1 z 1