Ogromne obliczenia
Ostatnio zmodyfikowano 2014-02-28 17:42
DejaVu |
» 2014-02-28 15:36:06 GPU nie jest żadnym rozwiązaniem. Przyśpieszenie algorytmu nawet 5-krotne jest bezwartościowe. Celem jest zmiana rzędu złożoności obliczeniowej, a nie kosmetyczna optymalizacja poprzez dodanie np. większej liczby wątków. 100 dni nie jest czasem akceptowalnym, 20 czy też 10 dni również takim czasem nie będzie. Sądzę, że jego celem jest osiągnięcie wyniku obliczeń maksymalnie w ciągu doby, więc 100-krotnego przyśpieszenia nie uzyska przekładając kod na GPU czy też stosując wielowątkowość.
Dodam jeszcze, że sam się interesowałem swego czasu możliwością przerzucenia obliczeń na GPU i koniec końców stwierdziłem, że jest to gra niewarta zachodu. Lepiej kupić sobie mocny procesor 4/6/8 rdzeniowy z konkretną częstotliwością i napisać aplikację wielowątkowo (i tu też trzeba mieć sporo doświadczenia, aby nie polegnąć na polu chwały w sekcjach krytycznych). |
|
michal11 |
odp » 2014-02-28 16:06:54 Jeżeli są to jakieś proste obliczenia to można tez skorzystać z układu FPGA. Ale to już jest spory wydatek. |
|
DejaVu |
» 2014-02-28 17:05:23 |
|
michal11 |
odp » 2014-02-28 17:28:38 To, że na wikipedii nie ma nic na ten temat to nie znaczy, że nie można z tego skorzystać. Z tego co wiem to są to układy które można zaprogramować do wykonywania tylko 1 zadania, ale za to wykonują to zadanie bardzo szybko. Nie zagłębiałem się za bardzo w ten temat, więc mogę się mylić ale chyba są nawet wykorzystywane do kopania litecoin'ów. |
|
DejaVu |
» 2014-02-28 17:42:12 Z Wikipedii wynika, że FPGA może ale nie musi przynieść zauważalne korzyści (liczone w procentach, a nie w krotnościach). Z treści również wynika, że FPGA stosuje się przede wszystkim do obniżenia poboru mocy urządzeń, a nie do tego, aby stosować to do rozwiązywania jednego, nie do końca zdefiniowanego problemu algorytmicznego. |
|
1 « 2 » |