20@KASK'2016 Zrównoleglenie i rozproszenie obliczeń na potrzeby uczenia dużych sieci głębokich
typ projektu: klasyczny
edycja: 2016
liczba studentów w projekcie 3 - 4
kierownik: Radosław Borowiecki
Obecnie najpopularniejszym sposobem przyspieszenia obliczeń wymaganych podczas uczenia głębokich sieci neuronowych jest zastosowanie pojedynczego węzła z jedną bądź kilkoma kartami graficznymi i wykorzystanie technologii pozwalających na przeprowadzenie komputacji na tychże jednostkach. Jednak ze względu na coraz większe wymagania co do wielkości przetwarzanych danych przez sieci, jaki i coraz większe architektury samych sieci (posiadających np. miliony połączeń między sztucznymi neuronami), badania dotyczące rozproszonych algorytmów uczenia sieci głębokich są niezwykle potrzebne i ważne. Celem projektu jest zaprojektowanie, zaimplementowanie na klastrze z węzłami wyposażonymi w GPU, przetestowanie algorytmu uczenia sieci głębokich, a także porównanie szybkości i jakości takiego uczenia z uczeniem na jednym węźle obliczeniowym. Projekt dla 3-4 studentów.
Członkowie zespołu
Mateusz Ozga |
|
Paweł Janowiak |
|
Radosław Borowiecki |
|
Plakat
Semestr 1 |
Semestr 2 : Brak plakatu |
Prezentacja / Dokumentacja
Semestr 1 : Brak prezentcji |
Semestr 2 : Brak prezentcji |