20@KASK'2016 Zrównoleglenie i rozproszenie obliczeń na potrzeby uczenia dużych sieci głębokich

typ projektu: klasyczny

edycja: 2016

liczba studentów w projekcie 3 - 4

kierownik: Radosław Borowiecki


Obecnie najpopularniejszym sposobem przyspieszenia obliczeń wymaganych podczas uczenia głębokich sieci neuronowych jest zastosowanie pojedynczego węzła z jedną bądź kilkoma kartami graficznymi i wykorzystanie technologii pozwalających na przeprowadzenie komputacji na tychże jednostkach. Jednak ze względu na coraz większe wymagania co do wielkości przetwarzanych danych przez sieci, jaki i coraz większe architektury samych sieci (posiadających np. miliony połączeń między sztucznymi neuronami), badania dotyczące rozproszonych algorytmów uczenia sieci głębokich są niezwykle potrzebne i ważne. Celem projektu jest zaprojektowanie, zaimplementowanie na klastrze z węzłami wyposażonymi w GPU, przetestowanie algorytmu uczenia sieci głębokich, a także porównanie szybkości i jakości takiego uczenia z uczeniem na jednym węźle obliczeniowym. Projekt dla 3-4 studentów.

Członkowie zespołu

Mateusz Ozga
Paweł Janowiak
Radosław Borowiecki

Plakat

Semestr 1
Semestr 2 : Brak plakatu

Prezentacja / Dokumentacja

Semestr 1 : Brak prezentcji
Semestr 2 : Brak prezentcji