Dynamic parameter allocation in parameter servers


Renz-Wieland, Alexander ; Gemulla, Rainer ; Zeuch, Steffen ; Markl, Volker


[img] PDF
Dynamic Parameter Allocation in Parameter Servers.pdf - Veröffentlichte Version

Download (522kB)

DOI: https://doi.org/10.14778/3407790.3407796
URL: https://madoc.bib.uni-mannheim.de/57320
Weitere URL: https://dl.acm.org/doi/10.14778/3407790.3407796
URN: urn:nbn:de:bsz:180-madoc-573200
Dokumenttyp: Konferenzveröffentlichung
Erscheinungsjahr: 2020
Titel einer Zeitschrift oder einer Reihe: Proceedings of the VLDB Endowment
Band/Volume: 13,12
Seitenbereich: 1877-1890
Veranstaltungstitel: 46th International Conference on Very Large Data Bases
Veranstaltungsort: Online
Veranstaltungsdatum: 31.08.-04.09.2020
Ort der Veröffentlichung: New York, NY
Verlag: Association of Computing Machinery
ISSN: 2150-8097
Sprache der Veröffentlichung: Englisch
Einrichtung: Fakultät für Wirtschaftsinformatik und Wirtschaftsmathematik > Practical Computer Science I: Data Analytics (Gemulla 2014-)
Lizenz: CC BY 4.0 Creative Commons Namensnennung 4.0 International (CC BY 4.0)
Fachgebiet: 004 Informatik
Abstract: To keep up with increasing dataset sizes and model complexity, distributed training has become a necessity for large machine learning tasks. Parameter servers ease the implementation of distributed parameter management---a key concern in distributed training---, but can induce severe communication overhead. To reduce communication overhead, distributed machine learning algorithms use techniques to increase parameter access locality (PAL), achieving up to linear speed-ups. We found that existing parameter servers provide only limited support for PAL techniques, however, and therefore prevent efficient training. In this paper, we explore whether and to what extent PAL techniques can be supported, and whether such support is beneficial. We propose to integrate dynamic parameter allocation into parameter servers, describe an efficient implementation of such a parameter server called Lapse, and experimentally compare its performance to existing parameter servers across a number of machine learning tasks. We found that Lapse provides near-linear scaling and can be orders of magnitude faster than existing parameter servers.




Dieser Eintrag ist Teil der Universitätsbibliographie.

Das Dokument wird vom Publikationsserver der Universitätsbibliothek Mannheim bereitgestellt.




Metadaten-Export


Zitation


+ Suche Autoren in

+ Download-Statistik

Downloads im letzten Jahr

Detaillierte Angaben



Sie haben einen Fehler gefunden? Teilen Sie uns Ihren Korrekturwunsch bitte hier mit: E-Mail


Actions (login required)

Eintrag anzeigen Eintrag anzeigen