Startseite UR

Comparing Bayesian Models of Annotation

URN zum Zitieren dieses Dokuments:
urn:nbn:de:bvb:355-epub-403048
DOI zum Zitieren dieses Dokuments:
10.5283/epub.40304
Paun, S. ; Carpenter, B. ; Chamberlain, J. D. ; Hovy, D. ; Kruschwitz, Udo ; Poesio, Massimo
[img]
Vorschau
Lizenz: Creative Commons Namensnennung 4.0 International
PDF - Veröffentlichte Version
(751kB)
Veröffentlichungsdatum dieses Volltextes: 11 Jun 2019 09:37


Zusammenfassung

Crowdsourcing has revolutionised the way tasks can be completed but the process is frequently inefficient, costing practitioners time and money. This research investigates whether crowdsourcing can be optimised with a validation process, as measured by four criteria: quality; cost; noise; and speed. A validation model is described, simulated and tested on real data from an online crowdsourcing ...

plus


Nur für Besitzer und Autoren: Kontrollseite des Eintrags
  1. Universität

Universitätsbibliothek

Publikationsserver

Kontakt:

Publizieren: oa@ur.de
0941 943 -4239 oder -69394

Dissertationen: dissertationen@ur.de
0941 943 -3904

Forschungsdaten: datahub@ur.de
0941 943 -5707

Ansprechpartner