Bitte benutzen Sie diese Referenz, um auf diese Ressource zu verweisen: doi:10.22028/D291-38099
Titel: BERT Probe : A python package for probing attention based robustness evaluation of BERT models
VerfasserIn: Khan, Shahrukh
Shahid, Mahnoor
Singh, Navdeeppal
Sprache: Englisch
Titel: Software Impacts
Bandnummer: 13
Verlag/Plattform: Elsevier
Erscheinungsjahr: 2022
Freie Schlagwörter: Deep learning
BERT
Transformers
Adversarial machine learning
DDC-Sachgruppe: 004 Informatik
Dokumenttyp: Journalartikel / Zeitschriftenartikel
Abstract: Transformer models based on attention-based architectures have been significantly successful in establishing state-of-the-art results in natural language processing (NLP). However, recent work about adversarial robustness of attention-based models show that their robustness is susceptible to adversarial inputs causing spurious outputs thereby raising questions about trustworthiness of such models. In this paper, we present BERT Probe which is a python-based package for evaluating robustness to attention attribution based on character-level and word-level evasion attacks and empirically quantifying potential vulnerabilities for sequence classification tasks. Additionally, BERT Probe also provides two out-of-the-box defenses against character-level attention attribution-based evasion attacks.
DOI der Erstveröffentlichung: 10.1016/j.simpa.2022.100310
URL der Erstveröffentlichung: https://www.sciencedirect.com/science/article/pii/S2665963822000471
Link zu diesem Datensatz: urn:nbn:de:bsz:291--ds-380999
hdl:20.500.11880/34410
http://dx.doi.org/10.22028/D291-38099
ISSN: 2665-9638
Datum des Eintrags: 21-Nov-2022
Fakultät: MI - Fakultät für Mathematik und Informatik
Fachrichtung: MI - Informatik
Professur: MI - Keiner Professur zugeordnet
Sammlung:SciDok - Der Wissenschaftsserver der Universität des Saarlandes

Dateien zu diesem Datensatz:
Datei Beschreibung GrößeFormat 
1-s2.0-S2665963822000471-main.pdf420,84 kBAdobe PDFÖffnen/Anzeigen


Diese Ressource wurde unter folgender Copyright-Bestimmung veröffentlicht: Lizenz von Creative Commons Creative Commons