Citation link: http://dx.doi.org/10.25819/ubsi/10665
Files in This Item:
File Description SizeFormat
Dissertation_Md_Shajalal.pdf6.26 MBAdobe PDFThumbnail
View/Open
Dokument Type: Doctoral Thesis
metadata.dc.title: Towards Human-Centered Actionable Explainable AI-enabled Systems
Other Titles: Hin zu menschzentrierten, handlungsorientierten, erklärbaren KI-gestützten Systemen
Authors: Shajalal, Md 
Institute: Fakultät III - Wirtschaftswissenschaften, Wirtschaftsinformatik und Wirtschaftsrecht 
Free keywords: Explainable AI (XAI), Human-centered Explainability, Actionable Explanation, Domain Specific XAI, Human-centered XAI, Erklärbare KI (XAI), Menschenzentrierte Erklärbarkeit, Handlungsfähige Erläuterung, Bereichsspezifische XAI, Menschenzentrierte XAI
Dewey Decimal Classification: 330 Wirtschaft
GHBS-Clases: QGTX
Issue Date: 2025
Publish Date: 2025
Abstract: 
Recently, the applications of complex artificial Intelligence (AI) models have increased exponentially in almost every sector due to the enormous advancement of computing power and the availability of high-quality annotated data for training complex machine learning (ML) models. Generally, AI models are very complex in structure, and they often need to learn thousands, even millions, of parameters...

In jüngster Zeit haben die Anwendungen komplexer Modelle der künstlichen Intelligenz (KI) in fast allen Bereichen exponentiell zugenommen. Grund dafür sind die enormen Fortschritte bei der Rechenleistung und die Verfügbarkeit hochwertiger kommentierter Daten für das Training komplexer Modelle des maschinellen Lernens (ML). Im Allgemeinen sind KI-Modelle sehr komplex aufgebaut und müssen in der Tra...
DOI: http://dx.doi.org/10.25819/ubsi/10665
URN: urn:nbn:de:hbz:467-29154
URI: https://dspace.ub.uni-siegen.de/handle/ubsi/2915
License: Creative Commons BY-NC-ND 4.0    Creative Commons BY-NC-ND 4.0
Appears in Collections:Hochschulschriften

This item is protected by original copyright

Show full item record

Page view(s)

113
checked on Apr 5, 2025

Download(s)

82
checked on Apr 5, 2025

Google ScholarTM

Check