Explainable AI (ex-AI)

Research output: Contribution to journalArticle

Abstract

,,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erklärbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. Während regelbasierte Lösungen der frühen AI nachvollziehbare ,,Glass-Box“-Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ,,explainable AI“.

Fingerprint

Glass

Keywords

  • Transparent Machine Learning
  • Explainable AI

ASJC Scopus subject areas

  • Artificial Intelligence

Fields of Expertise

  • Information, Communication & Computing

Treatment code (Nähere Zuordnung)

  • Theoretical

Cite this

Explainable AI (ex-AI). / Holzinger, Andreas.

In: Informatik-Spektrum, Vol. 41, No. 2, 26.05.2018, p. 138-143.

Research output: Contribution to journalArticle

Holzinger A. Explainable AI (ex-AI). Informatik-Spektrum. 2018 May 26;41(2):138-143. Available from, DOI: 10.1007/s00287-018-1102-5
Holzinger, Andreas. / Explainable AI (ex-AI). In: Informatik-Spektrum. 2018 ; Vol. 41, No. 2. pp. 138-143
@article{1dced8beea0d42e28cff18f6195a4857,
title = "Explainable AI (ex-AI)",
abstract = ",,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erkl{\"a}rbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. W{\"a}hrend regelbasierte L{\"o}sungen der fr{\"u}hen AI nachvollziehbare ,,Glass-Box“-Ans{\"a}tze darstellten, lag deren Schw{\"a}che im Umgang mit Unsicherheiten der realen Welt. Durch die Einf{\"u}hrung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden W{\"o}rter nat{\"u}rlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch f{\"u}r Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verkn{\"u}pfung zwischen statistischen Lernmethoden und gro{\ss}en Wissensrepr{\"a}sentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verst{\"a}ndlichkeit und Erkl{\"a}rbarkeit erlauben – dem Ziel von ,,explainable AI“.",
keywords = "Transparent Machine Learning, Explainable AI",
author = "Andreas Holzinger",
year = "2018",
month = "5",
day = "26",
doi = "10.1007/s00287-018-1102-5",
language = "English",
volume = "41",
pages = "138--143",
journal = "Informatik-Spektrum",
issn = "0170-6012",
publisher = "Springer Verlag",
number = "2",

}

TY - JOUR

T1 - Explainable AI (ex-AI)

AU - Holzinger,Andreas

PY - 2018/5/26

Y1 - 2018/5/26

N2 - ,,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erklärbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. Während regelbasierte Lösungen der frühen AI nachvollziehbare ,,Glass-Box“-Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ,,explainable AI“.

AB - ,,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erklärbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. Während regelbasierte Lösungen der frühen AI nachvollziehbare ,,Glass-Box“-Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ,,explainable AI“.

KW - Transparent Machine Learning

KW - Explainable AI

UR - https://link.springer.com/article/10.1007/s00287-018-1102-5

U2 - 10.1007/s00287-018-1102-5

DO - 10.1007/s00287-018-1102-5

M3 - Article

VL - 41

SP - 138

EP - 143

JO - Informatik-Spektrum

T2 - Informatik-Spektrum

JF - Informatik-Spektrum

SN - 0170-6012

IS - 2

ER -