Explainable AI (ex-AI)

Research output: Contribution to journalArticleResearchpeer-review

Abstract

,,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erklärbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. Während regelbasierte Lösungen der frühen AI nachvollziehbare ,,Glass-Box“-Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ,,explainable AI“.
Original languageEnglish
Pages (from-to)138-143
JournalInformatik-Spektrum
Volume41
Issue number2
DOIs
Publication statusPublished - 26 May 2018
EventExplainable AI - University of Hamburg, Hamburg, Germany
Duration: 27 Aug 201831 Aug 2018
https://cd-make.net/special-sessions/make-explainable-ai/

Fingerprint

Glass

Keywords

  • Transparent Machine Learning
  • Explainable AI

ASJC Scopus subject areas

  • Artificial Intelligence

Fields of Expertise

  • Information, Communication & Computing

Treatment code (Nähere Zuordnung)

  • Theoretical

Cite this

Explainable AI (ex-AI). / Holzinger, Andreas.

In: Informatik-Spektrum, Vol. 41, No. 2, 26.05.2018, p. 138-143.

Research output: Contribution to journalArticleResearchpeer-review

Holzinger, Andreas. / Explainable AI (ex-AI). In: Informatik-Spektrum. 2018 ; Vol. 41, No. 2. pp. 138-143.
@article{1dced8beea0d42e28cff18f6195a4857,
title = "Explainable AI (ex-AI)",
abstract = ",,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erkl{\"a}rbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. W{\"a}hrend regelbasierte L{\"o}sungen der fr{\"u}hen AI nachvollziehbare ,,Glass-Box“-Ans{\"a}tze darstellten, lag deren Schw{\"a}che im Umgang mit Unsicherheiten der realen Welt. Durch die Einf{\"u}hrung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden W{\"o}rter nat{\"u}rlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch f{\"u}r Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verkn{\"u}pfung zwischen statistischen Lernmethoden und gro{\ss}en Wissensrepr{\"a}sentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verst{\"a}ndlichkeit und Erkl{\"a}rbarkeit erlauben – dem Ziel von ,,explainable AI“.",
keywords = "Transparent Machine Learning, Explainable AI",
author = "Andreas Holzinger",
year = "2018",
month = "5",
day = "26",
doi = "10.1007/s00287-018-1102-5",
language = "English",
volume = "41",
pages = "138--143",
journal = "Informatik-Spektrum",
issn = "0170-6012",
publisher = "Springer Verlag",
number = "2",

}

TY - JOUR

T1 - Explainable AI (ex-AI)

AU - Holzinger, Andreas

PY - 2018/5/26

Y1 - 2018/5/26

N2 - ,,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erklärbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. Während regelbasierte Lösungen der frühen AI nachvollziehbare ,,Glass-Box“-Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ,,explainable AI“.

AB - ,,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erklärbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. Während regelbasierte Lösungen der frühen AI nachvollziehbare ,,Glass-Box“-Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ,,explainable AI“.

KW - Transparent Machine Learning

KW - Explainable AI

UR - https://link.springer.com/article/10.1007/s00287-018-1102-5

U2 - 10.1007/s00287-018-1102-5

DO - 10.1007/s00287-018-1102-5

M3 - Article

VL - 41

SP - 138

EP - 143

JO - Informatik-Spektrum

JF - Informatik-Spektrum

SN - 0170-6012

IS - 2

ER -