Explainable AI (ex-AI)

Publikation: Beitrag in einer FachzeitschriftArtikelForschungBegutachtung

Abstract

,,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erklärbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. Während regelbasierte Lösungen der frühen AI nachvollziehbare ,,Glass-Box“-Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ,,explainable AI“.
Originalspracheenglisch
Seiten (von - bis)138-143
FachzeitschriftInformatik-Spektrum
Jahrgang41
Ausgabenummer2
DOIs
PublikationsstatusVeröffentlicht - 26 Mai 2018
VeranstaltungExplainable AI - University of Hamburg, Hamburg, Deutschland
Dauer: 27 Aug 201831 Aug 2018
https://cd-make.net/special-sessions/make-explainable-ai/

Fingerprint

Glass

Schlagwörter

    ASJC Scopus subject areas

    • Artificial intelligence

    Fields of Expertise

    • Information, Communication & Computing

    Treatment code (Nähere Zuordnung)

    • Theoretical

    Dies zitieren

    Explainable AI (ex-AI). / Holzinger, Andreas.

    in: Informatik-Spektrum, Jahrgang 41, Nr. 2, 26.05.2018, S. 138-143.

    Publikation: Beitrag in einer FachzeitschriftArtikelForschungBegutachtung

    Holzinger, Andreas. / Explainable AI (ex-AI). in: Informatik-Spektrum. 2018 ; Jahrgang 41, Nr. 2. S. 138-143.
    @article{1dced8beea0d42e28cff18f6195a4857,
    title = "Explainable AI (ex-AI)",
    abstract = ",,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erkl{\"a}rbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. W{\"a}hrend regelbasierte L{\"o}sungen der fr{\"u}hen AI nachvollziehbare ,,Glass-Box“-Ans{\"a}tze darstellten, lag deren Schw{\"a}che im Umgang mit Unsicherheiten der realen Welt. Durch die Einf{\"u}hrung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden W{\"o}rter nat{\"u}rlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch f{\"u}r Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verkn{\"u}pfung zwischen statistischen Lernmethoden und gro{\ss}en Wissensrepr{\"a}sentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verst{\"a}ndlichkeit und Erkl{\"a}rbarkeit erlauben – dem Ziel von ,,explainable AI“.",
    keywords = "Transparent Machine Learning, Explainable AI",
    author = "Andreas Holzinger",
    year = "2018",
    month = "5",
    day = "26",
    doi = "10.1007/s00287-018-1102-5",
    language = "English",
    volume = "41",
    pages = "138--143",
    journal = "Informatik-Spektrum",
    issn = "0170-6012",
    publisher = "Springer Verlag",
    number = "2",

    }

    TY - JOUR

    T1 - Explainable AI (ex-AI)

    AU - Holzinger, Andreas

    PY - 2018/5/26

    Y1 - 2018/5/26

    N2 - ,,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erklärbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. Während regelbasierte Lösungen der frühen AI nachvollziehbare ,,Glass-Box“-Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ,,explainable AI“.

    AB - ,,Explainable AI“ ist kein neues Gebiet. Vielmehr ist das Problem der Erklärbarkeit so alt wie die AI selbst, ja vielmehr das Resultat ihrer selbst. Während regelbasierte Lösungen der frühen AI nachvollziehbare ,,Glass-Box“-Ansätze darstellten, lag deren Schwäche im Umgang mit Unsicherheiten der realen Welt. Durch die Einführung probabilistischer Modellierung und statistischer Lernmethoden wurden die Anwendungen zunehmend erfolgreicher – aber immer komplexer und opak. Beispielsweise werden Wörter natürlicher Sprache auf hochdimensionale Vektoren abgebildet und dadurch für Menschen nicht mehr verstehbar. In Zukunft werden kontextadaptive Verfahren notwendig werden, die eine Verknüpfung zwischen statistischen Lernmethoden und großen Wissensrepräsentationen (Ontologien) herstellen und Nachvollziehbarkeit, Verständlichkeit und Erklärbarkeit erlauben – dem Ziel von ,,explainable AI“.

    KW - Transparent Machine Learning

    KW - Explainable AI

    UR - https://link.springer.com/article/10.1007/s00287-018-1102-5

    U2 - 10.1007/s00287-018-1102-5

    DO - 10.1007/s00287-018-1102-5

    M3 - Article

    VL - 41

    SP - 138

    EP - 143

    JO - Informatik-Spektrum

    JF - Informatik-Spektrum

    SN - 0170-6012

    IS - 2

    ER -