Beschreibung
Immer häufiger werden Machine-Learning-Modelle für wichtige Entscheidungen eingesetzt, wie beispielsweise in der Medizin, im Finanzwesen oder in der Industrie. Dabei stellt sich jedoch oft die Frage, wie diese Modelle Entscheidungen treffen und wie verschiedene Merkmale in die Entscheidungsfindung einfließen. In diesem Vortrag geht es um die Erklärbarkeit von künstlicher Intelligenz und aktuellen Verfahren wie LIME und SHAP, die dabei helfen, die Entscheidungen von Modellen nachvollziehbarer zu machen. Zudem werden Anwendungsbeispiele aus verschiedenen Branchen vorgestellt, um zu zeigen, wie die Erklärbarkeit von künstlicher Intelligenz zu mehr Transparenz und Vertrauen in Entscheidungsprozessen beitragen kann.
Referent*innen
Dr. Stefan Heindorf
Data Science Junior Research Group, Uni. Paderborn