Jahrestagung der Fachgruppe "Künstliche Intelligenz - vertrauenswürdig, erklärbar, fair?" Online am 24. April 2021
Veranstaltungsort
OnlineBeschreibung
Die Veranstaltung findet in einem virtuellen Konferenzraum statt. Teilnehmer*innen erhalten die Zugangsdaten und die Anleitung für das Videokonferenzsystem per E-Mail.
Die Anmeldung erfolgt mit dem Link: https://de.xing-events.com/MEVHADJ
Ein Flyer enthält das Programm sowie eine Kurzübersicht über die Vorträge.
Das Programm und eine ausführlichere Beschreibung der Vorträge, Referentinnen und Moderatorinnen sind in der Tab-Navigation zu finden.
Programm
Geplanter Ablauf
9:30-10:00 Ankommen
10:00-10:20 Begrüßung und Einführung in das Thema, Dr. Ursula Köhler
10:20-11:10 Vortrag: Gemeinsam klüger - Erklärbares und interaktives maschinelles Lernen, Prof. Dr. Ute Schmid
11:10-11:20 Kurze Pause
11:20-12:30 Preisverleihung, Vorstellung und Vorträge der Preisträgerinnen, Moderation: Dr. Friederike Nickl
12:30-13:30 Mittagspause
13:30-14:10 Vortrag: Vertrauenswürdiges maschinelles Lernen, Prof. Dr. Katharina Morik
14:10-14:50 Vortrag: Diskriminierende KI-Systeme, Prof. Dr. Gudrun Schiedermeier
14:50-15:00 Kurze Pause
15:00-15:15 Impulsvortrag: Beipackzettel für Machine Learning Modelle, Prof. Dr. Lena Wiese
15:15-16:45 Podiumsdiskussion, Moderation: Christine Regitz
16:45-17:00 Abschluss und Verabschiedung, Dr. Ursula Köhler
Referent*innen
Prof. Dr. Ute Schmid
Gemeinsam klüger - Erklärbares und interaktives maschinelles Lernen
Die aktuellen Entwicklungen der KI werden einerseits mit viel Begeisterung, andererseits aber auch mit Sorge betrachtet. Unter anderem besteht die Angst, dass KI Systeme Bewusstsein entwickeln und als super-intelligente, uns überlegene Systeme die Herrschaft übernehmen und uns vielleicht sogar ausrotten könnten. Wesentlich realer ist es, dass wir Menschen aus reiner Denkfaulheit zunehmend den Maschinen wichtige Entscheidungen überlassen und dass wir gerne immer noch mehr Daten von uns preisgeben, wenn wir dafür Information und Waren immer noch bequemer geliefert bekommen. Im Vortrag werde ich den Intelligenzbegriff aus kognitionspychologischer sowie informatischer Perspektive diskutieren und Gemeinsamkeiten und Unterschiede aufzeigen. Ich werde die Grenzen von rein datengetriebenen Ansätzen des maschinellen Lernens aufzeigen und motivieren, warum in der aktuellen Forschung das Thema Erklärbarkeit zunehmend als zentrale Herausforderung erkannt wird. Veranschaulicht durch konkrete Anwendungen halte ich ein Plädoyer für die Nutzung der KI zur kognitiven Unterstützung und Förderung der Menschen. Mensch-KI-Partnerschaften sollten dazu führen, dass Mensch und KI durch wechselseitige Erklärung voneinander lernen können und sich die jeweiligen Schwächen eher ausgleichen als verstärken.
Prof. Dr. rer.nat. Ute Schmid ist Professorin für Kognitive Systeme an der Universität Bamberg. Sie hat sowohl ein Diplom in Informatik als auch in Psychologie (beide TU Berlin).
Seit mehr als 15 Jahren lehrt und forscht sie im Bereich Künstliche Intelligenz. Ihr Schwerpunkt ist menschenähnliches maschinelles Lernen sowie die Generierung von Erklärungen. Sie widmet sich intensiv der Förderung von Frauen in der Informatik und hat 2018 den Minerva Gender Equality Award für ihre Universität gewonnen. Sie hält Workshops für Schülerinnen sowie Fortbildungen zum Thema Informatik für die Grundschule und ist Sprecherin des AK "KI in Schulen" des GI Fachbereichs KI.
Prof. Dr. Katharina Morik
Vertrauenswürdiges maschinelles Lernen
Maschinelles Lernen ist ein umfangreiches Fachgebiet.
Zum einen ist maschinelles Lernen ein Prozess mit vielen Schritten, von der Datenerhebung, -verbesserung, -fusion über die Merkmalsextraktion und -selektion, die Annotation der Daten bis hin zur Umformulierung (z.B. Kompression) für die Anwendung des gelernten Modells. Alle diese Schritte können durch maschinelles Lernen optimiert werden und auch der gesamte Prozess wird optimiert.
Zum anderen gibt es eine Fülle von Verfahren und dies macht die Modellwahl schwierig. Und, ja, natürlich gibt es Lernverfahren zur Modellwahl.
Die Lernmodelle werden unter Verwendung von Bibliotheken und Tools entwickelt für unterschiedliche Rechnerarchitekturen.
Diese geschachtelten langen Prozessketten machen das Verständnis (nicht nur) für Laien schwierig. Die Forschung beschäftigt sich mit den Eigenschaften bestimmter Ausprägungen der Verfahren, gibt Beweise für Gütekriterien und empirische Validierungen an. Schon die Garantien zu verstehen, erfordert Informatikkenntnisse. Eine kompetente Beurteilung einer Anwendung oder auch zunächst das Design eines Prozesses für eine Anwendung erfordert darüber hinaus viel Erfahrung mit maschinellem Lernen.
Wie kann diese Komplexität beherrscht werden? Wie kann mit Anwender*innen über die Prozesse gesprochen werden? Wie kann in der Gesellschaft darüber reflektiert werden?
Es gibt eine Fülle von Ansätzen dazu. Weil einige auch schon gut im Programm vertreten sind, wird hier ergänzend ein spezifischer, eigener Ansatz vorgestellt: der Waschzettel-Ansatz, der über die von IBM und Google vorgeschlagenen Fact Sheets oder Model Cards hinausgeht.
Prof. Dr. Katharina Morik richtete 1991 an der TU Dortmund den Lehrstuhl für Künstliche Intelligenz ein mit dem Fokus auf maschinellem Lernen und Data Mining. Sie ist die Autorin von mehr als 200 Publikationen in angesehenen Zeitschriften und Konferenzen, war Program Chair der IEEE ICDM und der ECML PKDD und ist regelmäßig Vice/Area/Senior Chair der Tagungen KDD und ICML. Aus ihrem Hause stammt RapidMiner, ein weltweit erfolgreiches Tool für die selbst optimierende Datenanalyse. Sie warb 2011 den Sonderforschungsbereich 876 „Informationsgewinnung durch Analyse unter Ressourcenbeschränkung“ ein, dessen Sprecherin sie ist. Die dritte Phase wurde bewilligt. In 12 Grundlagenprojekten wird Maschinelles Lernen von der Statistik bis zur Rechnerarchitektur hin untersucht. Sie leitet mit Prof. Wrobel das Kompetenzzentrum für maschinelles Lernen Rhein Ruhr (ML2R) und koordiniert die deutschen Kompetenzzentren und ihre Zusammenarbeit mit den französischen. Sie leitet gemeinsam mit Prof. Markl die AG 1 „Technologische Wegbereiter“ der Plattform Lernende Systeme. Sie ist Mitglied in der Akademie der Technikwissenschaften, acatech, und der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste. Sie ist Fellow der Gesellschaft für Informatik.
Prof. Dr. Gudrun Schiedermeier
Diskriminierende Systeme - Rassismus und Frauenfeindlichkeit in KI-Systemen
Anwendungen und Produkte mit Künstlicher Intelligenz beeinflussen bereits den Alltag von Millionen von Menschen, z.B. durch die Verwendung von Sprach-Assistenten oder durch Vorschläge beim Online-Shopping. KI-Tools und -Dienste empfehlen medizinische Behandlungen, übersetzen Dokumente in hunderte von Sprachen, entscheiden über Kredite, geben Empfehlungen beim Anwerben von Mitarbeitern, beim Wiedereingliedern von Arbeitslosen in den Arbeitsmarkt oder machen Vorhersagen über die Rückfälligkeit von Straftätern, um nur einiges zu nennen. Viele dieser Systeme zielen auf eine größere Objektivität, als man sie von menschlichen Entscheider*innen in der Vergangenheit erwarten konnte. Einige dieser Systeme erfüllen durchaus ihren Zweck. Mittlerweile ist aber bekannt, dass mehrere KI-Systeme z.B. Menschen mit dunkler Hautfarbe oder aufgrund des Geschlechts diskriminieren.
Oft liegt das Problem in falschen oder fehlenden Trainingsdaten, an unzureichenden Tests oder in mangelnder Qualitäts-Kontrolle. Eine Studie des New Yorker AI Now Instituts aus 2019 kommt darüber hinaus zu dem Schluss, dass die KI-Branche in einer Diversitätskrise steckt. In der Studie wird befürchtet, dass die Entwickler der KI-Systeme ihre Vorurteile unbewusst fortschreiben. Diskriminierung von Minderheiten und Frauenfeindlichkeit finden sich nicht nur in der Zusammensetzung der Entwickler-Teams oder in der Kultur der Unternehmen, sondern auch in den Systemen selbst. Als Beispiel für Frauenfeindlichkeit werden hier Sprach-Assistenzsysteme wie Amazons Alexa, Apples Siri oder Googles Assistant betrachtet. Ein Unesco Bericht aus 2019 kommt zusammenfassend zu folgender Aussage: „Die Verknüpfung einer weiblichen Stimme mit Eigenschaften wie Geduld, Unterwürfigkeit und wenig komplexen Antworten kann diese in der gesellschaftlichen Wahrnehmung zu weiblichen Eigenschaften machen. Auch ist noch vollkommen unklar, wie sich Sprachassistenten langfristig auf das Rollenverständnis und Verhalten von Kindern auswirken.“
Es gilt zu hinterfragen, wer entscheidet und wer verdient an KI-Anwendungen, wer wird verletzt, wer ausgegrenzt oder belästigt. KI-Systeme selbst können nicht zwischen sinnvollen und sinnlosen Ergebnissen, zwischen fairen und diskriminierenden Resultaten unterscheiden. Sie haben kein Bewusstsein und können nicht in einem größeren gesellschaftlichen, politischen oder humanitären Kontext „denken“. Es reicht daher nicht aus, die Lösung der Probleme alleine den Tech-Firmen zu überlassen. Diese Fragen betreffen nicht nur die Tech-Industrie, sondern jede Einzelne, jeden Einzelnen, deren Leben KI-Tools und -Dienste beeinflussen.
Prof. Dr. Gudrun Schiedermeier war bis 2020 Professorin an der Hochschule für Angewandte Wissenschaften in Landshut. Sie lehrte dort im Bachelor Softwareentwicklung mit Java und Robotik im Master. Über die Robotik kam sie auf die technischen Möglichkeiten, aber auch gesellschaftlichen Herausforderungen von KI-Systemen. Seit ihrer Pension im Herbst 2020 bietet Frau Schiedermeier im Studium Generale der Hochschule Landshut Seminare zum Thema „Ethische Aspekte der KI – Chancen, Grenzen und Herausforderungen für Technik, Politik und Gesellschaft.“ an. Während ihrer aktiven Zeit war Frau Schiedermeier Mitglied im Lenkungskreis Diversity der HAW Landshut. Die Förderung von jungen Frauen und Mädchen war ihr während der gesamten Berufszeit ein Anliegen, für das sie sich sowohl als Frauenbeauftragte der Fakultät, als Hochschulfrauenbeauftragte, als Vizepräsidentin für Lehre und Studium sowie als Landessprecherin der Frauenbeauftragten (FH) intensiv einsetzte.
Prof. Dr. Lena Wiese
Generierung von "Beipackzetteln" für Modelle des maschinellen Lernens
Auf maschinellem Lernen (ML) beruhende Entscheidungen werden alltäglich. Für Personen, die von ML-basierten Entscheidungen betroffen sind, ist die transparente und verständliche Darstellung der Eigenschaften des zugrunde liegenden ML-Modells grundlegend für eine Einordnung solcher Entscheidungen.
In diesem Vortrag schlagen wir vor, sogenannte Beipackzettel für ML-Modelle zu erstellen. Diese Verbraucherkennzeichnungen richten sich in erster Linie an Laien des maschinellen Lernens, wie z.B. Betreibende eines ML-Systems, Durchführende von Entscheidungen und die Entscheidungssubjekte selbst.
In diesem Beitrag erheben wir die Anforderungen, die ein ML-System erfüllen sollte, und dementsprechend die Eigenschaften, die ein ML-Beipackzettel erfassen könnte. Unter der Voraussetzung, dass die Verbraucherkennzeichnungen die Merkmale des trainierten ML-Modells umfassend darstellen, werden die Verbraucher*innen in die Lage versetzt, zu erkennen, wann die menschliche Intelligenz der künstlichen Intelligenz weiterhin vorgezogen werden sollte. Langfristig stellen wir uns einen Dienst vor, der diese Verbraucherkennzeichnungen (semi-)automatisch generiert.
Lena Wiese ist Professorin für Datenbanktechnologien und Data Analytics an der Goethe-Universität Frankfurt am Main. Ihren Doktortitel in Informatik erwarb sie an der Technischen Universität Dortmund. Neben ihrem Hintergrund im Bereich Datenmanagement liegt ein weiterer Forschungsschwerpunkt auf dem Gebiet Data Engineering für maschinelles Lernen. In zahlreichen Projekten verfolgt sie das Forschungsziel, moderne informatische Verfahren für spezifische biomedizinische Anwendungsfälle auf Realdaten einzusetzen; für die Studiendaten klinischer Partnerinstitutionen entwickelt Frau Prof. Wiese daher effiziente Lösungen für Datenmanagement und -analyse. Frau Prof. Wiese verfügt darüber hinaus über Forschungs- und Lehrerfahrung an mehreren ausländischen Institutionen: unter anderem längere Aufenthalte am National Institute of Informatics in Tokio und der Paris-Lodron Universität Salzburg.
Weitere Autorinnen dieses Beitrags sind:
Prof. Dr. Christin Seifert, Universität Duisburg-Essen, http://christinseifert.info/
Prof. Dr. Stefanie Scherzinger, Universität Passau, https://www.fim.uni-passau.de/datenbanksysteme/
Christine Regitz (Moderatorin Podiumsdiskussion)
Christine Regitz ist Vice President bei der SAP SE. Nach dem Studium der Betriebswirtschaftslehre und Physik an der Universität des Saarlandes und der Universita Degli Studi Bari (Italien) nahm sie eine Beratungstätigkeit bei der IDS Prof. Scheer auf. 1994 wechselte sie zur DACOS Software GmbH, die von der SAP übernommen wurde. Seither ist sie dort in unterschiedlichen Aufgaben und Funktionen tätig. Ihre Schwerpunkte lagen in den Bereichen Manufacturing Industries und Transportation Management sowie in Industrielösungen für Retail/Consumer Industries und Energy Management. In den vergangenen Jahren war sie in zentraler Funktion für SAP Fiori und SAP Cloud Platform verantwortlich. Seit 2020 leitet sie die globale Initiative “SAP Women in Tech” im Office of the CEO.
Seit vielen Jahren ist sie Mitglied im SAP Sustainability Advisory Panel.
Sie ist Mitglied des Aufsichtsrats der SAP SE und hier insbesondere in den Ausschüssen für Finanz- und Investition, Präsidial- und Personal sowie Technologie- und Strategie, hier auch als stellvertretende Ausschuss-Vorsitzende.
Christine Regitz ist Mit-Gründerin des Business Women’s Network der SAP und hat eine Ausbildung als Business Coach und Mediatorin.
Ehrenamtlich ist sie Mitglied des Präsidiums und Sprecherin des Wirtschaftsbeirats der Gesellschaft für Informatik e.V., Mitglied des High-Level Advisory Committee des European Centre for Women and Technology (ECWT) sowie im Beirat von CyberMentor. Darüber hinaus ist sie Mitglied des Industriellen Kuratoriums des Leibniz-Zentrum für Informatik (Schloss Dagstuhl), des Rates für Informationsinfrastrukturen sowie des Kuratoriums der Steinbeis-Stiftung und des Kuratoriums des Deutschen Museums.