Navigation überspringen

Rückblick: Drei Tage verantwortungsvolle KI – unser erstes internationales Symposium

Was bedeutet es, Künstliche Intelligenz verantwortungsvoll zu entwickeln, zu regulieren und einzusetzen? Mit dieser Leitfrage lud das Center for Responsible AI Technologies (CReAITech) gemeinsam mit der Bayerischen Akademie der Wissenschaften (BAdW) zum ersten internationalen Symposium „Responsible AI: Promises, Pitfalls, and Practices“ vom 8. bis 10. April 2025 in die Carl Friedrich von Siemens Stiftung in München ein.

Mit sechs Keynotes von hochkarätigen Speakerinnen und Speakern aus verschiedenen Disziplinen und fünf abwechslungsreichen thematisch kuratierten Sessions, in denen jeweils kurzen Impulsvorträgen eine gemeinsame Diskussion folgte, bot das Symposium einen  lebendigen Raum für interdisziplinären Austausch. Damit setzte die Veranstaltung ein deutliches Signal für die Notwendigkeit kritischer Reflexion in der KI-Forschung.

Am Gelingen dieses Symposiums haben viele Personen mitgewirkt. Ein besonderer Dank gilt dabei der Bayerischen Akademie der Wissenschaften (BAdW) und der Carl Friedrich von Siemens Stiftung für die großzügige Unterstützung und Gastfreundschaft.

Tag 1: Public Engagement und Opening Keynote

Um den Dialog und die Auseinandersetzung ethischer und gesellschaftlicher Dimensionen von KI auch in die breitere Öffentlichkeit zu tragen, war ein voller Tag des Symposiums genau dafür reserviert: In zwei interaktiven Workshops für Schülerinnen und Schüler sowie interessierte Bürgerinnen und Bürger entwickelten die Teilnehmenden mithilfe der Lego Serious Play®-Methode eigene Vorstellungen davon, was „verantwortungsvolle KI“ bedeuten kann. Moderiert von Dr. Marietta Menner, Leiterin des Bereichs MINT-Bildung an der Universität Augsburg, und ihrem Team, entstanden spannende Visionen und Diskussionen.

Am Abend des 8. April eröffnete Jutta Haider (University of Borås) das wissenschaftliche Programm mit ihrer Keynote „Infrastructures of Denial: The Banality of AI-powered Climate Obstruction“. Sie zeigte auf, wie generative KI-Systeme durch algorithmische Verzerrungen, fehlerhafte Quellen oder ökonomische Interessen zur Reproduktion gesellschaftlicher Ignoranz gegenüber der Klimakrise beitragen. Ihre zentrale Frage: Wie lässt sich solchen Dynamiken mit ethischer und politischer Gestaltung begegnen?

Tag 2: Bias, Verantwortung und Anwendungsfälle

Der zweite Tag begann mit der Session „Bias and Responsibilities“. Yang Yiran (Radboud University) zeigte, wie stark rassistische Verzerrungen in KI-Bildgeneratoren verankert sind. Dalia Yousif (Technische Universität München) verdeutlichte, dass der kulturelle Hintergrund die Bewertung von KI-Inhalten stark beeinflusst. Marina Trautmann-Frick (HAW Hamburg) stellte das Tool VERIFAI vor, das bei der Entwicklung vertrauenswürdiger und erklärbarer KI unterstützen soll.

Zwei Keynotes vertieften das Thema institutioneller Verantwortung: Sandra Soo-Jin Lee (Irving Medical Center, Columbia University) betonte in Ihrem Vortrag „Responsible AI in Practice: Institutional Morality, Power, and Ethical Cultures“ eindrücklich die Notwendigkeit, ethische Werte frühzeitig in KI-Entwicklung zu integrieren – als kontinuierlichen, gesellschaftlich eingebetteten Prozess. KI-Systeme seien nicht nur technische Produkte, sondern sollten immer auch gesellschaftliche Werte widerspiegeln, so Lees Forderung.

Jacob Metcalf (Data & Society Research Institute New York) beleuchtete in seiner Keynote „Auditing Work: Lessons for AI Regulation from NYC’s Hiring Algorithm Auditing Law“ die Herausforderungen von gesetzlicher KI-Regulierung am Beispiel des New Yorkers Gesetzes zur Bias-Auditierung von KI-Tools zur automatischen Bewerberauswahl. Seine Kritik: Unklare Vorgaben im Gesetzestext – etwa eine unklare Definition was einen unabhängigen Prüfer ausmacht – erschweren effektive Regulierung und verfehlen letztendlich den Schutz der Betroffenen.

In der Session „Applications“ stand der praktische Einsatz von KI im Fokus. Annemarie Friedrich (Universität Augsburg) machte deutlich, dass aktuelle Large Language Models in der Verarbeitung natürlicher Sprache noch weit von echter Multilingualität entfernt sind – und zeigte auf, welche Herausforderungen dies insbesondere im Kontext von Migration mit sich bringt. Eike Düvel und Michael Schmidt (Karlsruher Institut für Technologie) warnten vor subtiler Manipulation durch generative KI in der politischen Autonomie und Meinungsbildung, da diese Verzerrungen erzeugen und manipulierbare Diskussionsverläufe ermöglichen kann. Hermann Diebel-Fischer (Technische Universität Dresden) reflektierte über Herausforderungen und die (ethischen) Mindestanforderungen an einen LLM-basierten Chatbot in der Seelsorge.

Am Nachmittag des zweiten Tages wurde das Thema „KI und Medizin“ eröffnet. Klaus Lindgaard Høyer (University of Copenhagen) kritisierte in seiner Keynote „The European Health Data Space and the Global Politics of Data Dreams and Desires“ die wirtschaftliche Verwertung von Gesundheitsdaten im Rahmen des European Health Data Space (EHDS). Er sprach sich für eine stärkere Einbettung klinischer Verantwortung in datenbasierte Entscheidungen aus, warnte vor einer Entmenschlichung technologischer Systeme und mahnte, klinische Verantwortung auch bei KI-gestützten Entscheidungen konsequent mitzudenken.

Noam Shomron (Tel Aviv University) gab anschließend den ersten Impuls zur Medizin-Session und zeigte darin auf, wie KI in der Genetik zur Entschlüsselung von Krankheitsmechanismen beiträgt und was Verantwortung im Sinne von ‚Responsible Genomics‘ bedeutet. Dominic Lammar (Technische Universität München) hingegen rief dazu auf, den KI-Hype in der Medizin stärker zu hinterfragen, da die hohen Erwartungen oft nicht mit der Praxis übereinstimmten. Er plädierte für eine realistischere Kommunikation über Potentiale und Grenzen von KI-Anwendungen in der Medizin. Paul Trauttmansdorff (Technische Universität München) sprach schließlich über die Herausforderungen bei der Erklärbarkeit von KI in der medizinischen Diagnostik, insbesondere im Zusammenhang mit Technologien wie der Gesichtserkennung, und betonte, dass „erklärbare“ KI nicht automatisch „verantwortungsvolle“ KI sei.

Tag 3: Nachhaltigkeit, Infrastrukturen und Frameworks

Sabina Leonelli (Technische Universität München) eröffnete den dritten Tag mit ihrer Keynote „AI for Democratic Societies: Convenience, Misinformation and the Struggle for Planetary Health“ und thematisierte die oft unsichtbaren sozialen und ökologischen Kosten von KI. Sie regte eine kritische Auseinandersetzung mit sogenannten „Convenience AI“-Systemen an, die den Alltag zwar erleichtern, jedoch externe, oftmals unsichtbare Kosten und Auswirkungen auf die Gesellschaft auslagern.

In der anschließenden Session zum Thema Nachhaltigkeit präsentierten Theresa Willem und Marie Piraud (Technische Universität München & Helmholtz Institut München) eine Studie, die die Einführung des Tools „PERUN“ am Helmholtz Institut begleitet. Die Anwendung ermöglicht es Entwicklern und Entwicklerinnen, den Energieverbrauch von KI-Rechenaufgaben zu überwachen; eine Begleitstudie gibt Einblicke in die Erfahrungen und Sichtweisen der Nutzenden. Cian O’Donovan (University College London) setzte sich  kritisch mit „hopeful imaginaries“ von KI auseinander und analysierte, wie diese – oft unbemerkt – koloniale Strukturen reproduzieren.

In der anschließenden Keynote „Taming the Environmental Fallout of AI: Between Strategic Ignorance and Enhanced Innovationism“ lenkte Ulrike Felt (Universität Wien) den Blick auf die oft ausgeblendeten Umweltfolgen von KI: Datenmüll, Energieverbrauch, E-Waste und Abbau seltener Rohstoffe – Begleiterscheinungen bzw. Rückstände, die in der politischen Debatte kaum sichtbar sind. Ulrike Felt argumentierte, dass diese Unsichtbarkeit nicht zufällig, sondern strukturell bedingt sei. Für ihre Analyse untersuchte sie insbesondere politische Dokumente der EU, etwa die EU Ethics Guidelines oder das Strategiepapier „Eyes on the Future“ der EU-Kommission.

Den Abschluss des dritten und letzten Tages bildete die Session „Transformations & Frameworks“: Philipp Neudert (RWTH Aachen) sprach über die Notwendigkeit systemischer Reflexion und ethische Integration in Innovationssysteme, welche verantwortungsvolle KI entwickeln wollen. Thomas Gremsl (Universität Graz) stellte einen „Ethik-Kompass“ zur Evaluierung von KI-Systemen in Unternehmen vor. Job Timmermans (Netherlands Defence Academy) diskutierte sein Konzept der „Networked Responsibility“ – ein Modell geteilter Verantwortung, das etwa beim Einsatz autonomer Systeme wie Drohnen relevant wird, wo Verantwortungsbereiche ineinandergreifen und komplexe Verantwortungsbeziehungen entstehen.

Fazit: Verantwortung als Prozess, nicht als Etikett

Das erste internationale CReAITech-Symposium mit einer Vielzahl an interdisziplinären Vorträgen und Themen machte eindrucksvoll deutlich: Verantwortungsvolle KI ist keine rein technische Frage, sondern tief in gesellschaftliche, ethische und politische Kontexte eingebettet. Verantwortung zeigt sich nicht in Labels, sondern in Prozessen – im Dialog, in der Reflexion, in struktureller Veränderung und Transparenz.

Der interdisziplinäre Austausch zwischen Technik-, Sozial- und Geisteswissenschaften zeigte neue Perspektiven auf und unterstrich, dass die Gestaltung einer gerechten, inklusiven und nachhaltigen KI-Zukunft bei den Fragen beginnt, die wir uns heute stellen.