Forschungsprojekt MedAIcine
KI-Technologien und maschinelles Lernen werden in der Medizin bereits in großem Umfang eingesetzt und erforscht, scheinen aber immer noch (sowohl in der Praxis als auch in der Theorie) eher einer undurchsichtigen Blackbox als einem vertrauenswürdigen Kontrollmechanismus zu gleichen. Unser Pilotprojekt MedAIcine befasst sich mit den wichtigsten Herausforderungen und Spannungen in Bezug auf die verantwortungsvolle Gestaltung und Nutzung von KI in der medizinischen Bildgebung.
KI-Systeme werden in der Medizin bereits in großem Umfang eingesetzt und erforscht. Die Einsatzmöglichkeiten von Künstlicher Intelligenz (KI) scheinen nahezu unbegrenzt zu sein: Die KI-gestützte Verarbeitung und schnelle Auswertung großer Datenmengen ermöglicht beispielsweise die robotergestützte Chirurgie, den Einsatz von Chatbots und Screening-Apps als Diagnosehilfen oder die kontinuierliche Überwachung chronischer Krankheiten mit Hilfe medizinischer Wearables wie Fitness-Trackern, die die Vitalwerte des Patienten messen, aufzeichnen und interpretieren. In diesem Zusammenhang fungiert die KI als eine Art „Sparringspartner“ für Ärzte bei der klinischen Entscheidungsfindung im Rahmen der Mensch-Maschine-Interaktion (Helmholtz 2022). Dank speziell entwickelter Algorithmen und Computerprogramme, die über Deep-Learning-Technologie verfügen, hat KI somit das Potenzial, die medizinische Versorgung in Bezug auf individuelle Prävention, Screening, Diagnostik, Prognose und Therapie effektiv zu verbessern.
Auch wenn der Einsatz von KI in der Medizin zunächst vielversprechend klingen mag, weisen ethische Überlegungen auf bestimmte Risiken der derzeitigen Nutzung und Gestaltung von KI in der Medizin hin: Mangelnde Transparenz, Erklärbarkeit und Fairness, aber auch unzureichender Schutz der Privatsphäre von Patienten – oder ihrer sensiblen Gesundheitsdaten – sind nur einige Beispiele für die spezifischen Herausforderungen im Umgang mit KI in der Medizin. Auf welchem Datensatz basiert beispielsweise die KI-gestützte Diagnose? Sind die Trainingsdaten repräsentativ für die zu behandelnden Personen (implizite Verzerrung)? Wurde bei der Datenerhebung die Allgemeine Datenschutzverordnung (GDPR) eingehalten? Aber nicht nur technologische Aspekte spielen bei der Bewertung verantwortungsvoller KI eine wichtige Rolle. Auch genuin philosophische Fragen, wie die nach dem guten Leben, dem guten Zusammenleben oder der Handlungsfreiheit, müssen im Kontext der KI-Forschung bedacht und vor dem Hintergrund der heutigen digitalen Umwelt kritisch reflektiert werden.
Beteiligte
Bernhard Bauer
Bernhard Bauer Bernhard Bauer ist Professor für Softwaremethodik für verteilte Systeme an der Universität Augsburg.
Svenja Breuer
Svenja Breuer ist wissenschaftliche Mitarbeiterin und Doktorandin in Science and Technology Studies an der Technischen Universität München und forscht zu den sozialen Aspekten von Künstlicher Intelligenz im Gesundheitsbereich.
Alena Buyx
Alena Buyx ist Professorin für Ethik der Medizin und Gesundheitstechnologien, Direktorin des Instituts für Geschichte und Ethik der Medizin und Inhaberin des Lehrstuhls für Ethik der Medizin und Gesundheitstechnologien an der Technischen Universität München.
Christopher Koska
Christopher Koska ist Senior Researcher am Lehrstuhl Lehrstuhls für praktische Philosophie an der Hochschule für Philosophie München. Er forscht zu Daten- und Algorithmenethik, Corporate Digital Responsibility (CDR) sowie digitalen Lern- und Bildungsmedien.
Ruth Müller
Ruth Müller ist Associate Professor of Science & Technology Policy und Vice Dean für Talent Management & Diversity an der Technischen Universität München.
Benjamin Rathgeber
Benjamin Rathgeber ist Professor für Wissenschaftstheorie, Natur- und Technikphilosophie mit Schwerpunkt Künstliche Intelligenz an Hochschule für Philosophie München.
Michael Reder
Michael Reder ist Professor für Praktische Philosophie an der HFPH, Inhaber des Lehrstuhls für Praktische Philosophie mit dem Schwerpunkt Völkerverständigung und Vizepräsident für Forschung.
Kerstin Schlögl-Flierl
Kerstin Schlögl-Flierl ist Inhaberin des Lehrstuhls für Moraltheologie an der Universität Augsburg.
Paula Ziethmann
Paula Ziethmann ist wissenschaftliche Mitarbeiterin und Doktorandin mit Schwerpunkt Ethik der Künstlichen Intelligenz am Lehrstuhl Moraltheologie an der Universität Augsburg.