Künstliche Intelligenz (KI) bietet vielfältige Potenziale, die Gesundheitsversorgung zu verbessern. Dabei können Vorerkrankungen, genetische Disposition und Lebensstil in die Diagnose einfließen und persönliche Einstellungen und Präferenzen bei der Therapie berücksichtigt werden. So wird der Patient in seiner Entscheidungsfindung unterstützt und gestärkt und das Gesundheitssystem muss sich mehr an den Bedürfnissen der Patienten ausrichten, statt sie durch die bestehenden, wenig patientenorientierten Strukturen zu schicken. Doch es muss streng darauf geachtet werden, dass erstens die Patientendaten sicher sind und zweitens die von der KI verwendeten Algorithmen unbeeinflusst von den Interessen Dritter sind und keine ungewollten Verzerrungen erzeugen.
Wie kann die Ethik bei der Entwicklung von KI und Algorithmen einfließen? Wie können KI-Systeme überprüft werden und welche Anforderungen an die Daten und deren Schutz gibt es? Darüber diskutierten die Teilnehmer des ersten Luncheon Roundtables der Stiftung Münch im Jahr 2021.
Zu den Teilnehmern gehörten:
- Prof. Dr. Alena Buyx, Professorin für Ethik der Medizin und Gesundheitstechnologien, TU München und Vorsitzende des Deutschen Ethikrats
- Dr. Anna Christmann, MdB, Sprecherin Innovations- und Technologiepolitik der Bundestagsfraktion Bündnis 90 / Die Grünen, Obfrau der Enquete Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potentiale“
- Prof. Dr. Ferdinand Gerlach, Direktor des Instituts für Allgemeinmedizin der Goethe-Universität Frankfurt am Main, Vorsitzender des Sachverständigenrats zur Begutachtung der Entwicklung im Gesundheitswesen
- Prof. Dr. Martin Hirsch, Lehrstuhl für Künstliche Intelligenz, Philipps-Universität Marburg
- Prof. Dr. Alexandra Jorzig, Professorin für Gesundheitsrecht, IB Hochschule Berlin
- Prof. Dr. Ulrich Kelber, Bundesbeauftragter für Datenschutz und Informationsfreiheit
- Prof. Jens Prütting, Institut für Medizinrecht, Bucerius Law School gGmbH
- Matthias Spielkamp, Executive Director AlgorithmWatch gGmbH
sowie von der Stiftung Münch Professor Boris Augurzky (Vorstandsvorsitzender), Eugen Münch (stv. Vorstandsvorsitzender), Dr. Johannes Gruber (Geschäftsführer, Syndikus) und Annette Kennel (Operative Geschäftsführerin).
Algorithmen – sie werten Daten aus, wägen ab und ziehen Schlussfolgerungen. In der Regel geschieht das unbemerkt vom Nutzer der Maschine, der die technischen Einzelheiten auch gar nicht beurteilen könnte. Er sieht einzig das Ergebnis, das ihm präsentiert wird – etwa in Form einer Risikoeinschätzung oder eines Diagnosevorschlags. Doch die Algorithmen haben eine Aufgabe, die sie von Menschen bekommen. Auch wie sie trainiert werden und von welchen Daten sie lernen, wird ihnen vorgegeben – implizit oder explizit. Deshalb braucht es zum einen gute Daten und zum anderen klare ethische und rechtliche Regeln, wie die Daten verwendet werden und wie der Algorithmus arbeiten soll.
Ethik der Algorithmen früh in Entwicklung neuer Technologien mitdenken
In der Ethik besteht eine große Kontinuität, mit der immer relativ ähnliche Dinge formuliert werden, erläuterte ein Teilnehmer der Diskussion: Es geht darum, die Selbstbestimmung der Nutzer, Anwender und Adressaten zu ermöglichen und zu stärken – und außerdem, Schäden für Individuen und Gruppen zu vermeiden. Und schließlich dürfen grundlegende Gerechtigkeitselemente nicht aus dem Blick geraten. „Im Kern geht es immer um die Frage: Ist es etwas Gutes?“, so fasste es der Teilnehmer zusammen. Zum Teil sind die Themen, mit denen sich die Ethik befasst, mehrere tausend Jahre alt, zum Teil neueren Datums – wie die Biodatenbanken, die von Big Data, Deep und Machine Learning und schließlich KI abgelöst wurden.
Seit „Cambridge Analytica“ gibt es in der Öffentlichkeit eine sehr hohe Aufmerksamkeit für ethische Herausforderungen und Fragestellungen in Hinblick auf KI. Dies gilt insbesondere für deren Anwendungen im Gesundheitsbereich. „Das ist sicher ein besonders sensibler, aber kein abgeschnittener Bereich“, betonte ein Diskutant. Auch hier gehe es darum, Chancen durch Technologien zu nutzen; aber auf eine Art und Weise, die die vielfältigen Risiken und die Vulnerabilität essenzieller, intimer Lebensbereiche und Kontexte berücksichtigt.
Wie kann man diese grundlegenden Herausforderungen in Technologieentwicklung „eintakten“?
Wichtig wäre es, die ethischen Fragen früh in einen interdisziplinären Austausch zu integrieren. Ein Teilnehmer berichtete von einem neuen, explorativen Ansatz, „embedded ethics“, bei dem bei der Neuentwicklung von KI-Anwendungen Ethiker einbezogen werden. „Es ist ganz wichtig, dass wir eine Zielperspektive vor Augen haben“, so der Diskutant, „wir müssen überlegen, welcher Schaden entstehen kann, was wir ersetzten und was dadurch entsteht.“ Sonst drohe Gefahr, dass Systeme entwickelt werden, die zwar an sich einwandfrei funktionieren, aber am Ende etwas ersetzen, was nicht ersetzt werden sollte. So wäre zum Beispiel ein perfekter, interaktiver Roboter mit KI, der vor allem das Füttern von Pflegenden übernimmt, theoretisch voll funktionsfähig – aber etwas für die Patienten Essentielles wäre aus dem Pflegekontext herausgenommen worden.
Ethische Fragen für einzelne Szenarien diskutieren
Ein Teilnehmer der Diskussion betonte, dass die Debatte zum Einsatz von KI-Systemen in der Medizin zu allgemein sei. Es gebe zu viele verschiedene Szenarien, die nicht vergleichbar sind. Während etwa maschinelles Lernen als Hilfswerkzeug in ganz vielen Bereichen eine große Unterstützung sein kann und der Einsatz keine Probleme schaffe, kann es für spezielle Anwendungen anders sein. Als Beispiel wurde eine auf Stimmerkennung und -auswertung trainierte KI genannt. Kommt diese bei Bewerbungsgesprächen zum Einsatz, könnten Bewerber mit einer Depression vielleicht erkannt und aussortiert werden. Dieser Einsatz wäre nicht akzeptabel. Dagegen könnte eine solche KI bei Anrufern beim Notruf 112 bereits an der Stimme erkennen, ob zum Beispiel ein Herzinfarkt vorliegt und damit die Hilfe für den Patienten entsprechend anpassen. In diesem Fall überwiegt der Vorteil eindeutig.
Dem schloss sich ein weiterer Diskutant an: „Ein Algorithmus, der aus guten Daten erklärt, was an Versorgungsinnovationen wahrscheinlich eine Verbesserung mit sich bringt, wird immer unkritisch zu sehen sein“. Deshalb sei es wichtig, die ethischen Fragen immer am einzelnen Szenario zu diskutieren.
Kontrolle von KI-Systemen: Transparenz versus Argumentationsfähigkeit
Mit der Möglichkeit, teilautonome Systeme herzustellen, hat sich etwas Entscheidendes geändert: Menschen können jetzt Verantwortung an Maschinen delegieren, die teils eigenständig agieren. „Das führt zu Handlungen, die wir im Griff behalten müssen“, betonte ein Diskussionsteilnehmer. Deshalb müssen Regeln für die Algorithmen geschaffen werden. Auf welche Art das geschehen soll, wurde kontrovers diskutiert. Ein Teilnehmer forderte, dass eine Regulierung durch Transparenz der angewandten Algorithmen stattfinden muss. „Wir brauchen die Möglichkeit einzuschätzen, welche Risiken von einem System ausgehen und müssen darüber erst mal Transparenz schaffen“, forderte er. Dies müsse verpflichtend sein, zeigte er sich überzeugt: „Es muss besser Auskunft gegeben werden, wofür Systeme eingesetzt werden, wie sie diese Ziele erreichen sollen und ob sie dabei erfolgreich sind oder nicht.“
Dem widersprach ein anderer Teilnehmer: „Ich brauche keine Transparenz, ich muss nicht verstehen, wie die Algorithmen funktionieren – ich muss aber ihre Argumente verstehen“, zeigte er sich überzeugt. KI-Systeme müssten argumentationsfähig werden und Gründe für ihre Position liefern. Diese kann der Mensch dann annehmen oder ablehnen. Hier stellt sich nach Ansicht eines Diskutanten eine weitere Frage: Wie kann man es schaffen, dass Mediziner sowohl rechtlich als auch von der Medienkompetenz her in der Lage sind, die KI-Systeme als Unterstützung zu verwenden und nicht am Ende die Verantwortung abgeben? In anderen Bereichen hätte man das erlebt: Sachbearbeiter bei einer Bank würden oft nur noch die Ergebnisse des Scoringsystems übernehmen, obwohl sie entscheiden dürften. „Das darf in der Medizin nicht passieren“, betonte er.
Von Big Data zu Single Data: Modellbasierte Hybrid-KI-Systeme
Basis für die Algorithmen sind die Daten. „Beides müssen wir zusammen diskutieren“, so ein Teilnehmer. Valide und vollständige Daten seien in Deutschland nicht verfügbar; in der Forschung würde zum Beispiel oft auf Daten aus Dänemark zurückgegriffen. „Wir müssten darüber nachdenken, wie wir zu guten, kuratierten Datensätzen kommen, wie die Datensätze zusammenfließen, wie Routine- und Forschungsdaten oder epidemiologische mit Surveillance-Daten verbunden werden. Die Diskussion darüber fehlt mir“, betonte er.
Die Qualität der Daten spielt aber eine größere Rolle als die reine Quantität: „Ich sehe große Chancen für bestimmte Formen von algorithmischen Systemen und KI, die nicht einfach mit ihren Analysen in einen großen Datenhaufen reinlaufen, sondern stattdessen auf qualitativ hochwertigen Daten trainiert werden.“ Alternativ könnten sie auch auf geschützten Daten trainiert und dann „auf die reale Welt“ losgelassen werden.
Ein Diskutant zeigte sich überzeugt, dass ein ganz anderer Ansatz künftig eine wichtige Rolle spielen wird: die „Single-Shot-Algorithmen“. Menschen kann man viele Fakten präsentieren, sie merken und lernen aber in der Regel anhand einzelner Beispiele. Menschen können also aus einem Fallbeispiel lernen, Maschinen können das nicht. „Das heißt, wie Intelligenz eigentlich wirklich algorithmisch organisiert ist, haben wir noch gar nicht verstanden und das wird auf uns zurollen“, erläuterte er. Dann wären gar keine großen Datenmengen mehr nötig, um die Maschinen zu trainieren. Die Zukunft sieht er in hybriden KI-Systemen mit einer Mischung aus wenigen guten Datensätzen und modellbasiertem Lernen.
Datenschutz: Vieles ist möglich, man muss es nur machen
Damit Daten verfügbar werden, muss deutlicher werden, dass nicht jeder Schritt eine zusätzliche Gefahr ist. Sondern dass es Anwendungen gibt, die für Menschen wichtig sind und die es so bisher nicht gibt. Häufig wird moniert, dass der Datenschutz der Verwendung von Daten im Weg steht. Doch einige Teilnehmer der Runde sahen dies anders: der Datenschutz sei nicht das größte Hemmnis. Unter der bisherigen Rechtslage sei vieles möglich, es käme vor allem auf die richtige Ausgestaltung an.
Der Datennutzung stehen dagegen viel öfter mangelnde Interoperabilität, fehlende technische Voraussetzungen und Infrastruktur sowie eine geringe Bereitschaft für die erforderlichen Investitionen im Weg. „Wenn dann einzelne Fragen des Datenschutzes aufkommen, kann man diese lösen“, zeigte sich ein Teilnehmer überzeugt. Dass der Datenschutz eingehalten werden muss, steht außer Frage. Ein Teilnehmer gab jedoch zu bedenken, dass die schlimmsten Datenschutzverstöße, die wir derzeit sehen, im Analogen und nicht im Digitalen stattfinden. Zudem gebe es nie eine 100prozentige Sicherheit. Deshalb sind Sanktionierungen nötig: „Es muss klar sein, dass es rechtliche Konsequenzen hat, wenn ich Schindluder mit Daten treibe“, so ein Teilnehmer der Diskussion.
Durch KI könnten die Menschen in die Lage versetzt werden, in ihrem Wissen und Verständnis gestärkt zu werden. Dies entspricht auch der Rechtslage unserer Verfassung und der Intention des Datenschutzrechts, wie ein Diskussionsteilnehmer unterstrich: dem Einzelnen soll ausgehend von informationeller Selbstbestimmung ermöglicht werden, eigene Entscheidungen zu treffen. Doch es muss möglich sein, der Verwendung der eigenen Daten gezielt zuzustimmen, sie differenziert freizugeben oder auch die Zustimmung zurückzuziehen. Dies müsste den Menschen leichter gemacht werden.
Doch: Wir diskutieren hier auf hoher Flughöhe, so bezeichnete es ein Teilnehmer. Um KI sinnvoll in der Breite der Medizin einsetzen zu können, gibt es drei Vorbedingungen: Erstens die Digitalisierung des Gesundheitswesens. Denn wenn Kliniken und Praxen nicht digital ausgestattet sind, kann kein Datenfluss ermöglicht werden. Zweitens benötigen die Gesundheitsberufe die Kompetenz, mit Datenthemen umzugehen: Womit arbeite ich? Was machen diese Systeme? Und drittens müsste die Datenverfügbarkeit hergestellt werden. „Das sind die Voraussetzungen. Aber so weit sind wir noch nicht.“