KI-Entwicklung philosophisch und ethisch begleiten: Neue Professur für Wissenschaftstheorie, Natur- und Technikphilosophie mit Schwerpunkt Künstliche Intelligenz an der HFPH

Als Professor für Wissenschaftstheorie, Natur- und Technikphilosophie mit Schwerpunkt Künstliche Intelligenz verstärkt Benjamin Rathgeber seit Dezember 2021 die Fakultät der HFPH. Die neue Professur wurde im Rahmen der Hightech Agenda Bayern (HTA) vom Bayerischen Staatsministerium für Wissenschaft und Kunst mit einer großzügigen Anschubfinanzierung versehen.

Benjamin Rathgeber / Copyright: privat

Schon 2020 hatten wir mit Benjamin Rathgeber gesprochen, als er die Vertretungsprofessur für Naturphilosophie übernommen hatte. Nun nutzen wir den Beginn dieses Sommersemesters dazu, die neue Professur und das neue Center for Responsible AI Technologies näher vorzustellen.

Ihm, allen Lehrenden und Studierenden wünschen wir einen guten Start in das Sommersemester 2022.

 

Lieber Professor Rathgeber, schön, dass wir noch einmal zu Ihrer neuen Rolle an der HFPH sprechen können. Corona hat auch das Leben an der HFPH geprägt. Wie haben Sie die vergangenen Semester erlebt?

Die letzten Semester in Zeiten von Corona haben insgesamt eine riesige Herausforderung für uns alle bedeutet - sowohl individuell als auch gesellschaftlich. Dies gilt gleichermaßen auch für die Universitäten und Hochschulen. Aufgrund der starken Verlagerung auf Online-Lehre konnten zwar die Mindestanforderungen eingelöst werden, dennoch sind wesentliche Formen des gemeinschaftlichen Forschens und Diskutierens stark in den Hintergrund getreten. Dies war und ist eine große Belastung für uns alle. Umso mehr wünsche ich mir jetzt wieder ein größeres Miteinander in Präsenz und freue mich sehr auf das kommende Semester. Auf jeden Fall bin ich sehr dankbar, weiterhin Teil der HFPH sein zu dürfen und aktiv die verschiedenen Ebenen in Forschung, Lehre und Organisation an der Hochschule mitzugestalten. Das ist eine große Ehre für mich und ich freue mich jeden Tag aufs Neue über diese tolle Möglichkeit.

 

Welche Schwerpunkte in Forschung und Lehre wollen Sie auf der neuen Professur setzen?

Die Besonderheit des Lehrstuhls liegt darin, dass hier technikphilosophische mit naturphilosophischen Frage- und Problemstellungen verbunden und in einen größeren systematischen und systemischen Zusammenhang gestellt werden können. In diesen Zusammenhang müssen aktuelle Entwicklungen der Künstlichen-Intelligenz-Forschung eingebettet werden, insofern diese Schlüsseltechnologie unseren Umgang mit Technik und Natur maßgeblich mitbestimmen und in Zukunft immer stärker prägen wird. Ein zentraler Schwerpunkt der Professur wird dementsprechend auf der Frage nach einem kritischen und verantwortungsbewussten Umgang mit Künstlicher Intelligenz (KI) liegen. Hierbei werden zwei wesentliche Konzepte im Vordergrund stehen: Erstens, was es genau bedeutet, KI-Technologien in einem umfassenden und übergreifenden Sinne als Systeme zu beschreiben, welche nicht isoliert zu betrachten sind, sondern nur in einem systemischen Zusammenhang sinnvoll rekonstruiert und verstanden werden können. Dies hat einerseits damit zu tun, dass diese Technologien selbst nur gelingend als komplexe Systeme funktionieren, andererseits aber immer in unterschiedlichen Bereichen gesellschaftlicher Praxen eingebettet sind, die maßgebliche Auswirkungen auf deren Beurteilung haben. Um dementsprechend Künstliche Intelligenz wirklich beurteilen zu können, müssen wir sie also in einem verschachtelten Ineinandergreifen von verschiedensten Systemen rekonstruieren. Zweitens wäre dann genauer zu untersuchen, wie dieses systemische Verständnis von KI-Systemen einen maßgeblichen Einfluss auf unser heutiges Autonomieverständnis hat. Insofern KI-Systeme einen immer größeren Grad an Eigen- und Selbstständigkeit ohne nötigen Eingriff von außen einlösen, wird in den verschiedenen Feldern (von der Produktion über die Mobilität bis hin zum Militär) häufig von autonomen technischen Systemen gesprochen. Auf welche Weise haben diese Technologien entsprechend Anspruch und/oder Einfluss auf unser Verständnis von Autonomie? Können diese Technologien gar unser Verständnis von Autonomie selbst transformieren? Genau solche und sich daran anschließende Fragen werden einen maßgeblichen Schwerpunkt der Professur in Lehre und Forschung in der nächsten Zeit bilden. Der Lehrstuhl bietet hierfür gute Bedingungen, um diese Problemstellung sinnvoll angehen zu können.

 

Ihre Professur trägt die Wissenschaftstheorie und die Unterscheidung von Natur- und Technikphilosophie im Titel. In der englischsprachigen Welt ist heute der Begriff der „Philosophy of Science“ gebräuchlich. Wie würden Sie – vielleicht auch in Abgrenzung zur englischsprachigen Debatte – den Begriff der Naturphilosophie umreißen?

Die Frage ist schwierig zu beantworten, ohne Gefahr zu laufen, massiv zu pauschalisieren. Als Tendenz ließe sich vielleicht sagen, dass der Anspruch der Naturphilosophie darin besteht, übergreifende Formen und Explikationen in der Reflexion über Natur zu diskutieren, wohingegen die „Philosophy of Science“ tendenziell eher spezifische Debatten zu internen Theorieproblemen in den Fachwissenschaften analysiert (z. B. zu Fragen der genauen Methodenfragen von Erklärungstypen in der Physik oder Biologie). Naturphilosophie zielt also eher auf systemische Ansprüche eines umfassenden Naturbegriffs ab, in der grundlegende und einheitliche Prinzipien entwickelt und reflektiert werden, wie wir sinnvoll unser Wissen in und über „Natur“ einlösen können. Dabei spielt z. B. die Stellung des Menschen innerhalb seiner „Umwelt“ bzw. „Mitwelt“ eine zentrale Rolle, indem die verschiedenen Perspektiven und Funktionen des Menschen sowohl als Natur- als auch als Vernunftwesen reflektiert werden. Zudem lassen sich daran unterschiedliche Verständnisweisen über den allgemeinen Wert der Natur diskutieren, aus denen sich grundlegende Schnittstellen z. B. zur Umweltethik ergeben. Als wissenschaftlich detaillierte Forschungsfragen münden diese Themenbereiche dann verständlicherweise wiederum in spezifische Forschungsdiskurse, welche eine Anschlussfähigkeit zu den Fachfragen und Forschungsdebatten in der Wissenschaftstheorie („philosophy of science“) im engeren Sinne bieten. Dementsprechend lässt sich hier eine fruchtbare Symbiose aus beiden Disziplinen finden, die sich gegenseitig vertiefen und erweitern können.

 

Sie sind auch im Leitungsgremium des Pilotprojekts im neuen Center for Responsible AI Technologies der HFPH, der Technischen Universität München und der Universität Augsburg. Das Projekt forscht interdisziplinär zur Rolle von KI in bildgebenden Verfahren der medizinischen Diagnostik. Können Sie unseren Leser*innen an einem Beispiel erläutern, woran genau geforscht wird und welche Methodik Sie einsetzen werden?

Das interdisziplinäre Pilotprojekt ist an medizinischen Case Studies orientiert - d. h. an einzelnen Fallbeispielen im Einsatz von KI-Systemen, an denen bestimmte Problemstellungen exemplarisch analysiert und reflektiert werden sollen. Diese Fallbeispiele sind auf die Nutzung von KI-Systemen als Hilfswerkzeug im Bereich der Diagnostik und Klassifikation (z. B. für die Identifikation von Karzinomen) und der besseren Verzahnung zwischen Diagnostik und Therapie fokussiert. So soll beispielsweise für die Identifizierung von verschiedenen Formen von Hautkrebs eine Plattform entwickelt werden, die sich von Patient*innen nutzen lässt, um mittels KI-basierter Diagnose die Früherkennung von Melanomen zu optimieren und – falls nötig – erste Vorschläge für entsprechende Maßnahmen zu leisten. Bei der Entwicklung und Nutzung derartiger Plattformen treten aber maßgebliche technische, ethische und datenschutzrechtliche Fragen auf, die nicht allein medizinische, sondern auch rechtliche und sozial-ethische Probleme betreffen, die entsprechend nur interdisziplinär diskutiert und gelöst werden können. Genau diese interdisziplinären Schnittstellen soll das neu gegründete Zentrum ermöglichen und hier konstruktive Lösungsstrategien für die jeweiligen Problemfelder mitentwickeln.

 

Welche Key Findings erhoffen Sie sich für dieses Pilotprojekt?

Hier sind zwei Ebenen zu unterscheiden: Zunächst geht es um ein immer tieferes Verständnis über den immer komplexer werdenden Einsatz von KI-Systemen im Medizinsektor, welcher von der Unterstützung in der Diagnose und Klassifikation von Krankheitsbildern bis hin zu einer immer stärkeren Durchdringung von KI-Systemen in den sozialen menschlichen Interaktionen reicht. Diese Durchdringungen dürfen nicht einfach technisch umgesetzt und ohne eine gesamtgesellschaftliche Perspektive realisiert werden, sondern müssen in einen übergreifenden Kontext sozialer und ethischer Bewertung eingebettet werden. Nur dann lässt sich dieser Prozess vernünftig und aufgeklärt gestalten.

Zweitens müssen die mit dem Einsatz von KI-Systemen verbundenen grundlegenden ethischen und rechtlichen Fragen intensiv diskutiert und von verschiedenen Perspektiven reflektiert werden: Dies betrifft bei KI-Systemen z. B. den Schutz der Privatsphäre, die Zuweisungvon Verantwortung, die technische Verlässlichkeit und Transparenz dieser Systeme, die Aufklärung über den Bias von Deep-Learning bezüglich der eingespeisten und transformierten Daten, etc.

Wenn Sie also fragen, was ich mir als Key Findings erhoffe, dann wäre meine kurze Antwort: ein tieferes Verständnis über den Einsatz von KI-Systemen im Gesundheitssektor und eine transparente Aufklärung über soziale und ethische Problemfelder, die unmittelbar mit der Verwendung dieser Schlüsseltechnologie verbunden sind.

 

„Responsible AI“ ist ein Begriff, der immer wichtiger wird. Erläutern Sie doch bitte, was Sie unter diesem Begriff verstehen?

Es besteht insgesamt gesellschaftlich ein übergreifender Konsens darüber, dass die weiteren Entwicklungen und Anwendungen von KI-basierten Systemen ethisch begleitet werden müssen. Wir sind uns allgemein bewusst darüber, dass diese Technologien tiefgreifende Transformationen in unserer Gesellschaft hervorbringen und alle Bereiche unserer Lebenswelt immer stärker durchdringen, sodass eine Notwendigkeit für eine moralisch-ethische Bewertung und Einbettung besteht. Was allerdings nicht klar ist, betrifft die tiefergehende Frage, wie diese ethisch-moralische Einbettung tatsächlich aussehen soll und genau zu gestalten ist. Es besteht hier immer wieder die Tendenz, einen Katalog von ethisch-moralischen Richtlinien zu entwickeln, an denen sich die Entwickler*innen und Anwender*innen orientieren sollten, wenn sie die technischen KI-Systeme implementieren oder in den verschiedenen Bereichen nutzen. Prinzipiell ist das auch eine zentrale Aufgabe. Die dabei auftretende Gefahr ist allerdings, dass dadurch Ethik als Liste von Regeln begriffen wird, die einfach als weiterer Teil des technischen Systems zu implementieren ist. Bei selbstlernenden KI-Systemen könnte das sogar langfristig dazu führen, dass sich diese Systeme die entsprechenden „ethischen Regeln“ selbst instrumentell aneignen.

Auch wenn KI-Systeme selbstverständlich ethisch-moralischen Richtlinien unterliegen müssen, geht ein verantwortungsvoller Umgang mit Künstlicher Intelligenz (Responsible AI) in diesen Regeln und Richtlinien nicht auf. Vielmehr geht es um einen immer wieder reflexiv neu zu bestimmenden rationalen Prozess, in welchem ausgehandelt werden muss, ob diese KI-Systeme unseren ethisch-moralischen Werten und Normen überhaupt entsprechen und welche Zwecke diese Technologien einlösen sollen und dürfen. (Dies klingt natürlich in der Theorie immer schöner und leichter, als es dann in der Praxis umgesetzt werden kann.) Nur wenn wir aber diese Bedingungen erfüllen, können wir einen verantwortungsvollen Umgang mit Künstlicher Intelligenz sicherstellen, der unsere gesellschaftliche Autonomie wahrt und ethisch-moralische Verantwortung dort platziert, wo sie sinnvoll eingelöst werden kann: nämlich in unseren sozialen und rational geleiteten Aushandlungspraxen selbst. Dafür müssen wir aber exakt verstehen, was in den jeweiligen KI-Technologien überhaupt gemacht wird. Genau diesen Prozess transparent und rational zu explizieren und in den jeweiligen systematischen und systemischen Perspektiven zu bestimmen, wäre also eine zentrale Aufgabe verantwortungsbewusster Technikphilosophie.

 

An welchen Fragestellungen sehen Sie die größten philosophischen Herausforderungen von Künstlicher Intelligenz für unsere Gesellschaften?

Diese Frage öffnet einen riesigen Spielraum von möglichen Antworten, insofern die Herausforderungen ja alle wesentlichen Bereiche unserer Gesellschaft betreffen und dementsprechend zahllose Implikationen auf unsere Lebenswelt haben. Eine zentrale philosophische Perspektive, die – wie schon oben angesprochen – für meine Forschung relevant ist, betrifft die grundlegende Frage, wie unser Verständnis von Autonomie durch diese KI-Systeme transformiert wird. Die immanenten Anwendungsfelder, in denen autonome technische Systeme ohne äußere Einflussnahme ganze Felder automatisieren (z. B. im Bereich der Produktion von Industrie 4.0 oder auch in militärischen Einsatzbereichen), haben in den letzten Jahren rasant zugenommen. Hier sehe ich eine zentrale Herausforderung für unsere Gesellschaft: nämlich die Frage, wie wir mit dem Verhältnis von Autonomie und Automatisierung in Zukunft umgehen. Verschieben und transformieren wir unsere Autonomie in immer größere Automatisierung durch autonome technische Systeme, sodass dadurch unsere Autonomie (selbstverschuldet) abnimmt bzw. immer weiter auf diese Systeme übertragen wird oder können wir unsere Autonomie durch Formen der Automatisierung selbst entscheidend erweitern? Die genaue Ausbuchstabierung dieses Verhältnisses wird auf jeden Fall eine der großen Herausforderungen im Umgang mit KI-Systemen sein.  

 

Zur Person

Benjamin Rathgeber hat 2021 einen Ruf der HFPH auf die Professur für Wissenschaftstheorie, Natur- und Technikphilosophie mit Schwerpunkt Künstliche Intelligenz, die im Rahmen der Hightech Agenda Bayern (HTA) vom Bayerischen Staatsministerium für Wissenschaft und Kunst mit einer großzügigen Anschubfinanzierung versehen wurde, angenommen. Seit 2020 war er bereits als Vertretungsprofessor für Naturphilosophie mit dem Schwerpunkt Natur und Geist an der HFPH tätig. Davor war er seit 2008 wissenschaftlicher Mitarbeiter am Karlsruher Institut für Technologie (KIT), u. a. in der Nachwuchsforschergruppe „Autonome Systeme“. Nach seiner Promotion zum Thema „Modellbildung in den Kognitionswissenschaften“ im Jahr 2010 wurde er 2016 mit einer Arbeit zum begrifflichen Spannungsverhältnis von Freiheit und Autonomie an der Fakultät für Geistes- und Sozialwissenschaften des KIT habilitiert. Arbeits- und Forschungsaufenthalte führten ihn unter anderem an die New York University. In Kooperation mit verschiedenen Universitäten arbeitet Rathgeber zurzeit an einem interdisziplinären Forschungsprojekt über den Einsatz von durch Künstliche Intelligenz gesteuerte Forschung im Bereich der synthetischen Biologie. Außerdem ist er Teil des Leitungsgremiums des Pilotprojekts zum KI-Einsatz in bildgebenden Verfahren der medizinischen Diagnostik des neuen Center for Responsible AI Technologies der HFPH, der Technischen Universität München und der Universität Augsburg.