"Viele Technologien stecken ja gerade noch in der Entwicklung."

Prof. Dr. Alexander Filipović im Interview über die Arbeit in der Enquete-Kommission KI des Deutschen Bundestages.

Prof. Dr. Alexander Filipović

Der Deutsche Bundestag hat im Juni 2018 eine Enquete-Kommission eingesetzt, die sich mit der Frage nach gesellschaftlicher Verantwortung wie auch wirtschaftlichen, sozialen und ökologischen Potenzialen Künstlicher Intelligenz auseinandersetzt. Aufgabe dieser Kommission ist es den „staatlichen Handlungsbedarf auf nationaler, europäischer und internationaler Ebene zu identifizieren und zu beschreiben, um einerseits die Chancen der KI wirtschaftlich und gesellschaftlich nutzbar zu machen und ihre Risiken zu minimieren.“

Unser Lehrender Alexander Filipović, der sachverständiges Mitglied in den Projektgruppen „KI und Staat“ und „KI und Medien“ ist, hat mit uns über die Arbeit in der Kommission gesprochen.

 

Die Projektgruppe „KI und Staat“ spricht in ihrer vorläufigen Ergebniszusammenfassung von Chancen und Risiken von KI. Könnten Sie einige dieser Chancen in ihren ethischen Dimensionen skizzieren?

Chancen sehe ich vor allem in der Verbesserung und Beschleunigung von Verwaltungsabläufen. In der Verwaltung der Arbeitslosenhilfe werden bereits hilfreiche Technologien eingesetzt, die Arbeitssuchenden automatisch Fortbildungen zuweisen. Auch die automatische Texterkennung von Briefen oder Chatbots können bei der Beschleunigung von Verwaltungsabläufen helfen.

Auch im Bereich der „Legal Chatbots“, die bei einfachen Rechtsfragen wie dem Widerspruch gegen Strafzettel Unterstützung bieten, sehe ich Potenzial. Menschen, die sich keinen Anwalt leisten können und/oder sich juristisch nicht gut auskennen, bekommen von einer KI Hilfe, ihre Rechte gegenüber dem Staat durchzusetzen.

Und wie sieht es mit Risiken aus?

Auf der anderen Seite steht für die Verwaltung natürlich das große Risiko der eingeschränkten Entscheidungsfreiheit gegenüber Maschinen. Beamt*innen des Arbeitsamts kann es beispielsweise passieren, dass die KI alle vorhandenen Daten über einen Arbeitssuchenden sammelt und beschließt: „Diese Person benötigt keine Fortbildungsmaßnahmen mehr. Sie wird aus diversen Gründen nie wieder in den Arbeitsmarkt einsteigen.“ Wir brauchen Regeln, ob und wie wir den Beamt*innen die Freiheit lassen, sich im Zweifelsfall gegen diesen Vorschlag zu entscheiden.

Ein weiteres Risiko stellen KI-Waffensysteme und staatliche Überwachungsmaßnahmen wie die automatisierte Gesichtserkennung dar. Hier müssen wir genau beobachten, ob die KI grundgesetzkonform eingesetzt wird.

Alle Chancen und Risiken werden wir aber erst im Laufe der Zeit erkennen können. Viele Technologien stecken ja gerade noch in der Entwicklung.

Die Projektgruppe „KI und Staat“ spricht sich für eine Ächtung von sogenannten „Lethal Autonomous Weapon Systems (LAWS)“ aus, also von Waffensystemen, die autonom handeln. Für eine Ächtung müsse zunächst eine Einigung auf eine „international anerkannte Definition“ erfolgen. Welche Elemente sollte eine solche Definition Ihrer Meinung nach haben und welche philosophisch-ethischen Argumente sprechen für eine Ächtung?

Für die Definition der Autonomie geht man graduell vor. Denn man kann nicht sagen: „Ab hier ist ein System autonom“. Erste Flugabwehrgeschütze mit Zielverfolgungsradar waren schon im zweiten Weltkrieg einigermaßen autonom: Sie erkannten Ziele selbst und berechneten daraus, wohin sie schießen mussten.

Allerdings liegt die ethische Problematik in meinen Augen eher im Tötungsaspekt einer Waffe. Denn Tötung ist aus ethischer Perspektive immer verwerflich. Bei autonomen Waffensystemen gilt es den Menschen als Verantwortlichen im Spiel zu halten. Denn eine Maschine kann keine Verantwortung übernehmen. So müssen immer Menschen verantwortlich sein für eine konkrete Waffenhandlung.

Grundsätzlich stehe ich automatisierten tödlichen Waffen extrem kritisch gegenüber. Selbst in Fällen der Selbstverteidigung ist es überhaupt schwierig, Tötungen zu rechtfertigen. Tödliche autonome Waffensysteme erleichtern tödlichen Waffeneinsatz – das ist für mich nicht tragbar.

In welchen Bereichen wird KI das deutsche Bildungssystem am nachhaltigsten verändern? Wie werden diese Transformationen ausfallen und wie schätzen Sie diese ein?

Es wird sicher möglich sein, Bildungsprozesse in Zukunft über Avatare und Bots zu organisieren. Auch das automatische Erstellen von Lehrvideos und automatisch generierten Untertexten wird kein Problem darstellen. Dadurch verschwinden allerdings Personen als Vermittler von Lehrinhalten oder spielen zumindest eine sehr viel geringere Rolle. Wir müssen uns fragen, welche Bedeutung Personen im Bildungsprozess haben, ob ein Bot besser unterrichtet als ein Mensch und ob die Persönlichkeitsentwicklung darunter leidet, wenn eine Maschine lehrt.

Wie kann der Weg vom Abschlussbericht der Enquete-Kommission in konkretes politisches Handeln gelingen? Was sind die größten Hürden und Herausforderungen, die der Umsetzung der Berichtsergebnisse im Weg stehen werden?

In der Enquete-Kommission haben wir den Anspruch, dass unsere Begriffs- und Textarbeit, auch meine als Philosoph, dabei helfen kann, praktische Probleme zu lösen. Dabei sollte ein Abschlussbericht nicht unterschätzt werden. Die Handlungsempfehlungen können konkrete Gesetzgebungsprozesse anleiten. Auch der Zivilgesellschaft, den Unternehmen und den Institutionen wird der Bericht ein Leitfaden sein. Sie können  Parlament und Regierung die Handlungsempfehlungen vorhalten, wenn diese nicht eingehalten werden. Und Forschenden wird er Anlass geben darüber nachzudenken, wie politische Prozesse in einem konsensorientiertem Gremium funktionieren.