Interview

Bundesjustizministerin: "Wir wollen keinen gläsernen Menschen"

In Bremen haben Experten über Behördenservice im Internet diskutiert, zum Beispiel Online-Anträge auf Elterngeld. Die Bundesjustizministerin über Chancen – und Gefahren.

Katarina Barley bei einem Vortrag (Archivbild)
Bundesjustizministerin Katarina Barley sieht klare Grenzen einer Digitalisierung der Behördenarbeit. Bild: imago | Future Image

Auch Bundesjustizministerin Katarina Barley (SPD) war am Dienstag in Bremen zu Gast. buten und binnen hat sie gefragt, wo sie Grenzen bei der Digitalisierung sieht. Wollen wir wirklich den gläsernen Bürger, über den der Staat alles weiß? Technisch möglich wäre das, die ersten Pilotprojekte etwa im Bereich der Gesichtserkennung laufen schon.

Die öffentlichen Serviceeinrichtungen sind im ständigen Spagat zwischen Datenerfassung und Bürgerfreundlichkeit. Wie stehen Sie zu diesem Spannungsfeld?
Auf der einen Seite soll der Staat natürlich sehr bürgerfreundlich sein und möchte auch die Anwendung möglichst bürgerfreundlich gestalten. Auf der anderen Seite ist aber auch wichtig, dass beim Staat nicht zu viele Daten über einzelne Personen zusammengeführt werden. Wir wollen den gläsernen Menschen nicht – weder gegenüber Facebook noch gegenüber dem Staat.
Es wird viel von Algorithmen gesprochen. Programme, die beispielsweise Steuererklärungen durchscannen und auf Richtigkeit überprüfen. Wie weit darf man Algorithmen so etwas überlassen?
Algorithmen können sehr viel. Sie sind in der Lage, in sehr kurzer Zeit Sachen auf Grundlage dessen zu scannen, auf die sie programmiert worden sind. Und das ist genau der Punkt: Man muss genau darauf achten, wie sie programmiert sind. Sie müssen diskriminierungsfrei laufen. Es muss also darauf geachtet werden, dass zum Beispiel Frauen gleich behandelt werden wie Männer, ältere Menschen genauso wie jüngere. Es gibt aber inzwischen auch selbstlernende Algorithmen. Die nehmen die Ergebnisse, die sie selber errechnet haben, und lernen aus ihnen. Das heißt, irgendwann weiß selbst der Programmierer nicht mehr, was da genau passiert. Und das ist eine gewisse Gefahr. Deswegen sage ich ganz klar: Jeder Mensch, der von so einer Entscheidung betroffen ist, muss die Möglichkeit haben, diese überprüfen zu lassen. Und zwar von einem Menschen.
Wenn diese Programme möglicherweise von jemandem programmiert wurden, der im Ausland sitzt und diese Algorithmen selber dazulernen: Wo bleiben da dann der Mensch und die menschliche Überprüfung des Ganzen?
Zum einen kann man, wenn man eine Steuererklärung beanstandet bekommt, zum Sachbearbeiter oder zu einer Sachbearbeiterin gehen und von dieser Person alles nachschauen lassen. Ganz klassisch, wie das früher passiert ist. Die andere Möglichkeit besteht darin, dass man Algorithmen immer wieder überprüft, also Testfälle innerhalb der Verwaltung durchlaufen lässt, um zu gucken, ob der Algorithmus richtig ist und auf der Spur bleibt.
Gibt es Themenbereiche, wo Sie sagen, da passen Algorithmen überhaupt nicht? Beispielsweise in Fragen des Ermessens?
Ja, es gibt Entscheidungen. Gerade in meinem Bereich der Justiz darf es nie dazu kommen, dass künstliche Intelligenz beispielsweise Urteile über Menschen spricht. Das ist zu nah an der Menschenwürde. Oder auch Fragen von Leben und Tod sind Entscheidungen, die die künstliche Intelligenz nicht fällen kann.
Welche Rolle spielt Teilhabe, wenn beispielsweise ältere Menschen lieber weiter ein Formular auszufüllen anstelle ein Programm wie Elster zu nutzen? Muss das weiterhin auch möglich sein?
Ich finde, dass es weiterhin möglich sein muss, Dinge auch ohne Zugang zu digitalem Leben zu machen. Niemand muss gezwungen werden, sich einen Computer anzuschaffen oder irgendwas digital zu machen. Man hinterlässt mit dem Computer auch immer Daten, und dazu darf man nicht gezwungen werden.
Wie kann der Staat da handeln? Reichen da Gesetze, oder welche Werkzeuge haben Sie in der Hand?
Im Grunde genommen reicht es, wenn die staatlichen Behörden sich dazu selbst verpflichten, dass sie alles, was digital angeboten wird, auch analog anbieten. Das wird immer weniger werden, das ist auch klar. Es gibt eben ganz viele in gehobenem Alter, die sagen, dass sie das nicht möchten, da sie nicht wissen, was mit den Daten passiert, wenn sie durchs Netz kursieren. Lieber geben sie die auf Papier ab und damit bleiben sie an der einen Stelle. Sie werden natürlich trotzdem in ein System eingegeben, aber sie floaten dann nicht durchs Netz.
Wenn wir uns China anschauen, gibt es bereits den gläsernen Bürger. Dort gibt es ein Punktesystem, wonach die Bürger beurteilt werden. Sehen Sie die Gefahr, dass durch mehr Datenspeicherung und Technisierung ein solches System auch hier genutzt werden könnte?
Wir brauchen ethische Grundsätze. Wir kennen das schon aus anderen Bereichen. Gentechnik oder Reproduktionsmedizin zum Beispiel. Nicht alles, was dort möglich ist, wird auch gemacht. Man könnte heute schon Menschen klonen. Das wird aber in der Regel in der Welt nicht gemacht – mit der Ausnahme China. Das ist eine Grenze, auf die wir uns verständigt haben. Und wir müssen solche Leitlinien definieren. Wir machen das derzeit auch als Bundesregierung und haben eine Daten-Ethik-Komission eingerichtet, die uns dabei unterstützt. Und das müssen dann die Grundlagen sein, auf denen wir alles weiter aufbauen.
Wo ist denn die Grenze für Sie? Wo, würden Sie sagen, ist die rote Linie?
Die Grenze ist da, wo die Würde des Menschen betroffen ist. Juristische Urteile oder Entscheidungen über Leben und Tod zum Beispiel. Das Recht auf eine menschliche Entscheidung ist auch eine ethische Frage.

Experten diskutieren die Folgen der digitalen Verwaltung

Eine Frau bedient einen Scanner und einen Computer
  • Steffen Hudemann

Dieses Thema im Programm: buten un binnen, 12. Februar 2019, 19:30 Uhr