Interview

Bremer Forscher: Künstliche Intelligenz – was ist ethisch vertretbar?

Video vom 29. Mai 2021
Rolf Drechsler im Studio von buten un binnen.
Bild: Radio Bremen
Bild: Radio Bremen

KI soll im Alltag helfen, aber birgt Gefahren: Was, wenn ein Computer mit seiner künstlichen Intelligenz versagt? Wer ist schuld? Und welche Rolle spielt noch der Mensch?

Roboter, die Menschen pflegen, Erkennungssysteme, die ein Röntgenbild analysieren können: Die Bereiche, in denen die künstliche Intelligenz in Zukunft eingesetzt werden könnte, sind fast unendlich. Doch nicht alles, was technisch machbar ist, ist auch erwünscht. Und die Entwicklung von Assistenzsoftwares und lernenden Maschinen wirft rechtliche und ethische Fragen auf: Wer haftet, wenn die Maschine versagt?

Rolf Drechsler, Leiter des Forschungsbereichs "Cyber-Physical Systems" am Deutschen Forschungszentrum für künstliche Intelligenz in Bremen, erzählt im Interview mit buten un binnen, welche Aspekte die Debatte gerade prägen.

Prof. Drechsler, worum dreht sich momentan die aktuelle Diskussion um Ethik in der KI?
Generell gibt es verschiedene Aspekte, die berücksichtigt werden müssen. Bei KI geht es insbesondere um lernende Systeme – also um Systeme, die sich weiterentwickeln. Man muss aber schauen, dass sie sich in die richtige Richtung entfalten. Eine, die mit unseren Werten und Regeln vereinbar ist. Dies betrifft sowohl die Systeme selbst als auch deren mögliche Nutzungen. Früher hat man die Systeme direkt programmiert, dafür gab es Richtlinien. Wenn die Systeme jetzt aber lernen und die Algorithmen sich weiterentwickeln, muss man sicherstellen, dass sie sich in eine "gute Richtung" entwickeln.
Wodurch wird dies geregelt und wer entscheidet, was eine "gute Richtung" ist?
Das ist genau der Aspekt, den wir jetzt diskutieren. Wir haben gerade wegen Corona gesehen, dass man durch die Technologie Möglichkeiten hat, die dann aber andere Rechte untergraben. Heute kann man anhand von Handys Bewegungsdaten leicht aufzeichnen, andererseits ist dies ein schwerwiegender Eingriff in die Privatsphäre. Das ist diskutiert worden und dann von Gerichten entschieden.
Gibt es dafür einen allgemein gültigen Entscheidungsprozess oder universelle Werte?
Nehmen wir das Beispiel der Gesichtserkennung. Sie funktioniert inzwischen sehr gut. Dann stellt sich die Frage: Wo darf ich sie einsetzen? Die EU hat ein Dokument verabschiedt, mit dem sie massenweise Beobachtungen oder Aufnahmen von Menschen verbieten möchte. In anderen Ländern werden ganz andere Grundlinien verfolgt. Das sieht man zum Beispiel in China. So ein Überwachungssystem wäre in Deutschland undenkbar. Das zeigt, dass es kein einheitliches moralisches System gibt. Dies variiert je nach Staat und Kultur.

An diesen Projekten arbeitet das DFKI in Bremen

KI Projekte KI Zu den Projekten im Bereich Pflege zählen u.a. motorisierte Betten mit Roboterarmen, Handprothesen für Amputierte und intelligente Gesundheitssysteme. Pflege Unterwasserroboter, Systeme zur Erkennung von Plastikmüll auf dem Meeresboden und Bauelemente für die Anwendung in der Tiefsee sind einige der aktuellen Projekte des DFKI in Bremen. Meeresforschung Die Forscher des DFKI in Bremen arbeiten gerade u.a. an Navigationssystemen für Laufroboter, die auf fremden Planeten eingesetzt werden könnten, und Technologien für Roboter, die in Team extreme Umgebungen erkunden sollen. Weltraum Zu den Projekten im Bereich Energie und Verkehr zählen u.a. Methoden, um Sicherheitsanforderungen in autonomen Fahrzeugen zu überprüfen sowie Technologien, die die Stabilität von Energienetzen unterstützen. Energie und Verkehr Das DFKI in Bremen arbeitet gerade u.a. an Robotern, die weiche Materialien autonom manipulieren können, verbesserter Arbeitssicherheit durch Maschine-Mensch-Interaktion und IT-Systemen für den Hafentransport. Warenproduktion und Logistik Im Bereich Landwirtschaft werden beispielsweise Systeme und Werkzeuge für eine bodenschonende Feldbewirtschaftung entwickelt. Landwirtschaft Hierzu zählen zum Beispiel Projekte wie eine Roboterplattform, die eventuell Spürhunde bei Katastrophen unterstützen und ersetzen könnte. Sicherheit

Die Liste erhebt keinen Anspruch auf Vollständigkeit.

Sie sprechen von Systemen, die lernen können. Das klingt ein wenig nach Science-Fiction und denkenden Maschinen.
Schauen wir uns ein ganz konkretes Beispiel an. Autonomes Fahren: Die Kamera muss verschiedene Verkehrsschilder erkennen können. Man "zeigt" dem Algorithmus, wie sie aussehen. Wenn man das oft genug macht, kann er sie dann einordnen. Es kann aber sein, dass die Sonne niedrig steht, oder es Schatten gibt. Der Algorithmus muss diese "Ergänzungsleistung" dann bringen.
Wer ist dann intelligenter: der Mensch oder die Maschine?
Ganz klar der Mensch. Wir haben bis heute keine klare Definition des Begriffs "Intelligenz", aber: Maschinen sind bei monotonen Aktivitäten sehr gut. Wenn es aber um das Kreative, um das Ungewohnte geht, da ist der Mensch ganz klar überlegen. Der Computer kann bis heute nicht verstehen, sondern agiert im Rahmen der vorgegebenen Regeln. Wenn die Regeln klar sind, sind sie sehr stark. Unser normales Leben ist aber viel, viel komplexer.
KI soll die Menschen in ihrem Alltag unterstützen. Unter anderem dabei, Entscheidungen zu treffen. Bei medizinischen Diagnosen, im Gerichtssaal. Doch was, wenn der Computer versagt? Wer ist schuld und was ist noch vertretbar?
Wenn es zum Beispiel um medizinische Diagnosen oder Bilderkennung geht, haben Computer große Vorteile. Sie werden beispielsweise nicht müde. Allerdings wird es rechtliche Rahmen geben müssen, wer am Ende die Verantwortung hat. Beim autonomen Fahren ist es heute immer noch klar geregelt, dass es einen Fahrer geben muss. Der trägt die volle Verantwortung, wenn irgendwas passiert. In den nächsten Jahren werden wir darüber diskutieren müssen, ob es Entscheidungsprozesse gibt, die wir auf die Maschine übertragen wollen. Wer haftet dann in diesem Fall: der Hersteller der Maschine, der Programmierer der Software? Das sind Sachen, die ganz normal juristisch geklärt werden müssen. Das ist aber in unserer aktuellen, alltäglichen Welt noch in den Startlöchern.
Sie haben vorher erwähnt, dass es sehr viele Aspekte in dieser Diskussion gibt, die berücksichtigt werden müssen. Es gibt aber auch sehr viele unterschiedliche Arten von KI, die verschiedene ethische Fragen aufwerfen. Nehmen wir das Verschwimmen der Grenzen zwischen Mensch und Maschine.
Wir haben an vielen Stellen ähnliche Diskussion in der Vergangenheit gehabt, zum Beispiel bei Stammzellenbehandlungen. Wir werden solche Diskussionen auch hier führen müssen. Niemand wird sich beschweren, weil wir Herzschrittmacher oder Hörgeräte haben. Das sind auch Maschinen, die in den menschlichen Körper eindringen. Die Frage ist, wie weit man bereit ist, diese Grenze zu verschieben. Das ist etwas, das gesellschaftlich geprägt sein wird. Nehmen Sie die Google-Brillen: Technologisch gesehen wäre es möglich gewesen, alltägliche Interaktionen aufzuzeichnen. Das wollte aber niemand. Daher ist dies gescheitert.
Eine ähnliche Diskussion gab es bei Robotern, die in der Pflege eingesetzt werden könnten: Für manche war dies eine schreckliche Vorstellung.
Es gab unterschiedliche Studien, teilweise mit überraschenden Ergebnissen. Bei den meisten Menschen generiert die Idee zunächst Abscheu. Man hat dann aber beobachtet, dass diese Systeme den Menschen mehr Autonomie ermöglichen. Dass man essen kann, wenn man will und nicht, wenn der Pfleger gerade Zeit hat, zum Beispiel. Das ist eine Aushandlung verschiedener Werte gegeneinander. Die Frage ist, wie können wir die Technologie einsetzen, sodass sie den Menschen ein angenehmeres Leben ermöglicht?
Wer die Algorithmen programmiert, hat eine große Macht. Immer wieder flammt die Diskussion über Diskriminierung von Frauen oder Nicht-Weiße-Menschen auf, weil die meisten Programmierer weiß und männlich sind.
Diese Diskussion hat man überall. Gerade maschinelles Lernen hat in diesem Bereich in den vergangenen Jahren enorme Fortschritte gemacht. Diese Algorithmen sind aber nur so gut wie ihre Trainingsdaten. Computer sind ja neutral, haben per se kein Wertesystem. Mit den Daten, die man ihnen gibt, generiert man das.
Haben Sie je ein Projekt abgelehnt, weil es mit Ihrer Ethik nicht kompatibel war?
Ja. Ich bin Professor an der Universität Bremen und wir haben uns dazu selbst verpflichtet, nicht im militärischen Dienst tätig zu sein. Ich lehne persönlich jede Form von militärischer Nutzung ab. Natürlich gibt es die Problematik, dass gerade im Informatikbereich die entwickelte Technologie auch in anderen Bereichen eingesetzt werden kann. Wir beteiligen uns aber nicht aktiv daran und treiben die Projekte nicht in diese Richtung weiter.

Was ist künstliche InteIligenz eigentlich?

Video vom 24. Mai 2021
Befehle in Computersprache auf einem Bildschirm.
Bild: Radio Bremen
Bild: Radio Bremen

Mehr zum Thema:

Autorin

  • Serena Bilanceri

Dieses Thema im Programm: buten un binnen, 29. Mai 2021, 19:30 Uhr